IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #141
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 491
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 491
    Par défaut Conservation forcée des conversations ChatGPT: la justice nie avoir créé un programme de surveillance de masse
    La justice américaine nie avoir créé un programme de « surveillance de masse » des utilisateurs de ChatGPT en obligeant OpenAI à conserver les journaux de conversation,
    pour l'EFF ce n'est qu'une question de temps avant que la police ne s'en serve

    Une décision judiciaire rendue en juin 2025 vient de clarifier un point sensible dans l'affrontement juridique opposant OpenAI à plusieurs organes de presse : non, forcer l’entreprise à conserver les journaux de conversations des utilisateurs de ChatGPT ne revient pas à instituer un programme de surveillance de masse. Cette affirmation, avancée par les avocats d’OpenAI en réaction à une injonction judiciaire, a été balayée par la juge fédérale Ona T. Wang : elle a statué que la simple conservation des journaux d'activité, bien que potentiellement intrusive, ne constitue pas en soi un programme de « surveillance de masse » au sens juridique du terme.

    L’affaire prend racine dans une plainte déposée par plusieurs médias, dont le New York Times, accusant OpenAI d’avoir utilisé illégalement leurs contenus protégés par le droit d’auteur pour entraîner ses modèles d’intelligence artificielle. Dans ce cadre, ils ont demandé à la justice d’obliger OpenAI à préserver tous les journaux de conversation de ChatGPT (y compris ceux que les utilisateurs choisissent de supprimer) afin de pouvoir établir si le modèle reproduit effectivement des extraits protégés.

    En mai, la juge Wang avait donc ordonné à OpenAI de ne pas effacer les échanges, même à la demande des utilisateurs, et de conserver tout contenu généré par ChatGPT via son site, ses apps et son API. Une décision que l’entreprise a contestée, dénonçant un coût technique important, mais surtout une atteinte aux droits des utilisateurs, qui seraient privés de leur droit à l’oubli.

    Une défense basée sur la vie privée… jugée infondée

    Dans sa réponse, OpenAI a vivement critiqué l’ordonnance, allant jusqu’à déclarer que l’obligation de conserver toutes les conversations créait de fait un système de « surveillance de masse » injustifié. L’entreprise soutenait que cette conservation généralisée exposait des millions d’utilisateurs à une collecte involontaire et injustifiée de leurs données.

    Mais pour la juge Wang, cette qualification est exagérée et juridiquement inexacte. Selon elle, l’injonction ne constitue pas un programme de surveillance actif, dans la mesure où OpenAI n’est pas tenue d’analyser, de surveiller ou de transmettre les contenus des utilisateurs à une autorité extérieure, mais simplement de les archiver temporairement à des fins judiciaires. Elle insiste sur le fait qu’il s’agit d’une obligation limitée, dans un contexte précis de litige, et non d’un mécanisme généralisé d’espionnage numérique.

    Nom : un_chat.png
Affichages : 6968
Taille : 334,9 Ko

    Une tension entre transparence judiciaire et confidentialité utilisateur

    Ce jugement soulève néanmoins une tension cruciale : peut-on concilier la nécessité pour les plaignants de préserver des preuves dans un procès avec le droit des utilisateurs à l’effacement de leurs données personnelles ? La position d’OpenAI, qui met en avant le respect de la vie privée de ses usagers, entre ici en conflit avec la volonté des médias de disposer de tous les éléments permettant de démontrer une éventuelle violation du droit d’auteur.

    Techniquement, la tâche est aussi complexe que coûteuse : OpenAI affirme qu’elle n’a pas conservé certaines données précisément parce que les utilisateurs en avaient demandé la suppression. Répondre à l’injonction reviendrait à modifier sa politique de confidentialité, à complexifier la gestion de ses bases de données et à multiplier les risques juridiques.

    Des utilisateurs s'en mêlent... sans succès

    Après qu'un tribunal a ordonné à OpenAI de conserver « indéfiniment » tous les journaux de ChatGPT, y compris les conversations supprimées, de millions d'utilisateurs, deux utilisateurs paniqués ont tenté d'intervenir, sans succès. L'ordonnance visait à préserver des preuves potentielles dans le cadre d'un procès pour violation du droit d'auteur intenté par des organismes de presse.

    En mai, la juge Ona Wang, qui a rédigé l'ordonnance, a rejeté la demande du premier utilisateur au nom de son entreprise, simplement parce que l'entreprise aurait dû engager un avocat pour rédiger le dossier. Plus récemment, Wang a rejeté une deuxième demande émanant d'un autre utilisateur de ChatGPT, et cette ordonnance est entrée dans les détails, révélant que la juge envisage de s'opposer à l'ordonnance avant les plaidoiries de cette semaine, qui ont été demandées de toute urgence par OpenAI.

    La seconde demande d'intervention émane d'un utilisateur de ChatGPT nommé Aidan Hunt, qui a déclaré utiliser ChatGPT « de temps en temps », envoyant occasionnellement à OpenAI « des informations personnelles et commerciales hautement sensibles dans le cadre de l'utilisation du service ».

    Dans son dossier, Hunt allègue que l'ordonnance de conservation de Wang a créé un « programme de surveillance de masse à l'échelle nationale » affectant et pouvant nuire à « tous les utilisateurs de ChatGPT », qui n'ont pas été avertis que leurs chats supprimés et anonymes allaient soudainement être conservés. Il a averti que l'ordonnance limitant la conservation aux seuls résultats de ChatGPT comportait les mêmes risques que l'inclusion des données des utilisateurs, puisque les résultats « révèlent intrinsèquement, et souvent reprennent explicitement, les questions ou les sujets introduits ».

    Hunt a affirmé n'avoir appris que ChatGPT conservait ces informations (en dépit des politiques spécifiant qu'elles ne le feraient pas) qu'en tombant par hasard sur la nouvelle dans un forum en ligne. Estimant que ses droits au quatrième amendement et à une procédure régulière étaient violés, Hunt a cherché à influencer la décision du tribunal et a proposé une motion d'annulation de l'ordonnance selon laquelle l'ordonnance de Wang « exige effectivement des défendeurs qu'ils mettent en œuvre un programme de surveillance de masse affectant tous les utilisateurs de ChatGPT ».

    Nom : deux_chat.png
Affichages : 1695
Taille : 21,6 Ko

    Des craintes qui ne sont pas infondées, selon la directrice juridique de l'EFF

    Les craintes de Hunt ne sont pas infondées, a déclaré Corynne McSherry, directrice juridique de l'Electronic Frontier Foundation, un groupe de défense des droits numériques.

    « L'ordonnance de divulgation pose de véritables risques pour la vie privée des utilisateurs en elle-même et en tant que précédent pour les nombreux autres procès intentés dans tout le pays », a déclaré McSherry. « Et elle est emblématique d'un problème plus large : les chatbots d'IA ouvrent un autre vecteur pour la surveillance des entreprises, en particulier si les utilisateurs n'ont pas de contrôle significatif sur ce qu'il advient de leur historique et de leurs enregistrements de chat. »

    Selon Hunt, Wang n'a pas « envisagé d'exempter les "chats anonymes", dont on peut raisonnablement penser qu'ils contiennent les informations les plus sensibles et potentiellement dommageables des utilisateurs, de la conservation et de la divulgation dans cette affaire », affirmant que cela « constitue une action excessivement large et déraisonnable ».

    Il a demandé au juge de réviser l'ordonnance afin d'y inclure cette exemption, ainsi que des exemptions pour tous les chats « discutant de sujets médicaux, financiers, juridiques et personnels qui contiennent des informations profondément privées sur les utilisateurs et n'ont aucun rapport avec les intérêts revendiqués par les organismes de presse plaignants ».

    Pour Hunt et de nombreux autres utilisateurs pris au dépourvu par l'ordonnance, les enjeux semblent élevés. Il a suggéré que Wang aurait dû l'autoriser à intervenir « parce que cette affaire soulève des questions constitutionnelles importantes et inédites sur le droit à la vie privée lié à l'utilisation de l'intelligence artificielle - un domaine du droit en plein développement - et sur la capacité d'un magistrat à mettre en place un programme de surveillance de masse à l'échelle nationale par le biais d'une ordonnance de communication de pièces dans une affaire civile ».


    « Ce n'est qu'une question de temps avant que les forces de l'ordre s'adressent à OpenAI pour obtenir l'historique de conversation »

    Toutefois, Wang n'est pas d'accord avec Hunt pour dire qu'elle a outrepassé son autorité en appliquant l'ordonnance, soulignant dans une note de bas de page que son ordonnance ne peut pas être interprétée comme permettant une surveillance de masse.

    « L'intervenant n'explique pas en quoi l'ordonnance de conservation des documents d'un tribunal qui ordonne la préservation, la ségrégation et la conservation de certaines données privées par une société privée à des fins limitées de litige est, ou pourrait être, un "programme de surveillance de masse à l'échelle nationale", indique la juge Wang. « Ce n'est pas le cas. Le pouvoir judiciaire n'est pas un organisme chargé de l'application de la loi ».

    Cependant, la directrice juridique de l'EFF McSherry a prévenu que « ce n'est qu'une question de temps avant que les forces de l'ordre et les parties privées ne commencent à s'adresser à OpenAI pour tenter d'obtenir des historiques de conversation/des enregistrements sur les utilisateurs à toutes sortes de fins, comme ils le font déjà pour les historiques de recherche, les messages sur les médias sociaux, etc. L'ordonnance de Wang pourrait devenir une porte d'entrée vers cet avenir », a-t-elle déclaré.

    Wang a rejeté la requête de Hunt principalement parce que « la question de savoir si la conservation temporaire de certaines données de sortie de chat qui ont été régulièrement supprimées par OpenAI au cours de ce litige peut porter atteinte aux prétendus droits constitutionnels et contractuels à la vie privée des consommateurs individuels qui utilisent ChatGPT » a été considérée comme une « question collatérale » qui ne concerne pas directement la question centrale de la violation du droit d'auteur.

    Estimant que l'intervention de Hunt ne contribuerait « en aucune façon » au « développement des questions factuelles sous-jacentes dans cette affaire », Wang a décidé que Hunt n'avait pas le droit d'intervenir.

    « Aucune des prétendues questions "nouvelles" de l'intervenant proposé n'est en jeu dans cette action en contrefaçon de droit d'auteur », a écrit Wang. « Même si la Cour devait examiner ces questions, elles ne feraient que retarder indûment la résolution des questions juridiques réellement en jeu ».

    Nom : trois_chat.png
Affichages : 1690
Taille : 499,5 Ko

    Un précédent lourd de conséquences

    Ce dossier pourrait faire jurisprudence. En refusant de considérer la conservation judiciaire comme une « surveillance de masse », le tribunal ouvre la voie à d'autres requêtes similaires dans de futures affaires, notamment dans des dossiers où l’IA générative est soupçonnée de reproduire illégalement des contenus humains. Par ricochet, cela pose une question plus vaste : que signifie aujourd’hui « supprimer » une donnée dans l’ère de l’IA ? Peut-on promettre aux utilisateurs un véritable droit à l’effacement quand des obligations judiciaires peuvent en suspendre l'exécution ?

    L’affaire continue : OpenAI a demandé à ce que l’ordre de conservation soit suspendu dans l’attente d’une révision. Une audience est prévue dans les prochaines semaines. Si la décision initiale est maintenue, les utilisateurs de ChatGPT pourraient ne plus avoir la garantie que leurs conversations sont véritablement effaçables en cas de litige. Un glissement potentiellement lourd pour les pratiques de transparence et de confidentialité dans l’univers de l’intelligence artificielle.

    Sources : décision judiciaire (1, 2), OpenAI

    Et vous ?

    Que pensez-vous de la décision de la juge ?

    Peut-on encore parler de “droit à l’oubli” dans l’ère de l’intelligence artificielle, quand des juges peuvent forcer la conservation de nos données personnelles ?

    Est-il acceptable que des obligations légales puissent contredire les engagements de confidentialité affichés dans les conditions d'utilisation ?

    Les modèles d’IA doivent-ils être “auditables” en permanence, quitte à compromettre l’anonymat des utilisateurs ?

    Cette décision crée-t-elle un précédent dangereux pour d'autres juridictions, notamment en Europe, où le RGPD protège le droit à l’effacement ?

    Peut-on imaginer une solution technique qui protège à la fois la vie privée des utilisateurs et les exigences judiciaires en matière de preuve ?

    Que se passera-t-il si d'autres gouvernements exigent la même chose qu’un tribunal américain ? Sommes-nous en train de créer une norme mondiale sans débat démocratique ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #142
    Membre averti
    Homme Profil pro
    Développeur Back-End
    Inscrit en
    Août 2021
    Messages
    55
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur Back-End
    Secteur : Industrie

    Informations forums :
    Inscription : Août 2021
    Messages : 55
    Par défaut
    Et porté dans le droit Français, ça donne quoi ?

  3. #143
    Membre confirmé
    Homme Profil pro
    amateur
    Inscrit en
    Juillet 2015
    Messages
    108
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : amateur

    Informations forums :
    Inscription : Juillet 2015
    Messages : 108
    Par défaut
    Peut-on promettre aux utilisateurs un véritable droit à l’effacement quand des obligations judiciaires peuvent en suspendre l'exécution ?
    Qui joue le plus à la vierge effarouchée?

    En s’offusquant de se soumettre à une "obligation de conservation" les GAFAM & assimilés ne cherchent pas à préserver le quidam d'intrusion dans la sphère privée, puisque cette intrusion est le fond de commerce même desdites compagnies. Ce qu'elles veulent c'est pouvoir garder ce qu'elles veulent (y compris tout) sans qu'aucune juridiction ne puisse intervenir.

    Le droit à l'effacement est du doux pipotage, quand c'est proclamé par les vampires de data.

  4. #144
    Membre averti
    Homme Profil pro
    Consultant informatique en retraite
    Inscrit en
    Décembre 2010
    Messages
    29
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique en retraite
    Secteur : Conseil

    Informations forums :
    Inscription : Décembre 2010
    Messages : 29
    Par défaut
    La justice veut tout savoir, les pirates aussi ... toute conservation de données personnelles, telles des conversations,
    même avec Chatgpt, doit être prohibée.

  5. #145
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 491
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 491
    Par défaut Quand la justice transforme ChatGPT en témoin à charge : le New York Times gagne en justice, mais à quel prix?
    Quand la justice transforme ChatGPT en témoin à charge : le New York Times remporte une victoire juridique, mais à quel prix ?
    Un tribunal fédéral oblige OpenAI à sauvegarder indéfiniment toutes les conversations ChatGPT, même celles qui ont été supprimées

    L'affaire qui oppose le New York Times à OpenAI ne se limite plus à une simple question de droit d'auteur. Elle révèle une tension bien plus fondamentale : peut-on sacrifier la vie privée des utilisateurs sur l’autel de la justice ? À la suite d’une décision de justice favorable au NYT, le journal va pouvoir examiner des journaux de conversation supprimés de ChatGPT, dans le cadre de son action en justice contre OpenAI. Derrière cette victoire judiciaire se cache une réalité beaucoup plus trouble, où les principes de confidentialité, de suppression volontaire des données, et même de légalité internationale, vacillent dangereusement.

    Rappel des faits : un bras de fer entre un géant des médias et un géant de l’IA

    En décembre 2023, le New York Times a intenté une action en justice contre OpenAI et Microsoft, l’accusant d’avoir formé illégalement ChatGPT avec ses articles protégés par le droit d’auteur, sans licence ni compensation. Le plaignant a affirmé que ChatGPT pouvait reproduire textuellement des extraits entiers d’articles du NYT, même après leur suppression du web ou leur passage derrière des paywalls.

    La controverse s'est intensifiée lorsque le NYT a accusé OpenAI d'avoir supprimé des preuves cruciales que son équipe juridique avait passé des heures à extraire, des données essentielles pour déterminer si ses articles avaient été utilisés dans l'entraînement des modèles d'IA d'OpenAI. OpenAI a rétorqué qu'il s'agissait d'un accident, cette suppression n'étant pas intentionnelle, selon l'entreprise.

    Le NYT a porté plainte contre OpenAI accompagné d'autres médias. Dans ce cadre, ils ont demandé à la justice d’obliger OpenAI à préserver tous les journaux de conversation de ChatGPT (y compris ceux que les utilisateurs choisissent de supprimer) afin de pouvoir établir si le modèle reproduit effectivement des extraits protégés.

    En mai 2025, la juge fédérale Ona Wang a statué en faveur du NYT sur un point-clé : OpenAI devra conserver tout contenu généré par ChatGPT via son site, ses apps et son API, y compris ceux que les utilisateurs ont supprimés. Cette décision a immédiatement suscité l’ire des défenseurs de la vie privée et de la transparence numérique. L’entreprise elle même l'a contestée, dénonçant un coût technique important, mais surtout une atteinte aux droits des utilisateurs, qui seraient privés de leur droit à l’oubli.

    Le cœur de la controverse : un droit d’accès à des données que les utilisateurs croyaient effacées

    Le NYT soutient que certains utilisateurs, notamment via l’API ou des outils tiers, ont pu tenter de reproduire des articles protégés, voire d’automatiser la génération de contenus payants via ChatGPT. Problème : une partie de ces conversations a été supprimée manuellement ou automatiquement, selon les règles habituelles d’OpenAI (effacement après 30 jours si l’option est activée).

    Toutefois, selon les avocats du Times, ces logs restent techniquement récupérables et doivent être mis à disposition du tribunal — au nom du principe de préservation des preuves.

    OpenAI a exprimé son opposition ferme à cette mesure, qualifiant l’ordonnance de : « dangereusement intrusive, excessivement large, et incompatible avec les normes internationales en matière de confidentialité »

    La société a également indiqué que l’ordonnance pourrait violer le Règlement Général sur la Protection des Données (RGPD), qui garantit aux citoyens européens un droit fondamental à l’effacement. Elle a immédiatement fait appel. Mais dans l’attente de l’issue judiciaire, OpenAI est contraint de désactiver temporairement la suppression définitive des discussions pour certains comptes :
    • Les utilisateurs ChatGPT « grand public » (Free, Plus, Pro, Team)
    • Les développeurs utilisant l’API sans contrat zéro-rétention

    Les utilisateurs "Enterprise", "Edu", et certains comptes institutionnels sont exemptés grâce à des clauses contractuelles spécifiques.

    Seules certaines discussions (notamment celles susceptibles de contenir des reproductions d’articles du NYT) seront examinées, avec des filtres par mots-clés. Toutefois, toute la base de logs supprimés est gelée, en attente de tri.

    Nom : rgpd.png
Affichages : 6932
Taille : 12,3 Ko

    La décision de justice

    La semaine dernière, OpenAI a soulevé des objections devant le tribunal, dans l'espoir de faire annuler une décision de justice exigeant que la société d'intelligence artificielle conserve « indéfiniment » tous les journaux de ChatGPT, y compris les conversations supprimées et temporaires.

    Mais Sidney Stein, le juge de district américain chargé d'examiner la demande d'OpenAI, a immédiatement rejeté les objections de l'entreprise. Il n'a apparemment pas été touché par les affirmations de l'entreprise selon lesquelles l'ordonnance obligeait OpenAI à abandonner des « normes de longue date en matière de protection de la vie privée » et à affaiblir les protections de la vie privée auxquelles les utilisateurs s'attendent en vertu des conditions d'utilisation de ChatGPT. Stein a plutôt suggéré que l'accord d'utilisation d'OpenAI spécifiait que leurs données pouvaient être conservées dans le cadre d'une procédure judiciaire, ce qui, selon Stein, est exactement ce qui se passe actuellement.

    L'ordonnance a été rendue par le juge magistrat Ona Wang quelques jours seulement après que des organisations de presse, le New York Times en tête, l'ont demandée. Les plaignants ont affirmé que l'ordonnance était urgente pour préserver des preuves potentielles dans leur affaire de droits d'auteur, alléguant que les utilisateurs de ChatGPT sont susceptibles d'effacer les chats où ils ont tenté d'utiliser le chatbot pour contourner les paywall afin d'accéder au contenu des actualités.

    Un porte-parole d'OpenAI a déclaré que l'entreprise avait l'intention de « continuer à se battre » contre l'ordonnance, mais le fabricant de ChatGPT semble avoir peu d'options. Il pourrait éventuellement demander à la Cour d'appel du deuxième circuit une ordonnance d'urgence rarement accordée qui pourrait intervenir pour bloquer l'ordonnance de Wang. Cependant, pour qu'OpenAI puisse effectivement gagner ce combat, la cour d'appel devrait considérer l'ordonnance de Wang comme un extraordinaire abus de pouvoir discrétionnaire.

    Un précédent alarmant pour la vie privée numérique

    Cette décision marque une rupture historique dans la manière dont les données utilisateurs sont protégées :
    • Fin du droit à l’oubli ? Si des entreprises peuvent légalement accéder à des données effacées, que reste-t-il du droit à l’effacement garanti dans des cadres comme le RGPD ?
    • Confiance fragilisée : les utilisateurs de ChatGPT, mais aussi d’autres IA, pourraient se censurer, craignant que toute requête puisse un jour être exploitée, même après suppression.
    • Effet boule de neige : cette affaire pourrait ouvrir la voie à d’autres actions judiciaires réclamant des logs supprimés, dans des cas de plagiat, désinformation ou harcèlement.

    Cette affaire met en lumière plusieurs enjeux cruciaux :

    La confidentialité des données utilisateurs

    La décision remet en question la notion de « suppression » des données dans le contexte des services d'IA. Si les utilisateurs pensent supprimer leurs conversations, mais que celles-ci sont conservées indéfiniment pour des raisons légales, cela érode la confiance et soulève des doutes sur le contrôle réel des utilisateurs sur leurs propres données. Bien que la cour ait précisé que les plaignants ne cherchaient pas d'informations personnellement identifiables et que les enregistrements seraient anonymisés, la simple existence de ces données conservées représente un risque potentiel.

    Le droit d'auteur à l'ère de l'IA générative

    L'issue de ce procès aura des implications majeures pour l'industrie des médias et le développement de l'IA. Si le NYT réussit à prouver une violation massive des droits d'auteur, cela pourrait entraîner des précédents importants sur la manière dont les modèles d'IA sont entraînés et sur la compensation due aux créateurs de contenu. La question de savoir si l'utilisation de matériel protégé par le droit d'auteur pour entraîner des modèles d'IA constitue une « utilisation équitable » reste au centre du débat juridique.

    Le rôle des conditions d'utilisation

    La décision judiciaire a souligné que les propres conditions de service d'OpenAI permettaient la rétention des données à des fins légales. Cela met en évidence l'importance pour les utilisateurs de comprendre en détail les politiques de confidentialité et les conditions d'utilisation des services qu'ils emploient, car elles peuvent avoir des répercussions inattendues sur leurs droits et leur vie privée.

    L'équilibre entre innovation et régulation

    Cette affaire est un exemple frappant de la tension entre le rythme rapide de l'innovation technologique et la nécessité de développer des cadres juridiques et réglementaires pour encadrer son utilisation. La décision pourrait pousser les utilisateurs vers des services d'IA concurrents et créer un précédent contraignant pour la rétention des données dans d'autres contextes légaux.

    Un avocat reproche aux juges de ne pas donner la parole aux utilisateurs de ChatGPT

    Jay Edelson, un éminent avocat spécialisé dans la protection de la vie privée des consommateurs, a déclaré que l'ordonnance est si potentiellement menaçante pour les activités d'OpenAI que l'entreprise n'aura peut-être pas d'autre choix que d'explorer toutes les voies possibles pour continuer à la combattre.

    « Ils vont absolument faire quelque chose pour essayer d'arrêter cela », a estimé Edelson, qualifiant l'ordonnance de « folle » pour avoir ignoré les préoccupations de millions d'utilisateurs en matière de vie privée tout en excluant « étrangement » les entreprises clientes.

    D'après les documents déposés au tribunal, il semble possible que les utilisateurs professionnels aient été exclus pour protéger la compétitivité d'OpenAI, mais Edelson a laissé entendre que leur exclusion n'avait « aucune logique ». En excluant ces utilisateurs de ChatGPT, l'ordonnance du juge a peut-être éliminé les utilisateurs les mieux armés pour lutter contre l'ordonnance, a suggéré Edelson.

    « Cela signifie que les grandes entreprises, celles qui ont le pouvoir, voient toutes leurs données rester privées et que personne ne peut y toucher », a déclaré Edelson.

    Au lieu de cela, l'ordonnance « ne fera qu'empiéter sur la vie privée des gens ordinaires », ce qui, selon Edelson, « est vraiment choquant », étant donné que Wang a rejeté la demande d'intervention paniquée de deux utilisateurs de ChatGPT.

    « Nous parlons de milliards de chats qui vont maintenant être conservés alors qu'ils ne l'étaient pas auparavant », a déclaré Edelson, en précisant qu'il a saisi des informations sur son historique médical personnel dans ChatGPT. « Les gens demandent des conseils sur leur mariage, s'inquiètent de perdre leur emploi. Ils disent des choses très personnelles. Et l'un des avantages d'OpenAI est que vous pouvez supprimer vos chats et que vous avez le droit de créer des chats temporaires ».

    Le risque le plus important pour les utilisateurs serait une violation des données, a déclaré Edelson, mais ce n'est pas le seul problème potentiel en matière de protection de la vie privée. Corynne McSherry, directrice juridique de l'Electronic Frontier Foundation, un groupe de défense des droits numériques, a déclaré précédemment que tant que les données des utilisateurs seraient conservées, elles pourraient également être exposées dans le cadre de futures demandes d'application de la loi et de litiges privés.

    Nom : donnees.png
Affichages : 1940
Taille : 16,0 Ko

    Conclusion : une victoire judiciaire aux allures de défaite pour la confiance numérique

    Ce que gagne le New York Times en preuves potentielles, l’écosystème IA le perd en crédibilité. Cette affaire met à nu une vérité dérangeante : dans l’absence de règles claires, la mémoire des IA peut devenir une arme judiciaire, au détriment de ceux qui lui font confiance.

    La capacité du NYT à examiner les journaux de ChatGPT est une étape décisive dans le débat sur l'IA et le droit d'auteur. Elle force une réflexion critique sur la transparence des opérations des entreprises d'IA, la protection des données des utilisateurs et l'évolution nécessaire du cadre juridique pour s'adapter aux réalités d'un monde de plus en plus façonné par l'intelligence artificielle. Les négociations en cours pour permettre aux plaignants de consulter les données, bien que sur un petit échantillon, témoignent de la complexité et de la sensibilité de cette affaire, dont les répercussions se feront sentir bien au-delà des parties directement impliquées.

    Sources : OpenAI, décision de justice

    Et vous ?

    Que pensez-vous de cette décision ?

    Peut-on considérer une conversation avec une intelligence artificielle comme un acte privé inviolable, au même titre qu’un dialogue avec un avocat ou un médecin ?

    Supprimer une conversation doit-il garantir sa disparition réelle — ou seulement symbolique ?

    Est-ce que nos échanges avec une IA devraient bénéficier d’un « privilège numérique » inscrit dans la loi ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #146
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    2 961
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 2 961
    Par défaut
    Un bref résumé serait de savoir s'il faut préserver les droits d'auteur et la RGPD ou bien laisser les fournisseurs d'IA faire ce qu'ils veulent.

    Blagues à part, il y a quelques parties qui m'ont fait réagir.
    Citation Envoyé par Stéphane le calme Voir le message
    La controverse s'est intensifiée lorsque le NYT a accusé OpenAI d'avoir supprimé des preuves cruciales que son équipe juridique avait passé des heures à extraire, des données essentielles pour déterminer si ses articles avaient été utilisés dans l'entraînement des modèles d'IA d'OpenAI. OpenAI a rétorqué qu'il s'agissait d'un accident, cette suppression n'étant pas intentionnelle, selon l'entreprise.
    Pas intentionnelle, bien entendu.
    Ils prennent vraiment les gens pour des jambons.

    Citation Envoyé par Stéphane le calme Voir le message
    En mai 2025, la juge fédérale Ona Wang a statué en faveur du NYT sur un point-clé : OpenAI devra conserver tout contenu généré par ChatGPT via son site, ses apps et son API, y compris ceux que les utilisateurs ont supprimés. Cette décision a immédiatement suscité l’ire des défenseurs de la vie privée et de la transparence numérique. L’entreprise elle même l'a contestée, dénonçant un coût technique important, mais surtout une atteinte aux droits des utilisateurs, qui seraient privés de leur droit à l’oubli.
    Outre le fait que cela nuit effectivement au droit à l'oubli.
    Je n'ose même pas imaginer le cout colossal que ça aura de conserver tous les prompt et toutes les réponses.
    Ce procès est bien parti pour s'éterniser et de nouvelles entrées vont devoir être stockées pendant ce temps.
    Qui va payer la facture à la fin ?

    Citation Envoyé par Stéphane le calme Voir le message
    « Nous parlons de milliards de chats qui vont maintenant être conservés alors qu'ils ne l'étaient pas auparavant », a déclaré Edelson, en précisant qu'il a saisi des informations sur son historique médical personnel dans ChatGPT. « Les gens demandent des conseils sur leur mariage, s'inquiètent de perdre leur emploi. Ils disent des choses très personnelles. Et l'un des avantages d'OpenAI est que vous pouvez supprimer vos chats et que vous avez le droit de créer des chats temporaires ».
    C'est bien quelque chose que j'ai du mal à comprendre.
    Comment est-ce qu'on peut confier les détails de sa vie amoureuse ou des ses problèmes médicaux à une IA ?
    On a des médecins, des psys, des conseillers conjugaux, qui sont tous soumis au secret.
    Certes, je peux comprendre que le cout peut être un frein, mais confier cela à une IA, c'est tout déballer au grand public.

  7. #147
    Rédacteur

    Avatar de SQLpro
    Homme Profil pro
    Expert bases de données / SQL / MS SQL Server / Postgresql
    Inscrit en
    Mai 2002
    Messages
    21 997
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Expert bases de données / SQL / MS SQL Server / Postgresql
    Secteur : Conseil

    Informations forums :
    Inscription : Mai 2002
    Messages : 21 997
    Billets dans le blog
    6
    Par défaut
    Le pillage, par des machines, d'articles écrit par des humains, sans paiement des droits d'auteurs, asséchera le marché du journalisme. Comment les journalistes et les médias naturels pourrait-ils survivre sans financement ? La question est donc, voulons nous un monde ou seule la parole des machines compte ???
    Frédéric Brouard - SQLpro - ARCHITECTE DE DONNÉES - expert SGBDR et langage SQL
    Le site sur les SGBD relationnels et le langage SQL: http://sqlpro.developpez.com/
    Blog SQL, SQL Server, SGBDR : http://blog.developpez.com/sqlpro
    Expert Microsoft SQL Server - M.V.P. (Most valuable Professional) MS Corp.
    Entreprise SQL SPOT : modélisation, conseils, audit, optimisation, formation...
    * * * * * Expertise SQL Server : http://mssqlserver.fr/ * * * * *

  8. #148
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 302
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 302
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par SQLpro Voir le message
    Le pillage, par des machines, d'articles écrit par des humains, sans paiement des droits d'auteurs, asséchera le marché du journalisme. Comment les journalistes et les médias naturels pourrait-ils survivre sans financement ? La question est donc, voulons nous un monde ou seule la parole des machines compte ???
    Quid du journalisme sur fond public ?
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Réponses: 10
    Dernier message: 30/01/2025, 02h43
  2. [AJAX] votre avis sur les livres sur Ajax
    Par gtraxx dans le forum Général JavaScript
    Réponses: 4
    Dernier message: 02/11/2006, 17h15
  3. question sur les livres c++ proposées...
    Par Davidp dans le forum C++
    Réponses: 6
    Dernier message: 09/12/2004, 21h37

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo