IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #141
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 760
    Par défaut Conservation forcée des conversations ChatGPT: la justice nie avoir créé un programme de surveillance de masse
    La justice américaine nie avoir créé un programme de « surveillance de masse » des utilisateurs de ChatGPT en obligeant OpenAI à conserver les journaux de conversation,
    pour l'EFF ce n'est qu'une question de temps avant que la police ne s'en serve

    Une décision judiciaire rendue en juin 2025 vient de clarifier un point sensible dans l'affrontement juridique opposant OpenAI à plusieurs organes de presse : non, forcer l’entreprise à conserver les journaux de conversations des utilisateurs de ChatGPT ne revient pas à instituer un programme de surveillance de masse. Cette affirmation, avancée par les avocats d’OpenAI en réaction à une injonction judiciaire, a été balayée par la juge fédérale Ona T. Wang : elle a statué que la simple conservation des journaux d'activité, bien que potentiellement intrusive, ne constitue pas en soi un programme de « surveillance de masse » au sens juridique du terme.

    L’affaire prend racine dans une plainte déposée par plusieurs médias, dont le New York Times, accusant OpenAI d’avoir utilisé illégalement leurs contenus protégés par le droit d’auteur pour entraîner ses modèles d’intelligence artificielle. Dans ce cadre, ils ont demandé à la justice d’obliger OpenAI à préserver tous les journaux de conversation de ChatGPT (y compris ceux que les utilisateurs choisissent de supprimer) afin de pouvoir établir si le modèle reproduit effectivement des extraits protégés.

    En mai, la juge Wang avait donc ordonné à OpenAI de ne pas effacer les échanges, même à la demande des utilisateurs, et de conserver tout contenu généré par ChatGPT via son site, ses apps et son API. Une décision que l’entreprise a contestée, dénonçant un coût technique important, mais surtout une atteinte aux droits des utilisateurs, qui seraient privés de leur droit à l’oubli.

    Une défense basée sur la vie privée… jugée infondée

    Dans sa réponse, OpenAI a vivement critiqué l’ordonnance, allant jusqu’à déclarer que l’obligation de conserver toutes les conversations créait de fait un système de « surveillance de masse » injustifié. L’entreprise soutenait que cette conservation généralisée exposait des millions d’utilisateurs à une collecte involontaire et injustifiée de leurs données.

    Mais pour la juge Wang, cette qualification est exagérée et juridiquement inexacte. Selon elle, l’injonction ne constitue pas un programme de surveillance actif, dans la mesure où OpenAI n’est pas tenue d’analyser, de surveiller ou de transmettre les contenus des utilisateurs à une autorité extérieure, mais simplement de les archiver temporairement à des fins judiciaires. Elle insiste sur le fait qu’il s’agit d’une obligation limitée, dans un contexte précis de litige, et non d’un mécanisme généralisé d’espionnage numérique.

    Nom : un_chat.png
Affichages : 10786
Taille : 334,9 Ko

    Une tension entre transparence judiciaire et confidentialité utilisateur

    Ce jugement soulève néanmoins une tension cruciale : peut-on concilier la nécessité pour les plaignants de préserver des preuves dans un procès avec le droit des utilisateurs à l’effacement de leurs données personnelles ? La position d’OpenAI, qui met en avant le respect de la vie privée de ses usagers, entre ici en conflit avec la volonté des médias de disposer de tous les éléments permettant de démontrer une éventuelle violation du droit d’auteur.

    Techniquement, la tâche est aussi complexe que coûteuse : OpenAI affirme qu’elle n’a pas conservé certaines données précisément parce que les utilisateurs en avaient demandé la suppression. Répondre à l’injonction reviendrait à modifier sa politique de confidentialité, à complexifier la gestion de ses bases de données et à multiplier les risques juridiques.

    Des utilisateurs s'en mêlent... sans succès

    Après qu'un tribunal a ordonné à OpenAI de conserver « indéfiniment » tous les journaux de ChatGPT, y compris les conversations supprimées, de millions d'utilisateurs, deux utilisateurs paniqués ont tenté d'intervenir, sans succès. L'ordonnance visait à préserver des preuves potentielles dans le cadre d'un procès pour violation du droit d'auteur intenté par des organismes de presse.

    En mai, la juge Ona Wang, qui a rédigé l'ordonnance, a rejeté la demande du premier utilisateur au nom de son entreprise, simplement parce que l'entreprise aurait dû engager un avocat pour rédiger le dossier. Plus récemment, Wang a rejeté une deuxième demande émanant d'un autre utilisateur de ChatGPT, et cette ordonnance est entrée dans les détails, révélant que la juge envisage de s'opposer à l'ordonnance avant les plaidoiries de cette semaine, qui ont été demandées de toute urgence par OpenAI.

    La seconde demande d'intervention émane d'un utilisateur de ChatGPT nommé Aidan Hunt, qui a déclaré utiliser ChatGPT « de temps en temps », envoyant occasionnellement à OpenAI « des informations personnelles et commerciales hautement sensibles dans le cadre de l'utilisation du service ».

    Dans son dossier, Hunt allègue que l'ordonnance de conservation de Wang a créé un « programme de surveillance de masse à l'échelle nationale » affectant et pouvant nuire à « tous les utilisateurs de ChatGPT », qui n'ont pas été avertis que leurs chats supprimés et anonymes allaient soudainement être conservés. Il a averti que l'ordonnance limitant la conservation aux seuls résultats de ChatGPT comportait les mêmes risques que l'inclusion des données des utilisateurs, puisque les résultats « révèlent intrinsèquement, et souvent reprennent explicitement, les questions ou les sujets introduits ».

    Hunt a affirmé n'avoir appris que ChatGPT conservait ces informations (en dépit des politiques spécifiant qu'elles ne le feraient pas) qu'en tombant par hasard sur la nouvelle dans un forum en ligne. Estimant que ses droits au quatrième amendement et à une procédure régulière étaient violés, Hunt a cherché à influencer la décision du tribunal et a proposé une motion d'annulation de l'ordonnance selon laquelle l'ordonnance de Wang « exige effectivement des défendeurs qu'ils mettent en œuvre un programme de surveillance de masse affectant tous les utilisateurs de ChatGPT ».

    Nom : deux_chat.png
Affichages : 2919
Taille : 21,6 Ko

    Des craintes qui ne sont pas infondées, selon la directrice juridique de l'EFF

    Les craintes de Hunt ne sont pas infondées, a déclaré Corynne McSherry, directrice juridique de l'Electronic Frontier Foundation, un groupe de défense des droits numériques.

    « L'ordonnance de divulgation pose de véritables risques pour la vie privée des utilisateurs en elle-même et en tant que précédent pour les nombreux autres procès intentés dans tout le pays », a déclaré McSherry. « Et elle est emblématique d'un problème plus large : les chatbots d'IA ouvrent un autre vecteur pour la surveillance des entreprises, en particulier si les utilisateurs n'ont pas de contrôle significatif sur ce qu'il advient de leur historique et de leurs enregistrements de chat. »

    Selon Hunt, Wang n'a pas « envisagé d'exempter les "chats anonymes", dont on peut raisonnablement penser qu'ils contiennent les informations les plus sensibles et potentiellement dommageables des utilisateurs, de la conservation et de la divulgation dans cette affaire », affirmant que cela « constitue une action excessivement large et déraisonnable ».

    Il a demandé au juge de réviser l'ordonnance afin d'y inclure cette exemption, ainsi que des exemptions pour tous les chats « discutant de sujets médicaux, financiers, juridiques et personnels qui contiennent des informations profondément privées sur les utilisateurs et n'ont aucun rapport avec les intérêts revendiqués par les organismes de presse plaignants ».

    Pour Hunt et de nombreux autres utilisateurs pris au dépourvu par l'ordonnance, les enjeux semblent élevés. Il a suggéré que Wang aurait dû l'autoriser à intervenir « parce que cette affaire soulève des questions constitutionnelles importantes et inédites sur le droit à la vie privée lié à l'utilisation de l'intelligence artificielle - un domaine du droit en plein développement - et sur la capacité d'un magistrat à mettre en place un programme de surveillance de masse à l'échelle nationale par le biais d'une ordonnance de communication de pièces dans une affaire civile ».


    « Ce n'est qu'une question de temps avant que les forces de l'ordre s'adressent à OpenAI pour obtenir l'historique de conversation »

    Toutefois, Wang n'est pas d'accord avec Hunt pour dire qu'elle a outrepassé son autorité en appliquant l'ordonnance, soulignant dans une note de bas de page que son ordonnance ne peut pas être interprétée comme permettant une surveillance de masse.

    « L'intervenant n'explique pas en quoi l'ordonnance de conservation des documents d'un tribunal qui ordonne la préservation, la ségrégation et la conservation de certaines données privées par une société privée à des fins limitées de litige est, ou pourrait être, un "programme de surveillance de masse à l'échelle nationale", indique la juge Wang. « Ce n'est pas le cas. Le pouvoir judiciaire n'est pas un organisme chargé de l'application de la loi ».

    Cependant, la directrice juridique de l'EFF McSherry a prévenu que « ce n'est qu'une question de temps avant que les forces de l'ordre et les parties privées ne commencent à s'adresser à OpenAI pour tenter d'obtenir des historiques de conversation/des enregistrements sur les utilisateurs à toutes sortes de fins, comme ils le font déjà pour les historiques de recherche, les messages sur les médias sociaux, etc. L'ordonnance de Wang pourrait devenir une porte d'entrée vers cet avenir », a-t-elle déclaré.

    Wang a rejeté la requête de Hunt principalement parce que « la question de savoir si la conservation temporaire de certaines données de sortie de chat qui ont été régulièrement supprimées par OpenAI au cours de ce litige peut porter atteinte aux prétendus droits constitutionnels et contractuels à la vie privée des consommateurs individuels qui utilisent ChatGPT » a été considérée comme une « question collatérale » qui ne concerne pas directement la question centrale de la violation du droit d'auteur.

    Estimant que l'intervention de Hunt ne contribuerait « en aucune façon » au « développement des questions factuelles sous-jacentes dans cette affaire », Wang a décidé que Hunt n'avait pas le droit d'intervenir.

    « Aucune des prétendues questions "nouvelles" de l'intervenant proposé n'est en jeu dans cette action en contrefaçon de droit d'auteur », a écrit Wang. « Même si la Cour devait examiner ces questions, elles ne feraient que retarder indûment la résolution des questions juridiques réellement en jeu ».

    Nom : trois_chat.png
Affichages : 2844
Taille : 499,5 Ko

    Un précédent lourd de conséquences

    Ce dossier pourrait faire jurisprudence. En refusant de considérer la conservation judiciaire comme une « surveillance de masse », le tribunal ouvre la voie à d'autres requêtes similaires dans de futures affaires, notamment dans des dossiers où l’IA générative est soupçonnée de reproduire illégalement des contenus humains. Par ricochet, cela pose une question plus vaste : que signifie aujourd’hui « supprimer » une donnée dans l’ère de l’IA ? Peut-on promettre aux utilisateurs un véritable droit à l’effacement quand des obligations judiciaires peuvent en suspendre l'exécution ?

    L’affaire continue : OpenAI a demandé à ce que l’ordre de conservation soit suspendu dans l’attente d’une révision. Une audience est prévue dans les prochaines semaines. Si la décision initiale est maintenue, les utilisateurs de ChatGPT pourraient ne plus avoir la garantie que leurs conversations sont véritablement effaçables en cas de litige. Un glissement potentiellement lourd pour les pratiques de transparence et de confidentialité dans l’univers de l’intelligence artificielle.

    Sources : décision judiciaire (1, 2), OpenAI

    Et vous ?

    Que pensez-vous de la décision de la juge ?

    Peut-on encore parler de “droit à l’oubli” dans l’ère de l’intelligence artificielle, quand des juges peuvent forcer la conservation de nos données personnelles ?

    Est-il acceptable que des obligations légales puissent contredire les engagements de confidentialité affichés dans les conditions d'utilisation ?

    Les modèles d’IA doivent-ils être “auditables” en permanence, quitte à compromettre l’anonymat des utilisateurs ?

    Cette décision crée-t-elle un précédent dangereux pour d'autres juridictions, notamment en Europe, où le RGPD protège le droit à l’effacement ?

    Peut-on imaginer une solution technique qui protège à la fois la vie privée des utilisateurs et les exigences judiciaires en matière de preuve ?

    Que se passera-t-il si d'autres gouvernements exigent la même chose qu’un tribunal américain ? Sommes-nous en train de créer une norme mondiale sans débat démocratique ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #142
    Membre averti
    Homme Profil pro
    Développeur Back-End
    Inscrit en
    Août 2021
    Messages
    60
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur Back-End
    Secteur : Industrie

    Informations forums :
    Inscription : Août 2021
    Messages : 60
    Par défaut
    Et porté dans le droit Français, ça donne quoi ?

  3. #143
    Membre confirmé
    Homme Profil pro
    amateur
    Inscrit en
    Juillet 2015
    Messages
    122
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : amateur

    Informations forums :
    Inscription : Juillet 2015
    Messages : 122
    Par défaut
    Peut-on promettre aux utilisateurs un véritable droit à l’effacement quand des obligations judiciaires peuvent en suspendre l'exécution ?
    Qui joue le plus à la vierge effarouchée?

    En s’offusquant de se soumettre à une "obligation de conservation" les GAFAM & assimilés ne cherchent pas à préserver le quidam d'intrusion dans la sphère privée, puisque cette intrusion est le fond de commerce même desdites compagnies. Ce qu'elles veulent c'est pouvoir garder ce qu'elles veulent (y compris tout) sans qu'aucune juridiction ne puisse intervenir.

    Le droit à l'effacement est du doux pipotage, quand c'est proclamé par les vampires de data.

  4. #144
    Membre averti
    Homme Profil pro
    Consultant informatique en retraite
    Inscrit en
    Décembre 2010
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique en retraite
    Secteur : Conseil

    Informations forums :
    Inscription : Décembre 2010
    Messages : 39
    Par défaut
    La justice veut tout savoir, les pirates aussi ... toute conservation de données personnelles, telles des conversations,
    même avec Chatgpt, doit être prohibée.

  5. #145
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 760
    Par défaut Quand la justice transforme ChatGPT en témoin à charge : le New York Times gagne en justice, mais à quel prix?
    Quand la justice transforme ChatGPT en témoin à charge : le New York Times remporte une victoire juridique, mais à quel prix ?
    Un tribunal fédéral oblige OpenAI à sauvegarder indéfiniment toutes les conversations ChatGPT, même celles qui ont été supprimées

    L'affaire qui oppose le New York Times à OpenAI ne se limite plus à une simple question de droit d'auteur. Elle révèle une tension bien plus fondamentale : peut-on sacrifier la vie privée des utilisateurs sur l’autel de la justice ? À la suite d’une décision de justice favorable au NYT, le journal va pouvoir examiner des journaux de conversation supprimés de ChatGPT, dans le cadre de son action en justice contre OpenAI. Derrière cette victoire judiciaire se cache une réalité beaucoup plus trouble, où les principes de confidentialité, de suppression volontaire des données, et même de légalité internationale, vacillent dangereusement.

    Rappel des faits : un bras de fer entre un géant des médias et un géant de l’IA

    En décembre 2023, le New York Times a intenté une action en justice contre OpenAI et Microsoft, l’accusant d’avoir formé illégalement ChatGPT avec ses articles protégés par le droit d’auteur, sans licence ni compensation. Le plaignant a affirmé que ChatGPT pouvait reproduire textuellement des extraits entiers d’articles du NYT, même après leur suppression du web ou leur passage derrière des paywalls.

    La controverse s'est intensifiée lorsque le NYT a accusé OpenAI d'avoir supprimé des preuves cruciales que son équipe juridique avait passé des heures à extraire, des données essentielles pour déterminer si ses articles avaient été utilisés dans l'entraînement des modèles d'IA d'OpenAI. OpenAI a rétorqué qu'il s'agissait d'un accident, cette suppression n'étant pas intentionnelle, selon l'entreprise.

    Le NYT a porté plainte contre OpenAI accompagné d'autres médias. Dans ce cadre, ils ont demandé à la justice d’obliger OpenAI à préserver tous les journaux de conversation de ChatGPT (y compris ceux que les utilisateurs choisissent de supprimer) afin de pouvoir établir si le modèle reproduit effectivement des extraits protégés.

    En mai 2025, la juge fédérale Ona Wang a statué en faveur du NYT sur un point-clé : OpenAI devra conserver tout contenu généré par ChatGPT via son site, ses apps et son API, y compris ceux que les utilisateurs ont supprimés. Cette décision a immédiatement suscité l’ire des défenseurs de la vie privée et de la transparence numérique. L’entreprise elle même l'a contestée, dénonçant un coût technique important, mais surtout une atteinte aux droits des utilisateurs, qui seraient privés de leur droit à l’oubli.

    Le cœur de la controverse : un droit d’accès à des données que les utilisateurs croyaient effacées

    Le NYT soutient que certains utilisateurs, notamment via l’API ou des outils tiers, ont pu tenter de reproduire des articles protégés, voire d’automatiser la génération de contenus payants via ChatGPT. Problème : une partie de ces conversations a été supprimée manuellement ou automatiquement, selon les règles habituelles d’OpenAI (effacement après 30 jours si l’option est activée).

    Toutefois, selon les avocats du Times, ces logs restent techniquement récupérables et doivent être mis à disposition du tribunal — au nom du principe de préservation des preuves.

    OpenAI a exprimé son opposition ferme à cette mesure, qualifiant l’ordonnance de : « dangereusement intrusive, excessivement large, et incompatible avec les normes internationales en matière de confidentialité »

    La société a également indiqué que l’ordonnance pourrait violer le Règlement Général sur la Protection des Données (RGPD), qui garantit aux citoyens européens un droit fondamental à l’effacement. Elle a immédiatement fait appel. Mais dans l’attente de l’issue judiciaire, OpenAI est contraint de désactiver temporairement la suppression définitive des discussions pour certains comptes :
    • Les utilisateurs ChatGPT « grand public » (Free, Plus, Pro, Team)
    • Les développeurs utilisant l’API sans contrat zéro-rétention

    Les utilisateurs "Enterprise", "Edu", et certains comptes institutionnels sont exemptés grâce à des clauses contractuelles spécifiques.

    Seules certaines discussions (notamment celles susceptibles de contenir des reproductions d’articles du NYT) seront examinées, avec des filtres par mots-clés. Toutefois, toute la base de logs supprimés est gelée, en attente de tri.

    Nom : rgpd.png
Affichages : 10535
Taille : 12,3 Ko

    La décision de justice

    La semaine dernière, OpenAI a soulevé des objections devant le tribunal, dans l'espoir de faire annuler une décision de justice exigeant que la société d'intelligence artificielle conserve « indéfiniment » tous les journaux de ChatGPT, y compris les conversations supprimées et temporaires.

    Mais Sidney Stein, le juge de district américain chargé d'examiner la demande d'OpenAI, a immédiatement rejeté les objections de l'entreprise. Il n'a apparemment pas été touché par les affirmations de l'entreprise selon lesquelles l'ordonnance obligeait OpenAI à abandonner des « normes de longue date en matière de protection de la vie privée » et à affaiblir les protections de la vie privée auxquelles les utilisateurs s'attendent en vertu des conditions d'utilisation de ChatGPT. Stein a plutôt suggéré que l'accord d'utilisation d'OpenAI spécifiait que leurs données pouvaient être conservées dans le cadre d'une procédure judiciaire, ce qui, selon Stein, est exactement ce qui se passe actuellement.

    L'ordonnance a été rendue par le juge magistrat Ona Wang quelques jours seulement après que des organisations de presse, le New York Times en tête, l'ont demandée. Les plaignants ont affirmé que l'ordonnance était urgente pour préserver des preuves potentielles dans leur affaire de droits d'auteur, alléguant que les utilisateurs de ChatGPT sont susceptibles d'effacer les chats où ils ont tenté d'utiliser le chatbot pour contourner les paywall afin d'accéder au contenu des actualités.

    Un porte-parole d'OpenAI a déclaré que l'entreprise avait l'intention de « continuer à se battre » contre l'ordonnance, mais le fabricant de ChatGPT semble avoir peu d'options. Il pourrait éventuellement demander à la Cour d'appel du deuxième circuit une ordonnance d'urgence rarement accordée qui pourrait intervenir pour bloquer l'ordonnance de Wang. Cependant, pour qu'OpenAI puisse effectivement gagner ce combat, la cour d'appel devrait considérer l'ordonnance de Wang comme un extraordinaire abus de pouvoir discrétionnaire.

    Un précédent alarmant pour la vie privée numérique

    Cette décision marque une rupture historique dans la manière dont les données utilisateurs sont protégées :
    • Fin du droit à l’oubli ? Si des entreprises peuvent légalement accéder à des données effacées, que reste-t-il du droit à l’effacement garanti dans des cadres comme le RGPD ?
    • Confiance fragilisée : les utilisateurs de ChatGPT, mais aussi d’autres IA, pourraient se censurer, craignant que toute requête puisse un jour être exploitée, même après suppression.
    • Effet boule de neige : cette affaire pourrait ouvrir la voie à d’autres actions judiciaires réclamant des logs supprimés, dans des cas de plagiat, désinformation ou harcèlement.

    Cette affaire met en lumière plusieurs enjeux cruciaux :

    La confidentialité des données utilisateurs

    La décision remet en question la notion de « suppression » des données dans le contexte des services d'IA. Si les utilisateurs pensent supprimer leurs conversations, mais que celles-ci sont conservées indéfiniment pour des raisons légales, cela érode la confiance et soulève des doutes sur le contrôle réel des utilisateurs sur leurs propres données. Bien que la cour ait précisé que les plaignants ne cherchaient pas d'informations personnellement identifiables et que les enregistrements seraient anonymisés, la simple existence de ces données conservées représente un risque potentiel.

    Le droit d'auteur à l'ère de l'IA générative

    L'issue de ce procès aura des implications majeures pour l'industrie des médias et le développement de l'IA. Si le NYT réussit à prouver une violation massive des droits d'auteur, cela pourrait entraîner des précédents importants sur la manière dont les modèles d'IA sont entraînés et sur la compensation due aux créateurs de contenu. La question de savoir si l'utilisation de matériel protégé par le droit d'auteur pour entraîner des modèles d'IA constitue une « utilisation équitable » reste au centre du débat juridique.

    Le rôle des conditions d'utilisation

    La décision judiciaire a souligné que les propres conditions de service d'OpenAI permettaient la rétention des données à des fins légales. Cela met en évidence l'importance pour les utilisateurs de comprendre en détail les politiques de confidentialité et les conditions d'utilisation des services qu'ils emploient, car elles peuvent avoir des répercussions inattendues sur leurs droits et leur vie privée.

    L'équilibre entre innovation et régulation

    Cette affaire est un exemple frappant de la tension entre le rythme rapide de l'innovation technologique et la nécessité de développer des cadres juridiques et réglementaires pour encadrer son utilisation. La décision pourrait pousser les utilisateurs vers des services d'IA concurrents et créer un précédent contraignant pour la rétention des données dans d'autres contextes légaux.

    Un avocat reproche aux juges de ne pas donner la parole aux utilisateurs de ChatGPT

    Jay Edelson, un éminent avocat spécialisé dans la protection de la vie privée des consommateurs, a déclaré que l'ordonnance est si potentiellement menaçante pour les activités d'OpenAI que l'entreprise n'aura peut-être pas d'autre choix que d'explorer toutes les voies possibles pour continuer à la combattre.

    « Ils vont absolument faire quelque chose pour essayer d'arrêter cela », a estimé Edelson, qualifiant l'ordonnance de « folle » pour avoir ignoré les préoccupations de millions d'utilisateurs en matière de vie privée tout en excluant « étrangement » les entreprises clientes.

    D'après les documents déposés au tribunal, il semble possible que les utilisateurs professionnels aient été exclus pour protéger la compétitivité d'OpenAI, mais Edelson a laissé entendre que leur exclusion n'avait « aucune logique ». En excluant ces utilisateurs de ChatGPT, l'ordonnance du juge a peut-être éliminé les utilisateurs les mieux armés pour lutter contre l'ordonnance, a suggéré Edelson.

    « Cela signifie que les grandes entreprises, celles qui ont le pouvoir, voient toutes leurs données rester privées et que personne ne peut y toucher », a déclaré Edelson.

    Au lieu de cela, l'ordonnance « ne fera qu'empiéter sur la vie privée des gens ordinaires », ce qui, selon Edelson, « est vraiment choquant », étant donné que Wang a rejeté la demande d'intervention paniquée de deux utilisateurs de ChatGPT.

    « Nous parlons de milliards de chats qui vont maintenant être conservés alors qu'ils ne l'étaient pas auparavant », a déclaré Edelson, en précisant qu'il a saisi des informations sur son historique médical personnel dans ChatGPT. « Les gens demandent des conseils sur leur mariage, s'inquiètent de perdre leur emploi. Ils disent des choses très personnelles. Et l'un des avantages d'OpenAI est que vous pouvez supprimer vos chats et que vous avez le droit de créer des chats temporaires ».

    Le risque le plus important pour les utilisateurs serait une violation des données, a déclaré Edelson, mais ce n'est pas le seul problème potentiel en matière de protection de la vie privée. Corynne McSherry, directrice juridique de l'Electronic Frontier Foundation, un groupe de défense des droits numériques, a déclaré précédemment que tant que les données des utilisateurs seraient conservées, elles pourraient également être exposées dans le cadre de futures demandes d'application de la loi et de litiges privés.

    Nom : donnees.png
Affichages : 2959
Taille : 16,0 Ko

    Conclusion : une victoire judiciaire aux allures de défaite pour la confiance numérique

    Ce que gagne le New York Times en preuves potentielles, l’écosystème IA le perd en crédibilité. Cette affaire met à nu une vérité dérangeante : dans l’absence de règles claires, la mémoire des IA peut devenir une arme judiciaire, au détriment de ceux qui lui font confiance.

    La capacité du NYT à examiner les journaux de ChatGPT est une étape décisive dans le débat sur l'IA et le droit d'auteur. Elle force une réflexion critique sur la transparence des opérations des entreprises d'IA, la protection des données des utilisateurs et l'évolution nécessaire du cadre juridique pour s'adapter aux réalités d'un monde de plus en plus façonné par l'intelligence artificielle. Les négociations en cours pour permettre aux plaignants de consulter les données, bien que sur un petit échantillon, témoignent de la complexité et de la sensibilité de cette affaire, dont les répercussions se feront sentir bien au-delà des parties directement impliquées.

    Sources : OpenAI, décision de justice

    Et vous ?

    Que pensez-vous de cette décision ?

    Peut-on considérer une conversation avec une intelligence artificielle comme un acte privé inviolable, au même titre qu’un dialogue avec un avocat ou un médecin ?

    Supprimer une conversation doit-il garantir sa disparition réelle — ou seulement symbolique ?

    Est-ce que nos échanges avec une IA devraient bénéficier d’un « privilège numérique » inscrit dans la loi ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #146
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 046
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 046
    Par défaut
    Un bref résumé serait de savoir s'il faut préserver les droits d'auteur et la RGPD ou bien laisser les fournisseurs d'IA faire ce qu'ils veulent.

    Blagues à part, il y a quelques parties qui m'ont fait réagir.
    Citation Envoyé par Stéphane le calme Voir le message
    La controverse s'est intensifiée lorsque le NYT a accusé OpenAI d'avoir supprimé des preuves cruciales que son équipe juridique avait passé des heures à extraire, des données essentielles pour déterminer si ses articles avaient été utilisés dans l'entraînement des modèles d'IA d'OpenAI. OpenAI a rétorqué qu'il s'agissait d'un accident, cette suppression n'étant pas intentionnelle, selon l'entreprise.
    Pas intentionnelle, bien entendu.
    Ils prennent vraiment les gens pour des jambons.

    Citation Envoyé par Stéphane le calme Voir le message
    En mai 2025, la juge fédérale Ona Wang a statué en faveur du NYT sur un point-clé : OpenAI devra conserver tout contenu généré par ChatGPT via son site, ses apps et son API, y compris ceux que les utilisateurs ont supprimés. Cette décision a immédiatement suscité l’ire des défenseurs de la vie privée et de la transparence numérique. L’entreprise elle même l'a contestée, dénonçant un coût technique important, mais surtout une atteinte aux droits des utilisateurs, qui seraient privés de leur droit à l’oubli.
    Outre le fait que cela nuit effectivement au droit à l'oubli.
    Je n'ose même pas imaginer le cout colossal que ça aura de conserver tous les prompt et toutes les réponses.
    Ce procès est bien parti pour s'éterniser et de nouvelles entrées vont devoir être stockées pendant ce temps.
    Qui va payer la facture à la fin ?

    Citation Envoyé par Stéphane le calme Voir le message
    « Nous parlons de milliards de chats qui vont maintenant être conservés alors qu'ils ne l'étaient pas auparavant », a déclaré Edelson, en précisant qu'il a saisi des informations sur son historique médical personnel dans ChatGPT. « Les gens demandent des conseils sur leur mariage, s'inquiètent de perdre leur emploi. Ils disent des choses très personnelles. Et l'un des avantages d'OpenAI est que vous pouvez supprimer vos chats et que vous avez le droit de créer des chats temporaires ».
    C'est bien quelque chose que j'ai du mal à comprendre.
    Comment est-ce qu'on peut confier les détails de sa vie amoureuse ou des ses problèmes médicaux à une IA ?
    On a des médecins, des psys, des conseillers conjugaux, qui sont tous soumis au secret.
    Certes, je peux comprendre que le cout peut être un frein, mais confier cela à une IA, c'est tout déballer au grand public.

  7. #147
    Rédacteur

    Avatar de SQLpro
    Homme Profil pro
    Expert bases de données / SQL / MS SQL Server / Postgresql
    Inscrit en
    Mai 2002
    Messages
    22 021
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Expert bases de données / SQL / MS SQL Server / Postgresql
    Secteur : Conseil

    Informations forums :
    Inscription : Mai 2002
    Messages : 22 021
    Billets dans le blog
    6
    Par défaut
    Le pillage, par des machines, d'articles écrit par des humains, sans paiement des droits d'auteurs, asséchera le marché du journalisme. Comment les journalistes et les médias naturels pourrait-ils survivre sans financement ? La question est donc, voulons nous un monde ou seule la parole des machines compte ???
    Frédéric Brouard - SQLpro - ARCHITECTE DE DONNÉES - expert SGBDR et langage SQL
    Le site sur les SGBD relationnels et le langage SQL: http://sqlpro.developpez.com/
    Blog SQL, SQL Server, SGBDR : http://blog.developpez.com/sqlpro
    Expert Microsoft SQL Server - M.V.P. (Most valuable Professional) MS Corp.
    Entreprise SQL SPOT : modélisation, conseils, audit, optimisation, formation...
    * * * * * Expertise SQL Server : http://mssqlserver.fr/ * * * * *

  8. #148
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 401
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 401
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par SQLpro Voir le message
    Le pillage, par des machines, d'articles écrit par des humains, sans paiement des droits d'auteurs, asséchera le marché du journalisme. Comment les journalistes et les médias naturels pourrait-ils survivre sans financement ? La question est donc, voulons nous un monde ou seule la parole des machines compte ???
    Quid du journalisme sur fond public ?
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  9. #149
    Membre averti
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    55
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 55
    Par défaut
    Drôle d'époque où ce sont les entreprises privés qui défendent nos intérêts face aux délires étatiques de surveillance globale ...
    On le voit en France aussi avec l'interdiction puritaine du porn par le gouv (en se servant des enfants comme prétexte bidon).
    en fait, c'est surtout pour qu'il n'y ait pas de preuve du fait que ses réponses contiennent, effectivement, du contenu protégé par droit d'auteur

  10. #150
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    402
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 402
    Par défaut OpenAI propose 20 millions de conversations utilisateur dans le cadre du procès ChatGPT
    OpenAI propose 20 millions de conversations utilisateur dans le cadre du procès ChatGPT, mais le New York Times en demande 120 millions afin de rechercher toute violation du droit d'auteur

    Dans le cadre de la bataille juridique qui oppose actuellement le New York Times à OpenAI, la société spécialisée dans l'IA a proposé de donner accès à 20 millions de conversations d'utilisateurs issues de sa plateforme ChatGPT dans le cadre d'une procédure de divulgation dans le cadre d'un procès pour violation de droits d'auteur aux enjeux considérables. Le Times, cependant, réclame une divulgation beaucoup plus large (120 millions de conversations) afin de vérifier si le système d'IA a reproduit mot pour mot ses articles protégés par le droit d'auteur. Cette demande souligne la tension entre les droits de propriété intellectuelle et les vastes écosystèmes de données qui alimentent l'IA générative.

    Début 2025, un groupe d'organes de presse, emmené par le New York Times, a assigné OpenAI, l'éditeur de ChatGPT, devant un tribunal fédéral, lors d'une audience qui pourrait déterminer si l'entreprise technologique doit affronter les éditeurs dans un procès très médiatisé pour violation du droit d'auteur. Trois procès intentés par des éditeurs contre OpenAI et son bailleur de fonds Microsoft ont été fusionnés en une seule affaire.

    Le Times, le New York Daily News et le Center for Investigative Reporting mènent chacun des trois procès combinés. D'autres éditeurs, comme Associated Press, News Corp. et Vox Media, ont conclu des accords de partage de contenu avec OpenAI, mais les trois plaignants dans cette affaire prennent le chemin inverse : ils passent à l'offensive. OpenAI aurait accidentellement supprimé des preuves potentielles dans le procès intenté par le New York Times.

    Dans le cadre de la bataille juridique qui oppose actuellement le New York Times à OpenAI, la société spécialisée dans l'IA a proposé de donner accès à 20 millions de conversations d'utilisateurs issues de sa plateforme ChatGPT dans le cadre d'une procédure de divulgation dans le cadre d'un procès pour violation de droits d'auteur aux enjeux considérables. Le Times, cependant, réclame une divulgation beaucoup plus large (120 millions de conversations) afin de vérifier si le système d'IA a reproduit mot pour mot ses articles protégés par le droit d'auteur. Cette demande souligne la tension entre les droits de propriété intellectuelle et les vastes écosystèmes de données qui alimentent l'IA générative.

    Le procès, intenté par le New York Times fin 2023, accuse OpenAI et son partenaire Microsoft d'avoir utilisé illégalement le contenu du journal pour former ChatGPT, ce qui pourrait coûter des milliards de dollars en dommages et intérêts. Alors que l'affaire progresse devant la cour fédérale américaine, l'accent est désormais mis sur la collecte de preuves, le Times cherchant à obtenir des journaux détaillés afin de quantifier les cas de reproduction directe de ses articles.


    Le conflit sur la portée des données et les méthodes d'échantillonnage

    OpenAI fait valoir que la remise de 120 millions de conversations constituerait une charge excessive et un « cauchemar en matière de confidentialité », comme le détaille son propre article de blog sur la réponse aux demandes de données, accessible via le site officiel d'OpenAI. L'entreprise propose plutôt un échantillon aléatoire de 20 millions d'interactions, qui, selon elle, représenterait statistiquement les résultats de la plateforme sans compromettre la confidentialité des utilisateurs à grande échelle. Les experts juridiques considèrent qu'il s'agit d'un conflit classique en matière de divulgation, dans lequel les plaignants cherchent à obtenir des données complètes pour étayer leur dossier, tandis que les défendeurs cherchent à limiter leur exposition.

    Le Times rétorque qu'un échantillon plus petit pourrait ne pas permettre de saisir des cas rares mais critiques de violation, et insiste pour obtenir un ensemble plus large afin de procéder à une analyse approfondie. Cette pression intervient alors qu'une décision de justice oblige OpenAI à conserver toutes les données des utilisateurs de ChatGPT, y compris les conversations supprimées, soulignant le rôle du pouvoir judiciaire dans l'équilibre entre les besoins en matière de preuve et les réalités opérationnelles.

    Le débat a amplifié les inquiétudes concernant la confidentialité des données dans le domaine de l'IA, le PDG d'OpenAI, Sam Altman, avertissant que les conversations des utilisateurs ne bénéficient d'aucune protection juridique et pourraient faire l'objet de poursuites judiciaires. Les utilisateurs partagent souvent des informations personnelles sensibles avec ChatGPT, en supposant qu'elles resteront confidentielles, mais le procès révèle comment ces données pourraient être utilisées comme arme devant les tribunaux.

    Les acteurs du secteur craignent que cela ne sape la confiance dans les outils d'IA, ce qui incite à réclamer des mesures de protection des données plus strictes. OpenAI a souligné son engagement en faveur de la confidentialité, déclarant dans ses documents que la conservation indéfinie des données des utilisateurs est contraire à ses politiques, mais l'ordonnance de conservation du tribunal l'oblige à s'y conformer, ce qui pourrait créer un précédent pour de futurs litiges liés à l'IA.

    L'affaire qui oppose le New York Times à OpenAI ne se limite plus à une simple question de droit d'auteur. Elle révèle une tension bien plus fondamentale : peut-on sacrifier la vie privée des utilisateurs sur l’autel de la justice ? À la suite d’une décision de justice favorable au NYT, le journal va pouvoir examiner des journaux de conversation supprimés de ChatGPT, dans le cadre de son action en justice contre OpenAI. Derrière cette victoire judiciaire se cache une réalité beaucoup plus trouble, où les principes de confidentialité, de suppression volontaire des données, et même de légalité internationale, vacillent dangereusement.

    Au fur et à mesure que l'affaire évolue, elle pourrait influencer la manière dont les entreprises d'IA traitent les données d'entraînement et les interactions avec les utilisateurs à l'échelle mondiale. La position agressive du Times, qui exige non seulement les conversations, mais aussi des informations sur le fonctionnement interne de ChatGPT, reflète des poursuites similaires contre des entreprises d'IA, annonçant une vague de responsabilisation en matière d'utilisation du contenu.

    Si le juge se range du côté d'OpenAI et limite la divulgation, cela pourrait rationaliser la découverte dans les affaires technologiques, mais une décision en faveur du Times pourrait contraindre les développeurs d'IA à revoir leurs pratiques en matière de données, ce qui augmenterait les coûts et la surveillance. Les analystes prédisent que ce litige, détaillé dans les discussions sur Slashdot, façonnera l'avenir de l'IA générative, où l'innovation se heurte aux limites rigides du droit d'auteur.

    Les négociations entre les parties se poursuivent, OpenAI faisant appel de certains aspects de l'ordonnance de conservation des données. L'issue pourrait dépendre du témoignage d'experts concernant la validité de l'échantillonnage statistique pour prouver la contrefaçon. En fin de compte, ce procès illustre les difficultés croissantes liées à l'adoption de l'IA, opposant les géants des médias aux innovateurs technologiques dans une lutte pour la valeur des données. Alors que les tribunaux naviguent en terrain inconnu, leurs décisions pourraient redéfinir la confidentialité, la propriété intellectuelle et le déploiement éthique des technologies d'IA pour les années à venir.

    Sources : OpenAI, NYT

    Et vous ?

    Pensez-vous que cette demande du NYT est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    La justice US nie avoir créé un programme de « surveillance de masse » des utilisateurs de ChatGPT en obligeant OpenAI à conserver les journaux de conversation. L'EFF estime que la police pourrait s'en servir

    OpenAI reproche au NYT un problème technique qui a effacé les preuves potentielles d'abus de droits d'auteur par ChatGPT et rejette toute intention malveillante

    Des utilisateurs de ChatGPT sous le choc après la découverte de leurs conversations dans les résultats de divers moteurs de recherche parmi lesquels Google et Bing, OpenAI peine à les y retirer
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #151
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 619
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 619
    Par défaut OpenAI va enfin cesser de conserver la plupart des conversations des utilisateurs de ChatGPT
    OpenAI va enfin cesser de conserver la plupart des conversations supprimées et temporaires des utilisateurs de ChatGPT, après qu'un procès ait contraint OpenAI à conserver les journaux « indéfiniment »

    OpenAI peut cesser de sauvegarder toutes les conversations que les utilisateurs ont avec ChatGPT après une nouvelle décision de justice. Il convient de noter que la start-up spécialisée dans l'IA avait sauvegardé toutes les conversations avec son chatbot en vertu d'une « ordonnance de conservation » dans le cadre du procès intenté par le New York Times et d'autres éditeurs de presse.

    ChatGPT est un agent conversationnel (chatbot) développé par OpenAI. ChatGPT est capable de répondre à des questions, de tenir des conversations, de générer du code informatique, de faire des recherches sur Internet, d'écrire, de traduire ou encore de synthétiser des textes. Il peut le faire en tenant compte du contexte et de contraintes telles que le style d'écriture. Il peut aussi servir d'assistant vocal ou générer des images. Les abonnements payants (ChatGPT « Plus », « Team » et « Enterprise ») offrent un seuil d'utilisation plus élevé, ainsi que des fonctionnalités supplémentaires.

    En juin, OpenAI a contesté fermement une ordonnance émise par le juge de l'affaire qui l'oppose au New York Times aux États-Unis. Le juge a ordonné à OpenAI de conserver l'intégralité des journaux de ChatGPT, y compris les conversations supprimées et les données sensibles collectées via son API. Cette mesure conservatoire est intervenue après que le New York Times et les autres plaignants ont accusé OpenAI de détruire des preuves. OpenAI s'oppose à cette décision, affirmant que cette exigence contredit ses engagements en matière de confidentialité des utilisateurs. La bataille judiciaire entre OpenAI et le New York Times menace la vie privée des utilisateurs de ChatGPT.

    Désormais, OpenAI peut cesser de sauvegarder toutes les conversations que les utilisateurs ont avec ChatGPT après une nouvelle décision de justice. Il convient de noter que la start-up spécialisée dans l'IA avait sauvegardé toutes les conversations avec son chatbot en vertu d'une « ordonnance de conservation » dans le cadre du procès intenté par le New York Times et d'autres éditeurs de presse.

    Une nouvelle ordonnance rendue par la juge américaine Ona Wang a approuvé une requête conjointe d'OpenAI et des organes de presse visant à mettre fin à l'ordonnance de conservation. Cela signifie qu'OpenAI n'aura plus besoin de « conserver et de séparer toutes les données des journaux de sortie qui seraient autrement supprimées à l'avenir ». Les organes de presse continueront d'avoir accès à toutes les conversations temporaires et même supprimées qui ont été enregistrées en vertu de l'ordonnance de conservation jusqu'au 26 septembre.

    De plus, OpenAI continuera apparemment à surveiller certains comptes ChatGPT et à enregistrer les conversations supprimées et temporaires de tout utilisateur signalé par les organes de presse après qu'ils aient commencé à examiner les données.

    Nom : 1.jpg
Affichages : 7807
Taille : 18,6 Ko

    En décembre 2023, le New York Times et d'autres publications d'information ont intenté un procès contre OpenAI et son principal bailleur de fonds, Microsoft, les accusant d'avoir utilisé leurs contenus protégés par le droit d'auteur pour entraîner leurs modèles d'IA. OpenAI a tenté de lutter contre ce qu'il a qualifié de tentative de « surveillance de masse » des données des utilisateurs de ChatGPT par le NYT et a soulevé des préoccupations en matière de confidentialité, mais n'a pas réussi à convaincre le tribunal de préserver la confidentialité des données des utilisateurs.

    Un juge fédéral américain a ordonné à OpenAI de conserver indéfiniment toutes les conversations ChatGPT, y compris les conversations normales, temporaires et supprimées. Le Times a fait valoir que ces journaux prouveraient que ChatGPT a été formé à partir de ses articles protégés par le droit d'auteur, les résultats de l'IA étant des extraits littéraux ou quasi littéraux de leur contenu.

    En réponse aux plaintes pour violation du droit d'auteur déposées par les organes de presse, OpenAI a souvent invoqué la doctrine de l'« usage loyal », affirmant qu'il avait le droit d'utiliser de manière limitée et sans licence du matériel protégé par le droit d'auteur à des fins de recherche et de commentaire.

    Source : Juge fédérale américaine Ona Wang

    Et vous ?

    Pensez-vous que cette décision est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le New York Times remporte une victoire, mais à quel prix ? Un tribunal oblige OpenAI à sauvegarder indéfiniment toutes les conversations avec ChatGPT, même celles qui ont été supprimées

    Le juge rejette la demande d'OpenAI de rejeter les plaintes en matière de droits d'auteur. Un succès du Times signerait l'arrêt de l'exploitation gratuite des œuvres protégées par l'industrie de l'IA

    OpenAI propose 20 millions de conversations utilisateur dans le cadre du procès ChatGPT, mais le New York Times en demande 120 millions afin de rechercher toute violation du droit d'auteur
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #152
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    402
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 402
    Par défaut OpenAI conteste l'ordonnance lui enjoignant de remettre 20 millions de conversations privées ChatGPT au NYT
    OpenAI conteste l'ordonnance lui enjoignant de remettre 20 millions de conversations privées ChatGPT au New York Times, affirmant que cette ordonnance menace la vie privée des utilisateurs

    OpenAI a déposé une requête d'urgence pour contester une décision de justice qui oblige l'entreprise à remettre 20 millions de conversations ChatGPT complètes au New York Times. Le géant technologique affirme que cette ordonnance menace la vie privée des utilisateurs à une échelle sans précédent. Chacun de ces 20 millions d'enregistrements contient une conversation complète avec de multiples échanges entre les utilisateurs et ChatGPT. OpenAI prévient que cela diffère considérablement des paires de questions-réponses isolées. L'entreprise a comparé la différence entre écouter une discussion privée dans son intégralité et en capter un bref extrait de cinq secondes.

    OpenAI est une entreprise américaine d'intelligence artificielle (IA) fondée en 2015 à San Francisco en Californie. Sa mission est de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l'humanité ». L'entreprise est connue pour ses grands modèles de langage tels que GPT-4o, la série de modèles de génération d'images DALL-E et le modèle de génération de vidéos Sora. Son lancement de ChatGPT en novembre 2022 a déclenché un intérêt mondial pour les agents conversationnels et l'IA générative.

    En juillet, l'affaire qui oppose le New York Times à OpenAI ne se limite plus à une simple question de droit d'auteur. Elle révèle une tension bien plus fondamentale : peut-on sacrifier la vie privée des utilisateurs sur l’autel de la justice ? À la suite d’une décision de justice favorable au NYT, le journal va pouvoir examiner des journaux de conversation supprimés de ChatGPT, dans le cadre de son action en justice contre OpenAI. Derrière cette victoire judiciaire se cache une réalité beaucoup plus trouble, où les principes de confidentialité, de suppression volontaire des données, et même de légalité internationale, vacillent dangereusement.

    Pourtant, OpenAI avait contesté fermement l'ordonnance émise par le juge de l'affaire qui l'oppose au New York Times aux États-Unis. Le juge a ordonné à OpenAI de conserver l'intégralité des journaux de ChatGPT, y compris les conversations supprimées et les données sensibles collectées via son API. Cette mesure conservatoire est intervenue après que le New York Times et les autres plaignants ont accusé OpenAI de détruire des preuves. OpenAI s'oppose à cette décision, affirmant que cette exigence contredit ses engagements en matière de confidentialité des utilisateurs.

    Récemment, OpenAI a déposé une requête d'urgence pour contester une décision de justice qui oblige l'entreprise à remettre 20 millions de conversations ChatGPT complètes au New York Times. Le géant technologique affirme que cette ordonnance menace la vie privée des utilisateurs à une échelle sans précédent. Chacun de ces 20 millions d'enregistrements contient une conversation complète avec de multiples échanges entre les utilisateurs et ChatGPT. OpenAI prévient que cela diffère considérablement des paires de questions-réponses isolées. L'entreprise a comparé la différence entre écouter une discussion privée dans son intégralité et en capter un bref extrait de cinq secondes.

    Ce conflit trouve son origine dans un procès en cours pour violation du droit d'auteur, dans lequel le NYT et d'autres éditeurs accusent OpenAI d'avoir entraîné ses modèles d'IA à partir de contenus d'actualité volés. Alors qu'OpenAI avait initialement proposé de partager les journaux de conversation à titre de compromis à la demande du NYT qui souhaitait obtenir 120 millions de conversations, l'entreprise estime désormais que l'ordonnance du tribunal va trop loin.

    OpenAI a souligné que moins de 0,01 % de ces conversations sont liées au procès en cours. La société a demandé au tribunal de district d'annuler l'ordonnance et d'exiger des plaignants qu'ils collaborent avec OpenAI pour identifier les journaux de discussion réellement pertinents. Un recours devant la cour fédérale reste une option. La société a publié un message direct à l'intention des utilisateurs de ChatGPT pour leur expliquer la situation. Selon OpenAI, le NYT souhaite accéder à des millions de conversations privées dans le but spécifique de trouver des cas où des utilisateurs ont tenté de contourner le paywall du journal à l'aide de ChatGPT.


    Les préoccupations en matière de confidentialité vont au-delà de cette affaire judiciaire. Des conversations ChatGPT sont déjà apparues dans les résultats de recherche Google et dans l'outil Google Search Console utilisé par les développeurs pour surveiller le trafic web. OpenAI a annoncé son intention de développer des fonctionnalités de sécurité améliorées, notamment le chiffrement côté client pour les messages ChatGPT.

    L'équipe juridique d'OpenAI fait valoir qu'aucun tribunal n'a jamais ordonné une production aussi massive d'informations personnelles. Le dossier met en garde contre le fait que cela crée un précédent inquiétant, dans lequel tout plaignant poursuivant une entreprise d'IA pourrait exiger des dizaines de millions de conversations sans démontrer leur pertinence pour son affaire. L'entreprise a établi un parallèle avec la confidentialité des e-mails. Les tribunaux n'autorisent pas les plaignants poursuivant Google à consulter les messages Gmail privés de millions d'utilisateurs, que ces e-mails soient pertinents ou non pour l'affaire. OpenAI insiste sur le fait que les mêmes normes devraient protéger les journaux de discussion de l'IA.

    La juge américaine Ona Wang a rendu l'ordonnance contestée le 7 novembre, exigeant qu'OpenAI fournisse les 20 millions de journaux ChatGPT anonymisés d'ici le 14 novembre 2025 ou dans les sept jours suivant la fin du processus d'anonymisation. La juge a décidé que la production devait se poursuivre malgré le désaccord entre les deux parties sur la nécessité de partager l'intégralité des journaux.

    La juge Wang a déclaré qu'OpenAI n'avait pas démontré en quoi la vie privée des consommateurs restait menacée, compte tenu des deux protections existantes : l'ordonnance de protection dans le cadre du litige et l'anonymisation complète par OpenAI des 20 millions de journaux de discussion. OpenAI a rétorqué que le tribunal avait ignoré une déclaration sous serment d'un témoin expliquant que le processus d'anonymisation ne supprimait pas les informations susceptibles d'être privées, même lorsqu'elles ne permettaient pas d'identifier les utilisateurs. La société a donné l'exemple d'un journaliste du Washington Post utilisant ChatGPT pour l'aider à préparer un article.

    Le New York Times a répondu par une déclaration cinglante. Le journal a présenté son procès comme visant à tenir OpenAI et Microsoft responsables du vol de millions d'œuvres protégées par le droit d'auteur afin de créer des produits concurrents. Le NYT a accusé OpenAI d'avoir délibérément induit les utilisateurs en erreur et dissimulé des faits dans son article de blog sur l'ordonnance du tribunal.

    Le journal a insisté sur le fait qu'aucune confidentialité des utilisateurs de ChatGPT n'était menacée. Le tribunal a ordonné à OpenAI de fournir des échantillons de conversations anonymisées dans le cadre d'une ordonnance de protection juridique, OpenAI se chargeant elle-même de l'anonymisation. Le NYT a qualifié les préoccupations relatives à la confidentialité de malhonnêtes, soulignant que les conditions d'utilisation d'OpenAI autorisent déjà l'entreprise à former des modèles à partir des conversations des utilisateurs et à divulguer ces conversations à des fins judiciaires. La collection de chats contestée représente un échantillon aléatoire de conversations ChatGPT couvrant la période de décembre 2022 à novembre 2024. Les chats des clients professionnels ont été exclus de l'échantillon.

    OpenAI a proposé plusieurs alternatives axées sur la confidentialité au NYT. Il s'agissait notamment de recherches ciblées dans l'échantillon afin de localiser les chats contenant le texte d'articles du New York Times, afin de garantir que seules les conversations pertinentes seraient partagées. La société a également proposé des données de classification de haut niveau montrant comment ChatGPT était utilisé dans l'échantillon. Le NYT a rejeté toutes ces options.

    Les conversations sont conservées dans un système sécurisé protégé par une obligation légale de conservation. Cela signifie que les données ne peuvent être consultées ou utilisées à aucune fin autre que le respect des exigences légales. OpenAI a déclaré que le NYT serait légalement interdit de rendre publiques des données en dehors des procédures judiciaires. La société s'est engagée à lutter contre toute tentative de divulgation des conversations des utilisateurs.

    Nom : 1.jpg
Affichages : 5858
Taille : 18,5 Ko

    Dans un document déposé le 30 octobre, le NYT a accusé OpenAI d'avoir rompu les accords préalables en refusant de produire ne serait-ce qu'un petit échantillon des milliards de résultats du modèle que ses actions ont mis en cause dans cette affaire. Le journal a fait valoir que la production immédiate de l'échantillon de résultats était essentielle pour respecter la date limite de divulgation fixée au 26 février 2026. Le NYT a qualifié la proposition d'OpenAI d'effectuer des recherches sur le sous-ensemble des résultats du modèle d'inadéquate et inefficace. Les plaignants ont déclaré qu'ils ne pouvaient pas mener une analyse experte appropriée du fonctionnement des modèles d'OpenAI dans son produit grand public, de la manière dont la génération augmentée par la récupération fournit du contenu d'actualité, de la manière dont les consommateurs interagissent avec le produit et de la fréquence des hallucinations sans avoir directement accès aux résultats du modèle.

    OpenAI a rétorqué que les demandes de divulgation du NYT se concentraient initialement sur les journaux liés au contenu du Times. La société s'efforçait de répondre à ces demandes en échantillonnant les journaux de conversation. Vers la fin de ce processus, les plaignants ont déposé une requête avec une nouvelle demande : au lieu de trouver et de produire les journaux liés au contenu du Times, OpenAI devait remettre l'intégralité de l'échantillon de 20 millions de journaux sur un disque dur.
    Comparaison des affaires et des contextes

    L'ordonnance du juge Wang du 7 novembre citait l'affaire Concord Music Group, Inc. c. Anthropic PBC, une affaire californienne dans laquelle la juge fédérale américaine Susan van Keulen avait ordonné la production de 5 millions d'enregistrements. L'ordonnance indiquait qu'OpenAI avait systématiquement fait référence à la formule de van Keulen pour déterminer la taille de l'échantillon afin d'étayer la méthodologie qu'elle proposait pour l'échantillonnage des données de conversation. Pourtant, OpenAI n'a pas expliqué pourquoi l'ordonnance ultérieure de van Keulen ordonnant la production de l'intégralité de l'échantillon de 5 millions d'enregistrements au plaignant n'était pas tout aussi instructive.

    Dans sa réponse, OpenAI a déclaré que la société n'avait jamais eu l'occasion d'expliquer pourquoi l'affaire Concord ne devait pas s'appliquer ici, car les nouveaux plaignants n'y avaient pas fait référence dans leur requête. Selon OpenAI, l'ordonnance Concord ne portait pas sur la question de savoir si la production en gros de l'échantillon était appropriée. Elle concernait le mécanisme par lequel Anthropic exécuterait une production déjà convenue. Rien dans cette ordonnance ne suggère que van Keulen aurait ordonné une production en gros si Anthropic avait soulevé les préoccupations en matière de confidentialité soulevées par OpenAI tout au long de cette affaire.

    Les journaux Concord ne comprenaient que des paires de requêtes-réponses, c'est-à-dire une seule requête utilisateur suivie d'une seule réponse du modèle. Les journaux en question ici sont des conversations complètes. Chaque journal parmi les 20 millions d'échantillons représente un échange complet de plusieurs paires de requêtes-réponses entre un utilisateur et ChatGPT. Cela pourrait donner jusqu'à 80 millions de paires de requêtes-réponses.

    Pourtant, en septembre 2024, OpenAI a suscité une vive controverse en déclarant qu’il lui est impossible de former ses modèles d’IA sans utiliser des matériaux protégés par le droit d’auteur. Cette déclaration a été faite devant une sous-commission de la Chambre des Lords au Royaume-Uni, où OpenAI a plaidé pour le droit d’utiliser ces matériaux gratuitement. « Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine - y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux - il serait impossible d'entraîner les meilleurs modèles d'IA actuels sans utiliser des documents protégés par le droit d'auteur », a écrit l'entreprise dans son dossier de preuves.


    Voici les déclarations d'OpenAI :

    Lutter contre l'atteinte à la vie privée des utilisateurs par le New York Times

    La confiance, la sécurité et la confidentialité guident chacun de nos produits et chacune de nos décisions.

    Chaque semaine, 800 millions de personnes utilisent ChatGPT pour réfléchir, apprendre, créer et gérer certains des aspects les plus personnels de leur vie. Les gens nous confient des conversations sensibles, des fichiers, des identifiants, des souvenirs, des recherches, des informations de paiement et des agents IA qui agissent en leur nom. Nous traitons ces données comme les informations les plus sensibles de votre vie numérique et nous mettons en place des mesures de protection de la vie privée et de la sécurité à la hauteur de cette responsabilité.

    Aujourd'hui, cette responsabilité est mise à l'épreuve.

    Le New York Times exige que nous lui remettions 20 millions de vos conversations privées sur ChatGPT. Il prétend pouvoir trouver des exemples où vous auriez utilisé ChatGPT pour contourner son système de paiement.

    Cette demande ne tient pas compte des mesures de protection de la vie privée en vigueur depuis longtemps, va à l'encontre des pratiques de sécurité courantes et nous obligerait à divulguer des dizaines de millions de conversations hautement personnelles provenant de personnes qui n'ont aucun lien avec le procès sans fondement intenté par le Times contre OpenAI.

    Ils ont déjà tenté cela auparavant. À l'origine, le Times voulait vous priver de la possibilité de supprimer vos conversations privées. Nous nous sommes battus contre cela et avons rétabli votre droit de les supprimer. Ils ont ensuite exigé que nous leur remettions 1,4 milliard de vos conversations privées sur ChatGPT. Nous avons refusé, et nous refusons à nouveau aujourd'hui. Vos conversations privées vous appartiennent et ne doivent pas devenir un enjeu dans un litige concernant l'accès à du contenu en ligne.

    Nous respectons le journalisme indépendant et de qualité et collaborons avec de nombreux éditeurs et rédactions. Le journalisme a toujours joué un rôle essentiel dans la défense du droit à la vie privée des personnes à travers le monde. Cependant, cette demande du New York Times n'est pas à la hauteur de cet héritage, et nous demandons au tribunal de la rejeter. Nous continuerons à explorer toutes les options disponibles pour protéger la vie privée de nos utilisateurs.

    Nous accélérons notre feuille de route en matière de sécurité et de confidentialité afin de protéger vos données. OpenAI est l'une des organisations les plus ciblées au monde. Nous avons investi beaucoup de temps et de ressources dans la mise en place de systèmes visant à empêcher l'accès non autorisé à vos données par des adversaires allant des groupes criminels organisés aux services de renseignement soutenus par des États.

    Toutefois, si le Times obtient gain de cause, nous serons contraints de remettre les données que nous protégeons, à savoir vos données, à des tiers, notamment aux avocats et aux consultants rémunérés du Times.

    Notre feuille de route à long terme comprend des fonctionnalités de sécurité avancées conçues pour préserver la confidentialité de vos données, notamment le chiffrement côté client de vos messages avec ChatGPT. Nous pensons que ces fonctionnalités contribueront à préserver la confidentialité de vos conversations privées et à les rendre inaccessibles à quiconque, y compris à OpenAI. Nous mettrons en place des systèmes entièrement automatisés pour détecter les problèmes de sécurité dans nos produits. Seuls les abus graves et les risques critiques, tels que les menaces pour la vie d'une personne, les projets de nuire à autrui ou les menaces pour la cybersécurité, pourront être signalés à une petite équipe d'évaluateurs humains hautement qualifiés. Ces fonctionnalités de sécurité sont en cours de développement et nous vous communiquerons très prochainement plus de détails à leur sujet, ainsi que d'autres mesures d'atténuation à court terme.

    Les mesures de protection de la vie privée et de la sécurité doivent devenir plus efficaces à mesure que l'IA s'intègre davantage dans la vie des gens. Nous nous engageons à construire un avenir où vous pouvez être sûr que vos conversations les plus personnelles avec l'IA sont sûres, sécurisées et véritablement privées.

    —Dane Stuckey, directeur de la sécurité de l'information, OpenAI

    Réponses à vos questions

    Pourquoi le New York Times et d'autres plaignants exigent-ils cela ?

    Le New York Times poursuit OpenAI en justice. Dans le cadre de leur procès sans fondement, ils ont demandé au tribunal de nous obliger à leur remettre 20 millions de conversations d'utilisateurs. Cela leur permettrait d'accéder à des millions de conversations d'utilisateurs qui n'ont aucun rapport avec l'affaire.

    Nous sommes convaincus qu'il s'agit là d'une mesure excessive. Elle met en danger votre vie privée sans pour autant contribuer à résoudre le litige. C'est pourquoi nous nous y opposons.

    Qu'est-ce qui a conduit à cette étape du processus ?

    Les avocats du Times ont fait valoir devant le tribunal que leur demande devait être acceptée, en partie parce qu'une autre société d'IA avait précédemment accepté de remettre 5 millions de conversations privées de ses utilisateurs dans le cadre d'une affaire judiciaire sans rapport avec celle-ci.

    Nous sommes en total désaccord avec le fait que cela soit pertinent pour notre affaire et nous continuons à faire appel.

    Avez-vous proposé d'autres solutions au Times ?

    Nous avons présenté plusieurs options préservant la confidentialité au Times, notamment des recherches ciblées sur l'échantillon (par exemple, rechercher les conversations susceptibles de contenir du texte provenant d'un article du New York Times afin qu'ils ne reçoivent que les conversations pertinentes pour leurs revendications), ainsi que des données de haut niveau classifiant la manière dont ChatGPT a été utilisé dans l'échantillon.

    Ces propositions ont été rejetées par le Times.

    Le NYT est-il tenu de préserver la confidentialité de ces données ?

    Oui. Le Times serait légalement tenu, à ce stade, de ne divulguer aucune donnée en dehors de la procédure judiciaire. Cela dit, si le Times continue à faire pression pour y avoir accès d'une manière qui rendrait les conversations publiques, nous nous battrons pour protéger votre vie privée à chaque étape.

    La demande initiale du Times dans le cadre de ce procès était également beaucoup plus large. Il exigeait initialement 1,4 milliard de conversations privées sur ChatGPT, ce que nous avons réussi à contrer par voie judiciaire. Cela nous a alertés, car cela suggérait qu'il ne s'agissait pas d'une demande réfléchie ou véritablement nécessaire.

    Comment ces 20 millions de conversations ont-elles été sélectionnées ?

    Les 20 millions de conversations d'utilisateurs ont été échantillonnées de manière aléatoire entre décembre 2022 et novembre 2024.

    Mes données sont-elles potentiellement concernées ?

    Ces données comprennent un échantillon aléatoire de conversations ChatGPT de consommateurs entre décembre 2022 et novembre 2024.

    Les conversations en dehors de cette période ne sont pas susceptibles d'être affectées.

    Les clients professionnels sont-ils susceptibles d'être affectés ?

    Cela n'a aucune incidence sur les clients ChatGPT Enterprise, ChatGPT Edu, ChatGPT Business (anciennement « Team ») ou API.

    Que faites-vous pour protéger mes informations personnelles et ma vie privée ?

    Nous prenons toutes les conversations concernées et les soumettons à une procédure de dépersonnalisation afin de supprimer ou de « nettoyer » les informations d'identification personnelle (ou « PII ») et autres informations (par exemple, les mots de passe ou autres informations sensibles) de ces conversations.

    Nous ferons également en sorte que seul le Times puisse consulter ces données dans un environnement sécurisé, soumis à des protocoles juridiques stricts.

    Comment allez-vous stocker ces données ?

    Le contenu couvert par l'ordonnance du tribunal est actuellement stocké séparément dans un système sécurisé. Il est protégé par une conservation légale, ce qui signifie qu'il ne peut être consulté ou utilisé à d'autres fins que le respect des obligations légales.

    Seule une petite équipe juridique et de sécurité d'OpenAI, soumise à un audit, serait en mesure d'accéder à ces données si nécessaire pour se conformer à nos obligations légales.

    Qui pourra accéder à ces données ?

    Les avocats externes du Times chargés de l'affaire et les consultants techniques qu'ils ont engagés pourront accéder aux conversations. Nous ferons en sorte que le Times ne puisse consulter ces données que dans un environnement sécurisé, soumis à des protocoles juridiques stricts.

    Si le Times continue à faire pression pour y accéder d'une manière qui rendrait les conversations publiques, nous nous battrons pour protéger votre vie privée à chaque étape.

    Cette ordonnance judiciaire enfreint-elle le RGPD ou mes droits en vertu des lois européennes ou autres lois sur la confidentialité ?

    Nous prenons actuellement des mesures pour nous conformer à la loi, mais la demande du New York Times n'est pas conforme à nos normes en matière de confidentialité. C'est pourquoi nous la contestons.

    Comme mentionné, nous avons pris des mesures supplémentaires pour protéger votre vie privée, telles que la dépersonnalisation des données et la suppression des informations permettant de vous identifier.

    Allez-vous nous tenir informés ?

    Oui. Nous nous engageons à faire preuve de transparence et nous vous tiendrons informés. Nous vous communiquerons les informations importantes, notamment toute modification de l'ordonnance ou son incidence sur vos données.

    Source : Déclaration d'OpenAI

    Et vous ?

    Pensez-vous que cette déclaration d'OpenAI est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI propose 20 millions de conversations utilisateur dans le cadre du procès ChatGPT, mais le New York Times en demande 120 millions afin de rechercher toute violation du droit d'auteur

    Le Studio Ghibli et d'autres géants japonais exigent qu'OpenAI cesse l'entraînement de l'IA sur les personnages protégés par le droit d'auteur et les styles artistiques distinctifs appartenant à ces entreprises

    OpenAI déclare la course à l'IA « terminée » si l'entraînement sur des œuvres protégées par le droit d'auteur n'est pas considéré comme une utilisation équitable, ajoutant que les États-Unis seraient perdants
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #153
    Membre averti
    Homme Profil pro
    Consultant informatique en retraite
    Inscrit en
    Décembre 2010
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique en retraite
    Secteur : Conseil

    Informations forums :
    Inscription : Décembre 2010
    Messages : 39
    Par défaut NY times espion
    On ne voit pas bien pourquoi un journal aurait accès à des conversations privées ?

  14. #154
    Membre confirmé
    Homme Profil pro
    Retraité
    Inscrit en
    Juin 2008
    Messages
    90
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Retraité
    Secteur : Enseignement

    Informations forums :
    Inscription : Juin 2008
    Messages : 90
    Par défaut
    @J_P_P

    On ne voit pas pourquoi CATGOT piraterait les articles du NYT sans payer des droit d'auteur.
    Tout comme, très certainement, il se permet de pirater vos écrits sans votre consentement et même sans que vous le sachiez.

  15. #155
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 655
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 655
    Par défaut OpenAI perd une bataille dans les procès pour violation de droit d'auteur lors de l'entraînement de son IA
    OpenAI perd une bataille clé et cède du terrain face aux auteurs dans les procès pour violation de droit d'auteur liés à l’IA
    un tribunal lui ordonne de divulguer des communications internes

    OpenAI a subi un revers majeur dans le cadre d'un litige en cours concernant les droits d'auteur. Un juge fédéral a ordonné à l'entreprise de divulguer ses communications internes relatives à la suppression d'énormes ensembles de données contenant des livres piratés. Cette décision expose OpenAI à des dommages-intérêts potentiels de plusieurs milliards de dollars et représente une victoire importante pour les auteurs et les éditeurs qui poursuivent l'entreprise en justice. OpenAI cherche désespérément à éviter d'expliquer pourquoi il a supprimé ces ensembles de données provenant de livres piratés. L'entreprise conteste la décision du juge et a fait appel.

    L'affaire porte sur deux ensembles de données appelés « Books1 » et « Books2 » qu'OpenAI aurait utilisés pour entraîner son chatbot IA ChatGPT. Ces ensembles de données contiendraient des livre provenant de Library Genesis (LibGen), une bibliothèque pirate offrant un accès gratuit à des œuvres protégées par le droit d'auteur. Selon les documents judiciaires OpenAI a supprimé les deux ensembles de données en 2022, avant le lancement de de ChatGPT.

    OpenAI affirme que les bibliothèques ont été supprimées « en raison de leur non-utilisation ». Cependant, les auteurs soupçonnent qu'il y a plus que cela. Ils ont remarqué qu'OpenAI semblait faire volte-face en retirant son affirmation selon laquelle la « non-utilisation » était une raison pour les supprimer, puis en affirmant plus tard que toutes les raisons de la suppression, y compris la « non-utilisation », devaient être protégées par le secret professionnel.

    Pour les plaignants, il semblait qu'OpenAI faisait rapidement marche arrière après que le tribunal a accédé à leur demande de consultation des messages internes d'OpenAI au sujet de la « non-utilisation ». Le revirement d'OpenAI n'a fait que renforcer la curiosité des auteurs quant à la manière dont OpenAI avait abordé la question de la « non-utilisation », et ils pourraient désormais découvrir toutes les raisons pour lesquelles OpenAI a supprimé les livres.

    Le tribunal juge qu'OpenAI a renoncé au secret professionnel

    Dans sa décision rendue le 26 novembre 2025, la juge fédérale Ona Wang du district sud de New York, affirme qu'OpenAI avait renoncé à ses revendications en matière de secret professionnel en divulguant de manière sélective les raisons de la suppression des ensembles de données. la juge a ordonné à OpenAI de remettre les documents révélant ses motivations pour supprimer les ensembles de données. L'équipe juridique interne d'OpenAI sera entendue.


    Les enjeux sont considérables. Les communications internes d'OpenAI pourraient prouver une violation « délibérée » du droit d'auteur, passible d'une amende pouvant atteindre 150 000 dollars par œuvre. Cela pourrait représenter des milliards de dollars de dommages et intérêts, une facture salée pour OpenAI.

    Citation Envoyé par La juge fédérale Ona Wang

    OpenAI a renoncé à son privilège en faisant de ses revendications de privilège une cible mouvante. OpenAI a changé plusieurs fois d'avis sur la question de savoir si le « non-usage » en tant que « raison » de la suppression de Books1 et Books2 était un privilège. OpenAI ne peut pas invoquer une « raison » (ce qui implique qu'il ne s'agit pas d'un privilège), puis affirmer par la suite que cette « raison » est un privilège afin d'éviter la divulgation.
    « De plus, l'affirmation d'OpenAI selon laquelle toutes les raisons justifiant la suppression des ensembles de données sont confidentielles met à rude épreuve la crédulité », a conclu la juge Ona Wang, ordonnant à OpenAI de produire un large éventail de communications internes potentiellement révélateurs avant le 8 décembre 2025. OpenAI doit également mettre ses avocats internes à disposition du tribunal pour une déposition avant le 19 décembre 2025.

    La décision accorde aux auteurs et aux éditeurs l'accès aux communications d'OpenAI concernant la suppression des jeux de données. L'équipe juridique d'OpenAI devra également répondre à des questions concernant les motivations qui l'ont poussée à supprimer ces données. OpenAI a fait appel de cette décision peu après son prononcé, mais une autre demande concernant les communications entre les avocats d'OpenAI et ses clients reste en suspens.

    Des milliards en jeu alors que l'infraction délibérée menace

    Les implications de la décision du juge Ona Wang vont bien au-delà des litiges habituels en matière de droit d'auteur. Si les communications divulguées révèlent qu'OpenAI a sciemment enfreint le droit d'auteur, la société pourrait être accusée d'infraction délibérée. En vertu de la loi sur le droit d'auteur, « une violation délibérée est passible de dommages-intérêts pouvant atteindre 150 000 dollars par œuvre, contre 750 dollars pour une violation standard ».

    Avec des dizaines de millions de livres et d'articles potentiellement concernés, l'exposition financière pourrait atteindre des milliards de dollars. David Schultz, professeur à l'université Hamline, a souligné l'importance d'avoir accès aux communications des avocats. « Découvrir ce que les avocats ont dit ou ce que les clients ont dit aux avocats et vice-versa nous fournit probablement de nombreuses preuves concernant leur état d'esprit », affirme David Schultz.

    Il a ajouté que « cette divulgation porterait un coup énorme à la défense d'OpenAI ». Le résultat des manœuvres juridiques désordonnées d'OpenAI : l'entreprise a effectivement ouvert la porte à des informations privilégiées lorsqu'elle a divulgué la raison derrière la suppression de l'ensemble de données.

    Cette affaire suit un schéma similaire à celui du règlement conclu par la startup concurrente Anthropic avec des auteurs en août 2024. Anthropic a accepté de verser 1,5 milliard de dollars pour régler un recours collectif après que des auteurs l'ont accusée d'avoir entraîné son modèle de langage Claude sur des livres piratés provenant de la même source, Library Genesis. Anthropic a réfuté ces allégations, mais a finalement accepté un règlement à l'amiable.

    Selon les documents judiciaires, Anthropic a invoqué une « pression excessive » pour éviter un procès qui aurait pu lui coûter jusqu'à 1 000 milliards de dollars de dommages et intérêts. Dans le recours actuel contre OpenAI, si le tribunal détermine que l'entreprise a détruit des preuves en prévision d'un litige, les juges pourraient, lors de futurs procès, demander aux jurys de considérer que ces preuves auraient été préjudiciables à la cause de la startup d'IA.

    Le recours collectif implique de grands éditeurs et auteurs

    Le procès contre OpenAI regroupe plusieurs affaires de violation du droit d'auteur déposées devant différents tribunaux fédéraux. L'Authors Guild, une organisation professionnelle regroupant des écrivains, a déposé la première plainte en septembre 2023, rejointe par 17 auteurs de renom, dont George R.R. Martin, John Grisham, Jonathan Franzen, Jodi Picoult et Elin Hilderbrand. Le groupe défend la liberté d'expression et la protection du droit d'auteur.


    Le New York Times a déposé une plainte distincte en décembre 2023, accusant OpenAI d'utiliser ses articles de presse pour former des chatbots sans autorisation. OpenAI a demandé le rejet de la plainte. Mais en octobre 2024, le juge fédéral américain Sidney Stein, qui supervise les affaires regroupées, a statué que les auteurs pouvaient poursuivre leur action en justice, estimant que les résumés générés par ChatGPT enfreignaient leurs droits d'auteur.

    Le juge Sidney Stein a estimé que les résumés d'œuvres telles que la série « Game of Thrones » de George Martin sont suffisamment similaires aux livres originaux pour constituer une violation du droit d'auteur. La bataille autour de la divulgation des communications internes d'OpenAI ne représente qu'un aspect des longues procédures préalables au procès. Le revers subi par OpenAI pourrait avoir des grandes implications pour la suite de la procédure.

    Les auteurs et les éditeurs ont déjà eu accès à certains messages Slack d'employés discutant de la suppression des ensembles de données en question, mais ils continuent de faire pression pour obtenir une divulgation plus large des communications des avocats d'OpenAI et des processus décisionnels.

    Si des preuves montrent qu'OpenAI a détruit des ensembles de données en prévision d'un litige, le tribunal pourrait imposer des sanctions supplémentaires, notamment des pénalités financières ou des limitations des moyens de défense juridiques de l'entreprise. (Pour rappel, selon les documents judiciaires, les deux chercheurs qui ont créé Books1 et Books2 ne sont plus employés par OpenAI. OpenAI a d'abord refusé de révéler l'identité des deux employés.)

    Conclusion

    OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur. L'entreprise déclare la course à l'IA « terminée » si l'entraînement sur des œuvres protégées par le droit d'auteur n'est pas considéré comme une utilisation équitable. Mais cette pratique menace les moyens de subsistance des auteurs et des créateurs, car OpenAI rechigne à l'idée de payer les propriétaires des œuvres protégées.

    La situation crée une atmosphère de conflit avec les auteurs. La décision de la juge Ona Wang marque un tournant majeur dans les litiges autour de l’IA et du droit d’auteur. OpenAI se retrouve exposé à des risques financiers considérables et à un examen plus strict de ses pratiques internes. L'affaire pourrait créer un précédent pour l’ensemble du secteur de l’IA, incitant les entreprises à revoir la manière dont elles collectent et utilisent des contenus protégés.

    Pour éviter d'être reconnue coupable de violation délibérée, OpenAI devra démontrer qu'il croyait de bonne foi en l'innocence de son action. L'entreprise fait face à une bataille difficile sur cette question. Pour l'instant, OpenAI continue d'affirmer qu'il n'a pas délibérément enfreint les droits d'auteur.

    Source : décision judiciaire (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la décision du juge dans cette affaire ?
    Quelles pourraient être les implications pour l'ensemble de l'industrie de l'IA ?

    Voir aussi

    OpenAI a supprimé deux jeux de données utilisés pour entraîner illégalement GPT-3, ils contenaient des milliers de livres sous copyright et les employés qui avaient collecté ces données ont disparu

    Un juge américain autorise une action collective à l'échelle nationale contre Anthropic pour le piratage présumé de 7 millions de livres téléchargés illégalement à des fins d'entraînement de son IA Claude

    OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur et estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement »

  16. #156
    Membre extrêmement actif Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 054
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 054
    Par défaut
    Voila une nouvelle qu'elle est bonne.

    Après, vu que le llm ne serait plus rien une fois qu'il aura tué tous les créateurs de valeur, que le créateur du llm ne veuillent pas rémunérer les créateurs de contenu montre que OpenIA n'a qu'une vision très court terme de sa finance.

  17. #157
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 619
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 619
    Par défaut OpenAI perd son combat pour garder secrets les journaux ChatGPT dans une affaire de droits d'auteur
    OpenAI perd son combat face au New York Times pour garder secrets les journaux ChatGPT dans une affaire de droits d'auteur et doit produire des millions de journaux de discussion des utilisateurs de ChatGPT

    La juge a rejeté les objections d'OpenAI relatives à la confidentialité concernant une ordonnance antérieure exigeant que la start-up spécialisée dans l'intelligence artificielle soumette les enregistrements comme preuves. OpenAI doit donc produire des millions de journaux de discussion anonymisés provenant d'utilisateurs de ChatGPT dans le cadre de son litige très médiatisé avec le New York Times et d'autres organes de presse, a statué un juge fédéral de Manhattan.

    L'affaire qui oppose le New York Times à OpenAI ne se limite plus à une simple question de droit d'auteur. Elle révèle une tension bien plus fondamentale : peut-on sacrifier la vie privée des utilisateurs sur l’autel de la justice ? À la suite d’une décision de justice favorable au NYT, le journal va pouvoir examiner des journaux de conversation supprimés de ChatGPT, dans le cadre de son action en justice contre OpenAI. Derrière cette victoire judiciaire se cache une réalité beaucoup plus trouble, où les principes de confidentialité, de suppression volontaire des données, et même de légalité internationale, vacillent dangereusement.

    En novembre 2025, OpenAI a alors déposé une requête d'urgence pour contester la décision de justice qui oblige l'entreprise à remettre 20 millions de conversations ChatGPT complètes au New York Times. Le géant technologique affirme que cette ordonnance menace la vie privée des utilisateurs à une échelle sans précédent. Chacun de ces 20 millions d'enregistrements contient une conversation complète avec de multiples échanges entre les utilisateurs et ChatGPT. OpenAI prévient que cela diffère considérablement des paires de questions-réponses isolées. L'entreprise a comparé la différence entre écouter une discussion privée dans son intégralité et en capter un bref extrait de cinq secondes.

    Pourtant, le juge a récemment rejeté les objections d'OpenAI liées à la confidentialité concernant l'ordonnance exigeant que l'entreprise à soumette les enregistrements comme preuves. « Il existe plusieurs niveaux de protection dans cette affaire, précisément en raison de la nature hautement sensible et privée d'une grande partie des éléments découverts », a déclaré la juge Wang.

    OpenAI doit donc produire des millions de journaux de discussion anonymisés provenant d'utilisateurs de ChatGPT dans le cadre de son litige très médiatisé avec le New York Times et d'autres organes de presse, a statué un juge fédéral de Manhattan. Dans la décision rendue publique, la juge fédérale américaine Ona Wang a déclaré que les 20 millions de journaux étaient pertinents pour les revendications des médias et que leur remise ne risquait pas de porter atteinte à la vie privée des utilisateurs.

    Nom : 1.jpg
Affichages : 6794
Taille : 18,5 Ko

    La juge a rejeté les objections d'OpenAI relatives à la confidentialité concernant une ordonnance antérieure exigeant que la start-up spécialisée dans l'intelligence artificielle soumette les enregistrements comme preuves. « Il existe plusieurs niveaux de protection dans cette affaire, précisément en raison de la nature hautement sensible et privée d'une grande partie des éléments découverts », a déclaré la juge Wang.

    En réponse, un porte-parole d'OpenAI a cité un article de blog publié précédemment qui affirmait que la demande du Times concernant les journaux de discussion « ne tenait pas compte des protections de longue date en matière de vie privée » et « allait à l'encontre des pratiques de sécurité dictées par le bon sens ». OpenAI a fait appel séparément de la décision de la juge Wang auprès du juge présidant l'affaire, le juge fédéral Sidney Stein.

    Un groupe de journaux appartenant à MediaNews Group, filiale d'Alden Global Capital, est également impliqué dans le procès. Le rédacteur en chef de MediaNews Group, Frank Pine, a déclaré dans un communiqué que les dirigeants d'OpenAI « hallucinaient en pensant pouvoir s'en tirer en dissimulant des preuves montrant que leur modèle économique repose sur le vol de journalistes qui travaillent dur ».

    Cette affaire, initialement intentée par le Times en 2023, fait partie des nombreuses poursuites engagées par des titulaires de droits d'auteur contre des entreprises technologiques telles qu'OpenAI, Microsoft et Meta Platforms pour avoir utilisé leur contenu sans autorisation afin d'entraîner leurs systèmes d'IA. Les médias ont fait valoir dans leur procès contre OpenAI que les journaux étaient nécessaires pour déterminer si ChatGPT reproduisait leur contenu protégé par le droit d'auteur et pour réfuter l'affirmation d'OpenAI selon laquelle ils avaient « piraté » les réponses du chatbot afin de fabriquer des preuves.

    OpenAI a rétorqué que la remise des journaux divulguerait des informations confidentielles sur les utilisateurs et que « 99,99 % » des transcriptions n'avaient rien à voir avec les allégations de violation. Malgré cela, en août, OpenAI a proposé de donner accès à 20 millions de conversations d'utilisateurs issues de sa plateforme ChatGPT. Le Times, cependant, réclame une divulgation beaucoup plus large (120 millions de conversations) afin de vérifier si le système d'IA a reproduit mot pour mot ses articles protégés par le droit d'auteur.

    Dans son ordonnance initiale demandant la production des conversations, la juge Wang avait déclaré que la vie privée des utilisateurs d'OpenAI serait protégée par la « dépersonnalisation exhaustive » et d'autres mesures de protection mises en place par l'entreprise. Dans sa nouvelle décision, la juge Wang a réitéré que les mesures prises par l'entreprise « atténueraient raisonnablement les préoccupations liées à la vie privée ». La juge Wang a ordonné à OpenAI de produire les journaux dans un délai de sept jours après avoir supprimé les informations permettant d'identifier les utilisateurs.

    Source : Juge fédérale américaine Ona Wang

    Et vous ?

    Pensez-vous que cette décision est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI perd une bataille clé et cède du terrain face aux auteurs dans les procès pour violation de droit d'auteur liés à l'IA. Un tribunal lui ordonne de divulguer des communications internes

    OpenAI va enfin cesser de conserver la plupart des conversations supprimées et temporaires des utilisateurs de ChatGPT, après qu'un procès ait contraint OpenAI à conserver les journaux « indéfiniment »

    La justice US nie avoir créé un programme de « surveillance de masse » des utilisateurs de ChatGPT en obligeant OpenAI à conserver les journaux de conversation. L'EFF estime que la police pourrait s'en servir
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 10
    Dernier message: 30/01/2025, 03h43
  2. [AJAX] votre avis sur les livres sur Ajax
    Par gtraxx dans le forum Général JavaScript
    Réponses: 4
    Dernier message: 02/11/2006, 18h15
  3. question sur les livres c++ proposées...
    Par Davidp dans le forum C++
    Réponses: 6
    Dernier message: 09/12/2004, 22h37

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo