IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #21
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 336
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 336
    Par défaut Anthropic poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés
    Anthropic, le développeur de Claude AI, poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur

    Des auteurs poursuivent la startup d'IA Anthropic, l'accusant d'avoir entraîné son chatbot sur des livres piratés. La plainte affirme qu'Anthropic a profité d'œuvres protégées par des droits d'auteur sans consentement ni compensation. De son côté, Anthropic soutient que la formation à l'IA relève de l'usage loyal, mais le procès conteste cette interprétation.

    Les algorithmes d’IA ont besoin de données pour s’entraîner et apprendre. Cependant, l’accès non autorisé aux données peut entraîner des problèmes. Certaines entreprises d’IA, comme Anthropic, ont été accusées de solliciter les serveurs de sites web sans autorisation, ce qui peut entraîner une surcharge des ressources et des temps d’arrêt.

    L'une de leur victime n'est autre qu'iFixit. Le PDG de la structure, Kyle Wiens, a interpellé la société d’IA Anthropic avec agacement. Il ne s'agit pas seulement du fait qu'une société d'IA semble engorger les ressources du serveur, mais aussi du fait qu'il lui a été expressément interdit d'utiliser le contenu sur ses serveurs. Comme le souligne M. Wiens, il suffit d'accéder aux conditions d'utilisation pour s'en rendre compte : "N'utilisez pas le contenu." Cela a conduit certains à se demander si les entreprises d'IA ne préfèrent pas demander pardon plutôt que demander la permission, et ne prennent donc pas la peine de vérifier les conditions d'utilisation en premier lieu.

    Dans ce contexte, un groupe d'auteurs a intenté un procès à la société d'IA Anthropic, affirmant qu'elle a commis un "vol à grande échelle" en entraînant son chatbot sur des copies pirates de livres protégés par le droit d'auteur.


    Anthropic poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur

    Basée à San Francisco et fondée par d'anciens patrons d'OpenAI, Anthropic a fait de la version digne de confiance de l'IA un élément central de ses efforts de marketing autour de son chatbot, Claude, promettant de fournir des "systèmes d'IA fiables, interprétables et orientables". L'entreprise a même appelé de ses vœux des propositions d'IA axées sur la sécurité.

    Cette image a été quelque peu ébranlée par la plainte déposée le 19 août dernier devant un tribunal fédéral de San Francisco, alléguant qu'Anthropic a enseigné son produit d'IA en utilisant des bibliothèques d'œuvres piratées. Des plaintes similaires ont été déposées contre ChatGPT d'OpenAI et contre Anthropic lui-même par des éditeurs de musique. "Il n'est pas exagéré de dire que le modèle d'Anthropic cherche à tirer profit de l'exploitation de l'expression humaine et de l'ingéniosité qui se cachent derrière chacune de ces œuvres", affirme la plainte.

    Les auteurs qui intentent ce procès sont Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, qui cherchent à représenter une classe d'auteurs de fiction et de non-fiction partageant les mêmes idées. Les plaignants affirment que l'entreprise technologique a construit ses modèles d'IA en utilisant du travail humain. Cela permet d'entraîner des chatbots d'IA comme Claude à produire du texte, sans le consentement des créateurs originaux et sans leur offrir la moindre compensation. Bien que cette affaire porte sur l'écrit, Anthropic fait actuellement l'objet de plaintes similaires de la part d'éditeurs de musique, qui affirment que l'IA générative tire profit de l'utilisation abusive d'œuvres créatives.

    Anthropic et d'autres entreprises technologiques se sont défendues en faisant valoir que la formation de modèles d'IA relevait de la doctrine de l'usage loyal de la loi américaine sur le droit d'auteur. Cette doctrine couvre généralement l'enseignement, la recherche ou la transformation d'œuvres protégées par le droit d'auteur en quelque chose de nouveau.

    Toutefois, le procès intenté à Anthropic affirme que les systèmes d'IA n'apprennent pas de la même manière que les humains : "Les humains qui apprennent à partir de livres en achètent des copies légales ou les empruntent à des bibliothèques qui les achètent, offrant ainsi au moins une certaine compensation aux auteurs et aux créateurs."

    Source : Tribunal fédéral de San Francisco

    Et vous ?

    Pensez-vous que cette plainte est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Apple et d'autres ont formé leurs modèles d'IA sur un ensemble de données compilé à partir des transcriptions de 173 536 vidéos réparties sur plus de 48 000 chaînes YouTube, sans le consentement des créateurs

    De nombreux sites restreignent l'utilisation de leurs données pour empêcher la formation de l'IA, selon une étude. La «crise émergente du consentement» pourrait constituer une menace pour les entreprises d'IA

    « Il est impossible de créer des outils comme ChatGPT sans contenus sous copyright », selon OpenAI, qui suscite des réactions dont celles de fermer le service ou de l'amener à rémunérer les auteurs
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #22
    Membre Expert
    Homme Profil pro
    Inscrit en
    Octobre 2011
    Messages
    2 910
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Octobre 2011
    Messages : 2 910
    Par défaut
    Salut,

    Citation Envoyé par Jules34 Voir le message
    Libre aux gens de mettre à disposition gratuitement LEUR travail et de prendre les revenus de la pub puisque la propriété intellectuelle leurs permet d'exploiter leurs création comme ils l'entendent. C'est du droit assez basique... C'est pas parce qu'une chose est gratuite ou mise à disposition que tu peux en faire ce que tu veux.
    Oui ce n'est pas parce qu'un contenu est gratuit qu'on peut en faire ce que l'on veut mais si le but c'est de se faire de l'argent avec la pub est-ce que cela leur donne le droit par exemple d'interdire la copie privée ? Ou encore d'interdire toute traduction automatique ?

    Je précise que ce sont de vraies questions que je me pose...

    On voit en effet parfois des conditions d'utilisation sur certains sites mais ont-ils le droit par ce biais d'ajouter leurs propres lois (comme par exemple celle d'interdire la copie privée) ?

    En tous cas cela explique pourquoi on voit de plus en plus de messages nous demandant de laisser passer les pubs (en réglant notre bloqueur de pubs) ou bien de s'abonner...

    Citation Envoyé par Stéphane le calme Voir le message
    Il ne devrait y avoir aucune raison pour qu'une société d'IA se rende sur le site d'iFixit, car ses conditions d'utilisation stipulent que « la copie ou la distribution de tout contenu, matériel ou élément de conception sur le site à toute autre fin, y compris l'entraînement d'un modèle d'apprentissage automatique ou d'IA, est strictement interdite sans l'autorisation écrite expresse et préalable d'iFixit ». À moins qu'il ne veuille nous faire croire qu'il n'utilisera pas les données qu'il récupère à ces fins, et qu'il le fait juste pour... s'amuser ?
    Ce passage m'interpelle, de quelle sorte de copie il est question ?

    Peut-on interdire la copie privée ?

    PS : D'ailleurs le simple fait de visiter le site n'implique-t-il pas une copie par le navigateur ? Est-ce un cas particulier de copie autorisé ?

  3. #23
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 406
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 406
    Par défaut Anthropic remporte une victoire importante au sujet de « l'usage loyal » pour l'entraînement des modèles d'IA
    Anthropic remporte une victoire importante au sujet de « l'usage loyal » pour l'entraînement des modèles d'IA, mais doit faire face à un procès concernant les dommages-intérêts pour des millions d'œuvres piratées

    L'entraînement des grands modèles de langage (LLM) sur des livres achetés légalement sans l'autorisation des auteurs constitue un « usage loyal ». C'est la décision rendue par le juge fédéral américain William Alsup dans une action en justice contre Anthropic pour violation de droit d'auteur. Cette décision inédite constitue une victoire importante pour l'industrie de l'IA, mais met également en garde toutes les entreprises qui espèrent que le même raisonnement s'appliquera à l'entraînement sur des copies pirates de livres, une question qui reste en suspens. À ce propos, Anthropic fera l'objet d'un procès pour avoir piraté des millions de livres sur Internet.

    Contexte

    En août 2024, les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson ont intenté un recours collectif contre Anthropic dans le district nord de la Californie. L'action en justices accuse Anthropic, développeur de Claude AI, d'avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur, sans consentement ni compensation. Mais Anthropic soutient que l'entraînement de l'IA sur des œuvres protégées relève de l'usage loyal.

    En avril 2025, Anthropic a déposé son opposition à la requête en certification de recours collectif, arguant qu'un recours collectif en matière de droit d'auteur portant sur des millions de livres n'était pas gérable et que les questions étaient trop distinctes pour être résolues dans le cadre d'un recours collectif.

    Dans le cadre de cet argument, Anthropic a mis en garde contre « la perspective de dommages-intérêts légaux ruineux - 150 000 dollars multipliés par 5 millions de livres » : cela représenterait 750 milliards de dollars. Un mois plus tard, une audience a eu lieu concernant la requête d'Anthropic en vue d'obtenir un jugement sommaire sur l'usage loyal, qui a examiné dans quelle mesure l'utilisation des œuvres en question pouvait être qualifiée d'usage loyal.

    Anthropic remporte une victoire importante concernant l'usage loyal

    Le juge William Alsup, de la cour fédérale du district nord de Californie, a rendu un jugement sommaire en faveur d'Anthropic, estimant que l'utilisation des livres protégés par le droit d'auteur à des fins de formation et le passage du format papier au format numérique constituent tous deux un « usage loyal ». Il s'agit d'une décision inédite en faveur de l'industrie de l'IA, mais elle est surtout limitée aux livres physiques qu'Anthropic a achetés et numérisés.

    Nom : Capture d'écran 2025-06-25 105902.png
Affichages : 3690
Taille : 147,1 Ko

    Cette affaire diffère des autres poursuites judiciaires dans lesquelles les auteurs allèguent que les modèles d'IA risquent de copier et de diffuser leurs œuvres. Étant donné que les auteurs qui ont poursuivi Anthropic n'ont pas allégué que les productions d'Anthropic reproduisaient leurs œuvres ou leur style expressif, le juge a estimé qu'il n'y avait aucune menace que le générateur de texte d'Anthropic, Claude, puisse remplacer les auteurs sur leurs marchés.

    Ce qui a fait pencher le jugement en faveur d'Anthropic. « Comme tout lecteur aspirant à devenir écrivain, les LLM d'Anthropic ont été formés sur des œuvres non pas pour les devancer et les reproduire ou les supplanter, mais pour prendre un virage difficile et créer quelque chose de différent », a écrit le juge. Selon les auteurs, le fait que Claude s'appuie sur leurs textes pourrait générer des résumés concurrents ou des versions alternatives de leurs histoires.

    Mais le juge William Alsup a rejeté l'argument des plaignants. Il a affirmé que ces plaintes revenaient à affirmer que « former les écoliers à bien écrire entraînerait une explosion d'œuvres concurrentes ». « Ce n'est pas le type de concurrence ou de déplacement créatif qui préoccupe la loi sur le droit d'auteur. La loi vise à promouvoir les œuvres originales des auteurs, et non à protéger les auteurs contre la concurrence », a écrit le juge William Alsup.

    Anthropic se dit « satisfait » de la décision et a publié une déclaration saluant la reconnaissance par le tribunal du fait que « l'utilisation d'œuvres pour former de grands modèles de langage est transformative, et ce de manière spectaculaire ». Cependant, l'entreprise n'est pas tirée d'affaire pour autant.

    Anthropic reste en difficulté pour avoir piraté des millions de livres

    Malgré sa victoire, Anthropic doit toujours faire face à un procès pour piratage, pour lequel le juge William Alsup a estimé qu'il ne s'agissait pas d'une utilisation équitable. Anthropic est accusé d'avoir téléchargé jusqu'à sept millions de livres piratés afin de constituer une bibliothèque de recherche où les copies seraient conservées « à jamais », qu'elles aient été utilisées ou non dans le cadre de l'entraînement de ses grands modèles de langage.

    Ayant apparemment compris que le piratage pouvait entraîner des poursuites judiciaires, Anthropic a ensuite tenté de remplacer les livres piratés par des copies achetées légalement. Toutefois, l’entreprise a également soutenu que même la copie initiale de ces livres piratés constituait une étape « intermédiaire » nécessaire pour permettre un usage transformateur dans l’entraînement de l’IA. Un argument largement controversé que le tribunal a rejeté.

    Et, argument peut-être le moins convaincant, Anthropic a également fait valoir que, puisqu'il aurait pu emprunter les livres qu'il a initialement volés (piratés), le vol en lui-même ne devrait pas « court-circuiter » l'analyse de l'usage loyal. Mais le juge William Alsup n'a pas été convaincu par ce dernier non plus.

    Il a souligné que la copie de livres à partir d'un site pirate constitue une violation du droit d'auteur. Il a rejeté l'hypothèse d'Anthropic selon laquelle l'utilisation des copies pour une bibliothèque peut être excusée au titre de l'usage loyal parce que certaines seront finalement utilisées pour former des LLM », et il a émis des doutes quant à la possibilité pour les autres procès liés à l'IA et portant sur le piratage d'échapper au paiement de dommages-intérêts.

    Citation Envoyé par Le juge William Alsup

    Cette décision met en doute le fait qu'un contrefacteur présumé puisse jamais réussir à démontrer en quoi le téléchargement de copies provenant de sites pirates — alors qu’il aurait pu les acheter ou y accéder légalement autrement — était en soi raisonnablement nécessaire à un usage ultérieur relevant de l’usage équitable. Un tel piratage de copies autrement disponibles constitue, par nature, une violation irrémédiable, même si les copies piratées sont utilisées immédiatement pour un usage transformatif et immédiatement supprimées.
    Le juge a ajouté que l’affaire Anthropic n’avait peut-être même pas besoin de trancher cette question, car la simple conservation des livres piratés dans sa bibliothèque de recherche n’était pas un usage transformateur. Il a écrit que l’argument d’Anthropic consistant à conserver du matériel piraté potentiellement utile à l’entraînement de l’IA, au cas où l’entreprise déciderait un jour de l’utiliser, revenait à glisser rapidement sur une fine couche de glace.

    En outre, le juge a souligné que les premières tentatives d'Anthropic pour obtenir l'autorisation de former ses employés sur les œuvres des auteurs ont échoué, car des messages internes ont révélé que l'entreprise avait conclu que le vol de livres était considéré comme la voie la plus rentable vers l'innovation « afin d'éviter les « tracas juridiques/pratiques/commerciaux », comme l'a déclaré Dario Amodei, cofondateur et PDG de l'entreprise.

    « Anthropic a tort de supposer que tant que vous créez un produit final passionnant, toutes les étapes en coulisses, invisibles au public, sont excusables. « Ici, le piratage était le but : construire une bibliothèque que l'on aurait pu payer, comme Anthropic l'a fait par la suite, mais sans la payer », a écrit le juge.

    La décision trace désormais un cadre pour l'entraînement de l'IA

    Les auteurs pourraient intenter de nouvelles poursuites s'ils trouvaient des preuves de contrefaçon dans les productions de Claude. « Les auteurs concèdent que la formation des LLM n'a pas donné lieu à la fourniture au public de copies exactes ni même de contrefaçons de leurs œuvres. Si tel n'était pas le cas, l'affaire serait différente. Les auteurs restent libres d'intenter une action en justice à l'avenir si de tels faits venaient à se produire », a écrit le juge.

    Il s'agit d'une décision mitigée sur l'usage loyal, qui constitue une perte tant pour les titulaires de droits d'auteur que pour Anthropic, mais qui pourrait être une victoire pour les plateformes d'IA en général. Si elle est confirmée, cette décision signifierait que les entreprises d'IA utilisant du matériel protégé par le droit d'auteur pour former leurs modèles pourraient être autorisées à le faire à l'avenir. La seule exception à cette règle serait si le matériel a été piraté.

    Il est encore trop tôt pour dire quel montant le juge William Alsup jugera approprié de proposer au jury à titre de dommages-intérêts, mais la quantité de matériel protégé par le droit d'auteur utilisé par Anthropic sous forme piratée était énorme, de sorte que les dommages-intérêts pourraient être très importants.

    Conclusion

    Les entreprises d'IA affirment qu'elles ne peuvent pas respecter les droits d'auteur dans le cadre de l'entraînement de leurs modèles d'IA. OpenAI veut un accès illimité aux œuvres protégées par le droit d'auteur. Le fabricant du chatbot d'IA populaire ChatGPT affirme également que cette utilisation doit être placée sous le principe de l'utilisation équitable (fair use). OpenAI avertit que la course à l'IA prendrait immédiatement fin s'il en était autrement.

    En janvier 2024, OpenAI affirmait : « étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine, il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur ». OpenAI reconnaît donc ouvertement qu'il utilise des contenus protégés par le droit d'auteur pour créer ses modèles d'IA. L'entreprise n'a toutefois pas encore été condamnée.

    Cependant, une équipe de chercheurs a relevé le défi et a démontré qu'il est possible de former des modèles d'IA puissants sans enfreindre la loi. La décision du juge fédéral William Alsup émet un gros avertissement pour les entreprises d'IA qui cherchent à contourner les droits d’auteur.

    Selon le juge William Alsup, les entreprises d'IA n'ont pas besoin de l'autorisation des auteurs pour entraîner leurs grands modèles de langage sur des livres achetés légalement. Il s'agit d'un usage loyal. Ce jugement fournit un référentiel pragmatique pour l’industrie de l'IA : « s’assurer que les données utilisées proviennent de sources légales et légitimes avant l’entraînement. Tout recours à du contenu piraté expose à un risque juridique majeur ».

    Source : la décision du juge de district William Alsup (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Le juge William Alsup affirme que l'entraînement de l'IA sur des livres achetés légalement sans l'autorisation des auteurs constitue un usage loyal. Qu'en pensez-vous ?
    Quels impacts cette décision pourrait-elle avoir sur l'ensemble de l'industrie de l'IA ?
    Cette décision répond-elle aux préoccupations des détenteurs de droits d'auteur ?

    Voir aussi

    Anthropic, le développeur de Claude AI, poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur

    Les entreprises d'IA affirment qu'elles ne peuvent pas respecter les droits d'auteur mais ces chercheurs ont essayé, démontrant que former des modèles d'IA puissants sans enfreindre la loi, c'est possible

    OpenAI déclare la course à l'IA « terminée » si l'entraînement sur des œuvres protégées par le droit d'auteur n'est pas considéré comme une utilisation équitable, ajoutant que les États-Unis seraient perdants

  4. #24
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 406
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 406
    Par défaut Anthropic a acheté, découpé et numérisé des millions de livres physiques avant de détruire les originaux
    Anthropic a acheté, découpé et numérisé des millions de livres physiques avant de détruire les originaux, dans le seul but d'entraîner son IA Claude
    il a également téléchargé 7 millions de livres piratés

    L'action en justice contre Anthropic révèle la façon dont l'entreprise a détruit des millions de livres imprimés dans le seul but de former son IA Claude. Anthropic a retiré la reliure des livres, les a numérisés en fichiers numériques et a jeté les originaux. Cette numérisation destructrice a joué en sa faveur : le juge a estimé que cela relève de l'usage loyal, car les livres achetés ont été transformés, utilisés en interne, sans création de nouveaux exemplaires. Mais l'affaire se complique : Anthropic a aussi téléchargé plus de 7 millions de livres numériques piratés. Pour ces copies pirates, Anthropic doit faire face à un procès pour des dommages-intérêts.

    Le juge William Alsup, de la cour fédérale du district nord de Californie, a rendu un jugement sommaire en faveur d'Anthropic, estimant que l'utilisation des livres protégés par le droit d'auteur à des fins d'entraînement et le passage du format papier au format numérique constituent tous deux un « usage loyal ». Il s'agit d'une décision inédite en faveur de l'industrie de l'IA, mais elle est surtout limitée aux livres imprimés qu'Anthropic a achetés et numérisés.

    Une révélation surprenante se cache dans les détails de la décision juridique de 32 pages. Elle explique comment, en février 2024, Anthropic a embauché Tom Turvey, l'ancien responsable des partenariats pour le projet de numérisation des livres de Google Books, et l'a chargé d'obtenir « tous les livres du monde ».

    Selon le récit du juge William Alsup, Anthropic a dépensé plusieurs millions de dollars pour cette opération d'achat et de numérisation, achetant souvent des livres d'occasion en gros. Ensuite, Anthropic retirait les livres de leurs reliures, coupait les pages aux dimensions voulues, les numérisait sous forme de piles de pages pour en faire des fichiers PDF contenant du texte lisible par machine, y compris les couvertures, puis jetait tous les originaux imprimés.

    Anthropic a détruit définitivement les livres achetés et n'a pas l'intention de rendre publiques les copies numériques ainsi obtenues. En fin de compte, le juge William Alsup a estimé que cette opération de numérisation destructive relève de l'usage loyal, mais uniquement parce qu'Anthropic avait d'abord acheté légalement les livres, détruit chaque copie imprimée après numérisation et conservé les fichiers numériques en interne au lieu de les distribuer.

    Critiques sur l'opération de numérisation destructive de livres

    La pratique d’Anthropic (acheter des livres d’occasion, les découper, puis les jeter après numérisation) a suscité de vives critiques, même si la justice l’a jugée légale. Plusieurs voix, notamment dans le monde de l’édition, des bibliothèques et de la préservation du patrimoine, estiment que cette méthode constitue un véritable gaspillage culturel. Ils dénoncent notamment la disparition d’exemplaires imprimés parfois rares ou très difficiles à retrouver.


    Enfin, des éditeurs et des défenseurs du livre patrimonial affirment que cette approche destructrice est symbolique d’une vision purement extractive de la culture, où le livre n’est réduit qu’à une matière première pour entraîner une IA, sans respect pour sa valeur patrimoniale ou artistique.

    Si la « numérisation destructive » est une pratique courante dans certaines opérations de numérisation de livres, l'approche d'Anthropic était quelque peu inhabituelle en raison de son échelle massive documentée. L'entreprise avait d'autres alternatives. Par exemple, le projet Google Books a largement utilisé un procédé breveté de caméra non destructive pour numériser des millions de livres empruntés à des bibliothèques et restitués par la suite.

    En ce qui concerne Anthropic, la rapidité et le coût inférieur du processus de numérisation destructive semblent avoir pris le pas sur la nécessité de préserver les livres physiques eux-mêmes, ce qui laisse entrevoir le besoin d'une solution simple et bon marché dans un secteur hautement concurrentiel.

    L'industrie de l'IA ne peut pas se passer des œuvres protégées

    Ces dernières années, les capacités des chatbots d'IA, comme ChatGPT d'OpenAI et Claude d'Anthropic, se sont nettement améliorées ; ils s'appuient sur de grands modèles de langage (LLM) pour produire du contenu pour les utilisateurs. Mais le processus d'entraînement est largement controversé, certains éditeurs accusant l'industrie d'utiliser des œuvres protégées par le droit d'auteur sans autorisation, et un certain nombre d'affaires juridiques sont en cours.

    En janvier 2024, OpenAI affirmait : « étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine, il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur ». OpenAI reconnaît donc ouvertement qu'il utilise des contenus protégés par le droit d'auteur pour créer ses modèles d'IA. L'entreprise n'a toutefois pas encore été condamnée.

    Selon les entreprises du secteur, l'IA disparaîtrait du jour au lendemain si elle était obligée se conformer à la législation sur le droit d'auteur. La victoire juridique partielle remportée par Anthropic lui permet désormais de former des modèles d'IA à partir de livres protégés par le droit d'auteur sans en informer les éditeurs ou les auteurs originaux, ce qui pourrait lever l'un des principaux obstacles auxquels est confronté le secteur de l'IA générative.

    Le juge William Alsup a comparé la numérisation destructive des livres à la « conservation de l'espace » par la conversion de format et l'a trouvé transformateur. Autrement dit, il a vu cette transformation comme une manière d’archiver ou de réorganiser l’information, pas comme un simple acte de copie.

    Si Anthropic s'en était tenu à cette approche dès le départ, il aurait peut-être obtenu le premier cas légalement sanctionné d'utilisation équitable d'œuvres protégées par des droits d'auteurs dans le cadre de l'entraînement de l'IA. Au lieu de cela, l'entreprise s'est livrée à un piratage massif de livres numériques, ce qui a affaibli sa position. Anthropic a téléchargé plus de sept millions de livres piratés et doit faire face à un procès pour dommages-intérêts.

    Anthropic reste en difficulté pour avoir piraté des millions de livres

    Malgré sa victoire, Anthropic doit toujours faire face à un procès pour piratage, pour lequel le juge William Alsup a estimé qu'il ne s'agissait pas d'une utilisation équitable. Anthropic est accusé d'avoir téléchargé jusqu'à sept millions de livres piratés afin de constituer une bibliothèque de recherche où les copies seraient conservées « à jamais », qu'elles aient été utilisées ou non dans le cadre de l'entraînement de ses grands modèles de langage.

    Ayant apparemment compris que le piratage pouvait entraîner des poursuites judiciaires, Anthropic a ensuite tenté de remplacer les livres piratés par des copies achetées légalement. Toutefois, l’entreprise a également soutenu que même la copie initiale de ces livres piratés constituait une étape « intermédiaire » nécessaire pour permettre un usage transformateur dans l’entraînement de l’IA. Un argument largement controversé que le tribunal a rejeté.

    Et, argument peut-être le moins convaincant, Anthropic a également fait valoir que, puisqu'il aurait pu emprunter les livres qu'il a initialement volés (piratés), le vol en lui-même ne devrait pas « court-circuiter » l'analyse de l'usage loyal. Mais le juge William Alsup n'a pas été convaincu par ce dernier non plus.

    Il a souligné que la copie de livres à partir d'un site pirate constitue une violation du droit d'auteur. Il a rejeté l'hypothèse d'Anthropic selon laquelle l'utilisation des copies pour une bibliothèque peut être excusée au titre de l'usage loyal parce que certaines seront finalement utilisées pour former des LLM », et il a émis des doutes quant à la possibilité pour les autres procès liés à l'IA et portant sur le piratage d'échapper au paiement de dommages-intérêts.

    La décision trace désormais un cadre pour l'entraînement de l'IA

    Les auteurs pourraient intenter de nouvelles poursuites s'ils trouvaient des preuves de contrefaçon dans les productions de Claude. « Les auteurs concèdent que la formation des LLM n'a pas donné lieu à la fourniture au public de copies exactes ni même de contrefaçons de leurs œuvres. Si tel n'était pas le cas, l'affaire serait différente. Les auteurs restent libres d'intenter une action en justice à l'avenir si de tels faits venaient à se produire », a écrit le juge.

    Il s'agit d'une décision mitigée sur l'usage loyal, qui constitue une perte tant pour les titulaires de droits d'auteur que pour Anthropic, mais qui pourrait être une victoire pour les plateformes d'IA en général. Si elle est confirmée, cette décision signifierait que les entreprises d'IA utilisant du matériel protégé par le droit d'auteur pour former leurs modèles pourraient être autorisées à le faire à l'avenir. La seule exception à cette règle serait si le matériel a été piraté.

    Il est encore trop tôt pour dire quel montant le juge William Alsup jugera approprié de proposer au jury à titre de dommages-intérêts, mais la quantité de matériel protégé par le droit d'auteur utilisé par Anthropic sous forme piratée était énorme, de sorte que les dommages-intérêts pourraient être très importants.

    Conclusion

    L'IA générative a déjà fait l'objet de vives critiques en raison de ses problèmes bien connus de fiabilité, de sa consommation énergétique massive et de l'utilisation non autorisée de contenus protégés par le droit d'auteur. L'affaire judiciaire contre Anthropic révèle que l'entraînement de ces modèles d'IA a également impliqué la destruction à grande échelle de livres physiques. Bien que la méthode soit controversée, elle a été jugée légale par le tribunal.

    Selon le juge William Alsup, les entreprises d'IA n'ont pas besoin de l'autorisation des auteurs pour entraîner leurs grands modèles de langage sur des livres achetés légalement. Il s'agit d'un usage loyal. Ce jugement fournit un référentiel pragmatique pour l’industrie de l'IA : « s’assurer que les données utilisées proviennent de sources légales et légitimes avant l’entraînement. Tout recours à du contenu piraté expose à un risque juridique majeur ».

    Source : la décision du juge de district William Alsup (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Anthropic a détruit des millions de livres physiques dans le processus d'entraînement de ses modèles d'IA. Qu'en pensez-vous ?
    Le juge William Alsup affirme que l'entraînement de l'IA sur des livres achetés légalement sans l'autorisation des auteurs constitue un usage loyal. Qu'en pensez-vous ?
    Quels impacts cette décision pourrait-elle avoir sur l'ensemble de l'industrie de l'IA ?
    Cette décision répond-elle aux préoccupations des détenteurs de droits d'auteur ?

    Voir aussi

    Anthropic, le développeur de Claude AI, poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur

    Les entreprises d'IA affirment qu'elles ne peuvent pas respecter les droits d'auteur mais ces chercheurs ont essayé, démontrant que former des modèles d'IA puissants sans enfreindre la loi, c'est possible

    OpenAI déclare la course à l'IA « terminée » si l'entraînement sur des œuvres protégées par le droit d'auteur n'est pas considéré comme une utilisation équitable, ajoutant que les États-Unis seraient perdants

  5. #25
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    320
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 320
    Par défaut
    Ha.
    Donc c'est bon, on peut enfin partager publiquement des MP3, après tout, c'est pas de notre faute si les gens qui les téléchargent n'ont pas acheté l'album.
    Non ?
    Ha bah zut.

Discussions similaires

  1. Serveur dedié et bande passante ?
    Par ShinJava dans le forum Hébergement
    Réponses: 9
    Dernier message: 03/06/2005, 10h29
  2. [Stratégie] Limiter la bande passante
    Par Neuromancer dans le forum Développement
    Réponses: 7
    Dernier message: 17/01/2005, 15h29
  3. Appication Client/serveur : Limiter la bande passante ?
    Par souch dans le forum Web & réseau
    Réponses: 8
    Dernier message: 25/07/2004, 14h53
  4. Limiter la bande passante
    Par naili dans le forum Réseau
    Réponses: 3
    Dernier message: 15/01/2004, 08h21
  5. [Bande passante]
    Par Alexr dans le forum Développement
    Réponses: 7
    Dernier message: 12/09/2003, 14h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo