IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #21
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 622
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 622
    Par défaut Anthropic poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés
    Anthropic, le développeur de Claude AI, poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur

    Des auteurs poursuivent la startup d'IA Anthropic, l'accusant d'avoir entraîné son chatbot sur des livres piratés. La plainte affirme qu'Anthropic a profité d'œuvres protégées par des droits d'auteur sans consentement ni compensation. De son côté, Anthropic soutient que la formation à l'IA relève de l'usage loyal, mais le procès conteste cette interprétation.

    Les algorithmes d’IA ont besoin de données pour s’entraîner et apprendre. Cependant, l’accès non autorisé aux données peut entraîner des problèmes. Certaines entreprises d’IA, comme Anthropic, ont été accusées de solliciter les serveurs de sites web sans autorisation, ce qui peut entraîner une surcharge des ressources et des temps d’arrêt.

    L'une de leur victime n'est autre qu'iFixit. Le PDG de la structure, Kyle Wiens, a interpellé la société d’IA Anthropic avec agacement. Il ne s'agit pas seulement du fait qu'une société d'IA semble engorger les ressources du serveur, mais aussi du fait qu'il lui a été expressément interdit d'utiliser le contenu sur ses serveurs. Comme le souligne M. Wiens, il suffit d'accéder aux conditions d'utilisation pour s'en rendre compte : "N'utilisez pas le contenu." Cela a conduit certains à se demander si les entreprises d'IA ne préfèrent pas demander pardon plutôt que demander la permission, et ne prennent donc pas la peine de vérifier les conditions d'utilisation en premier lieu.

    Dans ce contexte, un groupe d'auteurs a intenté un procès à la société d'IA Anthropic, affirmant qu'elle a commis un "vol à grande échelle" en entraînant son chatbot sur des copies pirates de livres protégés par le droit d'auteur.


    Anthropic poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur

    Basée à San Francisco et fondée par d'anciens patrons d'OpenAI, Anthropic a fait de la version digne de confiance de l'IA un élément central de ses efforts de marketing autour de son chatbot, Claude, promettant de fournir des "systèmes d'IA fiables, interprétables et orientables". L'entreprise a même appelé de ses vœux des propositions d'IA axées sur la sécurité.

    Cette image a été quelque peu ébranlée par la plainte déposée le 19 août dernier devant un tribunal fédéral de San Francisco, alléguant qu'Anthropic a enseigné son produit d'IA en utilisant des bibliothèques d'œuvres piratées. Des plaintes similaires ont été déposées contre ChatGPT d'OpenAI et contre Anthropic lui-même par des éditeurs de musique. "Il n'est pas exagéré de dire que le modèle d'Anthropic cherche à tirer profit de l'exploitation de l'expression humaine et de l'ingéniosité qui se cachent derrière chacune de ces œuvres", affirme la plainte.

    Les auteurs qui intentent ce procès sont Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, qui cherchent à représenter une classe d'auteurs de fiction et de non-fiction partageant les mêmes idées. Les plaignants affirment que l'entreprise technologique a construit ses modèles d'IA en utilisant du travail humain. Cela permet d'entraîner des chatbots d'IA comme Claude à produire du texte, sans le consentement des créateurs originaux et sans leur offrir la moindre compensation. Bien que cette affaire porte sur l'écrit, Anthropic fait actuellement l'objet de plaintes similaires de la part d'éditeurs de musique, qui affirment que l'IA générative tire profit de l'utilisation abusive d'œuvres créatives.

    Anthropic et d'autres entreprises technologiques se sont défendues en faisant valoir que la formation de modèles d'IA relevait de la doctrine de l'usage loyal de la loi américaine sur le droit d'auteur. Cette doctrine couvre généralement l'enseignement, la recherche ou la transformation d'œuvres protégées par le droit d'auteur en quelque chose de nouveau.

    Toutefois, le procès intenté à Anthropic affirme que les systèmes d'IA n'apprennent pas de la même manière que les humains : "Les humains qui apprennent à partir de livres en achètent des copies légales ou les empruntent à des bibliothèques qui les achètent, offrant ainsi au moins une certaine compensation aux auteurs et aux créateurs."

    Source : Tribunal fédéral de San Francisco

    Et vous ?

    Pensez-vous que cette plainte est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Apple et d'autres ont formé leurs modèles d'IA sur un ensemble de données compilé à partir des transcriptions de 173 536 vidéos réparties sur plus de 48 000 chaînes YouTube, sans le consentement des créateurs

    De nombreux sites restreignent l'utilisation de leurs données pour empêcher la formation de l'IA, selon une étude. La «crise émergente du consentement» pourrait constituer une menace pour les entreprises d'IA

    « Il est impossible de créer des outils comme ChatGPT sans contenus sous copyright », selon OpenAI, qui suscite des réactions dont celles de fermer le service ou de l'amener à rémunérer les auteurs
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #22
    Membre Expert
    Homme Profil pro
    Inscrit en
    Octobre 2011
    Messages
    2 913
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Octobre 2011
    Messages : 2 913
    Par défaut
    Salut,

    Citation Envoyé par Jules34 Voir le message
    Libre aux gens de mettre à disposition gratuitement LEUR travail et de prendre les revenus de la pub puisque la propriété intellectuelle leurs permet d'exploiter leurs création comme ils l'entendent. C'est du droit assez basique... C'est pas parce qu'une chose est gratuite ou mise à disposition que tu peux en faire ce que tu veux.
    Oui ce n'est pas parce qu'un contenu est gratuit qu'on peut en faire ce que l'on veut mais si le but c'est de se faire de l'argent avec la pub est-ce que cela leur donne le droit par exemple d'interdire la copie privée ? Ou encore d'interdire toute traduction automatique ?

    Je précise que ce sont de vraies questions que je me pose...

    On voit en effet parfois des conditions d'utilisation sur certains sites mais ont-ils le droit par ce biais d'ajouter leurs propres lois (comme par exemple celle d'interdire la copie privée) ?

    En tous cas cela explique pourquoi on voit de plus en plus de messages nous demandant de laisser passer les pubs (en réglant notre bloqueur de pubs) ou bien de s'abonner...

    Citation Envoyé par Stéphane le calme Voir le message
    Il ne devrait y avoir aucune raison pour qu'une société d'IA se rende sur le site d'iFixit, car ses conditions d'utilisation stipulent que « la copie ou la distribution de tout contenu, matériel ou élément de conception sur le site à toute autre fin, y compris l'entraînement d'un modèle d'apprentissage automatique ou d'IA, est strictement interdite sans l'autorisation écrite expresse et préalable d'iFixit ». À moins qu'il ne veuille nous faire croire qu'il n'utilisera pas les données qu'il récupère à ces fins, et qu'il le fait juste pour... s'amuser ?
    Ce passage m'interpelle, de quelle sorte de copie il est question ?

    Peut-on interdire la copie privée ?

    PS : D'ailleurs le simple fait de visiter le site n'implique-t-il pas une copie par le navigateur ? Est-ce un cas particulier de copie autorisé ?

  3. #23
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 658
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 658
    Par défaut Anthropic remporte une victoire importante au sujet de « l'usage loyal » pour l'entraînement des modèles d'IA
    Anthropic remporte une victoire importante au sujet de « l'usage loyal » pour l'entraînement des modèles d'IA, mais doit faire face à un procès concernant les dommages-intérêts pour des millions d'œuvres piratées

    L'entraînement des grands modèles de langage (LLM) sur des livres achetés légalement sans l'autorisation des auteurs constitue un « usage loyal ». C'est la décision rendue par le juge fédéral américain William Alsup dans une action en justice contre Anthropic pour violation de droit d'auteur. Cette décision inédite constitue une victoire importante pour l'industrie de l'IA, mais met également en garde toutes les entreprises qui espèrent que le même raisonnement s'appliquera à l'entraînement sur des copies pirates de livres, une question qui reste en suspens. À ce propos, Anthropic fera l'objet d'un procès pour avoir piraté des millions de livres sur Internet.

    Contexte

    En août 2024, les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson ont intenté un recours collectif contre Anthropic dans le district nord de la Californie. L'action en justices accuse Anthropic, développeur de Claude AI, d'avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur, sans consentement ni compensation. Mais Anthropic soutient que l'entraînement de l'IA sur des œuvres protégées relève de l'usage loyal.

    En avril 2025, Anthropic a déposé son opposition à la requête en certification de recours collectif, arguant qu'un recours collectif en matière de droit d'auteur portant sur des millions de livres n'était pas gérable et que les questions étaient trop distinctes pour être résolues dans le cadre d'un recours collectif.

    Dans le cadre de cet argument, Anthropic a mis en garde contre « la perspective de dommages-intérêts légaux ruineux - 150 000 dollars multipliés par 5 millions de livres » : cela représenterait 750 milliards de dollars. Un mois plus tard, une audience a eu lieu concernant la requête d'Anthropic en vue d'obtenir un jugement sommaire sur l'usage loyal, qui a examiné dans quelle mesure l'utilisation des œuvres en question pouvait être qualifiée d'usage loyal.

    Anthropic remporte une victoire importante concernant l'usage loyal

    Le juge William Alsup, de la cour fédérale du district nord de Californie, a rendu un jugement sommaire en faveur d'Anthropic, estimant que l'utilisation des livres protégés par le droit d'auteur à des fins de formation et le passage du format papier au format numérique constituent tous deux un « usage loyal ». Il s'agit d'une décision inédite en faveur de l'industrie de l'IA, mais elle est surtout limitée aux livres physiques qu'Anthropic a achetés et numérisés.

    Nom : Capture d'écran 2025-06-25 105902.png
Affichages : 5148
Taille : 147,1 Ko

    Cette affaire diffère des autres poursuites judiciaires dans lesquelles les auteurs allèguent que les modèles d'IA risquent de copier et de diffuser leurs œuvres. Étant donné que les auteurs qui ont poursuivi Anthropic n'ont pas allégué que les productions d'Anthropic reproduisaient leurs œuvres ou leur style expressif, le juge a estimé qu'il n'y avait aucune menace que le générateur de texte d'Anthropic, Claude, puisse remplacer les auteurs sur leurs marchés.

    Ce qui a fait pencher le jugement en faveur d'Anthropic. « Comme tout lecteur aspirant à devenir écrivain, les LLM d'Anthropic ont été formés sur des œuvres non pas pour les devancer et les reproduire ou les supplanter, mais pour prendre un virage difficile et créer quelque chose de différent », a écrit le juge. Selon les auteurs, le fait que Claude s'appuie sur leurs textes pourrait générer des résumés concurrents ou des versions alternatives de leurs histoires.

    Mais le juge William Alsup a rejeté l'argument des plaignants. Il a affirmé que ces plaintes revenaient à affirmer que « former les écoliers à bien écrire entraînerait une explosion d'œuvres concurrentes ». « Ce n'est pas le type de concurrence ou de déplacement créatif qui préoccupe la loi sur le droit d'auteur. La loi vise à promouvoir les œuvres originales des auteurs, et non à protéger les auteurs contre la concurrence », a écrit le juge William Alsup.

    Anthropic se dit « satisfait » de la décision et a publié une déclaration saluant la reconnaissance par le tribunal du fait que « l'utilisation d'œuvres pour former de grands modèles de langage est transformative, et ce de manière spectaculaire ». Cependant, l'entreprise n'est pas tirée d'affaire pour autant.

    Anthropic reste en difficulté pour avoir piraté des millions de livres

    Malgré sa victoire, Anthropic doit toujours faire face à un procès pour piratage, pour lequel le juge William Alsup a estimé qu'il ne s'agissait pas d'une utilisation équitable. Anthropic est accusé d'avoir téléchargé jusqu'à sept millions de livres piratés afin de constituer une bibliothèque de recherche où les copies seraient conservées « à jamais », qu'elles aient été utilisées ou non dans le cadre de l'entraînement de ses grands modèles de langage.

    Ayant apparemment compris que le piratage pouvait entraîner des poursuites judiciaires, Anthropic a ensuite tenté de remplacer les livres piratés par des copies achetées légalement. Toutefois, l’entreprise a également soutenu que même la copie initiale de ces livres piratés constituait une étape « intermédiaire » nécessaire pour permettre un usage transformateur dans l’entraînement de l’IA. Un argument largement controversé que le tribunal a rejeté.

    Et, argument peut-être le moins convaincant, Anthropic a également fait valoir que, puisqu'il aurait pu emprunter les livres qu'il a initialement volés (piratés), le vol en lui-même ne devrait pas « court-circuiter » l'analyse de l'usage loyal. Mais le juge William Alsup n'a pas été convaincu par ce dernier non plus.

    Il a souligné que la copie de livres à partir d'un site pirate constitue une violation du droit d'auteur. Il a rejeté l'hypothèse d'Anthropic selon laquelle l'utilisation des copies pour une bibliothèque peut être excusée au titre de l'usage loyal parce que certaines seront finalement utilisées pour former des LLM », et il a émis des doutes quant à la possibilité pour les autres procès liés à l'IA et portant sur le piratage d'échapper au paiement de dommages-intérêts.

    Citation Envoyé par Le juge William Alsup

    Cette décision met en doute le fait qu'un contrefacteur présumé puisse jamais réussir à démontrer en quoi le téléchargement de copies provenant de sites pirates — alors qu’il aurait pu les acheter ou y accéder légalement autrement — était en soi raisonnablement nécessaire à un usage ultérieur relevant de l’usage équitable. Un tel piratage de copies autrement disponibles constitue, par nature, une violation irrémédiable, même si les copies piratées sont utilisées immédiatement pour un usage transformatif et immédiatement supprimées.
    Le juge a ajouté que l’affaire Anthropic n’avait peut-être même pas besoin de trancher cette question, car la simple conservation des livres piratés dans sa bibliothèque de recherche n’était pas un usage transformateur. Il a écrit que l’argument d’Anthropic consistant à conserver du matériel piraté potentiellement utile à l’entraînement de l’IA, au cas où l’entreprise déciderait un jour de l’utiliser, revenait à glisser rapidement sur une fine couche de glace.

    En outre, le juge a souligné que les premières tentatives d'Anthropic pour obtenir l'autorisation de former ses employés sur les œuvres des auteurs ont échoué, car des messages internes ont révélé que l'entreprise avait conclu que le vol de livres était considéré comme la voie la plus rentable vers l'innovation « afin d'éviter les « tracas juridiques/pratiques/commerciaux », comme l'a déclaré Dario Amodei, cofondateur et PDG de l'entreprise.

    « Anthropic a tort de supposer que tant que vous créez un produit final passionnant, toutes les étapes en coulisses, invisibles au public, sont excusables. « Ici, le piratage était le but : construire une bibliothèque que l'on aurait pu payer, comme Anthropic l'a fait par la suite, mais sans la payer », a écrit le juge.

    La décision trace désormais un cadre pour l'entraînement de l'IA

    Les auteurs pourraient intenter de nouvelles poursuites s'ils trouvaient des preuves de contrefaçon dans les productions de Claude. « Les auteurs concèdent que la formation des LLM n'a pas donné lieu à la fourniture au public de copies exactes ni même de contrefaçons de leurs œuvres. Si tel n'était pas le cas, l'affaire serait différente. Les auteurs restent libres d'intenter une action en justice à l'avenir si de tels faits venaient à se produire », a écrit le juge.

    Il s'agit d'une décision mitigée sur l'usage loyal, qui constitue une perte tant pour les titulaires de droits d'auteur que pour Anthropic, mais qui pourrait être une victoire pour les plateformes d'IA en général. Si elle est confirmée, cette décision signifierait que les entreprises d'IA utilisant du matériel protégé par le droit d'auteur pour former leurs modèles pourraient être autorisées à le faire à l'avenir. La seule exception à cette règle serait si le matériel a été piraté.

    Il est encore trop tôt pour dire quel montant le juge William Alsup jugera approprié de proposer au jury à titre de dommages-intérêts, mais la quantité de matériel protégé par le droit d'auteur utilisé par Anthropic sous forme piratée était énorme, de sorte que les dommages-intérêts pourraient être très importants.

    Conclusion

    Les entreprises d'IA affirment qu'elles ne peuvent pas respecter les droits d'auteur dans le cadre de l'entraînement de leurs modèles d'IA. OpenAI veut un accès illimité aux œuvres protégées par le droit d'auteur. Le fabricant du chatbot d'IA populaire ChatGPT affirme également que cette utilisation doit être placée sous le principe de l'utilisation équitable (fair use). OpenAI avertit que la course à l'IA prendrait immédiatement fin s'il en était autrement.

    En janvier 2024, OpenAI affirmait : « étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine, il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur ». OpenAI reconnaît donc ouvertement qu'il utilise des contenus protégés par le droit d'auteur pour créer ses modèles d'IA. L'entreprise n'a toutefois pas encore été condamnée.

    Cependant, une équipe de chercheurs a relevé le défi et a démontré qu'il est possible de former des modèles d'IA puissants sans enfreindre la loi. La décision du juge fédéral William Alsup émet un gros avertissement pour les entreprises d'IA qui cherchent à contourner les droits d’auteur.

    Selon le juge William Alsup, les entreprises d'IA n'ont pas besoin de l'autorisation des auteurs pour entraîner leurs grands modèles de langage sur des livres achetés légalement. Il s'agit d'un usage loyal. Ce jugement fournit un référentiel pragmatique pour l’industrie de l'IA : « s’assurer que les données utilisées proviennent de sources légales et légitimes avant l’entraînement. Tout recours à du contenu piraté expose à un risque juridique majeur ».

    Source : la décision du juge de district William Alsup (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Le juge William Alsup affirme que l'entraînement de l'IA sur des livres achetés légalement sans l'autorisation des auteurs constitue un usage loyal. Qu'en pensez-vous ?
    Quels impacts cette décision pourrait-elle avoir sur l'ensemble de l'industrie de l'IA ?
    Cette décision répond-elle aux préoccupations des détenteurs de droits d'auteur ?

    Voir aussi

    Anthropic, le développeur de Claude AI, poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur

    Les entreprises d'IA affirment qu'elles ne peuvent pas respecter les droits d'auteur mais ces chercheurs ont essayé, démontrant que former des modèles d'IA puissants sans enfreindre la loi, c'est possible

    OpenAI déclare la course à l'IA « terminée » si l'entraînement sur des œuvres protégées par le droit d'auteur n'est pas considéré comme une utilisation équitable, ajoutant que les États-Unis seraient perdants

  4. #24
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 658
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 658
    Par défaut Anthropic a acheté, découpé et numérisé des millions de livres physiques avant de détruire les originaux
    Anthropic a acheté, découpé et numérisé des millions de livres physiques avant de détruire les originaux, dans le seul but d'entraîner son IA Claude
    il a également téléchargé 7 millions de livres piratés

    L'action en justice contre Anthropic révèle la façon dont l'entreprise a détruit des millions de livres imprimés dans le seul but de former son IA Claude. Anthropic a retiré la reliure des livres, les a numérisés en fichiers numériques et a jeté les originaux. Cette numérisation destructrice a joué en sa faveur : le juge a estimé que cela relève de l'usage loyal, car les livres achetés ont été transformés, utilisés en interne, sans création de nouveaux exemplaires. Mais l'affaire se complique : Anthropic a aussi téléchargé plus de 7 millions de livres numériques piratés. Pour ces copies pirates, Anthropic doit faire face à un procès pour des dommages-intérêts.

    Le juge William Alsup, de la cour fédérale du district nord de Californie, a rendu un jugement sommaire en faveur d'Anthropic, estimant que l'utilisation des livres protégés par le droit d'auteur à des fins d'entraînement et le passage du format papier au format numérique constituent tous deux un « usage loyal ». Il s'agit d'une décision inédite en faveur de l'industrie de l'IA, mais elle est surtout limitée aux livres imprimés qu'Anthropic a achetés et numérisés.

    Une révélation surprenante se cache dans les détails de la décision juridique de 32 pages. Elle explique comment, en février 2024, Anthropic a embauché Tom Turvey, l'ancien responsable des partenariats pour le projet de numérisation des livres de Google Books, et l'a chargé d'obtenir « tous les livres du monde ».

    Selon le récit du juge William Alsup, Anthropic a dépensé plusieurs millions de dollars pour cette opération d'achat et de numérisation, achetant souvent des livres d'occasion en gros. Ensuite, Anthropic retirait les livres de leurs reliures, coupait les pages aux dimensions voulues, les numérisait sous forme de piles de pages pour en faire des fichiers PDF contenant du texte lisible par machine, y compris les couvertures, puis jetait tous les originaux imprimés.

    Anthropic a détruit définitivement les livres achetés et n'a pas l'intention de rendre publiques les copies numériques ainsi obtenues. En fin de compte, le juge William Alsup a estimé que cette opération de numérisation destructive relève de l'usage loyal, mais uniquement parce qu'Anthropic avait d'abord acheté légalement les livres, détruit chaque copie imprimée après numérisation et conservé les fichiers numériques en interne au lieu de les distribuer.

    Critiques sur l'opération de numérisation destructive de livres

    La pratique d’Anthropic (acheter des livres d’occasion, les découper, puis les jeter après numérisation) a suscité de vives critiques, même si la justice l’a jugée légale. Plusieurs voix, notamment dans le monde de l’édition, des bibliothèques et de la préservation du patrimoine, estiment que cette méthode constitue un véritable gaspillage culturel. Ils dénoncent notamment la disparition d’exemplaires imprimés parfois rares ou très difficiles à retrouver.


    Enfin, des éditeurs et des défenseurs du livre patrimonial affirment que cette approche destructrice est symbolique d’une vision purement extractive de la culture, où le livre n’est réduit qu’à une matière première pour entraîner une IA, sans respect pour sa valeur patrimoniale ou artistique.

    Si la « numérisation destructive » est une pratique courante dans certaines opérations de numérisation de livres, l'approche d'Anthropic était quelque peu inhabituelle en raison de son échelle massive documentée. L'entreprise avait d'autres alternatives. Par exemple, le projet Google Books a largement utilisé un procédé breveté de caméra non destructive pour numériser des millions de livres empruntés à des bibliothèques et restitués par la suite.

    En ce qui concerne Anthropic, la rapidité et le coût inférieur du processus de numérisation destructive semblent avoir pris le pas sur la nécessité de préserver les livres physiques eux-mêmes, ce qui laisse entrevoir le besoin d'une solution simple et bon marché dans un secteur hautement concurrentiel.

    L'industrie de l'IA ne peut pas se passer des œuvres protégées

    Ces dernières années, les capacités des chatbots d'IA, comme ChatGPT d'OpenAI et Claude d'Anthropic, se sont nettement améliorées ; ils s'appuient sur de grands modèles de langage (LLM) pour produire du contenu pour les utilisateurs. Mais le processus d'entraînement est largement controversé, certains éditeurs accusant l'industrie d'utiliser des œuvres protégées par le droit d'auteur sans autorisation, et un certain nombre d'affaires juridiques sont en cours.

    En janvier 2024, OpenAI affirmait : « étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine, il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur ». OpenAI reconnaît donc ouvertement qu'il utilise des contenus protégés par le droit d'auteur pour créer ses modèles d'IA. L'entreprise n'a toutefois pas encore été condamnée.

    Selon les entreprises du secteur, l'IA disparaîtrait du jour au lendemain si elle était obligée se conformer à la législation sur le droit d'auteur. La victoire juridique partielle remportée par Anthropic lui permet désormais de former des modèles d'IA à partir de livres protégés par le droit d'auteur sans en informer les éditeurs ou les auteurs originaux, ce qui pourrait lever l'un des principaux obstacles auxquels est confronté le secteur de l'IA générative.

    Le juge William Alsup a comparé la numérisation destructive des livres à la « conservation de l'espace » par la conversion de format et l'a trouvé transformateur. Autrement dit, il a vu cette transformation comme une manière d’archiver ou de réorganiser l’information, pas comme un simple acte de copie.

    Si Anthropic s'en était tenu à cette approche dès le départ, il aurait peut-être obtenu le premier cas légalement sanctionné d'utilisation équitable d'œuvres protégées par des droits d'auteurs dans le cadre de l'entraînement de l'IA. Au lieu de cela, l'entreprise s'est livrée à un piratage massif de livres numériques, ce qui a affaibli sa position. Anthropic a téléchargé plus de sept millions de livres piratés et doit faire face à un procès pour dommages-intérêts.

    Anthropic reste en difficulté pour avoir piraté des millions de livres

    Malgré sa victoire, Anthropic doit toujours faire face à un procès pour piratage, pour lequel le juge William Alsup a estimé qu'il ne s'agissait pas d'une utilisation équitable. Anthropic est accusé d'avoir téléchargé jusqu'à sept millions de livres piratés afin de constituer une bibliothèque de recherche où les copies seraient conservées « à jamais », qu'elles aient été utilisées ou non dans le cadre de l'entraînement de ses grands modèles de langage.

    Ayant apparemment compris que le piratage pouvait entraîner des poursuites judiciaires, Anthropic a ensuite tenté de remplacer les livres piratés par des copies achetées légalement. Toutefois, l’entreprise a également soutenu que même la copie initiale de ces livres piratés constituait une étape « intermédiaire » nécessaire pour permettre un usage transformateur dans l’entraînement de l’IA. Un argument largement controversé que le tribunal a rejeté.

    Et, argument peut-être le moins convaincant, Anthropic a également fait valoir que, puisqu'il aurait pu emprunter les livres qu'il a initialement volés (piratés), le vol en lui-même ne devrait pas « court-circuiter » l'analyse de l'usage loyal. Mais le juge William Alsup n'a pas été convaincu par ce dernier non plus.

    Il a souligné que la copie de livres à partir d'un site pirate constitue une violation du droit d'auteur. Il a rejeté l'hypothèse d'Anthropic selon laquelle l'utilisation des copies pour une bibliothèque peut être excusée au titre de l'usage loyal parce que certaines seront finalement utilisées pour former des LLM », et il a émis des doutes quant à la possibilité pour les autres procès liés à l'IA et portant sur le piratage d'échapper au paiement de dommages-intérêts.

    La décision trace désormais un cadre pour l'entraînement de l'IA

    Les auteurs pourraient intenter de nouvelles poursuites s'ils trouvaient des preuves de contrefaçon dans les productions de Claude. « Les auteurs concèdent que la formation des LLM n'a pas donné lieu à la fourniture au public de copies exactes ni même de contrefaçons de leurs œuvres. Si tel n'était pas le cas, l'affaire serait différente. Les auteurs restent libres d'intenter une action en justice à l'avenir si de tels faits venaient à se produire », a écrit le juge.

    Il s'agit d'une décision mitigée sur l'usage loyal, qui constitue une perte tant pour les titulaires de droits d'auteur que pour Anthropic, mais qui pourrait être une victoire pour les plateformes d'IA en général. Si elle est confirmée, cette décision signifierait que les entreprises d'IA utilisant du matériel protégé par le droit d'auteur pour former leurs modèles pourraient être autorisées à le faire à l'avenir. La seule exception à cette règle serait si le matériel a été piraté.

    Il est encore trop tôt pour dire quel montant le juge William Alsup jugera approprié de proposer au jury à titre de dommages-intérêts, mais la quantité de matériel protégé par le droit d'auteur utilisé par Anthropic sous forme piratée était énorme, de sorte que les dommages-intérêts pourraient être très importants.

    Conclusion

    L'IA générative a déjà fait l'objet de vives critiques en raison de ses problèmes bien connus de fiabilité, de sa consommation énergétique massive et de l'utilisation non autorisée de contenus protégés par le droit d'auteur. L'affaire judiciaire contre Anthropic révèle que l'entraînement de ces modèles d'IA a également impliqué la destruction à grande échelle de livres physiques. Bien que la méthode soit controversée, elle a été jugée légale par le tribunal.

    Selon le juge William Alsup, les entreprises d'IA n'ont pas besoin de l'autorisation des auteurs pour entraîner leurs grands modèles de langage sur des livres achetés légalement. Il s'agit d'un usage loyal. Ce jugement fournit un référentiel pragmatique pour l’industrie de l'IA : « s’assurer que les données utilisées proviennent de sources légales et légitimes avant l’entraînement. Tout recours à du contenu piraté expose à un risque juridique majeur ».

    Source : la décision du juge de district William Alsup (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Anthropic a détruit des millions de livres physiques dans le processus d'entraînement de ses modèles d'IA. Qu'en pensez-vous ?
    Le juge William Alsup affirme que l'entraînement de l'IA sur des livres achetés légalement sans l'autorisation des auteurs constitue un usage loyal. Qu'en pensez-vous ?
    Quels impacts cette décision pourrait-elle avoir sur l'ensemble de l'industrie de l'IA ?
    Cette décision répond-elle aux préoccupations des détenteurs de droits d'auteur ?

    Voir aussi

    Anthropic, le développeur de Claude AI, poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur

    Les entreprises d'IA affirment qu'elles ne peuvent pas respecter les droits d'auteur mais ces chercheurs ont essayé, démontrant que former des modèles d'IA puissants sans enfreindre la loi, c'est possible

    OpenAI déclare la course à l'IA « terminée » si l'entraînement sur des œuvres protégées par le droit d'auteur n'est pas considéré comme une utilisation équitable, ajoutant que les États-Unis seraient perdants

  5. #25
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    386
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 386
    Par défaut
    Ha.
    Donc c'est bon, on peut enfin partager publiquement des MP3, après tout, c'est pas de notre faute si les gens qui les téléchargent n'ont pas acheté l'album.
    Non ?
    Ha bah zut.

  6. #26
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 963
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 963
    Par défaut Un juge autorise une action collective contre Anthropic pour le piratage de 7 Mns de livres pour former l'IA
    Un juge américain autorise une action collective à l'échelle nationale contre Anthropic pour le piratage présumé de 7 millions de livres téléchargés illégalement à des fins d'entraînement de l'IA

    Un juge de l'État de Californie a statué que trois auteurs pouvaient mener une action collective à l'échelle nationale contre la start-up Anthropic, spécialisée dans l'intelligence artificielle (IA), pour avoir prétendument piraté des millions de livres provenant des « bibliothèques pirates » LibGen et PiLiMi. Cette issue pourrait entraîner des dommages-intérêts s'élevant à plusieurs milliards de dollars, remettant en cause l'utilisation par Anthropic de contenus protégés par le droit d'auteur dans le cadre de la formation de l'IA.

    La décision intervient peu de temps après qu'il a été révélé qu'Anthropic avait acheté, découpé et numérisé des millions de livres dans le seul but de former son IA, Claude. Un juge de la cour fédérale du district nord de Californie a estimé que cette pratique relevait de l'usage loyal, car Anthropic avait d'abord acquis légalement les livres, détruit chaque copie imprimée après numérisation et conservé les fichiers numériques en interne au lieu de les distribuer.

    Cependant, le jeudi 17 juillet 2025, un juge fédéral californien a décidé que trois auteurs poursuivant la start-up d'intelligence artificielle Anthropic pour violation des droits d'auteur pouvaient représenter les écrivains du pays dont Anthropic aurait piraté les livres pour entraîner son système d'IA.

    Le juge fédéral William Alsup a déclaré que les auteurs pouvaient intenter une action collective au nom de tous les écrivains américains dont les ouvrages auraient été téléchargés par Anthropic à partir des « bibliothèques pirates » LibGen et PiLiMi pour créer un référentiel de millions de livres en 2021 et 2022.


    William Alsup a déclaré qu'Anthropic pourrait avoir téléchargé illégalement jusqu'à 7 millions de livres à partir des sites pirates, ce qui pourrait la rendre responsable de milliards de dollars de dommages et intérêts si les auteurs obtiennent gain de cause.

    Un porte-parole d'Anthropic a déclaré que la société envisageait de contester la décision et que le tribunal n'avait pas tenu compte de la difficulté d'établir la propriété des droits d'auteur « des millions de fois dans le cadre d'un seul procès ».

    Andrea Bartz, Charles Graeber et Kirk Wallace Johnson ont poursuivi Anthropic l'année dernière, arguant que la startup soutenue par Amazon et Alphabet avait utilisé leurs livres sans autorisation ni compensation pour apprendre à son chatbot Claude à répondre à des prompts (instructions génératives) humains.

    Il s'agit de l'un des nombreux procès à fort enjeu intentés par des auteurs, des organes de presse et d'autres détenteurs de droits d'auteur contre des sociétés telles qu'OpenAI, Microsoft et Meta Platforms au sujet de l'entraînement de l'IA.

    Les entreprises spécialisées dans l'IA soutiennent que leurs systèmes font un usage loyal des œuvres protégées par le droit d'auteur afin de créer un contenu nouveau et transformateur. En juin, William Alsup a estimé que la formation de l'IA d'Anthropic faisait un usage loyal des œuvres des auteurs, mais a déclaré que l'entreprise violait tout de même leurs droits en sauvegardant des copies pirates de leurs livres dans une « bibliothèque centrale de tous les livres du monde » qui ne serait pas nécessairement utilisée pour la formation de l'IA.

    Jeudi, William Alsup a déclaré que les trois auteurs pouvaient représenter tous les écrivains dont Anthropic aurait téléchargé les livres sur LibGen et PiLiMi, rejetant l'argument d'Anthropic selon lequel l'identification de toutes les œuvres protégées par le droit d'auteur et de leurs auteurs ne serait pas pratique.

    L'affaire Anthropic met par ailleurs en évidence une controverse plus large dans le domaine du développement de l'IA : les grandes entreprises d'IA, dont OpenAI, reconnaissent leur dépendance à l'égard des contenus protégés par le droit d'auteur. OpenAI a en effet récemment admis qu'il était « impossible de créer des outils comme ChatGPT sans contenus sous copyright », ce qui a suscité des appels en faveur d'une rémunération des auteurs ou d'une suspension du service.

    Ce débat s'est intensifié après qu'OpenAI a interdit à ByteDance de former une IA concurrente à partir des données de GPT, mettant en évidence les questions non résolues concernant la propriété du contenu et l'utilisation équitable dans la formation de l'IA.

    Source : Juge de district américain William Alsup

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette décision de justice crédible ou pertinente ?

    Voir aussi :

    Anthropic remporte une victoire importante au sujet de « l'usage loyal » pour les plateformes d'IA, mais fait face à un procès pour des dommages-intérêts portant sur des millions d'œuvres piratées

    Anthropic, le développeur de Claude AI, poursuivi pour avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur

    OpenAI déclare la course à l'IA « terminée » si l'entraînement sur des œuvres protégées par le droit d'auteur n'est pas considéré comme une utilisation équitable, ajoutant que les États-Unis seraient perdants
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #27
    Membre Expert Avatar de KiLVaiDeN
    Profil pro
    Inscrit en
    Octobre 2003
    Messages
    2 890
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2003
    Messages : 2 890
    Par défaut
    Aujourd'hui, vous avez parfaitement le droit d'acheter un livre et de le scanner intégralement pour en faire ce que vous voulez, du papier Q ou entrainer une IA. Rien ne vous en empêche.

    Je ne vois pas où est le problème. Des entreprises qui achètent des livres ça existe depuis longtemps. Il n'a jamais été question de valoriser le livre à hauteur du bénéfice fait par l'entreprise !

    Moi je pense que les auteurs cherchent juste à récupérer des sous car ils savent que leur business est en train de disparaitre sous leurs yeux. Beaucoup de personnes vont directement interroger une IA plutôt que d'acheter un livre. Déjà l'abonnement PRO aux plateformes IA est souvent moins cher qu'un seul livre. Et l'accès au savoir est non seulement dynamique, mais global, on n'accède pas au savoir d'un seul livre, mais à tous les supports sur un sujet donné. Qui va donc acheter un livre, pour apprendre quelque chose, quand un Claude ou un ChatGPT ou un Gemini peut non seulement fournir exactement les informations voulues, mais en plus itérer sur les questions qu'on pourrait avoir, proposer de créer des quiz sur certains aspects, donner des exemples concrets et spécifiques selon les besoins, etc, etc.

    Il faut tout simplement reconnaitre les faits : des métiers vont changer, disparaitre, et l'IA va les bouffer, c'est très bien pour la société, moins bien pour ceux qui s'enrichissaient ainsi, mais l'évolution c'est aussi parfois se débarrasser de ce qui est inutile pour ne garder que ce qui permet la survie et l'essor de l'espèce

  8. #28
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    386
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 386
    Par défaut
    Aujourd'hui, vous avez parfaitement le droit d'acheter un livre et de le scanner intégralement pour en faire ce que vous voulez, du papier Q ou entrainer une IA. Rien ne vous en empêche.
    Non. Le droit à la copie privée existe en France et même dans le cadre d'une copie privée t'es pas à l'abri de te retrouver avec un procès au cul.

    Je ne vois pas où est le problème. Des entreprises qui achètent des livres ça existe depuis longtemps. Il n'a jamais été question de valoriser le livre à hauteur du bénéfice fait par l'entreprise !
    Là où c'est différent c'est que dans ce cas précis, l'objectif c'est bien de réutiliser le contenu des livres pour les faire réécrire par Le Glaude quand un utilisateur va venir lui poser une question.

    Moi je pense que les auteurs cherchent juste à récupérer des sous car ils savent que leur business est en train de disparaitre sous leurs yeux. Beaucoup de personnes vont directement interroger une IA plutôt que d'acheter un livre. Déjà l'abonnement PRO aux plateformes IA est souvent moins cher qu'un seul livre. Et l'accès au savoir est non seulement dynamique, mais global, on n'accède pas au savoir d'un seul livre, mais à tous les supports sur un sujet donné. Qui va donc acheter un livre, pour apprendre quelque chose, quand un Claude ou un ChatGPT ou un Gemini peut non seulement fournir exactement les informations voulues, mais en plus itérer sur les questions qu'on pourrait avoir, proposer de créer des quiz sur certains aspects, donner des exemples concrets et spécifiques selon les besoins, etc, etc.
    J'ai utilisé 4 ou 5 fois des générateurs de contenu pour pas mourir idiot. Ça m'a bluffé mais j'ai pas vraiment compris à quoi ça servait (je n'en ai pas besoin dans mon travail). Les quelques fois où des potes ont voulu me montrer à quel point c'était magique ça a été une catastrophe totale. Ça s'est passé comme ça :
    - 2 à 4 personnes discutent
    - Y'a un sujet de désaccord
    - Plutôt que d'aller vérifier une info sur wikipédia ou un moteur de recherche, la question est posée à chatGPT
    - Les 3 premiers paragraphes sont OK et si tu ne fais pas attention, tout a l'air normal. Mais si tu veux creuser un peu plus la réponse, tu avances un peu plus loin dans la lecture
    - Et c'est à ce moment que tout le monde se regarde avec un petit sourire en coin : le modèle a généré un texte qui a l'air cohérent dans l'ensemble mais le fond est totalement à côté de la plaque

    Tout ça pour des sujets qui auraient pu être traités avec une requête pertinente dans un moteur de recherche.

    Bref, si t'as l'impression que tu peux te documenter/t'informer avec un outil de génération de contenu, je te souhaite bien du courage dans la vie.

  9. #29
    Invité de passage
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2025
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 27
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Santé

    Informations forums :
    Inscription : Juin 2025
    Messages : 6
    Par défaut
    Citation Envoyé par KiLVaiDeN Voir le message
    Mes messages reçoivent des pouces rouges, mais ceux qui les donnent ne viennent pas argumenter, dommage. Je serais ravi de dialoguer avec vous si vous n'êtes pas d'accord, peut être ai-je quelque chose à comprendre de nos échanges (ainsi que les lecteurs).

    Les données librement accessibles sans payer doivent également être accessibles sans payer pour les IAs. C'est la raison pour laquelle il faudrait faciliter l'accès aux données en les fournissant directement et ainsi éviter les surcharges serveur liées au crawling.
    Tes arguments c'est basiquement "L'IA doit progresser donc laisser ces entreprises privées qui font du bénéfices avec voler votre travail d'humain. De toute façon votre site va fermer car grâce à ce qu'elle vous a volé, l'entreprise voleuse peut remplacer votre site."

  10. #30
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par KiLVaiDeN Voir le message
    Qui va donc acheter un livre, pour apprendre quelque chose
    Qui achète des livres pour apprendre des choses? 17 des 20 livres les plus vendus sont des fictions, les autres sont le Bible, le Coran et le petit livre rouge.
    Attaquer la culture par l'angle de l'utilitarisme c'est ne rien comprendre à la culture.
    Et à quel point faut-il ne rien comprendre aux sociétés pour penser que l'art et la culture ne sont pas essentiels à la vie?

  11. #31
    Membre Expert Avatar de KiLVaiDeN
    Profil pro
    Inscrit en
    Octobre 2003
    Messages
    2 890
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2003
    Messages : 2 890
    Par défaut
    L'IA (les LLMs pour être plus précis) c'est comme un livre dynamique : on peut en lire les pages qui nous intéressent, et on y accède par un prompt. Le potentiel est énorme, et je suis conscient de son imperfection (tout comme je suis conscient qu'un livre n'est pas forcément porteur d'une vérité absolue). La puissance de cet outil réside dans sa capacité à restituer l'information plus précisément qu'un index, qu'un moteur de recherche qui ne fait qu'une recherche textuelle. Le LLM restitue l'information en combinant les concepts sous-jacent indirectement. Cela est rendu possible par les données sur lesquelles il s'est entrainé à la base, et parce qu'elles sont structurées pour être porteuses de concepts.

    En tant que civilisation intelligente, notre objectif est de produire du savoir pour tous, et les LLMs doivent donc avoir la capacité d'accéder à la totalité du savoir humain sans restriction, car ce n'est qu'ainsi qu'elles auront leur réel potentiel. L'accès libre au savoir, non seulement réservé à une élite (ceux qui peuvent "acheter" ce savoir), c'est ça la transformation que subit la société humaine, et je pense que c'est une grande étape vers plus d'équité.

  12. #32
    Membre Expert
    Avatar de Escapetiger
    Homme Profil pro
    Administrateur système Unix - Linux
    Inscrit en
    Juillet 2012
    Messages
    1 581
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 63
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Administrateur système Unix - Linux

    Informations forums :
    Inscription : Juillet 2012
    Messages : 1 581
    Par défaut Anthropic et Inquisition (merci Wikipedia)
    Citation Envoyé par Mathis Lucas Voir le message
    L'action en justice contre Anthropic révèle la façon dont l'entreprise a détruit des millions de livres imprimés dans le seul but de former son IA Claude. Anthropic a retiré la reliure des livres, les a numérisés en fichiers numériques et a jeté les originaux. (.../...)
    Citation Envoyé par Mathis Lucas Voir le message
    Et vous ?

    Anthropic a détruit des millions de livres physiques dans le processus d'entraînement de ses modèles d'IA. Qu'en pensez-vous ?

    https://fr.wikipedia.org/wiki/Autodaf%C3%A9
    Autodafé

    Un autodafé (mot d'origine portugaise « auto de fé » venant du latin « actus fidei », c'est-à-dire « acte de foi ») est une cérémonie de pénitence publique organisée par les tribunaux de l'Inquisition espagnole ou portugaise, durant laquelle celle-ci proclamait ses jugements (.../...)

    Par extension, « autodafé » désigne une destruction délibérée par le feu, en particulier de livres jugés dangereux. Ainsi, le concept d'autodafé est couramment utilisé pour caractériser la destruction publique de livres ou de manuscrits par le feu. Les plus anciennes mentions connues de ce type de pratiques se rencontrent en Chine au IIIe siècle av. J.-C., lorsque l'empereur Qin Shi Huang décide de liquider les écrits confucéens, ou plus tard, dans un contexte de guerre culturelle entre chrétiens et païens dans l'Empire romain.

    Le mot auto da fé apparaît en France au XVIIIe siècle. (.../...)
    « Developpez.com est un groupe international de bénévoles dont la motivation est l'entraide au sens large » (incl. forums developpez.net)
    Club des professionnels en informatique

    Liste des balises BB

  13. #33
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par KiLVaiDeN Voir le message
    L'IA (les LLMs pour être plus précis) c'est comme un livre dynamique : on peut en lire les pages qui nous intéressent, et on y accède par un prompt.
    C'est aussi tout le problème de l'IA, de twitter et de TikTok : ils extraient une phrase, un passage de 10 secondes d'un contexte qui parfois altère complètement l'interprétation de l'extrait.
    Tous les textes ne sont pas des études dont on peut picorer ce qui nous intéresse.
    En faisant ça on pense mutualiser de la connaissance mais on a supprimé tout raisonnement et on devient des singes savants, capable d'emmagasiner une quantité d'information incroyable mais incapable d'en faire quoi que ce soit de pertinent.
    Et à la fin certains se prétendent intellectuels ou philosophes.
    En tant que civilisation intelligente, notre objectif est de produire du savoir pour tous
    Je vais faire mon connard élitiste mais quand je vois que certaines personnes se permettent de remettre en cause le savoir de spécialistes sur des sujets dont ils ignoraient l'existence il y a 1 semaine je ne peux qu'être très prudent sur cette affirmation.
    Le savoir sans raisonnement et culture (connaissance de son environnement) ne sert à rien.
    Je vous vois les experts KPI qui sortent soit des contrevérités soit qui s'emmerveillent devant des évidences, parce qu'ils se cantonnent aux chiffres , vos chiffres représentent une partie de la réalité, si vous ignorez celle ci alors vous ne faites qu'imaginer un monde qui n'existe pas.

  14. #34
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 762
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 762
    Par défaut Pourquoi le procès Anthropic pourrait devenir le « Napster moment » de l’IA
    L'industrie de l'IA au bord du précipice ? La plus grande action collective jamais certifiée en matière de droits d'auteur contre Anthropic
    pourrait ruiner financièrement l'industrie de l'IA, selon les associations professionnelles

    Un juge fédéral américain vient de certifier la plus vaste class action jamais intentée pour violation du droit d’auteur contre une entreprise technologique. La cible : Anthropic, créatrice du modèle Claude, accusée d’avoir bâti une partie de son succès sur des données issues d’une massive bibliothèque de livres piratés. Derrière cette affaire se joue un débat fondamental : l’IA peut-elle prospérer sur la base d’une appropriation massive de contenus protégés ? Et si la justice tranche sévèrement, l’impact pourrait être dévastateur non seulement pour Anthropic, mais pour l’ensemble du secteur.

    Contexte

    En août 2024, les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson ont intenté un recours collectif contre Anthropic dans le district nord de la Californie. L'action en justice accuse Anthropic, développeur de Claude AI, d'avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur, sans consentement ni compensation. Mais Anthropic soutient que l'entraînement de l'IA sur des œuvres protégées relève de l'usage loyal.

    En avril 2025, Anthropic a déposé son opposition à la requête en certification de recours collectif, arguant qu'un recours collectif en matière de droit d'auteur portant sur des millions de livres n'était pas gérable et que les questions étaient trop distinctes pour être résolues dans le cadre d'un recours collectif.

    Dans le cadre de cet argument, Anthropic a mis en garde contre « la perspective de dommages-intérêts légaux ruineux - 150 000 dollars multipliés par 5 millions de livres » : cela représenterait 750 milliards de dollars. Un mois plus tard, une audience a eu lieu concernant la requête d'Anthropic en vue d'obtenir un jugement sommaire sur l'usage loyal, qui a examiné dans quelle mesure l'utilisation des œuvres en question pouvait être qualifiée d'usage loyal.

    Le juge William Alsup, de la cour fédérale du district nord de Californie, a rendu un jugement sommaire en faveur d'Anthropic, estimant que l'utilisation des livres protégés par le droit d'auteur à des fins de formation et le passage du format papier au format numérique constituent tous deux un « usage loyal ». Il s'agit d'une décision inédite en faveur de l'industrie de l'IA, mais elle est surtout limitée aux livres physiques qu'Anthropic a achetés et numérisés.

    Malgré sa victoire, Anthropic doit toujours faire face à un procès pour piratage, pour lequel le juge William Alsup a estimé qu'il ne s'agissait pas d'une utilisation équitable. Anthropic est accusé d'avoir téléchargé jusqu'à sept millions de livres piratés afin de constituer une bibliothèque de recherche où les copies seraient conservées « à jamais », qu'elles aient été utilisées ou non dans le cadre de l'entraînement de ses grands modèles de langage.

    Ayant apparemment compris que le piratage pouvait entraîner des poursuites judiciaires, Anthropic a ensuite tenté de remplacer les livres piratés par des copies achetées légalement. Toutefois, l’entreprise a également soutenu que même la copie initiale de ces livres piratés constituait une étape « intermédiaire » nécessaire pour permettre un usage transformateur dans l’entraînement de l’IA. Un argument largement controversé que le tribunal a rejeté.

    Ce qui rend cette affaire explosive, c’est qu’Anthropic n’est probablement pas un cas isolé. Dans les cercles techniques, il est de notoriété publique que de nombreux modèles ont été formés sur des corpus partiellement ou totalement illégaux : bibliothèques pirates, dépôts GitHub sans licence, archives web contenant du contenu protégé…

    Si la justice établit un précédent strict, toute l’industrie pourrait se retrouver dans la ligne de mire : OpenAI, Google DeepMind, Meta, Stability AI et bien d’autres. Le procès Anthropic pourrait alors devenir l’équivalent, pour l’IA, de l’affaire Napster dans l’industrie musicale — un moment de rupture imposant de nouvelles règles du jeu.


    Anthropic est dans la tourmente

    Les groupes industriels du secteur de l'IA exhortent une cour d'appel à bloquer ce qu'ils qualifient de plus grande action collective jamais certifiée en matière de droits d'auteur. Ils ont averti qu'un seul procès intenté par trois auteurs contre Anthropic pour sa formation en IA menace désormais de « ruiner financièrement » l'ensemble du secteur de l'IA si jusqu'à 7 millions de plaignants finissent par se joindre au litige et imposer un règlement.

    Il y a quelques jours, Anthropic a déposé une requête en appel contre la certification du recours collectif, exhortant la cour à examiner des questions que le juge du tribunal de district, William Alsup, ne semble pas avoir prises en compte. Selon Anthropic, Alsup n'aurait pas procédé à une « analyse rigoureuse » du recours collectif potentiel et aurait plutôt fondé son jugement sur ses « 50 ans » d'expérience.

    Si la cour d'appel rejette la requête, Anthropic estime que l'entreprise émergente pourrait être condamnée. Comme l'a fait valoir Anthropic, elle « risque désormais de devoir payer des centaines de milliards de dollars de dommages-intérêts lors du procès qui se tiendra dans quatre mois », sur la base d'une certification de recours collectif précipitée à une « vitesse fulgurante » qui concerne « jusqu'à sept millions de plaignants potentiels, dont les œuvres couvrent un siècle d'histoire de l'édition », chacun pouvant déclencher une amende de 150 000 dollars.

    Un pillage massif au cœur du dossier

    L'action collective met en lumière le cœur du problème de l'IA générative : l'entraînement des modèles sur des masses de données non autorisées. Pour atteindre leur niveau de performance actuel, des modèles comme Claude d'Anthropic ou ChatGPT d'OpenAI ont ingéré d'énormes quantités de textes, d'images et de code, dont une grande partie est protégée par le droit d'auteur. Les plaignants dénoncent un pillage massif et systématique de la propriété intellectuelle, qui a permis à ces entreprises de construire des modèles d'une valeur inestimable sans aucune compensation pour les créateurs originaux.

    Les documents judiciaires, rendus publics début août, décrivent un procédé d’une ampleur qui donne le vertige. Selon le juge, Anthropic aurait téléchargé 5 millions de livres via la bibliothèque pirate LibGen, et 2 millions supplémentaires via PiLiMi, pour nourrir ses modèles.

    Dans le monde du machine learning, les données d’entraînement sont le carburant. Or, au lieu d’acheter du contenu sous licence ou de produire ses propres corpus, Anthropic aurait, selon les plaignants, choisi la voie la moins coûteuse : l’extraction illégale.

    Le droit américain permet aux titulaires de droits d’auteur de réclamer jusqu’à 150 000 $ par œuvre contrefaite. Multipliez cela par des millions de livres et on atteint rapidement un montant théorique astronomique, potentiellement létal pour toute entreprise.

    Nom : generative.png
Affichages : 30286
Taille : 156,4 Ko

    Des soutiens de poids

    Dans un document déposé jeudi devant le tribunal, la Consumer Technology Association et la Computer and Communications Industry Association ont apporté leur soutien à Anthropic, avertissant la cour d'appel que « la certification erronée de la classe par le tribunal de district » menacerait de causer « un préjudice immense non seulement à une seule entreprise d'IA, mais à l'ensemble du secteur naissant de l'IA et à la compétitivité technologique mondiale des États-Unis ».

    Selon ces groupes, autoriser les recours collectifs en matière de droit d'auteur dans les affaires liées à l'entraînement de l'IA conduirait à un avenir où les questions de droit d'auteur resteraient en suspens et où le risque que des plaignants « enhardis » imposent des règlements colossaux refroidirait les investissements dans l'IA.

    « Une telle responsabilité potentielle dans cette affaire exerce une pression incroyablement coercitive sur Anthropic pour qu'elle accepte un règlement », ont fait valoir les groupes industriels, concluant que « alors que l'IA générative commence à façonner la trajectoire de l'économie mondiale, l'industrie technologique ne peut pas supporter un litige aussi dévastateur. Les États-Unis sont peut-être actuellement le leader mondial du développement de l'IA, mais cela pourrait changer si les litiges entravent les investissements en imposant des dommages-intérêts excessifs aux entreprises d'IA ».


    Les défenseurs représentant les auteurs s'en mêlent et soutiennent... Anthropic

    Des groupes industriels se sont joints à Anthropic pour faire valoir que, d'une manière générale, les poursuites en matière de droit d'auteur ne se prêtent pas aux recours collectifs, car chaque auteur doit prouver qu'il est bien le propriétaire de ses œuvres. Et ces groupes n'étaient pas les seuls.

    Soutenant également l'appel d'Anthropic, les défenseurs représentant les auteurs, notamment Authors Alliance, Electronic Frontier Foundation, American Library Association, Association of Research Libraries et Public Knowledge, ont souligné que l'affaire Google Books avait montré que prouver la propriété était tout sauf simple.

    Dans l'affaire Anthropic, les défenseurs des auteurs ont critiqué Alsup pour avoir essentiellement jugé les 7 millions de livres concernés par le procès sur leur couverture. Le juge n'aurait « pratiquement pas cherché à savoir qui étaient les membres réels », et n'aurait « pas analysé les types de livres inclus dans la catégorie, leurs auteurs, les types de licences susceptibles de s'appliquer à ces œuvres, les intérêts des titulaires de droits ou leur éventuel soutien aux positions des représentants de la catégorie ».

    Ignorant « des décennies de recherche, de multiples projets de loi au Congrès et de nombreuses études du Bureau américain du droit d'auteur visant à relever les défis liés à la détermination des droits sur un grand nombre de livres », le tribunal de district semblait s'attendre à ce que les auteurs et les éditeurs puissent facilement « trouver le meilleur moyen d'obtenir réparation » pour les dommages subis.

    Mais ce n'est jamais facile, ont déclaré les groupes. Prenons, par exemple, le cas des éditeurs aujourd'hui disparus qui pourraient compliquer les questions de propriété avec certains livres impliqués dans le litige. Ou encore, comment les titulaires de droits pourraient être affectés s'ils ne possèdent qu'une partie d'une œuvre, comme un chapitre ou des insertions dans des textes universitaires. Le tribunal de district n'a apparemment même pas pris en considération « ce qu'il adviendra des auteurs décédés dont les droits littéraires sont détenus par plusieurs parties ». Il existe également de nombreuses œuvres dites « orphelines », pour lesquelles « il sera impossible d'identifier les titulaires de droits afin de régler les questions de propriété ». Si le recours collectif aboutit, les groupes ont averti que le tribunal pourrait devoir examiner « des centaines de mini-procès pour régler ces questions ».

    De plus, certains auteurs pourraient ne jamais savoir que le procès a lieu. Le système de notification proposé par le tribunal « obligerait les plaignants à informer eux-mêmes les autres ayants droit potentiels », ont déclaré les groupes, négligeant le fait qu'il a coûté 34,5 millions de dollars à Google « pour mettre en place un "registre des droits sur les livres" afin d'identifier les propriétaires pour les paiements dans le cadre du règlement proposé » dans l'une des plus grandes affaires impliquant des auteurs de livres avant l'avalanche de procès liés à l'IA.

    De plus, le tribunal a suggéré qu'il était acceptable de certifier le recours collectif massif, car tout auteur qui ne souhaitait pas y participer pouvait se retirer. Cependant, certains groupes ont averti qu'une approche laxiste plaçait les auteurs qui n'auraient peut-être jamais entendu parler du procès — et qui auraient peut-être intenté leur action en justice différemment — dans une position difficile, constituant ainsi « une réponse inadéquate à un problème fondamental d'équité dans la formulation du recours collectif et aux préoccupations relatives au respect des procédures régulières des membres absents du recours collectif ».

    Certains auteurs et éditeurs sont « déjà en désaccord sur l'IA », ce qui pourrait compliquer davantage ces affaires, si l'une des parties représentant les propriétaires légaux (généralement les éditeurs) souhaite se joindre au recours, mais que les propriétaires bénéficiaires (généralement les auteurs) s'y opposent.

    Conclusion

    Ce procès est une bombe à retardement pour l’industrie de l’IA. D’un côté, il rappelle une évidence : on ne peut pas se prétendre leader technologique en basant son développement sur du contenu volé. De l’autre, il pose la question de la viabilité même des modèles actuels, qui reposent sur une quantité phénoménale de données souvent impossibles à acquérir légalement à grande échelle.

    Si le jugement final confirme la culpabilité d’Anthropic, l’industrie pourrait entrer dans une ère de purge, où seuls les acteurs capables d’investir massivement dans l’achat de données survivront. Dans ce scénario, l’IA perdrait peut-être en diversité et en innovation, mais gagnerait en légitimité et en respect du droit d’auteur.

    Sources : décision de justice, Consumer Technology Association and the Computer et Communications Industry Association, Authors Alliance et Electronic Frontier Foundation

    Et vous ?

    Quelle lecture faites-vous de cette situation ? Quel avis partagez-vous ?

    L’entraînement d’un modèle d’IA sur des données piratées peut-il être légitimé par le fair use, ou est-ce une ligne rouge infranchissable ?

    La justice américaine devrait-elle établir une distinction claire entre usage éducatif/recherche et usage commercial des données ?

    Faut-il créer un cadre légal spécifique à l’IA pour éviter la multiplication de procès aux montants astronomiques ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #35
    Invité de passage
    Homme Profil pro
    Architecte de système d'information
    Inscrit en
    Juin 2025
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Allier (Auvergne)

    Informations professionnelles :
    Activité : Architecte de système d'information

    Informations forums :
    Inscription : Juin 2025
    Messages : 2
    Par défaut Propriété intellectuelle : la jolie vitrine d’un marché de chasse gardée
    Les droits d’auteur, les brevets et les licences fonctionnent, dans la pratique, bien plus souvent comme des armes d’accaparation et d’exclusion : ils servent à bâtir des monopoles, verrouiller des rentes et instaurer la censure… On est donc à des années-lumière du conte de fées où ces dispositifs protégeraient la veuve, l’orphelin et la noble création contre la dureté du monde.

  16. #36
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Un bon exemple de ça est le scandale en ce moment entre Slawn qui revendique une collaboration avec Kaws, ce qui lui permet d'utiliser ces codes.
    Kaws qui se scandalise qu'on s'accapare son travail alors que sa signature consiste à détourner (et donc s'accaparer) des figures de la culture pop.
    Quand vous trouvez un faille, fermez toujours la porte derrière vous. Un jour vous pourriez être la victime de ce que vous avez fait

  17. #37
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    520
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 520
    Par défaut Ce n'est que mon opinion...


    Je pense que l'industrie de l'IA, si elle ne s'écroule pas à cause du droit d'auteur (pour son "entrainement"), devrait s'écrouler pour plagiat, tout simplement. Que l'on trouve normal que l'IA se se forme en pompant le travail des autres, je peux à la limite l'accepter, car finalement, chaque "oeuvre" est "influencée" d'une manière au d'une autre par d'anciennes références.

    Lorsque cela est fait par un humain, pour que la nouvelle "oeuvre" soit intéressante, une nouvelle vue et/ou une évolution est impérative.

    L'IA (dans l'état actuelle), ne fait que de ressortir une "réponse" basée sur d'anciennes oeuvres, sans ajouter la moindre évolution, elle ne "crée" rien. Ce qu'elle fait lorsqu'on l'utilise s'apparente plus au plagiat.

    L'industrie de l'IA a donc 2 gros problèmes. L'utilisation (massive) d'ouvres protégées par le droit d'auteurs, ET la production d'un plagiat. Un auteur humain peut s'appuyer sur le travail d'autruis, mais doit en tout logique citer ses sources, et si il y'a clairement "recopie", il sera condamné pour "plagiat". Il ne devrait pas en être autrement pour l'IA.

    Certes, cela permet à certaines personnes de "découvrir" des choses qu'ils n'auraient jamais découvertes par eux-même et pour ces personne, cela est une "nouveauté", pour d'autres, c'est du "connus". Mais est-ce une bonne chose ? La "recherche" est une partie importante d'une création nouvelle. Avec l'IA, cette partie "recherche" disparaît pratiquement.

    Si on pousse le raisonnement, l'humain perdra ce qui fait ce qu'il est actuellement, un "explorateur", un "chercheur", un "créateur", un être qui "réfléchit". L'IA pourrait balayer tout cela, et l'homme ne sera plus vraiment un homme, il deviendra incapable d'explorer, de chercher, de créer, de réflèchir.

    Je ne suis ni pour ni contre, mais je me défend de l'employer, car son utilisation, si elle permet d'aller "plus vite" (a vérifier sur le long terme, je n'en suis pas certains), rend énormément moins intéressant le "création" de quoi que ce soit.

    Dans le domaine du développement, quelle satisfaction peut-on tirer d'une "solution" dont on ne comprend même pas comment elle fonctionne ? Certes, cela peut éventuellement limiter les coûts d'une solution, mais à qui cette diminution des coups profite t'elle ? Certainement à celui qui a créer/copier la solution...

    Enfin, ce n'est que mon petit opinion.
    BàV et Peace & Love.

  18. #38
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    520
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 520
    Par défaut Oui et non...
    Citation Envoyé par FlamingoFR Voir le message
    Les droits d’auteur, les brevets et les licences fonctionnent, dans la pratique, bien plus souvent comme des armes d’accaparation et d’exclusion : ils servent à bâtir des monopoles, verrouiller des rentes et instaurer la censure… On est donc à des années-lumière du conte de fées où ces dispositifs protégeraient la veuve, l’orphelin et la noble création contre la dureté du monde.
    Les brevets ont en effet été massivement "détournés" pour devenir un cadenas. L'idée de départ, c'était de permettre à un "créateur" de profiter de revenus créer via cette "création".

    Ils ne sont plus adapté à notre époque, car en effet ils sont massivement utilisés par des multinationnales qui en déposent 25000 par ans.

    Mais imaginez un instant que vous arrivez a créer une nouveauté, après un dur travail, et qu'un autre en profite à votre place ? Je ne pense pas que vous aimeriez cela...

    Après, oui, ils ne devraient pas durer trop longtemps, sous peine de bâtir des monopoles, des rentes, vous avez parfaitement raison. Les brevets on été créé à une époque où tout allait moins vite que maintenant. Ils ne sont plus "adaptés" à notre époque, mais cela ne justifie en rien le droit que s'octroit l'industritie de l'IA, qui en plus utilisent elles même ces brevet pour "protéger" la manière de fonctionner de leur IA. Il peuvent copier, mais on ne peut pas les copier, c'est un peu l'hopital qui se faut de la charité, non ?

    BàV et Peace & Love.

  19. #39
    Membre éclairé

    Inscrit en
    Novembre 2008
    Messages
    431
    Détails du profil
    Informations forums :
    Inscription : Novembre 2008
    Messages : 431
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    ...
    Mais imaginez un instant que vous arrivez a créer une nouveauté, après un dur travail, et qu'un autre en profite à votre place ? Je ne pense pas que vous aimeriez cela...
    ...
    Cette situation est le résultat d'une organisation économique basée sur l'accaparement généralisé.
    Les brevets n'en sont qu'un avatar.
    En ce qui me concerne, je n'ai aucun problème avec l'idée que d'autres profitent de mon travail (mais en fait, personne ne devrait en "profiter") sans que ne soit rémunérée la fameuse "propriété intellectuelle" qui est quand même un concept sacrément fumeux si l'on considère qu'aucune innovation ne peut prétendre exister sans prendre ses fondations sur de multiples créations antérieures depuis l'invention de la roue et la maîtrise du feu.
    Qui plus est, c'est bien plus souvent l'entreprise qui bénéficie des résultats de ses brevets, pas la personne qui a fait la découverte.

  20. #40
    Membre actif
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    57
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 72
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 57
    Par défaut C'est tentant de voler...
    Quand je lis un livre je me nourris du texte, j'apprends. Je n'ai pas le droit de le reproduire à l'identique mais j'ai le droit de reformuler les idées dans un texte original en citant la source.
    J'ai acheté les livres ou je les ai emprunté dans une bibliothèque.
    C'est bien ce que peut et doit faire à minima une IA, non ?
    Le savoir est un bien qui appartient à l'humanité.
    A mon avis il faut exiger des IA :
    1. Qu'elles achètent les livres qu'elles scannent,
    2. Qu'elles ne reproduisent pas les textes à l'identique pour éviter le plagiat,
    3. Qu'elles citent toutes les sources dont elles se sont inspirées dans la réponse sous forme d'une liste de références.

    Pour une IA avancée avancée cela devrait être faisable.

Discussions similaires

  1. Réponses: 295
    Dernier message: 26/09/2025, 18h59
  2. Réponses: 0
    Dernier message: 09/07/2024, 12h47
  3. Réponses: 0
    Dernier message: 24/05/2023, 17h58
  4. Réponses: 50
    Dernier message: 29/06/2021, 11h26
  5. Réponses: 0
    Dernier message: 03/06/2020, 12h18

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo