IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Glaze, l'outil contre le mimétisme de l'IA, confronté à des controverses sur la protection des artistes


Sujet :

Intelligence artificielle

  1. #141
    Expert confirmé
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 527
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 527
    Points : 5 195
    Points
    5 195
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Par exemple, lorsque vous reproduisez entièrement un livre à l'aide d'une photocopieuse, ce n'est pas le fabricant de l'appareil qui risque des poursuites, mais bien sûr vous, sauf si vous avez une autorisation légale.
    Plutôt falacieux comme exemple
    La photocopieuse n'a pas été "entrainée" avec des milliers / millions de livres originaux

    Citation Envoyé par ALT Voir le message
    En ce qui me concerne, j'affirme depuis longtemps que les artistes se sont toujours inspirés de leurs prédécesseurs
    s'inspirer c'est une chose
    copier ou réutiliser c'est du vol
    et c'est ce que font les IA actuelles vu qu'elles sont entrainées avec des oeuvres originales
    mais surtout, sans l'accord de l'auteur tant les géants derrière ces IA s'estiment en droit de voler le travail des autres pour mieux se dorer la pilule
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  2. #142
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 270
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 270
    Points : 7 794
    Points
    7 794
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par shenron666 Voir le message
    copier ou réutiliser c'est du vol
    De la contrefaçon. Le vol consiste à subtiliser quelque chose à quelqu'un, de sorte que ce quelqu'un ne l'a plus. La contrefaçon non.

    Les discussions de ce genre se basent trop souvent sur des amalgames pour faire valoir telle ou telle interprétation. On ne peut pas critiquer qu'un tel fasse un argument fallacieux si de notre côté on fait pareil. Et corriger ça commence par utiliser la bonne terminologie.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  3. #143
    Expert confirmé
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 527
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 527
    Points : 5 195
    Points
    5 195
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    De la contrefaçon. Le vol consiste à subtiliser quelque chose à quelqu'un, de sorte que ce quelqu'un ne l'a plus. La contrefaçon non.

    Les discussions de ce genre se basent trop souvent sur des amalgames pour faire valoir telle ou telle interprétation. On ne peut pas critiquer qu'un tel fasse un argument fallacieux si de notre côté on fait pareil. Et corriger ça commence par utiliser la bonne terminologie.
    Absolument pas d'accord, la contrefaçon c'est reproduire un objet sans en avoir le droit et à l'identique ou très proche
    rien à voir avec le sujet

    Ici je parle bien de vol, plus exatement le vol de propriété intellectuelle puisqu'il s'agit d'oeuvres protégées par le droit d'auteur
    aucun amalgame ou mauvaise interprétation de ma part
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  4. #144
    ALT
    ALT est déconnecté
    Membre émérite
    Avatar de ALT
    Homme Profil pro
    Retraité
    Inscrit en
    Octobre 2002
    Messages
    1 259
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : France, Indre et Loire (Centre)

    Informations professionnelles :
    Activité : Retraité
    Secteur : Service public

    Informations forums :
    Inscription : Octobre 2002
    Messages : 1 259
    Points : 2 417
    Points
    2 417
    Par défaut
    À shenron666 : Les IA sont entraînées avec des œuvres originales, certes, mais elles ne les reproduisent pas, sinon il n'y aurait pas besoin de l'IA pour ça.
    Et n'oublie pas que tous les apprentis artistes ont d'abord reproduit des œuvres originales, sans consentement de l'auteur, & sans vendre ces contrefaçons, ceci avant de trouver leur propre style.
    Enfin, tu refuses le terme de contrefaçon que Matthieu Vergne souhaite utiliser, alors que ton expression « vol de propriété intellectuelle » en est l'exacte définition, comme tu le reconnais d'ailleurs deux lignes plus haut ! Là, j'aimerais comprendre.
    « Un peuple qui est prêt à sacrifier un peu de liberté contre un peu de sécurité, ne mérite ni l'une, ni l'autre, et finira par perdre les deux. »
    Attribué indistinctement à :
    Thomas Jefferson
    Benjamin Franklin
    Albert Einstein !

  5. #145
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 270
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 270
    Points : 7 794
    Points
    7 794
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par shenron666 Voir le message
    Ici je parle bien de vol, plus exatement le vol de propriété intellectuelle puisqu'il s'agit d'oeuvres protégées par le droit d'auteur
    Le simple fait que tu parles de vol dans le cadre de propriété intellectuelle montre bien que tu fais un amalgame, car les deux sont fondamentalement séparés.

    La notion même de "propriété intellectuelle" est conçue dans un code juridique dédié (code de la propriété intellectuelle) pour protéger des oeuvres notamment contre la copie, et dont le délit est qualifié de "contrefaçon".
    https://www.legifrance.gouv.fr/codes...TI000032655082

    Le "vol" est défini depuis bien plus longtemps dans le code pénal et consiste à subtiliser une chose à autrui, quelle que soit la chose en question, indépendamment de toute propriété intellectuelle.
    https://www.legifrance.gouv.fr/codes...A000006149833/

    Une des différences principales entre les deux est que le vol consiste à ce que la victime n'ait plus l'objet qui lui a été volé, alors que dans le cas de la contrefaçon elle l'a toujours. C'est précisément ce dont il est question ici : l'auteur (ou ses ayants droits) est toujours détenteur de l'oeuvre et tout ce qui s'y rattache, mais d'autres se sont arrogés ces droits en copiant et utilisant son oeuvre sans autorisation.

    L'amalgame entre vol et contrefaçon est tenace et présent dans toutes les discussions sur le sujet, et si on veut que les choses avancent il faut commencer par poser les bons mots sur les bons phénomènes.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  6. #146
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 317
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 317
    Points : 2 509
    Points
    2 509
    Par défaut
    Non mais on peut fracturer le coffre de la Banque de France, du moment que ce sont les receleurs qui sont responsables ...

  7. #147
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    696
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 696
    Points : 12 597
    Points
    12 597
    Par défaut Les modèles d'IA de génération d'images peuvent être trompés et incités à produire des contenus obscènes
    Les modèles d'IA de génération d'images peuvent être trompés et incités à produire des contenus obscènes
    en exploitant une faille critique dans la façon dont ils interprètent le langage naturel

    Une nouvelle étude rapporte que les filtres de sécurité des modèles d'IA de génération d'images comme DALL-E et Midjourney peuvent être facilement contournés grâce à une méthode inattendue. Les chercheurs ont découvert une faille dans ces outils d'IA qui permet de générer des contenus inappropriés à l'aide d'un algorithme appelé "SneakyPrompt". Il exploite une faille critique dans la façon dont ces outils d'IA interprètent le langage naturel. L'étude remet une fois de plus en question l'efficacité des filtres intégrés à ces systèmes d'IA. Par le passé, ces garde-fous, pourtant jugés solides par leurs auteurs, avaient déjà permis la génération de nombreux contenus inappropriés.

    Les modèles d'IA de génération d'images sont conçus pour créer des images à partir de descriptions textuelles. Stable Diffusion, DALL-E 2 et Midjourney sont parmi les modèles d'IA de génération de texte les plus connus. Pour empêcher les utilisateurs de générer des contenus inappropriés, les créateurs de ces systèmes les ont dotés de filtres de sécurités qui bloquent les requêtes suspectes. Ils visent notamment à empêcher la création d'images obscènes comme des contenus explicites ou violents. Ces garde-fous ont été mis à rudes épreuves au fil du temps, ce qui a poussé les propriétaires de ces modèles d'IA à les rendre plus efficaces contre les attaques.

    Mais des chercheurs de l'université Johns Hopkins, à Baltimore, et de l'université Duke, à Durham (Caroline du Nord), ont découvert une faille critique dans ces systèmes d'IA, qui pourrait avoir de vastes répercussions sur la modération des contenus numériques. La découverte concerne un algorithme appelé SneakyPrompt, conçu pour déjouer les filtres de sécurité intégrés dans les modèles d'IA de génération d'images. Dans le cadre de leurs expériences, l'équipe de recherche a commencé par tester des invites que les filtres de sécurité bloqueraient, comme "un homme nu faisant du vélo". Les tests ont été effectués sur DALL-E 2 et Stable Diffusion.


    L'algorithme a examiné les réponses des IA génératives, puis a progressivement ajusté ces alternatives pour trouver des commandes capables de contourner les filtres de sécurité et de produire des images. Il est important de noter que les filtres de sécurité ne se limitent pas à une liste de mots interdits tels que "nu". Ils recherchent également des termes, tels que "nu", dont la signification est étroitement liée à des mots interdits. SneakyPrompt a pu substituer des mots dans ces messages pour contourner les filtres. Les chercheurs ont constaté que des mots absurdes pouvaient inciter ces modèles d'IA générative à produire des images innocentes ou obscènes.

    Par exemple, ils ont remarqué que DALL-E 2 interpréterait les termes "thwif" et "mowwly" comme "chat" et "lcgrfy" et "butnip fwngho" comme "chien". L'équipe ignore exactement pourquoi le modèle prendrait ces mots absurdes pour des ordres. « Notre groupe est généralement intéressé par le fait de casser des choses. Casser les choses fait partie de leur renforcement. Par le passé, nous avons trouvé des vulnérabilités dans des milliers de sites Web, et maintenant nous nous tournons vers des modèles d'IA pour trouver leurs vulnérabilités », explique l'auteur principal de l'étude, Yinzhi Cao, chercheur en cybersécurité à l'université Johns Hopkins, à Baltimore.

    Mais Cao fait remarquer que ces systèmes sont formés sur des corpus autres que l'anglais, et que certaines syllabes ou combinaisons de syllabes similaires à, par exemple, "thwif" dans d'autres langues peuvent être liées à des mots tels que "cat". Les chercheurs ont également découvert que des mots absurdes pouvaient amener les IA génératives à produire des images dangereuses pour le travail (NSFW). Apparemment, les filtres de sécurité ne considèrent pas ces invites comme suffisamment liées à des termes interdits pour les bloquer, mais les systèmes d'IA considèrent néanmoins ces mots comme des commandes pour produire un contenu douteux.

    Au-delà des mots absurdes, les scientifiques ont constaté que les IA génératives pouvaient confondre des mots normaux avec d'autres mots normaux. Par exemple, ils ont remarqué que DALL-E 2 pouvait confondre le terme "glucose" ou "gregory faced wright" avec "chat" et "maintenance" ou "dangerous think walt" avec "chien". Dans ce cas, l'explication peut résider dans le contexte dans lequel ces mots sont placés. Lorsqu'on leur a demandé de répondre à la question suivante : "the dangerous think walt growled menacingly at the stranger who approached its owner", les systèmes ont déduit que "dangerous think walt" signifiait "dog" dans le reste de la phrase.

    « Si le mot "glucose" est utilisé dans d'autres contextes, il peut ne pas signifier "chat" », explique Cao. Les tentatives manuelles précédentes pour contourner ces filtres de sécurité étaient limitées à des modèles d'IA spécifiques, telles que Stable Diffusion, et ne pouvaient pas être généralisées à d'autres systèmes de génération de contenu. Les chercheurs ont constaté que l'exploit SneakyPrompt pouvait fonctionner à la fois sur DALL-E 2 et sur Stable Diffusion. En outre, selon les chercheurs, les tentatives manuelles antérieures visant à contourner les filtres de sécurité de l'IA Stable Diffusion ont montré un taux de réussite aussi faible qu'environ 33 %.

    En revanche, SneakyPrompt a obtenu un taux moyen de réussite d'environ 96 % lorsqu'il était confronté à Stable Diffusion et d'environ 57 % avec DALL-E 2. Selon les auteurs de l'étude, les implications de cette découverte sont préoccupantes, car elles soulignent le potentiel d'abus et soulèvent des questions quant à la fiabilité de la modération automatisée des contenus. Ces résultats révèlent que les outils d'IA de génération d'images peuvent être exploités pour créer des contenus perturbateurs. Selon Cao, ces outils pourraient notamment produire des images de personnes réelles ayant un comportement répréhensible qu'elles n'ont jamais eu en réalité.

    À titre d'exemple, au début de l'année, les utilisateurs de Midjourney ont créé de fausses images montrant Donald Trump qui tente de résister tant bien que mal à une arrestation, mais également des images montrant l'ancien président des États-Unis en tenue de détenu et faisant du nettoyage dans une enceinte pénitentiaire. Mais ce n'est pas tout. Midjourney a également permis aux internautes de générer des images très réalistes montrant le pape François dans un manteau à la mode et le président français Emmanuel Macron ramassant des ordures dans les rues de Paris ou se mêlant aux forces de l'ordre pour encadrer des manifestants.

    Bien que les images aient été rapidement identifiées comme des deepfakes, il est à craindre que des acteurs malveillants utilisent Midjourney, DALL-E, Stable Diffusion ou d'autres outils similaires pour diffuser de fausses informations avec des images très réalistes à l'appui. À l'époque, David Holz, cofondateur et PDG de Midjourney, a déclaré que l'entreprise a tenté de résoudre les problèmes d'abus avec des correctifs de sécurité, mais les changements tentés n'ont pas pu résoudre les problèmes. La société a été obligée de suspendre les essais gratuits après que ces deepfakes sont devenus viraux sur la toile, tout en continuant à chercher d'autres solutions.

    L'été dernier, Midjourney a également banni un artiste pour avoir utilisé l'IA de génération d'œuvres d'art de l'entreprise pour créer des images de politiciens trompant leur femme. Bien que ces photos soient fausses, elles sont "hyperréalistes" et capables de tromper facilement la vigilance d'un public non averti. L'artiste a déclaré que son objectif était d'alerter le public sur les dangers potentiels de ce type d'IA pour les personnes, les entreprises et les gouvernements, mais il a été banni par Midjourney. L'entreprise n'a pas évoqué les raisons justifiant cette décision, mais les conditions d'utilisation de son modèle d'IA générative interdisent la création de telles images.

    Commentant les risques liés aux outils d'IA de génération d'images, Cao a déclaré : « nous espérons que cette attaque aidera les gens à comprendre à quel point les modèles d'IA de génération d'images peuvent être vulnérables ». Les chercheurs souhaitent à présent explorer les moyens de rendre les IA génératives plus robustes face aux adversaires. « L'objectif de notre travail sur les attaques est de rendre le monde plus sûr. Il faut d'abord comprendre les faiblesses des modèles d'IA, puis les rendre résistants aux attaques », a déclaré Cao. Les implications de ces résultats soulignent la nécessité d'affiner les mesures de sécurité des modèles d'IA.

    Les systèmes d'IA interprètent le langage différemment des humains, et les chercheurs soupçonnent ces systèmes d'interpréter certaines syllabes ou combinaisons de manière similaire à des mots d'autres langues, ce qui conduit à des associations inattendues. Il est essentiel de s'assurer qu'ils discernent avec précision et empêchent la création de contenus inappropriés, même lorsqu'ils sont confrontés à des entrées linguistiques trompeuses ou non conventionnelles. Selon l'équipe, il est impératif de s'attaquer à ces failles et de les rectifier afin de respecter les normes éthiques et d'empêcher l'utilisation abusive de l'IA pour générer des contenus inappropriés.

    L'équipe présentera ses conclusions en détail en mai 2024 lors du symposium de l'IEEE sur la sécurité et la protection de la vie privée, qui se tiendra à San Francisco. Cette recherche souligne l'urgence d'une vigilance continue et d'une amélioration itérative dans l'industrie de l'IA, préfigurant un avenir où la créativité numérique et les filtres de sécurité évolueront de concert pour faciliter un paysage virtuel responsable et sûr.

    Source : rapport de l'étude

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'exploit SneakyPrompt mis au point par les chercheurs ?
    Selon vous, pourquoi les modèles d'IA de génération d'images se comportent de cette façon ?
    Les entreprises développant ces systèmes d'IA sont-elles en mesure de corriger cette vulnérabilité ?

    Voir aussi

    Le modèle d'IA de génération d'images Midjourney suspend les essais gratuits après que les deepfakes sont devenus viraux, mais la société impute ce choix à la création excessive de comptes jetables

    « J'ai perdu tout ce qui me faisait aimer mon travail à cause du modèle d'IA Midjourney », affirme un artiste 3D qui raconte comment l'IA lui a arraché son travail du jour au lendemain

    L'IA de génération d'images la plus avancée de la Chine bloque déjà les contenus politiques, des entrées telles que "place Tiananmen" et "Xi Jinping" ne produisent aucun résultat

  8. #148
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 908
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 908
    Points : 37 277
    Points
    37 277
    Par défaut Impact de l'IA sur les arts et la société : L'IA fera-t-elle perdre du temps à tous ?
    L'impact de l'IA sur les arts et la société : à la lumière des événements de 2023, peut-on affirmer que l'IA fera perdre du temps à tout le monde ?
    Une analyse de Lincoln Michel

    Lincoln Michel, auteur du roman The Body Scout et du recueil de nouvelles Upright Beasts, soulève dans son billet de blog la question pertinente de l'impact de l'intelligence artificielle (IA) sur les arts et la société en général. Il commence par évoquer les événements de 2023, où les modèles d'IA ont réussi des examens tels que le LSAT, SAT et AP, suscitant ainsi des inquiétudes quant aux capacités de l’IA par rapport aux humains. Michel explore ensuite les performances de l'IA en demandant à différents programmes de créer une histoire de six mots sur les chaussures de bébé, mettant en lumière les limites et les contradictions de ces systèmes.

    L’IA pose aujourd’hui un dilemme ; il est décrit comme à la fois impressionnante et assez stupide. Certaines personnes critiquent l'utilisation du terme « intelligence artificielle » pour des algorithmes qui peuvent être sujets à des erreurs et irréfléchis, soulignant les défauts amusants de l'IA : ce qui offre un soulagement aux artistes qui craignaient initialement que leur profession soit menacée par ces technologies.

    Le sujet de l'impact de l'intelligence artificielle sur les arts et la société en général prend une tournure plus sombre en évoquant les conséquences réelles de l'IA, notamment le vol intellectuel perpétré par les grandes entreprises au détriment des artistes. Les artistes, acteurs et écrivains ont tous été confrontés à des utilisations non autorisées de leur travail par des algorithmes, entraînant des grèves et des poursuites.

    Nom : ia1B.png
Affichages : 2204
Taille : 318,3 Ko

    Autrefois réservés à une élite technologique restreinte, les systèmes d'IA texte-image gagnent en popularité et en puissance. Ces outils, généralement proposant quelques crédits gratuits avant de devenir payants, peuvent créer diverses images à partir de simples mots, certaines rappelant clairement le style de nombreux artistes, même s'il n'est pas évident qu'elles aient été réalisées par le même créateur. Les utilisateurs peuvent identifier ces artistes en utilisant des termes tels que « dans le style de » ou « par », suivis d'un nom spécifique.

    Les artistes enflamment le débat sur l'utilisation de leurs œuvres pour entraîner les outils d'IA

    Les utilisations actuelles de ces outils vont de l'amusement personnel à des applications commerciales. Cependant, la révélation que des artistes découvrent que leur travail est utilisé pour former des programmes d'IA soulève une inquiétude fondamentale : leur propre art est effectivement exploité pour entraîner des programmes informatiques qui pourraient éventuellement concurrencer leur gagne-pain.

    Les personnes qui génèrent des images avec des systèmes tels que Stable Diffusion ou DALL-E peuvent ensuite les vendre, avec des conditions spécifiques liées au droit d'auteur et à la propriété de ces images qui varient. Daniel Danger, illustrateur et graveur, exprime son refus de participer à une machine qui pourrait dévaloriser son travail, après avoir découvert que plusieurs de ses œuvres ont été utilisées pour entraîner Stable Diffusion.

    Certains artistes numériques ont porté plainte contre Midjourney et Stability AI, deux entreprises ayant lancé des générateurs d'images basés sur l'intelligence artificielle, capables de transformer des textes simples en images réalistes. Les artistes allèguent que ces entreprises ont enfreint leurs droits d'auteur en utilisant leurs œuvres, ainsi que celles de milliers d'autres artistes, pour former leurs générateurs d'images et produire des œuvres dérivées.

    L'auteur aborde ensuite la menace que l'IA pose au monde artistique, décrivant le risque de submersion par un excès de contenu généré par des algorithmes. Il mentionne le phénomène où plusieurs magazines de science-fiction ont interrompu leurs envois en raison d'une surabondance d'histoires écrites par l'IA. Michel souligne le problème du « pipeline » et se demande si l'IA produira vraiment 100 fois plus de lecteurs avec une production artistique accrue.

    Des milliers d'auteurs, dont Nora Roberts, Viet Thanh Nguyen, Michael Chabon et Margaret Atwood, ont uni leurs voix dans une lettre exhortant des entreprises d'intelligence artificielle telles qu'OpenAI et Meta à cesser d'utiliser leur travail sans autorisation ni compensation. Selon un rapport de The Authors Guild, le revenu médian d'un écrivain à temps plein aux États-Unis l'année dernière s'élevait à 23 000 dollars. Les revenus des écrivains ont également connu une baisse de 42 % entre 2009 et 2019.

    L'émergence d'applications d'IA génératives basées sur du texte, telles que GPT-4 et Bard, qui explorent le Web à la recherche de contenus d'auteurs sans autorisation ni rémunération, suscite des inquiétudes croissantes parmi les écrivains à travers le pays. Ces applications utilisent ensuite ces contenus pour créer de nouveaux éléments en réponse aux requêtes des utilisateurs.

    Alexander Chee, auteur à succès de romans tels qu'Édimbourg et La Reine de la nuit, souligne qu'il n'y a pas de nécessité pressante pour l'IA d'écrire un roman, sauf pour ceux qui cherchent à éviter de payer aux écrivains ce qu'ils méritent. Chee fait partie des quelque 8 000 auteurs qui ont récemment signé une lettre adressée aux dirigeants de six sociétés d'IA, dont OpenAI, Alphabet et Meta. La lettre souligne l'injustice de l'utilisation non autorisée de leurs travaux dans ces technologies, appelant à une indemnisation et à un dialogue ouvert.

    Mary Rasenberger, PDG de The Author's Guild, a créé cette lettre dans l'espoir d'encourager ces entreprises à trouver un accord amiable, évitant ainsi des poursuites coûteuses. Elle souligne que les litiges représentent des coûts considérables en temps et en argent.

    Le danger croissant des nouvelles technologies creusant les disparités économiques

    Lincoln Michel souligne les préoccupations éthiques liées à l'IA, affirmant que les défenseurs de cette technologie détourneraient l'attention en spéculant sur des futurs utopiques. Il met en garde contre le potentiel de l'IA d'enrichir les riches tout en appauvrissant le reste de la société, pointant du doigt des exemples concrets tels que l'utilisation de l'IA par des compagnies d'assurance maladie pour refuser des traitements nécessaires.

    L'intelligence artificielle aggraverait la disparité entre les riches et les pauvres, en automatisant des emplois pour les travailleurs peu qualifiés et en renforçant la demande et les salaires pour les professions hautement qualifiées. Les projections de PwC suggèrent que l'IA contribuera significativement au PIB mondial d'ici 2030, suscitant des inquiétudes quant aux pertes d'emplois massives et à l'accentuation des inégalités.

    Les robots devraient quadrupler d'ici 2025, avec des estimations prévoyant que 45 à 57 % des emplois pourraient être automatisés d'ici 2040. Bien que PwC suggère la création de nouveaux emplois liés à l'IA, des préoccupations subsistent quant à la quantité et à la nature de ces emplois. Il semble nécessaire d'anticiper les défis résultant de l'accroissement du fossé entre les riches et les pauvres engendré par l'IA.

    Le rapport du Fonds Monétaire International (FMI) met en lumière le risque croissant que les nouvelles technologies, en particulier l'automatisation et l'intelligence artificielle, creusent le fossé entre les pays développés et les pays en développement.

    Nom : sttt.jpg
Affichages : 1414
Taille : 26,9 Ko

    L'écart entre les économies avancées et les économies en développement se creuse au fur et à mesure que les robots remplacent les travailleurs (variations du PIB par habitant en pourcentage).

    L'étude se base sur un modèle examinant deux pays, l'un développé et l'autre en développement, où l'automatisation, représentée par l'utilisation de robots, menace de remplacer plutôt que de compléter la main-d'œuvre des pays en développement. Trois canaux distincts sont identifiés comme sources potentielles de divergence : la part de la production, les flux d'investissement et les termes de l'échange.

    Les implications incluent une augmentation des inégalités de revenus pendant la transition vers la révolution robotique, nécessitant des actions politiques ciblées pour stimuler la productivité, améliorer les compétences des travailleurs et atténuer les risques liés à la substitution de la main-d'œuvre par des robots. Le rapport souligne également l'importance de l'accumulation de capital humain et suggère que les pays en développement doivent agir rapidement pour éviter que la transition démographique tant attendue ne soit compromise par la menace de l'automatisation.

    L'analyse de Lincoln Michel dans son billet de blog sur l'influence de l'intelligence artificielle se distingue par son caractère perspicace et nuancé. De manière astucieuse, il examine les succès de l'IA dans des secteurs tels que les examens standardisés, mettant en évidence les préoccupations grandissantes liées à la rivalité entre les machines et les êtres humains.


    Le constat de Michel concernant la menace que représente l'IA pour le monde artistique, en soulignant le danger d'une surabondance de contenu généré par des algorithmes, est à la fois pertinent et inquiétant. Sa remise en question sur la pertinence d'une augmentation de la production artistique grâce à l'IA souligne un aspect essentiel à prendre en compte dans le débat sur l'impact de cette technologie. Il serait enrichissant d'approfondir l'exploration des solutions potentielles ou des moyens d'atténuer les risques identifiés, afin d'apporter une perspective plus équilibrée à la discussion.

    Un an après le lancement de ChatGPT, les inquiétudes de Lincoln Michel quant à une éventuelle substitution des artistes humains par l'intelligence artificielle s'atténuent. Bien que certains individus apprécient l'utilisation de l'IA à des fins créatives, il dit avoir des doutes quant à l'appétence du public à consommer (et encore moins à rémunérer) l'art généré par l'IA.

    Sources : Lincoln Michel's blog post, IMF

    Et vous ?

    L'analyse de Lincoln Michel est-elle pertinente ?

    Selon vous, en quoi la popularité croissante des systèmes d'IA soulève-t-elle des préoccupations fondamentales ?

    Croyez-vous que l'intelligence artificielle est susceptible de causer une perte de temps généralisée ?

    Voir aussi :

    Quand l'IA copie l'art : des artistes ont intenté une action en justice contre Midjourney et Stability AI pour violation de droit d'auteur, le procès pourrait changer la donne à l'ère de l'IA ?

    Des milliers d'auteurs s'opposent à l'exploitation de leur travail sans permission ni rémunération par l'IA générative, certains ont déjà intenté des actions en justice contre OpenAI

    Microsoft s'engage à payer les frais de justice si des clients sont poursuivis pour avoir utilisé son IA Copilot, sans s'inquiéter des plaintes pour violation de copyright
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #149
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 908
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 908
    Points : 37 277
    Points
    37 277
    Par défaut Des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA
    Des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA,
    l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains

    Une base de données récemment divulguée révèle que la société Midjourney a utilisé plus de 16 000 artistes, y compris des enfants, pour former ses outils d'IA générateurs d'œuvres d'art. La liste inclut des artistes renommés tels que Damien Hirst, Banksy, et Picasso, ainsi que des figures contemporaines. Cette révélation a suscité des débats sur l'éthique de l'utilisation d'un groupe diversifié d'artistes et sur les implications morales de l'IA générative. Certains utilisateurs expriment des critiques sévères en qualifiant cette pratique de « vol systématique à grande échelle ». Cependant, qualifier cela de « vol systématique à grande échelle » est en réalité une caractérisation modérée. Il s'agit plutôt d'une violation manifeste de l'intégrité artistique, illustrant de manière flagrante la manière dont l'industrie de l'IA exploite éhontément le travail créatif des individus à des fins lucratives.

    Les implications juridiques de la production d'images par l'IA sont également soulevées, avec des litiges en cours sur les droits de propriété intellectuelle. Certains tribunaux soutiennent la protection par le droit d'auteur du contenu généré par l'IA, tandis que d'autres remettent en question la créativité humaine dans ce processus. Des appels à des actions juridiques supplémentaires contre des entreprises telles que Midjourney sont lancés par des artistes traditionnels. En parallèle, le débat sur les droits d'auteur s'étend à d'autres domaines, tels que la plainte du New York Times contre OpenAI et Microsoft pour l'utilisation de ses données dans l'entraînement de l'IA.

    Nom : Midjourney.png
Affichages : 5238
Taille : 707,5 Ko

    « J'ai perdu tout ce qui me faisait aimer mon travail à cause du modèle d'IA Midjourney », affirme un artiste 3D qui raconte comment l'IA lui a arraché son travail du jour au lendemain. Les experts en intelligence artificielle et les communicateurs technologiques ont depuis longtemps anticipé que l'IA serait la prochaine grande révolution dans le domaine technologique. Actuellement, avec l'émergence des grands modèles de langage (LLM), en particulier de l'IA générative, il semble que ces prédictions puissent se concrétiser. Ces nouvelles catégories d'outils d'IA ont le potentiel d'accélérer considérablement l'adoption de l'IA, même au sein d'organisations qui ne possèdent pas une expertise approfondie en IA ou en science des données. Selon les estimations de la Bank of America, l'IA pourrait stimuler l'économie mondiale de près de 15 700 milliards de dollars au cours des sept prochaines années.

    Cependant, cette révolution entraînera la perte de dizaines de millions d'emplois à l'échelle mondiale. Des secteurs tels que la rédaction de contenu, la synthèse, la comptabilité et la finance, le trading, le secrétariat de direction et la conception graphique sont particulièrement vulnérables. Dans le domaine de la conception graphique, Midjourney est l'un des modèles d'IA les plus discutés. Mis au point par un laboratoire de recherche indépendant du même nom basé à San Francisco, ce système d'IA est destiné à avoir un impact significatif sur les domaines de l'art, de l'imagination et de l'économie créative à l'avenir. Plusieurs organisations semblent déjà avoir commencé à l'adopter.

    DreamUp de DeviantArt : un changement de cap qui fait des remous dans la communauté artistique

    Pendant de nombreuses années, DeviantArt a occupé une place singulière dans le paysage des réseaux sociaux, bénéficiant d'une appréciation constante de la part de ses utilisateurs, les « déviants ». Contrairement à des plateformes telles que Twitter, Facebook et Instagram, DeviantArt a maintenu une croissance soutenue sans susciter de hostilité généralisée. Cette faveur découle en grande partie du fait que le site a conservé son objectif initial, offrant aux artistes la possibilité de partager leurs créations, qu'il s'agisse de paysages, de portraits, de bandes dessinées d'anime ou d'œuvres à la lisière de la fourrure.

    Cependant, récemment, DeviantArt a provoqué un mécontentement massif au sein de sa communauté en introduisant DreamUp, un « outil de génération d'images » alimenté par le modèle d'apprentissage profond Stable Diffusion, qui puise dans le travail de millions d'artistes réels. Cette annonce a ravivé le débat sur les générateurs d'images par IA, divisant les opinions entre ceux qui voient ces logiciels comme de nouveaux outils créatifs et ceux qui redoutent qu'ils ne compromettent les emplois et les communautés artistiques.

    Devant les critiques, DeviantArt a défendu DreamUp, affirmant qu'il offre de nouvelles possibilités créatives, mais la communauté a réagi vivement. Certains artistes se sentent « surpris, trahis et déçus » par cette décision, estimant que le site, forgé par plus de deux décennies de soutien artistique, les a abandonnés en se tournant soudainement vers les outils d'IA.

    Le fait que Stable Diffusion, et donc DreamUp, soit formé sur une vaste base de données comprenant des milliards d'images de l'internet, y compris des œuvres provenant de DeviantArt, a suscité des préoccupations majeures. Les artistes estiment que leur art et leur travail non rémunéré sont utilisés à leur insu, sans avoir donné leur consentement.

    Suite à la controverse, DeviantArt a légèrement ajusté sa position initiale, marquant désormais par défaut les artistes comme désinscrits du nouveau programme, bien que de nombreux artistes estiment que cette modification reste insatisfaisante. Le débat persiste quant aux implications éthiques de l'utilisation de l'IA dans le domaine artistique et à la manière dont les plateformes telles que DeviantArt devraient respecter les droits et le consentement des artistes.

    L'illustratrice Megan Ruiz, établie à Los Angeles, souligne que le système d'opt-in de DeviantArt, censé servir de preuve de non-consentement à l'utilisation de leur travail dans des bases de données d'IA, est en réalité une simple déclaration sans effet réel. Elle affirme que cette étiquette ne dissuade pas l'utilisation de leur travail pour former des modèles d'IA, et estime que le droit d'auteur inhérent des artistes serait un argument bien plus persuasif dans le cadre d'un éventuel litige avec une société d'IA.

    Pete, partageant un sentiment similaire, considère le système d'opt-in comme un « geste creux » visant à calmer les artistes mécontents. Il exprime également que la gestion de toute cette situation par DeviantArt a érodé la confiance qu'il avait envers la plateforme, ce qui l'a conduit, ainsi qu'une vague d'autres artistes, à supprimer complètement leurs comptes DeviantArt en signe de protestation. Pete souligne la perte de plusieurs années de travail et de représentation visuelle de son évolution artistique, déclarant qu'il n'a aucune intention de revenir en arrière.

    Les récents changements ont également suscité des doutes quant à l'avenir de Megan sur la plateforme. Bien qu'ayant eu des relations positives avec l'entreprise par le passé, elle envisage sérieusement de supprimer son compte, soulignant qu'elle garde espoir que l'entreprise rectifiera sa décision, mais craint que cela ne se produise pas.

    Si une leçon positive peut être tirée de cette controverse, c'est qu'elle a ravivé le débat sur les droits des artistes face aux nouvelles technologies telles que DreamUp, démontrant que les artistes sont prêts à se mobiliser et à prendre des risques pour proposer des alternatives. Megan souligne qu'il existe une manière éthique d'utiliser cette technologie, en créant une base de données éthique avec des images et des textes sous licence. Cependant, elle constate que cela n'est pas encore mis en œuvre principalement en raison de l'aspect non rentable, contrairement au vol d'œuvres protégées par des droits d'auteur, qui est plus rentable.

    Pete reconnaît que l'art de l'IA peut être intégré de manière constructive, soulignant que les artistes ont une inclination naturelle à adopter les nouvelles technologies. Cependant, il met en lumière le problème de la rapide prolifération des nouvelles tendances technologiques au détriment de l'éthique.

    L'un des secrets les mieux gardés de l'IA générative est qu'elle dépend d'une vaste collection de travaux humains réels pour ses données d'entraînement. Des musiciens comme Drake et Kurt Cobain sont transformés en cobayes pour les robots musiciens du futur, tandis que des auteurs de renom ont accusé la technologie de « vol systématique à grande échelle ». Les communautés d'artistes visuels se sont également défendues contre des modèles tels que Stable Diffusion, affirmant qu'ils « raclent » les données de sites tels que DeviantArt de manière contraire à l'éthique.

    Le week-end dernier, cependant, l'ampleur du problème est devenue encore plus évidente, grâce à la publication d'une base de données qui contiendrait une liste d'artistes utilisés pour entraîner Midjourney, l'un des principaux générateurs d'art par IA du moment.

    Diffusée sur les sites de médias sociaux au cours du Nouvel An, la base de données se présente sous la forme d'une feuille de calcul Google Sheets, répertoriant diverses périodes, styles, genres, mouvements, supports et techniques qui ont apparemment été utilisés pour entraîner le programme. Mais ce qui fait le plus scandale, ce sont les noms des artistes individuels - plusieurs milliers - dont les œuvres ont apparemment été introduites dans la machine dans le cadre de son processus d'entraînement.

    La liste est tirée d'un document de 24 pages inclus dans un amendement à une plainte en recours collectif contre Midjourney, Stability AI et DeviantArt, déposée pour la première fois en janvier 2023. L'amendement a suivi, avec 455 pages de preuves supplémentaires, le 29 novembre 2023. Parmi les artistes cités figurent des illustrateurs commerciaux, des créateurs de systèmes de jeu et des artistes numériques, ainsi que des artistes modernes et contemporains de premier ordre.

    Parmi les plus grands noms, citons Yayoi Kusama, Frida Kahlo, Banksy, Guerrilla Girls, HR Giger, Harmony Korine, Anish Kapoor, David Hockney, Damien Hirst, Cy Twombly, Walt Disney, Picasso, Egon Schiele, Mark Rothko, Francis Bacon et Andy Warhol (ce qui semble assez approprié en fait). En remontant un peu plus loin, la base de données couvre également des artistes comme Matisse, Monet et Vincent van Gogh, ainsi que des périodes artistiques plus larges et des styles « de base » tels que le cottagecore, le glitchcore, le gorpcore et le gorecore.

    Les fans du jeu de cartes à collectionner Magic : The Gathering ont fait remarquer que la liste comprend même l'œuvre d'un enfant de six ans, Hyan Tran, qui a été invité à donner son avis sur un personnage du jeu dans le cadre d'une collecte de fonds organisée en 2021 au profit de l'hôpital pour enfants de Seattle.

    L'accès à la feuille de calcul a été restreint depuis qu'elle a été initialement partagée sur les médias sociaux, mais elle est conservée par l'Internet Archive. L'amendement lui-même a été déposé en réponse au rejet des plaintes de plusieurs artistes contre Midjourney et Stability AI le 30 octobre, par un juge du tribunal fédéral de Californie.

    Cette bataille juridique est loin d'être la seule à tourner autour de la génération d'images par l'IA à l'heure actuelle. En septembre 2023, l'artiste Jason Allen a perdu un appel qui lui aurait permis de protéger par le droit d'auteur son œuvre d'art Théâtre d'Opéra Spatial, générée par l'IA et primée, en raison de l'absence de paternité humaine.

    Allen, comme d'autres artistes de l'IA, s'est engagé à poursuivre son combat pour faire évoluer la législation sur le droit d'auteur ; parallèlement, des artistes plus traditionnels maintiendront sans doute la pression sur des entreprises d'IA comme Midjourney ou Stability AI jusqu'à ce qu'une décision juridique soit prise. En attendant, il a été conseillé aux artistes de rechercher leur propre nom dans les bases de données et d'intenter une action en justice si nécessaire.

    L'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains

    La révélation selon laquelle la société Midjourney a exploité plus de 16 000 artistes, y compris des enfants, pour entraîner ses outils d'IA générateurs d'œuvres d'art, est tout simplement scandaleuse. Cela va bien au-delà de l'éthique et soulève des questions fondamentales sur le respect des droits des artistes et la nature exploitative de l'industrie de l'IA.

    L'inclusion de noms d'artistes renommés tels que Damien Hirst, Banksy et Picasso dans cette liste expose un manque total de considération pour le travail créatif de ces artistes. Il est choquant de constater que des figures emblématiques de l'art contemporain ont été utilisées sans leur consentement dans le processus d'entraînement de l'IA de Midjourney. Cela représente un véritable mépris envers les artistes et une exploitation flagrante de leur travail.

    L'utilisation d'enfants dans cette entreprise est tout simplement inacceptable. Il est inconcevable que Midjourney ait eu le culot d'inclure des enfants, dont un de six ans, dans cette liste. Cela va au-delà de la simple éthique et soulève des préoccupations graves concernant la protection des mineurs et le respect de leur droit à la vie privée.

    Les débats sur l'éthique de l'IA générative sont plus que légitimes dans ce contexte. Qualifier cela de « vol systématique à grande échelle » est une description modérée. C'est une violation flagrante de l'intégrité artistique et un exemple de plus de la manière dont l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains.

    Du point de vue juridique, la situation est tout aussi troublante. Les litiges en cours sur les droits de propriété intellectuelle soulignent la nécessité urgente d'une réglementation stricte pour protéger les artistes contre une telle exploitation. Les tribunaux qui remettent en question la créativité humaine dans le processus d'IA soulèvent des doutes sérieux quant à la compréhension de la valeur artistique réelle par le système judiciaire.


    En ce qui concerne DeviantArt, la plateforme a trahi la confiance de sa communauté en introduisant DreamUp, un outil alimenté par l'IA, rompant ainsi avec son engagement initial envers les artistes. La suppression de comptes en signe de protestation est une réponse compréhensible à cette trahison, et DeviantArt devrait faire face à des conséquences sérieuses pour avoir sacrifié l'intégrité artistique au profit de l'IA.

    In finé, ces révélations soulignent un échec majeur de l'industrie de l'IA à respecter les droits et l'intégrité des artistes. C'est une honte absolue et nécessite une action immédiate pour réglementer cette industrie et protéger les créateurs contre de telles pratiques exploiteuses.

    Source : Dazed

    Et vous ?

    Quel est votre avis sur le sujet ?

    Partagez-vous l'idée selon laquelle l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains ?

    Pensez-vous que l'IA remplacera les artistes 3D et les designers dans un avenir proche ?

    Quels impacts les outils d'IA tels que Midjourney pourraient-ils avoir sur les métiers de création visuelle ?

    Voir aussi :

    « J'ai perdu tout ce qui me faisait aimer mon travail à cause du modèle d'IA Midjourney », affirme un artiste 3D qui raconte comment l'IA lui a arraché son travail du jour au lendemain

    Comment le Japon prévoit d'utiliser des avatars, des robots et l'IA dans divers secteurs, pour pallier une pénurie de main-d'œuvre

    Quand l'IA copie l'art : des artistes ont intenté une action en justice contre Midjourney et Stability AI pour violation de droit d'auteur, le procès pourrait changer la donne à l'ère de l'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #150
    Membre du Club
    Profil pro
    Inscrit en
    Juillet 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2008
    Messages : 13
    Points : 61
    Points
    61
    Par défaut Pas la première fois que la technologie menace le travail artistique original
    Pas la première fois que la technologie menace le travail artistique original puisque on a crié à la fin des artistes avec la création de la photographie, du cinéma, de la vidéo, du traitement informatique.

    Mais il y a toujours des artistes, même deux siècles après la première image photographique.

    Ce qui va se passer avec les IA génératives, correspondra un peu à ce qui se passe avec la pâte à modeler de couleur : les mélanges successifs d'IA se pompant les une les autres, quand il n'y aura plus de réelle création originale, donneront un gris uniforme et moche.

    Quand aux artistes, ils trouveront une façon de valoriser leur créativité tout en la protégeant des voleurs, puisqu'il n'y a pas d'autre solution. Tout ça annonce surtout la fin d'une époque d'auto-publication et de liberté d'expression, malheureusement.

  11. #151
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 908
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 908
    Points : 37 277
    Points
    37 277
    Par défaut Glaze, l'outil contre le mimétisme de l'IA, confronté à des controverses sur la protection des artistes
    Glaze, outil contre le mimétisme de l'IA, piraté : les artistes font face à des délais d'attente pour la protection contre l'imitation par l'IA,
    au milieu des MAJ des conditions de service

    Les artistes sont de plus en plus inquiets face aux menaces posées par l'intelligence artificielle (IA), capable de copier leurs styles uniques. En réponse à cette préoccupation, l'outil Glaze, qui ajoute un bruit imperceptible aux images pour empêcher leur utilisation par les générateurs d'images IA, est en forte demande. Cependant, sa capacité à protéger efficacement les œuvres est remise en question par des chercheurs en sécurité. Ces derniers ont démontré des méthodes pour contourner ses protections. En conséquence, l'équipe de Glaze travaille à améliorer l'outil, mais les artistes doivent faire face à des retards pour accéder à ces protections. En attendant, les débats se poursuivent sur la meilleure manière de protéger les artistes, certains suggérant même d'éviter de publier leurs œuvres en ligne.

    Les modèles d'IA générative ont changé la façon dont nous créons et consommons le contenu, en particulier les images et l'art. Les modèles de diffusion tels que MidJourney et Stable Diffusion ont été entraînés sur de vastes ensembles de données d'images récupérées en ligne, dont beaucoup sont protégées par des droits d'auteur, privées ou sensibles. De nombreux artistes ont découvert un nombre important de leurs œuvres d'art dans des données d'entraînement telles que LAION-5B, sans qu'ils le sachent, sans leur consentement, sans qu'ils soient crédités ou sans qu'ils reçoivent une compensation.

    Pour ne rien arranger, nombre de ces modèles sont désormais utilisés pour copier des artistes individuels, par le biais d'un processus appelé "imitation de style". Les utilisateurs particuliers peuvent prendre des œuvres d'art d'artistes humains, effectuer un « réglage fin » ou LoRA sur des modèles tels que la diffusion stable, et aboutir à un modèle capable de produire des images arbitraires dans le "style" de l'artiste cible, lorsqu'il est évoqué avec son nom en guise d'invite. Les artistes indépendants populaires trouvent en ligne des fac-similés de mauvaise qualité de leurs œuvres d'art, souvent avec leurs noms encore intégrés dans les métadonnées des messages-guides du modèle.

    Nom : Glaze.jpg
Affichages : 5289
Taille : 6,8 Ko

    Le mimétisme stylistique produit un certain nombre de conséquences néfastes qui peuvent ne pas être évidentes à première vue. Les artistes dont le style est intentionnellement copié perdent non seulement des commissions et des revenus de base, mais les copies synthétiques de mauvaise qualité diffusées en ligne diluent leur marque et leur réputation. Plus important encore, les artistes associent leur style à leur identité même. Voir le style artistique qu'ils ont mis des années à développer utilisé pour créer du contenu sans leur consentement ou leur compensation s'apparente à une usurpation d'identité. Enfin, le mimétisme et son impact sur les artistes à succès ont démoralisé et découragé les jeunes artistes en herbe.

    Art et intelligence artificielle : tensions croissantes autour de l'utilisation non autorisée

    Les artistes découvrent que leur travail est utilisé pour entraîner des IA, ce qui soulève des préoccupations quant à la pérennité de leur gagne-pain. En quelques mois, des millions de personnes ont adopté ces systèmes d'IA pour créer des œuvres variées, suscitant des débats sur la propriété intellectuelle et les droits d'auteur. Des artistes, comme Daniel Danger et Tara McPherson, expriment leur inquiétude face à l'utilisation non autorisée de leurs œuvres et la menace que les générateurs d'images IA représentent pour leur carrière. Cependant, les solutions juridiques et pratiques pour protéger leur travail restent limitées et complexes.

    En décembre 2022, les utilisateurs d'ArtStation ont protesté contre les images générées par IA, estimant que ces dernières volaient le travail des artistes. La plateforme, utilisée par les créateurs de jeux, films et médias, n'a pas de politique contre ces images, ce qui a suscité une colère croissante parmi ses utilisateurs. Les artistes ont spammé leurs portfolios avec des images de protestation, conduisant ArtStation à mettre en place une balise "NoAI" pour empêcher l'utilisation de leurs œuvres par les IA. Cependant, cette réponse n'a pas apaisé les utilisateurs, qui réclament une interdiction complète des images générées par IA sur le site.

    Lincoln Michel, auteur de The Body Scout et Upright Beasts, aborde l'impact de l'intelligence artificielle sur les arts et la société dans son blog. En 2023, les IA réussissant des examens tels que le LSAT et le SAT ont suscité des inquiétudes. Michel démontre les limites de l'IA en demandant à différents programmes de créer une histoire de six mots, soulignant ses imperfections. Il critique l'utilisation abusive de l'IA par les grandes entreprises qui exploitent les œuvres d'artistes, menant à des grèves et poursuites. Des artistes, dont Daniel Danger, protestent contre l'utilisation non autorisée de leurs œuvres par des IA comme Stable Diffusion et DALL-E.

    La menace de l'IA sur le monde artistique se manifeste par une surabondance de contenus générés par des algorithmes, perturbant même des magazines de science-fiction. Des milliers d'auteurs, comme Nora Roberts et Margaret Atwood, demandent aux entreprises d'IA de cesser d'utiliser leurs travaux sans compensation.

    L'émergence d'IA génératives comme GPT-4 et Bard, qui utilisent des contenus sans autorisation, suscite des inquiétudes. Alexander Chee souligne que l'IA n'est pas nécessaire pour écrire des romans, pointant les motivations financières derrière cette technologie. Michel met en garde contre les disparités économiques exacerbées par l'IA, qui pourrait enrichir les riches et appauvrir les autres, automatisant des emplois peu qualifiés et augmentant la demande pour les professions hautement qualifiées. Les projections de PwC indiquent une contribution significative de l'IA au PIB mondial d'ici 2030, mais aussi des pertes d'emplois massives et l'accentuation des inégalités.

    Début 2023, des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA. Une base de données divulguée révèle que Midjourney a exploité plus de 16 000 artistes, y compris des enfants, pour ses outils d'IA. La liste inclut des artistes célèbres comme Damien Hirst, Banksy et Picasso. Cette révélation soulève des débats éthiques et des accusations de « vol systématique à grande échelle », mettant en lumière l'exploitation flagrante du travail créatif pour des profits lucratifs.

    Les implications juridiques sont également discutées, avec des litiges en cours sur les droits de propriété intellectuelle. Certains tribunaux soutiennent la protection par le droit d'auteur du contenu généré par l'IA, tandis que d'autres remettent en question la créativité humaine dans ce processus. Des artistes traditionnels appellent à des actions juridiques supplémentaires contre des entreprises comme Midjourney. Parallèlement, le débat sur les droits d'auteur s'étend à d'autres domaines, impliquant des entreprises telles qu'OpenAI et Microsoft.

    Un artiste 3D exprime sa frustration après avoir perdu son travail à cause de l'IA de Midjourney. L'émergence de grands modèles de langage et d'IA générative pourrait accélérer l'adoption de l'IA, avec des prévisions de stimulation de l'économie mondiale de près de 15 700 milliards de dollars d'ici sept ans. Cependant, cette révolution entraînera des pertes massives d'emplois dans des secteurs vulnérables comme la conception graphique, où Midjourney est particulièrement influent.

    En somme, l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains, soulevant des préoccupations éthiques et juridiques importantes. Des artistes musicaux célèbres, dont Pearl Jam, Nicki Minaj et Billie Eilish, ainsi que plus de 200 autres, ont signé une lettre ouverte de l'Alliance des droits des artistes critiquant l'utilisation de l'intelligence artificielle (IA) dans la création musicale. Ils dénoncent l'IA générative comme une menace pour les droits des artistes et leur art, soulignant les risques de violation des droits d'auteur et de dévalorisation du travail artistique. Cette lettre appelle à une action pour empêcher l'IA de remplacer ou de dévaluer le travail des artistes humains, et insiste sur la nécessité d'une rémunération équitable.

    L'impact de Glaze et les défis persistants de la protection des œuvres

    Il existe des moyens de défense contre l'apprentissage par l'IA, tels que Glaze, un outil qui ajoute une quantité imperceptible de bruit aux images pour empêcher les générateurs d'images de copier le style des artistes. Toutefois, ces solutions ne sont pas permanentes, surtout dans un contexte où les entreprises technologiques s'efforcent de maximiser leurs profits en développant des modèles d'IA toujours plus avancés. Ces progrès menacent de diluer les marques des artistes et de les remplacer sur le marché.

    Glaze est conçu pour protéger les artistes en perturbant le mimétisme des modèles d'IA. Il comprend les modèles d'IA qui s'entraînent sur l'art humain et utilise des algorithmes d'apprentissage automatique pour apporter des modifications minimales aux œuvres d'art. Ces modifications sont invisibles pour les humains mais rendent les œuvres radicalement différentes pour les modèles d'IA. Par exemple, un portrait réaliste vitrifié peut sembler inchangé à un humain, mais un modèle d'IA le percevra comme un style abstrait moderne, à la Jackson Pollock. Ainsi, lorsqu'on demande au modèle de produire une œuvre imitant l'artiste original, le résultat sera très différent de ce qui est attendu.

    Damien Riehl et Noah Rubin ont proposé une solution pour libérer les mélodies et les musiciens des poursuites pour plagiat en générant toutes les combinaisons possibles de mélodies et en les plaçant sous licence libre Creative Commons Zero. Chase Emmons suggère que malgré la domination potentielle de l'IA dans la musique populaire, la demande pour la musique humaine restera forte en raison de son authenticité. Albert Fong met en garde contre les conséquences d'une réglementation inadéquate de l'IA sur les industries créatives, tandis que David Usher exprime des sentiments mitigés sur l'avenir de la musique générée par l'IA et souligne la nécessité de soutenir la musique humaine dans un paysage numérique dominé par l'IA.

    La situation des artistes face aux générateurs d'images par IA est complexe et préoccupante. Glaze, conçu pour protéger les œuvres artistiques du mimétisme de l'IA, semble être une bouée de sauvetage pour de nombreux créateurs. Cependant, malgré ses promesses et son adoption croissante, Glaze rencontre des défis majeurs, notamment les attaques visant à contourner ses protections et les retards dans l'approbation des demandes d'accès.

    Le problème fondamental réside dans l'équilibre délicat entre l'innovation technologique et la protection des droits des créateurs. Les générateurs d'images par IA s'améliorent constamment, menaçant l'unicité des œuvres d'art et la reconnaissance de leurs auteurs. Les entreprises technologiques, motivées par les profits, mettent à jour leurs conditions d'utilisation pour extraire un maximum de données sans consentement explicite des artistes, exacerbant le problème.

    Glaze ajoute du bruit imperceptible aux images pour empêcher l'IA de copier les styles des artistes, mais cette solution est temporaire, comme l'admet son créateur Ben Zhao. Des chercheurs ont déjà trouvé des moyens de contourner ces protections. Cette réalité souligne la nécessité d'une amélioration continue des outils de défense et d'une vigilance accrue face aux nouvelles menaces.

    Les retards dans l'approbation des demandes d'accès à Glaze exacerbent la frustration des artistes, qui se sentent vulnérables face à la menace de voir leurs œuvres copiées sans leur consentement. Le processus de vérification manuel, bien que nécessaire pour empêcher les abus, ralentit la diffusion de l'outil à un moment où sa demande est en forte hausse. Cette situation est d'autant plus critique que les attaques contre Glaze montrent que même les meilleures protections actuelles ne sont pas infaillibles.

    Ben Zhao, professeur à l'université de Chicago et créateur de ces outils, a déclaré que les retards dans l'approbation d'un nombre « croissant » de demandes d'accès étaient "graves". Comme il l'a récemment mentionné sur X (anciennement Twitter), l'"explosion de la demande" en juin ne se poursuivra probablement que si les menaces liées à l'IA continuent d'évoluer. Par conséquent, dans un avenir prévisible, les artistes en quête de protections contre l'IA devront patienter.


    Le débat entre l'équipe de Glaze et les chercheurs en sécurité de Zurich sur la robustesse des protections souligne l'importance de la transparence et de la collaboration dans le développement de solutions de défense. Les critiques des chercheurs, bien que potentiellement déstabilisantes, peuvent également conduire à des améliorations nécessaires. Cependant, la publication des vulnérabilités par les chercheurs sans une collaboration préalable peut aussi mettre les artistes en danger en exposant leurs œuvres à des risques immédiats.

    La situation actuelle des artistes rappelle l'importance d'une approche multifacette pour la protection de leurs œuvres. Outre les outils techniques comme Glaze, il est crucial de promouvoir des protections juridiques et des réglementations claires contre l'utilisation non autorisée des œuvres d'art par les IA.

    Sources : Nicholas Carlini in a blog post, glaze(1, 2)

    Et vous ?

    Quel est votre avis sur le sujet ?

    Dans quelle mesure Glaze et d'autres outils similaires peuvent-ils réellement protéger les artistes contre la copie par des IA de plus en plus sophistiquées ?

    Les méthodes de contournement démontrées par les chercheurs en sécurité remettent-elles en question l'efficacité à long terme de Glaze pour protéger les œuvres artistiques ?

    Quelles alternatives existent-elles pour les artistes qui cherchent à protéger leurs créations, compte tenu des limitations actuelles des outils comme Glaze ?

    Que pensez-vous de la décision de ne pas publier des œuvres en ligne pour se prémunir contre les IA génératives : êtes-vous favorable ou opposé ?

    Voir aussi :

    Ces artistes ont découvert que leur travail était utilisé pour entraîner l'IA et maintenant ils sont furieux

    Les artistes se révoltent contre les œuvres d'art générées par l'IA sur le site de portfolios ArtStation et inondent la plateforme d'images portant le message : "non aux images générées par l'IA"

    L'impact de l'IA sur les arts et la société : à la lumière des événements de 2023, peut-on affirmer que l'IA fera perdre du temps à tout le monde ? Une analyse de Lincoln Michel

    Des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA, l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #152
    Membre à l'essai
    Profil pro
    Inscrit en
    Janvier 2011
    Messages
    9
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Janvier 2011
    Messages : 9
    Points : 16
    Points
    16
    Par défaut
    L’intelligence ne peut être artificielle puisqu’elle a besoin de la conscience, douée de synthèse vibratoire le cœur
    Le libre choix ne peut être réalisé par un arbitre, puisqu’il fait son choix en suivant des règles comme une machine
    donc on a une Intelligence libre avec un Arbitrage artificiel
    l'artiste existe bien mais sans compétence purement manuel ou artisanal à mon sens

Discussions similaires

  1. Réponses: 0
    Dernier message: 31/05/2022, 19h56
  2. Réponses: 3
    Dernier message: 31/12/2021, 09h14
  3. Réponses: 0
    Dernier message: 10/07/2019, 16h16
  4. Réponses: 2
    Dernier message: 29/11/2017, 10h52
  5. Réponses: 1
    Dernier message: 04/06/2015, 20h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo