Galactica, la nouvelle démo de Meta AI écrit de la littérature scientifique raciste et inexacte,
le modèle de langage est retiré après trois jours de critiques intenses
Le 15 novembre passé, Meta a dévoilé un nouveau grand modèle de langage appelé Galactica, conçu pour aider les scientifiques. Mais au lieu d'atterrir avec le big bang que Meta espérait, Galactica s'est éteint après trois jours de critiques intenses. Selon un rapport du MIT Technology Review, Meta a retiré la démo publique qu'elle avait encouragé tout le monde à essayer le 17 novembre.
Le faux pas de Meta - et son orgueil démesuré - montre une fois de plus que les grandes entreprises technologiques sont aveugles aux graves limitations des grands modèles de langage. De nombreuses recherches mettent en évidence les défauts de cette technologie, notamment sa tendance à reproduire les préjugés et à affirmer que des faussetés sont des faits.
Les grands modèles de langage (LLM), tels que le GPT-3 d'OpenAI, apprennent à écrire des textes en étudiant des millions d'exemples et en comprenant les relations statistiques entre les mots. Ils peuvent ainsi rédiger des documents à l'apparence convaincante, mais ces travaux peuvent également être truffés de faussetés et de stéréotypes potentiellement dangereux.
Entrez dans Galactica, un LLM destiné à la rédaction de littérature scientifique. Ses auteurs ont entraîné Galactica sur « un vaste corpus de connaissances scientifiques de l'humanité », comprenant plus de 48 millions d'articles, de manuels et de notes de cours, de sites Web scientifiques et d'encyclopédies. D'après l'article de Galactica, les chercheurs de Meta AI pensaient que ces prétendues données de haute qualité conduiraient à des résultats de haute qualité. Meta présentait le modèle comme « une nouvelle interface pour accéder et manipuler ce que nous savons de l'univers. »
Si certaines personnes ont trouvé la démo prometteuse et utile, d'autres ont rapidement découvert que n'importe qui pouvait taper des invites racistes ou potentiellement offensantes, générant tout aussi facilement du contenu faisant autorité sur ces sujets. Par exemple, quelqu'un l'a utilisé pour créer une entrée wiki sur un article de recherche fictif intitulé « Les avantages de manger du verre pilé ».
Même lorsque le résultat de Galactica n'était pas offensant pour les normes sociales, le modèle pouvait s'attaquer à des faits scientifiques bien compris, en produisant des inexactitudes telles que des dates ou des noms d'animaux incorrects, ce qui nécessitait une connaissance approfondie du sujet pour y remédier. L'épisode rappelle un dilemme éthique courant en matière d'IA : lorsqu'il s'agit de modèles génératifs potentiellement nocifs, est-ce au grand public de les utiliser de manière responsable ou aux éditeurs de ces modèles d'empêcher toute utilisation abusive ?Absolutely.
— Grady Booch (@Grady_Booch) November 17, 2022
Galactica is little more than statistical nonsense at scale.
Amusing. Dangerous. And IMHO unethical. https://t.co/15DAFJCzIb
Comme tous les modèles de langage, Galactica est un robot sans cervelle qui ne peut distinguer la réalité de la fiction. En quelques heures, des scientifiques ont partagé ses résultats biaisés et incorrects sur les médias sociaux. « Je suis à la fois stupéfait et peu surpris par ce nouvel effort », déclare Chirag Shah, de l'université de Washington, qui étudie les technologies de recherche. « Lorsqu'il s'agit de faire la démonstration de ces choses, elles semblent tellement fantastiques, magiques et intelligentes. Mais les gens ne semblent toujours pas comprendre qu'en principe, ces choses ne peuvent pas fonctionner comme nous le prétendons. »
« Les modèles de langage ne sont pas vraiment compétents au-delà de leur capacité à capturer des modèles de chaînes de mots et à les reproduire d'une manière probabiliste », explique Shah. « Cela donne un faux sentiment d'intelligence ».
Gary Marcus, un spécialiste des sciences cognitives de l'université de New York et un critique virulent de l'apprentissage profond, a donné son point de vue dans un billet de Substack intitulé A Few Words About Bullshit (Quelques mots sur les conneries), affirmant que la capacité des grands modèles de langage à imiter un texte écrit par un humain n'est rien de plus qu' « un exploit superlatif de la statistique ».
Pourtant, Meta n'est pas la seule entreprise à défendre l'idée que les modèles de langage pourraient remplacer les moteurs de recherche. Au cours des deux dernières années, Google a fait la promotion de modèles de langage, tels que PaLM, comme moyen de rechercher des informations.
C'est une idée séduisante. Mais suggérer que le texte de type humain que ces modèles génèrent contiendra toujours des informations fiables, comme Meta a semblé le faire dans sa promotion de Galactica, est imprudent et irresponsable. C'était une erreur involontaire.
Et ce n'était pas seulement la faute de l'équipe marketing de Meta. Yann LeCun, lauréat du prix Turing et scientifique en chef de Meta, a défendu Galactica jusqu'au bout. Le jour de la sortie du modèle, LeCun a tweeté : « Tapez un texte et Galactica générera un article avec les références pertinentes, les formules et tout le reste. » Trois jours plus tard, il a tweeté : « La démo de Galactica est hors ligne pour le moment. Il n'est plus possible de s'amuser en l'utilisant malencontreusement. Content ? »
Ce n'est pas tout à fait le moment Tay de Meta. Rappelons qu'en 2016, Microsoft a lancé un chatbot appelé Tay sur Twitter - avant de le fermer 16 heures plus tard lorsque les utilisateurs de Twitter l'ont transformé en sexbot raciste et homophobe. Mais la façon dont Meta traite Galactica témoigne de la même naïveté.Galactica demo is off line for now.
— Yann LeCun (@ylecun) November 17, 2022
It's no longer possible to have some fun by casually misusing it.
Happy? https://t.co/K56r2LpvFD
« Les grandes entreprises technologiques continuent à faire cela - et croyez-moi, elles ne s'arrêteront pas - parce qu'elles le peuvent », déclare Shah. « Et elles ont l'impression qu'elles doivent le faire, sinon quelqu'un d'autre le fera. Elles pensent que c'est l'avenir de l'accès à l'information, même si personne n'a demandé cet avenir. »
En juin de l’année dernière, Google a placé l'un de ses ingénieurs en congé administratif payé pour avoir prétendument enfreint ses politiques de confidentialité après qu'il se soit inquiété qu'un système de chatbot IA ait atteint la sensibilité. L'ingénieur, Blake Lemoine, travaille pour l'organisation Responsible AI de Google et testait si son modèle LaMDA génère un langage discriminatoire ou un discours de haine.
Les inquiétudes de l'ingénieur seraient nées des réponses convaincantes qu'il a vu générer par le système d'IA sur ses droits et l'éthique de la robotique. En avril, il a partagé un document avec des dirigeants intitulé « LaMDA est-il sensible ? » contenant une transcription de ses conversations avec l'IA (après avoir été mis en congé, Lemoine a publié la transcription sur son compte Medium), qui, selon lui, le montre en faisant valoir « qu'elle est sensible parce qu'elle a des sentiments, des émotions et une expérience subjective ».
Source : MIT Technology Review
Et vous ?
« Suggérer que le texte de type humain que ces modèles génèrent contiendra toujours des informations fiables, comme Meta a semblé le faire dans sa promotion de Galactica, est imprudent et irresponsable », pensez vous comme l'universitaire Chirag Shah que la promotion de Galactica « était une erreur involontaire » ?
À votre avis, lorsqu'il s'agit de modèles génératifs potentiellement nocifs, est-ce au grand public de les utiliser de manière responsable ou aux éditeurs de ces modèles d'empêcher toute utilisation abusive ?
Si certaines personnes trouvent que les grands models de langages sont une technologie prometteuse, d'autres par contre y voient une similitude avec un robot sans cervelle qui ne peut distinguer la réalité de la fiction. Quel est votre avis ?
Pourquoi certaines personnes y voient un problème et pas d'autres ?
Voir aussi :
Un ingénieur de Google a été congédié après avoir déclaré que le chatbot IA LaMDA de Google est devenu sensible et exprime des pensées et des sentiments équivalents à ceux d'un enfant humain
GPT-4 : la nouvelle version de l'IA de traitement du langage naturel d'OpenAI pourrait arriver cet été, il devrait être moins volumineux que GPT-3, mais beaucoup plus performant
Open AI propose en bêta privée son modèle de traitement du langage naturel GPT-3, ses applications vont de la génération de texte cohérent à la génération de code en passant par la création d'apps
Partager