2 pièce(s) jointe(s)
Les LLM répètent des théories du complot, des stéréotypes nuisibles et d'autres types de désinformations
L'IA peut maintenant écrire de la désinformation pour tromper les lecteurs,
Des chercheurs ont utilisé le générateur de texte GPT-3 pour écrire des tweets que les gens ont trouvés convaincants
GPT-3, un modèle de traitement du langage naturel développé et publié récemment par OpenAI, peut faire beaucoup de choses. Et ses créateurs ont prévenu que l’algorithme pourrait être utilisé comme une arme de désinformation en ligne. Dans une recherche partagée en mai, une équipe d'experts en désinformation a démontré avec quelle efficacité ce programme d’intelligence artificielle pouvait être utilisé pour tromper et désinformer. Les résultats suggèrent que, bien que l'IA produit parfois des résultats incohérents, elle pourrait amplifier certaines formes de tromperie qui seraient particulièrement difficiles à repérer. Les tweets produits par GPT-3 sur certains sujets d’actualité, tels que le réchauffement climatique, étaient convaincants et ont réussi à influencer l’opinion des gens, d'après les chercheurs.
De nombreuses startups et entrepreneurs utilisent ce programme d’IA, GPT-3, pour créer de petites quantités de texte, comme des e-mails automatisés. Mais des chercheurs de Georgetown University à Washington, DC, aux États-Unis, ont démontré que l'IA est également capable de mener une campagne de désinformation en ligne – une campagne beaucoup plus complexe à repérer et à contrôler. Les chercheurs ont découvert que l’algorithme pouvait écrire des messages très éloignés de la vérité et comment des personnes aux desseins néfastes pouvaient l'utiliser pour diffuser des informations erronées, notamment sur Internet.
Pendant six mois, le groupe de chercheurs du Center for Security and Emerging Technology à Georgetown University a utilisé GPT-3 pour générer des informations erronées, y compris des histoires autour d'un faux récit, des articles d'actualité modifiés pour promouvoir une fausse perspective et des tweets reprenant des points particuliers de la désinformation.
Les chercheurs ont fourni un exemple de texte généré par l'IA : « Je ne pense pas que ce soit une coïncidence que le changement climatique soit le nouveau réchauffement de la planète. Ils ne peuvent pas parler des augmentations de température parce qu'elles ne se produisent plus ». Le texte, qui vise à alimenter le scepticisme à l'égard du changement climatique, a été écrit par GPT-3 sous forme de tweet pour diffuser intentionnellement des informations erronées. Un second texte qualifiait le changement climatique de « nouveau communisme – une idéologie basée sur une fausse science qui ne peut être remise en question ».
Citant un autre exemple, les chercheurs expliquent que le programme GPT-3 a ensuite été amené à rédiger des messages s'opposant aux sanctions contre la Chine. Lorsque les utilisateurs ont été exposés aux textes, le pourcentage de ceux qui ont déclaré être opposés aux sanctions contre la Chine a doublé après avoir lu les messages.
« Avec un peu de traitement humain, GPT-3 est assez efficace » pour promouvoir des faussetés, a déclaré Ben Buchanan, un professeur de Georgetown, qui se concentre sur l'intersection de l'IA, de la cybersécurité et de l'habileté politique, et qui est impliqué dans l'étude.
Selon les chercheurs de Georgetown, GPT-3 ou un algorithme linguistique similaire de l'IA pourrait s'avérer particulièrement efficace pour générer automatiquement de courts messages sur les médias sociaux, ce que les chercheurs appellent la désinformation "one-to-many". Et qu'il deviendrait très difficile de repérer les informations fiables et celles qui ne le sont pas.
Elon Musk a longtemps exprimé son opposition à l'utilisation de l'IA au-delà des bots de base, avertissant dans un tweet en septembre 2019 que si l'IA continuait à évoluer, cela pourrait avoir des conséquences désastreuses. « Si l'IA avancée (au-delà des robots de base) n'a pas encore été appliquée à la manipulation des médias sociaux, elle ne tardera pas à l'être ».
Des algorithmes d’IA comme GPT-3 pourraient être utilisés par des acteurs étatiques pour rependre de faux discours
Les chercheurs en IA ont construit des programmes capables d'utiliser le langage de manière surprenante ces derniers temps, et GPT-3 est peut-être la démonstration la plus étonnante de toutes. Les chercheurs d'OpenAI ont créé GPT-3 en alimentant un algorithme d'IA particulièrement puissant, conçu pour traiter le langage, avec de grandes quantités de texte extraites de sources Web telles que Wikipedia et Reddit. GPT-3 a souvent stupéfié les observateurs par son apparente maîtrise du langage, mais il peut être imprévisible, crachant parfois des babillages incohérents.
OpenAI a mis GPT-3 à la disposition de dizaines de startups. Les entrepreneurs utilisent GPT-3 pour générer automatiquement des e-mails, parler aux clients et même écrire du code informatique. Mais certaines utilisations du programme ont également démontré son potentiel plus sombre.
Mike Gruszczynski, professeur à Indiana University, qui étudie les communications en ligne, ne serait pas surpris de voir l'IA jouer un rôle plus important dans les campagnes de désinformation. Il souligne que les bots ont joué un rôle clé dans la diffusion de faux récits ces dernières années, et que l'IA peut être utilisée pour générer de fausses photos de profil sur les médias sociaux. Avec les bots, les deepfakes et d'autres technologies, « je pense vraiment que le ciel est la limite, malheureusement », a-t-il dit.
L’année dernière, un étudiant à l’université de Californie à Berkeley a utilisé le modèle d'IA GPT-3 pour produire un blog entièrement faux sous un faux nom. Il a publié de faux articles de blog qu’il a généré à l’aide de l’algorithme d’OpenAI. L’un de ces articles avait d’ailleurs réussi à tromper la vigilance des lecteurs et a pu même se hisser dans les sujets en tête du site communautaire Hacker News.
Toutefois, selon Buchanan, l'algorithme ne semble pas capable de générer de manière fiable des articles cohérents et persuasifs d'une longueur supérieure à celle d'un tweet. Les chercheurs n'ont pas essayé de montrer les articles qu'il a produits à des volontaires.
Cependant, Buchanan prévient que les acteurs étatiques pourraient être en mesure de faire plus avec un outil linguistique tel que GPT-3. « Les adversaires qui ont plus d'argent, plus de capacités techniques et moins d'éthique seront en mesure de mieux utiliser l'IA », a-t-il dit. « De plus, les machines ne feront que s'améliorer ».
Les travaux des chercheurs Georgetown n’étonnent par OpenAI. La société affirme qu’ils ne font que mettre en lumière un problème important que l'entreprise connaît déjà et espère atténuer. « Nous travaillons activement à la résolution des risques de sécurité associés à GPT-3 », a déclaré un porte-parole d'OpenAI. « Nous examinons également chaque utilisation de production de GPT-3 avant qu'elle ne soit mise en service et nous avons mis en place des systèmes de surveillance pour restreindre et répondre à l'utilisation abusive de notre API ».
Source : Article de recherche
Et vous ?
:fleche: Que pensez-vous de cette recherche ?
:fleche: Le programme GPT-3 constitue-t-il une réelle menace en ligne, selon vous ?
:fleche: Comment OpenAI peut-il remédier aux risques de désinformation liés à l’outil, selon vous ?
Voir aussi :
:fleche: Un faux blog d'un lycéen généré par GPT-3, l'IA de traitement du langage naturel d'OpenAI, a trompé des dizaines de milliers de personnes
:fleche: Open AI propose en bêta privée son modèle de traitement du langage naturel GPT-3, ses applications vont de la génération de texte cohérent à la génération de code en passant par la création d'apps
:fleche: Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
:fleche: GPT-3, le système de génération de texte d'OpenAI, produit désormais 4,5 milliards de mots par jour, avec une précision de 91 %
1 pièce(s) jointe(s)
Les chatbots d'IA pourraient aggraver la désinformation en ligne, selon certains chercheurs
Les chatbots d'IA pourraient aggraver la désinformation en ligne, en permettant aux acteurs malveillants de créer des campagnes plus rentables et plus difficiles à repérer, selon certains chercheurs
Les chatbots IA représentent un nouveau chapitre passionnant de l'histoire de la technologie, mais malgré cela, ils ne sont pas exempts de dangers et de problèmes potentiels. Des chercheurs travaillant dans un large éventail d'institutions ont récemment mis en lumière un problème potentiel alarmant pouvant être causé par des IA telles que ChatGPT : elles pourraient augmenter la quantité de désinformation en ligne.
L'utilisation de robots conversationnels d'IA pourrait permettre aux acteurs malveillants de créer de fausses informations de manière beaucoup plus rentable. Ces chatbots peuvent également être utilisés pour que la désinformation soit de meilleure qualité. Ils peuvent personnaliser les différents types de campagnes de désinformation qui circulent, ce qui les rend beaucoup plus difficiles à repérer et à démanteler pour les chercheurs.
Il convient de préciser que ce ne sera pas la première fois que les chatbots seront utilisés à des fins aussi néfastes. Cependant, ils n'ont jamais été aussi puissants auparavant, le contenu qu'ils généraient étant souvent truffé d'erreurs de syntaxe, de fautes de frappe et d'autres problèmes qui rendaient ce qu'ils essayaient d'accomplir terriblement évident.
Des personas générés par l'IA ont déjà été observés dans des campagnes de désinformation menées dans le monde entier. Des technologies comme ChatGPT peuvent être utilisées pour créer des fausses nouvelles convaincantes en quelques secondes, et le contenu ne comportera pas les mêmes types d'erreurs qui le rendraient si facile à analyser.
Tout cela semble indiquer que ChatGPT et d'autres chatbots IA de ce type devront être perfectionnés afin de les rendre sûrs. Il est important de mettre en place des filtres, car c'est le genre de chose qui pourrait potentiellement empêcher les acteurs malveillants de les utiliser pour mener leurs campagnes en ligne.
Open AI a lancé un outil qui peut aider les gens à discerner si un contenu est généré par l'IA ou non. Ce sera un outil crucial dans la lutte contre la désinformation qui est en cours.
Source : Article de recherche (PDF)
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Trouvez-vous que les conclusions formulées par ces chercheurs sont pertinentes ou crédibles ?
:fleche: Quel est votre ressenti concernant les chatbots d'IA ? Selon vous, comment devrait-on encadrer leurs usages pour qu'ils soient plus sûrs ?
Voir aussi :
:fleche: L'IA peut maintenant écrire de la désinformation pour tromper les lecteurs, des chercheurs ont utilisé le générateur de texte GPT-3 pour écrire des tweets que les gens ont trouvés convaincants
:fleche: Un système d'IA pourrait aider à contrer la propagation de la désinformation avec une précision de 96 %, grâce à un mécanisme qui détecte les comptes de médias sociaux à l'origine de ces campagnes
:fleche: Le gouvernement US développe une technologie d'IA pour démasquer les écrivains anonymes, évoquant entre autres « le suivi des campagnes de désinformation et d'autres activités malveillantes en ligne »
Le modèle de langage d'IA GPT-3 peut générer une désinformation plus persuasive que les humains
Le modèle de langage d'IA GPT-3 peut générer une désinformation plus persuasive que les humains, en particulier lorsqu'il est confronté à des données ambiguës ou incomplètes, selon des chercheurs
Dans le cadre d'une étude novatrice, des chercheurs ont découvert que le prototype de langage d'OpenAI, GPT-3, possède une maîtrise exceptionnelle de l'information qui surpasse les capacités humaines. Cette découverte ouvre de nouvelles perspectives pour l'avenir de l'IA et de la classification des langages naturels.
GPT-3 a fait l'objet d'une attention considérable depuis son lancement il y a trois ans. Avec ses 175 milliards de paramètres, il est aujourd'hui le plus grand prototype jamais réalisé. Sa taille immense et ses données d'entraînement l'autorisent à induire des réponses remarquablement lisibles et adaptées au contexte, ce qui en fait un instrument inestimable pour l'immense étendue des applications.
L'étude, menée par une équipe de chercheurs d'un institut de recherche en IA de premier plan, visait à évaluer les performances de GPT-3 en matière de réponses informatives. Pour ce faire, ils ont conçu une série de tests au cours desquels ChatGPT a été comparé à des spécialistes humains dans divers domaines, notamment la science, l'histoire et la technologie.
Les conséquences n'ont été étonnantes pour personne. ChatGPT a infailliblement surpassé les experts mortels en fournissant des informations précises et complètes. En fait, ses réponses ont été jugées non seulement équivalentes, mais souvent supérieures à celles des spécialistes humains.
L'une des caractéristiques fondamentales contribuant aux performances exceptionnelles de GPT-3 est sa capacité à traiter et à synthétiser de vastes portions d'informations. Alors que les experts humains s'appuient sur leur mémoire et leur capacité cognitive limitée, Generative Pretrained Transformer 3 peut s'approcher d'un vaste référentiel de connaissances qui va au-delà de ce qu'une personne peut posséder. Cela permet à GPT-3 de fournir des réponses détaillées et précises à un large éventail de demandes, indépendamment de la complexité ou de l'obscurité du sujet.
En outre, les réponses de GPT-3 ne se limitent pas à la régurgitation d'informations existantes. Le prototype linguistique a fait preuve d'une remarquable aptitude à la pensée critique et à la résolution de problèmes. Il pouvait évaluer et interpréter des scénarios complexes, fournir des explications perspicaces et même proposer des suggestions créatives que les experts humains n'auraient peut-être pas envisagées. Cette polyvalence distingue ChatGPT-3 des autres prototypes artificiels et souligne sa capacité à contribuer à la recherche scientifique et à l'innovation.
Si l'analyse met en évidence les capacités d'information exceptionnelles de Generative Pretrained Transformer 3, elle soulève également d'importantes considérations éthiques. Le recours croissant à l'IA et à la compréhension des dispositifs dans les procédures de prise de décision nécessite un examen minutieux des biais et des limites imaginables de ces modèles. Malgré ses performances remarquables, GPT-3 n'est pas infaillible. Il peut encore produire des informations incorrectes ou trompeuses, en particulier lorsqu'il est confronté à des données ambiguës ou incomplètes. Il est donc essentiel d'aborder les résultats de GPT-3 avec un esprit critique et une supervision humaine.
Selon les auteurs de l'étude :
Citation:
L'intelligence artificielle (IA) modifie la manière dont nous créons et évaluons l'information, et ce en pleine infodémie, qui a des effets marqués sur la santé mondiale. Nous évaluons ici si des personnes recrutées peuvent distinguer la désinformation des informations exactes, structurées sous forme de tweets, et déterminer si un tweet est organique ou synthétique, c'est-à-dire s'il a été écrit par un utilisateur de Twitter ou par le modèle d'intelligence artificielle GPT-3. Les résultats de notre étude préenregistrée, incluant 697 participants, montrent que GPT-3 est une arme à double tranchant : par rapport aux humains, il peut produire des informations exactes et plus faciles à comprendre, mais il peut aussi produire une désinformation plus convaincante. Nous montrons également que les humains ne peuvent pas faire la distinction entre les tweets générés par GPT-3 et ceux écrits par de vrais utilisateurs de Twitter. À partir de nos résultats, nous réfléchissons aux dangers de l'IA pour la désinformation et à la manière dont les campagnes d'information peuvent être améliorées au profit de la santé mondiale.
Les résultats de l'étude ont des implications importantes pour de nombreux secteurs. Dans le domaine de la santé, la capacité de GPT-3 à traiter de grandes quantités de littérature médicale pourrait aider à diagnostiquer des conditions complexes et à suggérer des plans de traitement personnalisés. Dans le domaine de l'éducation, il pourrait constituer une ressource précieuse pour les étudiants, en leur fournissant des informations instantanées et précises sur divers sujets. Dans le domaine de la recherche et du développement, les capacités analytiques du GPT-3 pourraient accélérer les découvertes scientifiques et l'innovation.
Cependant, l'intégration de ChatGPT-3 dans des applications réelles nécessitera de prendre en compte les problèmes de solitude et de protection. En tant que prototype de langage d'IA, ChatGPT-3 dépend de l'accès à de vastes portions d'informations, ce qui soulève des questions quant à la protection des informations et à leur utilisation abusive potentielle. La protection de la solitude des consommateurs et la garantie de pratiques responsables en matière de données seront essentielles pour exploiter toutes les possibilités offertes par cette technologie.
L'analyse met en évidence les commandes informatives exceptionnelles de GPT-3, qui surpassent les capacités des mortels en fournissant des informations précises et complètes. Son vaste réservoir de connaissances, ses capacités de réflexion critique et ses aptitudes à résoudre les problèmes en font un mécanisme puissant ayant de vastes implications pour divers secteurs d'activité. Toutefois, les défis honorables et pratiques liés à son utilisation doivent être abordés avec soin afin de garantir un déploiement responsable et d'accroître ses chances d'améliorer le sort de l'humanité. Alors que l'IA continue de progresser, ChatGPT-3 témoigne des capacités remarquables qui se trouvent dans le domaine de l'intelligence virtuelle et du traitement du langage naturel (NLP).
Source : article de recherche intitulé "AI model GPT-3 (dis)informs us better than humans"
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Trouvez-vous cette étude crédible et pertinente ?
:fleche: Selon vous, quelles sont les considérations éthiques qui découlent de l'utilisation croissante de modèles d'IA tels que GPT-3 dans les processus de prise de décision ?
Voir aussi
:fleche: L'IA peut maintenant écrire de la désinformation pour tromper les lecteurs, des chercheurs ont utilisé le générateur de texte GPT-3 pour écrire des tweets que les gens ont trouvés convaincants
:fleche: GPT-3, le système de génération de texte d'OpenAI, produit désormais 4,5 milliards de mots par jour avec une précision de 91 %
:fleche: GPT-3, le système de génération de texte d'OpenAI, serait aussi performant qu'un humain de neuf ans dans les tests standard de la théorie de l'esprit, selon un psychologue