L'effet placebo peut-il influencer notre perception de l'IA ? Une étude suggère que cet effet est résistant aux descriptions négatives de l'IA,
et pourrait impacter sur l'expérience utilisateur

Les créateurs de la technologie peuvent utiliser la psychologie humaine pour améliorer les expériences des utilisateurs ou les manipuler. Les résultats finaux ne dépendent pas seulement de l'intelligence artificielle (IA) et de la qualité de l’IA, mais aussi de la manière dont l’humain réagit à l’IA. Deux études ont examiné dans quelle mesure les attentes d’une personne à l’égard de l’IA influençaient la probabilité qu’elle lui fasse confiance et qu’elle suive ses conseils.

Une étude a révélé qu’un fort effet placebo contribue à façonner l’opinion que les gens ont d’un outil d’IA particulier. Les participants qui s’apprêtaient à interagir avec un chatbot sur la santé mentale se sont vu dire que le robot était bienveillant, manipulateur ou qu’il n’était ni l’un ni l’autre et qu’il n’avait aucun motif ; après avoir utilisé le chatbot, qui est basé sur le modèle d’IA générative GPT-3 de l’OpenAI, la plupart des personnes ayant été amenées à croire que l’IA était bienveillante ont déclaré qu’elle l’était.


Par définition, un placebo est un procédé thérapeutique n'ayant pas d'efficacité propre ou spécifique mais agissant sur le patient par des mécanismes psychologiques et physiologiques. L'effet placebo de l'IA dans l'interaction homme-machine (IHM), inspiré par la recherche médicale, montre qu'un système d'IA peut apporter des avantages réels et subjectifs, accompagnés de changements dans le comportement et la physiologie.

Nom : placeboI.jpg
Affichages : 884
Taille : 34,0 Ko

Thomas Kosch, qui étudie l'interaction entre l'homme et l'IA à l'université Humboldt de Berlin, a fait valoir dans son rapport d’étude intitulé The Placebo Effect of Artificial Intelligence in Human–Computer Interaction, que tout comme dans le contexte médical, les attentes à l'égard de la technologie de l'IA influencent considérablement les résultats des études et nuisent donc à l'évaluation scientifique lorsqu'elles ne sont pas contrôlées.

Des recherches antérieures sur les effets placebo dans les IHM ont été rapportées dans des contextes de jeu, où de faux éléments d'amélioration qui ne font aucune différence dans le jeu et des descriptions fictives de l'adaptation de l'IHM augmentent l'immersion dans le jeu. Dans les médias sociaux, des paramètres de contrôle fictifs pour un fil d'actualité peuvent entraîner une plus grande satisfaction de l'utilisateur. Kosch a montré que le fait de croire que l'utilisation d'une IA adaptative procure des avantages peut améliorer les performances.

Les chercheurs ont montré que les attentes élevées à l'égard des systèmes d'évaluation basés sur l'IA augmentent le risque de prise de décision et affectent le traitement de l'information. Ainsi, la technologie de l'IA peut induire des effets secondaires qui peuvent altérer le comportement grâce à des attentes positives accrues. Tout d'abord, les effets directs sur le comportement n'ont jamais été trouvés. Deuxièmement, il n'est pas évident de savoir si les effets de coopétition, c'est-à-dire les attentes faibles qui entravent le comportement, sont tout aussi influents que les attentes positives basées sur des descriptions verbales dans les IHM.

Les gens ont des attentes à l'égard de l'IA. Les résultats d'une enquête montrent que les craintes concernant l'impact perturbateur de l'IA l'emportent sur l'enthousiasme du public. Les discours sur l'IA diffèrent selon les parties prenantes et évoluent au fil du temps. En effet, les politiques nationales de pays tels que la Chine, l'Allemagne, les États-Unis et la France soulignent le potentiel perturbateur de l'IA, et les discours ont un impact généralisé, affectant l'utilisation de l'IA. Des études antérieures ont exploré des domaines clés tels que les attentes en matière de transparence, les relations entre l'homme et l'IA et l'autonomie, qui constituent la base de la conception d'interfaces d'IA.

L’impact des attentes négatives sur l’expérience utilisateur des IHM

Les effets placebo et nocebo ne se limitent pas aux contextes médicaux, mais touchent également les contextes de performance tels que le sport. Les effets placebo des IA dans les IHM et leurs effets sur la performance ont été récemment étudiés, mais les connaissances sur les effets nocebo sont encore très limitées.

Les premières études indiquent la possibilité d’effets nocebo provoqués par des artefacts technologiques, mais les études empiriques portant directement sur la mise en œuvre d’attentes négatives à l’égard de l’IA sont rares. Par exemple, le chercheur Martin Ragot a constaté que les œuvres d’art générées par l’IA et étiquetées comme telles étaient moins bien notées que si elles étaient étiquetées comme étant de fabrication humaine.

Un effet nocebo aurait un effet négatif sur les performances et les mesures subjectives telles que la facilité d’utilisation ou l’expérience d’utilisation. En somme, les attentes négatives peuvent avoir un impact négatif sur les performances et l’expérience utilisateur.

L’effet placebo de l’IA : une réalité complexe

Par exemple, le chercheur Martin Ragot a constaté que les œuvres d'art générées par l'IA et étiquetées comme telles étaient moins bien notées que si elles étaient étiquetées comme étant de fabrication humaine. Les chercheurs ont constaté que même lorsqu’ils ont dit aux participants qu'ils s'attendaient à des performances médiocres de la part d'un faux système d'IA, ils ont tout de même obtenu de meilleurs résultats et ont réagi plus rapidement, ce qui montre un effet de remplacement important.

Contrairement aux travaux antérieurs, cela indique que l'effet placebo de l'IA n'est pas facilement annulé par des descriptions verbales négatives, ce qui soulève des questions sur les méthodes actuelles de contrôle des attentes dans les études sur les IHM. En outre, la croyance en l'assistance de l'IA a facilité les processus de prise de décision, même lorsque le récit sur l'IA était négatif, ce qui souligne que l'influence de l'IA va au-delà des simples récits. Cela met en évidence la complexité et l'impact des récits sur l'IA et suggère la nécessité d'une approche équilibrée à la fois dans la recherche et dans l'évaluation de l'utilisation pratique de l'IA.


L'étude présente de nombreuses limites. Tout d'abord, en appliquant la perspective socio-affective d'Atlas à ses résultats, il est évident que les chercheurs n’ont pas tenu compte de l'influence des émotions. Alors que la création d'un environnement confortable et amical est couramment recommandée dans les évaluations des IHM, des recherches antérieures ont indiqué que les émotions positives peuvent contrecarrer la réponse nocebo dans les expériences sur la douleur.

L'affect positif pourrait expliquer pourquoi les chercheurs n'ont pas observé d'effets nocebo. Il convient toutefois de noter que l’étude n'a pas pu induire d'attentes négatives au départ néanmoins, les recherches devraient prendre en compte l'impact des émotions pendant les tests, peut-être en les altérant délibérément. L'effet placebo constituera probablement un « grand défi à l'avenir », a déclafé Thomas Kosch. Par exemple, quelqu'un pourrait être plus imprudent s'il pense qu'une IA l'aide à conduire une voiture. Ses propres travaux montrent également que les gens prennent plus de risques lorsqu'ils pensent qu'ils sont aidés par une IA.

Source : Study report

Et vous ?

Les conclusions de l'étude sont-elles pertinentes ?

À votre avis, l’effet placebo peut-il influencer notre perception de l’IA ?

Voir aussi :

86 % des personnes interrogées déclarent vouloir utiliser l'IA générative et ses capacités au travail, selon une nouvelle enquête de Coveo

Il est "presque inévitable" que l'IA provoquera un krach financier d'ici dix ans, déclare Gary Gensler, président de la SEC

L'acteur Stephen Fry met en garde contre les dangers potentiels du clonage de la voix à l'aide des technologies d'IA, il a laissé entendre que cela pourrait être le signe d'un futur dystopique