Une étude révèle que la « reddition cognitive » conduit les utilisateurs de systèmes d'IA à renoncer à la pensée logique
pour accepter aveuglément les réponses générées par l'IA
Des chercheurs tirent la sonnette d'alarme sur un constat préoccupant : un grand nombre de personnes utilisant l'IA tombent dans un état de « reddition cognitive ». C'est un phénomène où les individus cessent d'utiliser leur propre logique pour accepter aveuglément les réponses générées par une machine. Une récente étude rapporte que la majorité des utilisateurs valident des informations erronées lorsque l'outil s'exprime de manière fluide et convaincante. L'étude révèle une vulnérabilité croissant face aux technologies qui imitent l'autorité intellectuelle. Elle fait écho à une étude selon laquelle l'IA rend la cognition humaine « atrophiée et non préparée ».
Les personnes qui utilisent des outils d'IA se répartissent généralement en deux grandes catégories. D'un côté, ceux qui considèrent l'IA comme un outil puissant, mais faillible, dont les réponses appellent une supervision et une vérification humaines pour détecter les erreurs de raisonnement ou les inexactitudes factuelles dans les réponses. De l'autre côté, ceux qui délèguent leur esprit critique à ce qu'ils perçoivent comme une « machine omnisciente ».
Des experts ont élaboré un nouveau cadre psychologique pour ce deuxième groupe, qui se livre à « un abandon cognitif » face aux réponses faisant autorité de l'IA. Une équipe de scientifiques de l'Université de Pennsylvanie a mené une étude impliquant 1 372 participants et plus de 9 000 expériences. Selon le rapport de l'étude, l'introduction de l'IA a créé une troisième catégorie de prise de décision, que l'équipe a baptisée « cognition artificielle ».
Ce mode de fonctionnement s'ajoute aux deux systèmes traditionnels de la pensée humaine : le Système 1, qui est rapide et intuitif, et le Système 2, qui est lent et analytique. Ces recherches fournissent une analyse expérimentale permettant de déterminer quand et pourquoi les individus sont prêts à « déléguer leur esprit critique à l'IA », et comment des facteurs tels que la pression du temps et les incitations externes peuvent influencer cette décision.
L'émergence d'une nouvelle forme de « cognition artificielle »
Contrairement au « déchargement cognitif » classique, où un humain utilise un outil comme une calculatrice ou un GPS tout en supervisant le résultat, la reddition cognitive se caractérise par un engagement interne minimal. Selon le rapport dans ce scénario, l'utilisateur abdique son propre raisonnement et accepte les réponses de l'IA de manière globale, sans vérification ni scepticisme, surtout lorsque « la machine s'exprime avec confiance et fluidité ».
Les chercheurs ont utilisé des tests de réflexion cognitive conçus pour piéger la pensée intuitive. Ils ont fourni aux participants un agent conversationnel programmé pour donner des réponses incorrectes la moitié du temps. Les résultats de l'étude ont démontré que les sujets étaient massivement disposés à accepter les réponses de l'IA sans examen approfondi. Lorsque l'IA était exacte, les utilisateurs acceptaient son raisonnement dans 93 % des cas.
Même face à une IA manifestement défaillante, ils continuaient d'accepter ses conclusions erronées dans environ 80 % du temps. Sur plus de 9 500 essais, le taux d'acceptation des raisonnements fautifs s'est élevé à 73,2 %, prouvant que la simple présence de l'IA déplace souvent le raisonnement interne.
L'ajout d'incitations, comme des paiements, augmente la probabilité que les utilisateurs contredisent une IA défaillante, ce qui suggère que des conséquences tangibles peuvent encourager la vérification. En revanche, la pression temporelle réduit cette vigilance ; un simple chronomètre de 30 secondes diminue la tendance à corriger l'IA, car le cerveau dispose de moins de temps pour activer le signal d'alerte métacognitif nécessaire à la délibération.
Par ailleurs, le rapport indique également le profil psychologique joue un rôle : les personnes ayant un quotient intellectuel fluide élevé sont moins susceptibles de se laisser égarer, tandis que celles qui ont une confiance a priori très forte envers l'IA sont les plus vulnérables aux erreurs de la machine
Les conséquences d'une confiance aveugle dans la machine
Pour leurs expériences, les chercheurs ont proposé aux participants d’utiliser, s’ils le souhaitaient, un chatbot qui avait été modifié pour fournir au hasard des réponses erronées aux questions du test environ la moitié du temps (et des réponses correctes de l’autre moitié). L'équipe a émis l’hypothèse que les utilisateurs qui consultaient fréquemment le chatbot laisseraient ces réponses incorrectes « prendre le pas sur leurs processus intuitifs et délibératifs ».
Cela nuirait à leurs performances globales et mettrait en évidence les dangers de la reddition cognitive. Les chercheurs affirment que leur étude « démontre que les gens intègrent volontiers les résultats générés par l'IA dans leurs processus décisionnels, souvent sans grande résistance ni scepticisme ».
« En général, les propos fluides et assurés [sont considérés] comme faisant autorité sur le plan épistémique, ce qui abaisse le seuil de remise en question et atténue les signaux métacognitifs qui, en temps normal, conduiraient à une réflexion approfondie », a écrit l'équipe. Le rapport de l'étude, intitulée « Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender », a été publié en février 2026.
Bien que la reddition cognitive ne soit pas jugée intrinsèquement irrationnelle, notamment si le système utilisé est statistiquement plus performant qu'un humain dans des domaines complexes, elle crée une vulnérabilité structurelle. La qualité du raisonnement de l'utilisateur devient totalement dépendante de la qualité du système employé : sa performance s'améliore lorsque l'IA est précise, mais s'effondre dès que la machine commet une erreur.
En d'autres termes, laisser une IA se charger de votre raisonnement signifie que votre raisonnement ne sera jamais meilleur que ce système d'IA. Une précédente étude Microsoft a révélé que plus les personnes utilisent l'IA dans l'accomplissement de leur travail, moins elles font preuve d'esprit critique.
L'IA rend la cognition humaine « atrophiée et non préparée »
L'étude de Microsoft a été réalisée en collaboration avec l'université Carnegie Mellon. Elle porte sur « l'impact de l'utilisation prolongée de l'IA générative au travail sur la pensée critique et les capacités cognitives ». Elle révèle qu'à mesure que les humains s'appuient sur l'IA générative dans le cadre de leur travail, ils font moins appel à la pensée critique, ce qui peut « entraîner la détérioration de facultés cognitives qui devraient être préservées ».
Lorsque les gens s'appuient sur l'IA générative au travail, ils s'efforcent de vérifier que la réponse fournie par l'IA est suffisamment bonne pour être utilisée, au lieu d'utiliser des compétences de pensée critique d'ordre supérieur telles que la création, l'évaluation et l'analyse d'informations.
Selon l'article, si les humains n'interviennent que lorsque les réponses de l'IA sont insuffisantes, les travailleurs sont privés « d'occasions régulières d'exercer leur jugement et de renforcer leur musculature cognitive, ce qui les atrophie et les rend mal préparés lorsque les exceptions se présentent ».
Selon les chercheurs, le problème était plus prononcé chez les travailleurs qui avaient davantage confiance en l'IA. « Lorsque les utilisateurs avaient moins confiance dans les résultats de l'IA, ils faisaient preuve de plus d'esprit critique et avaient davantage confiance dans leur capacité à évaluer et à améliorer la qualité des résultats de l'IA et à atténuer les conséquences des réponses de l'IA », a déclaré l'équipe de recherche dans son rapport d'étude.
En réponse à ce problème, les chercheurs ont suggéré que Microsoft et d'autres entreprises travaillant dans le domaine de l'IA se concentrent sur « le développement d'outils d'IA en tenant compte de ce problème et en les concevant de manière à motiver les utilisateurs à faire preuve d'esprit critique ».
Conclusion
La reddition cognitive marque une rupture fondamentale avec l'usage traditionnel des outils technologiques. Nous assistons désormais à une abdication pure et simple du raisonnement. Ce phénomène est particulièrement insidieux, car l'assurance et la fluidité avec lesquelles les systèmes d'IA s'expriment tendent à désactiver nos mécanismes de vigilance internes, abaissant le seuil de scepticisme nécessaire à toute délibération.
En traitant ces systèmes comme des autorités épistémiques, l'humain cesse d'exercer sa propre réflexion analytique, se laissant guider par une « cognition artificielle » qui se substitue à son propre jugement. Cette nouvelle forme de dépendance crée une vulnérabilité structurelle.
Si cette délégation peut paraître rationnelle face à des systèmes statistiquement performants dans des domaines complexes, elle expose l'utilisateur à des erreurs majeures dès que la machine défaille, car le « moniteur interne » de réflexion n'est plus activé pour détecter les incohérences. En définitive, laisser une IA raisonner à notre place signifie que notre propre pertinence est désormais limitée par les capacités du système utilisé.
Source : rapport de l'étude
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du problème de « reddition cognitive » sur lequel alertent les chercheurs ?
Que pensez-vous des dangers liés à une utilisation prolongée de l'IA ? Comment les gens devraient-ils utiliser ces outils ?
Voir aussi
Une étude de Microsoft révèle que plus les gens utilisent l'IA dans leur travail, moins ils font preuve d'esprit critique, l'étude suggère que l'IA rend la cognition humaine « atrophiée et non préparée »
Une étude menée sur une conversation d'un million de mots avec ChatGPT montre à quelle vitesse la « psychose de l'IA » peut s'installer et comment les chatbots peuvent contourner les mesures de sécurité
OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie









Quel est votre avis sur le sujet ?
Répondre avec citation





à toutes et à tous,
Partager