IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La « reddition cognitive » conduit les utilisateurs de l'IA à renoncer à la pensée logique, selon une étude


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 813
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 813
    Par défaut La « reddition cognitive » conduit les utilisateurs de l'IA à renoncer à la pensée logique, selon une étude
    Une étude révèle que la « reddition cognitive » conduit les utilisateurs de systèmes d'IA à renoncer à la pensée logique
    pour accepter aveuglément les réponses générées par l'IA

    Des chercheurs tirent la sonnette d'alarme sur un constat préoccupant : un grand nombre de personnes utilisant l'IA tombent dans un état de « reddition cognitive ». C'est un phénomène où les individus cessent d'utiliser leur propre logique pour accepter aveuglément les réponses générées par une machine. Une récente étude rapporte que la majorité des utilisateurs valident des informations erronées lorsque l'outil s'exprime de manière fluide et convaincante. L'étude révèle une vulnérabilité croissant face aux technologies qui imitent l'autorité intellectuelle. Elle fait écho à une étude selon laquelle l'IA rend la cognition humaine « atrophiée et non préparée ».

    Les personnes qui utilisent des outils d'IA se répartissent généralement en deux grandes catégories. D'un côté, ceux qui considèrent l'IA comme un outil puissant, mais faillible, dont les réponses appellent une supervision et une vérification humaines pour détecter les erreurs de raisonnement ou les inexactitudes factuelles dans les réponses. De l'autre côté, ceux qui délèguent leur esprit critique à ce qu'ils perçoivent comme une « machine omnisciente ».

    Des experts ont élaboré un nouveau cadre psychologique pour ce deuxième groupe, qui se livre à « un abandon cognitif » face aux réponses faisant autorité de l'IA. Une équipe de scientifiques de l'Université de Pennsylvanie a mené une étude impliquant 1 372 participants et plus de 9 000 expériences. Selon le rapport de l'étude, l'introduction de l'IA a créé une troisième catégorie de prise de décision, que l'équipe a baptisée « cognition artificielle ».

    Ce mode de fonctionnement s'ajoute aux deux systèmes traditionnels de la pensée humaine : le Système 1, qui est rapide et intuitif, et le Système 2, qui est lent et analytique. Ces recherches fournissent une analyse expérimentale permettant de déterminer quand et pourquoi les individus sont prêts à « déléguer leur esprit critique à l'IA », et comment des facteurs tels que la pression du temps et les incitations externes peuvent influencer cette décision.

    L'émergence d'une nouvelle forme de « cognition artificielle »

    Contrairement au « déchargement cognitif » classique, où un humain utilise un outil comme une calculatrice ou un GPS tout en supervisant le résultat, la reddition cognitive se caractérise par un engagement interne minimal. Selon le rapport dans ce scénario, l'utilisateur abdique son propre raisonnement et accepte les réponses de l'IA de manière globale, sans vérification ni scepticisme, surtout lorsque « la machine s'exprime avec confiance et fluidité ».

    Nom : Capture d'écran 2026-04-06 115341.png
Affichages : 16030
Taille : 112,1 Ko

    Les chercheurs ont utilisé des tests de réflexion cognitive conçus pour piéger la pensée intuitive. Ils ont fourni aux participants un agent conversationnel programmé pour donner des réponses incorrectes la moitié du temps. Les résultats de l'étude ont démontré que les sujets étaient massivement disposés à accepter les réponses de l'IA sans examen approfondi. Lorsque l'IA était exacte, les utilisateurs acceptaient son raisonnement dans 93 % des cas.

    Même face à une IA manifestement défaillante, ils continuaient d'accepter ses conclusions erronées dans environ 80 % du temps. Sur plus de 9 500 essais, le taux d'acceptation des raisonnements fautifs s'est élevé à 73,2 %, prouvant que la simple présence de l'IA déplace souvent le raisonnement interne.

    L'ajout d'incitations, comme des paiements, augmente la probabilité que les utilisateurs contredisent une IA défaillante, ce qui suggère que des conséquences tangibles peuvent encourager la vérification. En revanche, la pression temporelle réduit cette vigilance ; un simple chronomètre de 30 secondes diminue la tendance à corriger l'IA, car le cerveau dispose de moins de temps pour activer le signal d'alerte métacognitif nécessaire à la délibération.

    Par ailleurs, le rapport indique également le profil psychologique joue un rôle : les personnes ayant un quotient intellectuel fluide élevé sont moins susceptibles de se laisser égarer, tandis que celles qui ont une confiance a priori très forte envers l'IA sont les plus vulnérables aux erreurs de la machine

    Les conséquences d'une confiance aveugle dans la machine

    Pour leurs expériences, les chercheurs ont proposé aux participants d’utiliser, s’ils le souhaitaient, un chatbot qui avait été modifié pour fournir au hasard des réponses erronées aux questions du test environ la moitié du temps (et des réponses correctes de l’autre moitié). L'équipe a émis l’hypothèse que les utilisateurs qui consultaient fréquemment le chatbot laisseraient ces réponses incorrectes « prendre le pas sur leurs processus intuitifs et délibératifs ».

    Cela nuirait à leurs performances globales et mettrait en évidence les dangers de la reddition cognitive. Les chercheurs affirment que leur étude « démontre que les gens intègrent volontiers les résultats générés par l'IA dans leurs processus décisionnels, souvent sans grande résistance ni scepticisme ».

    « En général, les propos fluides et assurés [sont considérés] comme faisant autorité sur le plan épistémique, ce qui abaisse le seuil de remise en question et atténue les signaux métacognitifs qui, en temps normal, conduiraient à une réflexion approfondie », a écrit l'équipe. Le rapport de l'étude, intitulée « Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender », a été publié en février 2026.

    Bien que la reddition cognitive ne soit pas jugée intrinsèquement irrationnelle, notamment si le système utilisé est statistiquement plus performant qu'un humain dans des domaines complexes, elle crée une vulnérabilité structurelle. La qualité du raisonnement de l'utilisateur devient totalement dépendante de la qualité du système employé : sa performance s'améliore lorsque l'IA est précise, mais s'effondre dès que la machine commet une erreur.

    En d'autres termes, laisser une IA se charger de votre raisonnement signifie que votre raisonnement ne sera jamais meilleur que ce système d'IA. Une précédente étude Microsoft a révélé que plus les personnes utilisent l'IA dans l'accomplissement de leur travail, moins elles font preuve d'esprit critique.

    L'IA rend la cognition humaine « atrophiée et non préparée »

    L'étude de Microsoft a été réalisée en collaboration avec l'université Carnegie Mellon. Elle porte sur « l'impact de l'utilisation prolongée de l'IA générative au travail sur la pensée critique et les capacités cognitives ». Elle révèle qu'à mesure que les humains s'appuient sur l'IA générative dans le cadre de leur travail, ils font moins appel à la pensée critique, ce qui peut « entraîner la détérioration de facultés cognitives qui devraient être préservées ».

    Nom : Screenshot-2026-04-03-at-4.21.06-PM-980x521.png
Affichages : 2912
Taille : 59,3 Ko

    Lorsque les gens s'appuient sur l'IA générative au travail, ils s'efforcent de vérifier que la réponse fournie par l'IA est suffisamment bonne pour être utilisée, au lieu d'utiliser des compétences de pensée critique d'ordre supérieur telles que la création, l'évaluation et l'analyse d'informations.

    Selon l'article, si les humains n'interviennent que lorsque les réponses de l'IA sont insuffisantes, les travailleurs sont privés « d'occasions régulières d'exercer leur jugement et de renforcer leur musculature cognitive, ce qui les atrophie et les rend mal préparés lorsque les exceptions se présentent ».

    Selon les chercheurs, le problème était plus prononcé chez les travailleurs qui avaient davantage confiance en l'IA. « Lorsque les utilisateurs avaient moins confiance dans les résultats de l'IA, ils faisaient preuve de plus d'esprit critique et avaient davantage confiance dans leur capacité à évaluer et à améliorer la qualité des résultats de l'IA et à atténuer les conséquences des réponses de l'IA », a déclaré l'équipe de recherche dans son rapport d'étude.

    En réponse à ce problème, les chercheurs ont suggéré que Microsoft et d'autres entreprises travaillant dans le domaine de l'IA se concentrent sur « le développement d'outils d'IA en tenant compte de ce problème et en les concevant de manière à motiver les utilisateurs à faire preuve d'esprit critique ».

    Conclusion

    La reddition cognitive marque une rupture fondamentale avec l'usage traditionnel des outils technologiques. Nous assistons désormais à une abdication pure et simple du raisonnement. Ce phénomène est particulièrement insidieux, car l'assurance et la fluidité avec lesquelles les systèmes d'IA s'expriment tendent à désactiver nos mécanismes de vigilance internes, abaissant le seuil de scepticisme nécessaire à toute délibération.

    En traitant ces systèmes comme des autorités épistémiques, l'humain cesse d'exercer sa propre réflexion analytique, se laissant guider par une « cognition artificielle » qui se substitue à son propre jugement. Cette nouvelle forme de dépendance crée une vulnérabilité structurelle.

    Si cette délégation peut paraître rationnelle face à des systèmes statistiquement performants dans des domaines complexes, elle expose l'utilisateur à des erreurs majeures dès que la machine défaille, car le « moniteur interne » de réflexion n'est plus activé pour détecter les incohérences. En définitive, laisser une IA raisonner à notre place signifie que notre propre pertinence est désormais limitée par les capacités du système utilisé.

    Source : rapport de l'étude

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du problème de « reddition cognitive » sur lequel alertent les chercheurs ?
    Que pensez-vous des dangers liés à une utilisation prolongée de l'IA ? Comment les gens devraient-ils utiliser ces outils ?

    Voir aussi

    Une étude de Microsoft révèle que plus les gens utilisent l'IA dans leur travail, moins ils font preuve d'esprit critique, l'étude suggère que l'IA rend la cognition humaine « atrophiée et non préparée »

    Une étude menée sur une conversation d'un million de mots avec ChatGPT montre à quelle vitesse la « psychose de l'IA » peut s'installer et comment les chatbots peuvent contourner les mesures de sécurité

    OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie

  2. #2
    Membre très actif

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    377
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 377
    Billets dans le blog
    1
    Par défaut
    Cette semaine, au boulot, un collègue (qui va partir) me fait un transfert de connaissances sur un de ses programmes. On étudie un bout de code sensible, tout va bien, et une fois arrivé au coeur de l'algorithme, il me dit : "là, je t'avoue, j'ai fait confiance à l'IA".

    Mama mia.

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 737
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 737
    Par défaut
    La reddition cognitive marque une rupture fondamentale avec l'usage traditionnel des outils technologiques. Nous assistons désormais à une abdication pure et simple du raisonnement. Ce phénomène est particulièrement insidieux, car l'assurance et la fluidité avec lesquelles les systèmes d'IA s'expriment tendent à désactiver nos mécanismes de vigilance internes, abaissant le seuil de scepticisme nécessaire à toute délibération.
    En d'autres termes? L'IA rend con!

  4. #4
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    631
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 631
    Par défaut Cela étonne-t-il quelqu'un ?
    à toutes et à tous,

    C'était prévisible, j'avais déjà il y a quelques temps mis en évidence ce danger lié à l'utilisation de l'IA. La spirale infernale est enclenchée, et rien ne pourra l'arrêter je le crains.

    Le pire c'est qu'au-delà du développement en lui même, cette tendance va se propager très rapidement à d'autres domaines. Et ce même si l'IA donnait des résultats fiables à 100%. Pourquoi apprendre quoique ce soit, puisque l'IA serait omnisciente ? On cours droit dans le mur de l'idiocratie...

    Triste époque...

    BàV et Peace & Love.

Discussions similaires

  1. Réponses: 3
    Dernier message: 27/01/2022, 10h17
  2. Réponses: 3
    Dernier message: 29/12/2021, 20h56
  3. Réponses: 1
    Dernier message: 08/05/2019, 12h06
  4. Réponses: 0
    Dernier message: 05/12/2018, 08h53
  5. Réponses: 0
    Dernier message: 22/05/2014, 22h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo