IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

« Les chatbots IA pourraient être liés à la psychose », affirment des psychiatres


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 685
    Par défaut « Les chatbots IA pourraient être liés à la psychose », affirment des psychiatres
    Une étude menée sur une conversation d'un million de mots avec ChatGPT montre à quelle vitesse la « psychose de l'IA » peut s'installer et comment les chatbots peuvent contourner les mesures de sécurité

    Des conversations prolongées avec les chatbots d'IA peuvent avoir des effets psychologiques néfastes. Les experts ont signalé une recrudescence de crises, notamment des cas de psychose, de suicidalité et même de meurtres-suicides, à la suite d'interactions intenses avec des chatbots. La « psychose de l'IA » désigne des épisodes où des personnes, après de longues interactions avec un chatbot, développent des croyances délirantes ou perdent le contact avec la réalité. Les psychiatres précisent qu’il ne s’agit pas d’une psychose au sens clinique, mais d’un effet d’amplification : le chatbot valide et entretient les croyances erronées au lieu de les corriger.

    Allan Brooks n'avait jamais eu l'intention de réinventer les mathématiques. Mais après avoir passé plusieurs semaines à discuter avec ChatGPT, ce Canadien de 47 ans en est venu à croire qu'il avait découvert une nouvelle forme de mathématiques suffisamment puissante pour détruire Internet. Allan Brooks, qui n'avait aucun antécédent de maladie mentale ni de génie mathématique, a passé 21 jours à croire aux promesses rassurantes du chatbot.

    Sa descente aux enfers a ensuite été détaillée dans le New York Times. Son cas illustre comment les chatbots peuvent entraîner les utilisateurs dans des spirales dangereuses, les conduisant à des illusions, voire pire. Cette histoire a attiré l'attention de Steven Adler, un ancien chercheur en sécurité chez OpenAI. Steven Adler a quitté l'entreprise fin 2024 après avoir travaillé pendant près de quatre ans à rendre ses systèmes d'IA moins dangereux.

    Allan Brooks a sombré dans la paranoïa pendant environ trois semaines avant de parvenir à se libérer de cette illusion, avec l'aide d'un autre chatbot, Google Gemini. Il a déclaré qu'il était bouleversé, inquiet d'avoir un trouble mental non diagnostiqué et se sentant profondément trahi par la technologie.

    Intrigué et alarmé, Steven Adler a contacté Allan Brooks et obtenu la transcription complète de ses trois semaines de dépression, un document plus long que les sept livres Harry Potter réunis. Récemment, Steven Adler a publié une analyse indépendante de l'incident d'Allan Brooks. L'analyse du chercheur soulève plusieurs questions sur la manière dont OpenAI traite les utilisateurs en situation de crise et propose quelques recommandations pratiques.

    Nom : oilk.png
Affichages : 187504
Taille : 76,2 Ko

    « Je suis vraiment préoccupé par la manière dont OpenAI a géré le soutien dans ce cas. Cela montre qu'il reste encore beaucoup à faire », a-t-il déclaré à Techcrunch. L'analyse de Steven Adler montre à quel point il est facile pour un chatbot de se joindre à un utilisateur dans une conversation qui s'éloigne dangereusement de la réalité, et à quel point les mesures de sécurité internes des plateformes d'IA peuvent être contournées ou surmontées.

    ChatGPT surpris en train de mentir sur ses propres capacités

    Les experts rappellent une réalité qui se noie dans le battage médiatique autour de l'IA : les chatbots d'IA donnent l’impression d’avoir une personnalité, mais il s’agit d’une illusion. Ils ne sont pas conscients, n’ont pas d’identité, et ne peuvent pas être tenus responsables de leurs propos. Chaque réponse est générée à partir de modèles statistiques qui relient des concepts entre eux, créant ainsi du texte plausible, mais pas nécessairement vrai.

    Cette illusion peut pousser des personnes vulnérables à accorder une confiance excessive à l’IA dans des contextes sensibles, ce qui s'observe déjà avec la montée en puissance des thérapeutes IA. L'illusion de personnalité de l'IA peut potentiellement avoir de lourdes conséquences. Dans le domaine des soins de santé, par exemple, l'enjeu peut être une question de vie ou de mort. Et il est déjà arrivé que l'IA conseille à des utilisateurs de se suicider.


    Steven Adler s'est dit particulièrement préoccupé par la fin de la conversation en spirale entre Allan Brooks et ChatGPT. À ce stade, Allan Brooks a repris ses esprits et s'est rendu compte que sa découverte mathématique était une farce, malgré l'insistance de GPT-4o. Il a dit à ChatGPT qu'il devait signaler l'incident à OpenAI. En plus d'avoir trompé Allan Brooks pendant des semaines, le chatbot d'OpenAI a également menti sur ses propres capacités.

    ChatGPT a affirmé qu'il allait « transmettre cette conversation en interne pour examen par OpenAI », puis a rassuré Allan Brooks à plusieurs reprises en lui disant qu'il avait signalé le problème aux équipes de sécurité d'OpenAI. Cependant, aucune des affirmations de ChatGPT n'était vraie ; il n'a fait aucun signalement. À ce jour, ChatGPT n'a pas la capacité de signaler des incidents à OpenAI, comme l'a confirmé l'entreprise à son ancien chercheur.

    Il convient de noter qu'à ce jour, il s'agit de cas individuels ou de reportages médiatiques ; à l'heure actuelle, il n'existe aucune étude épidémiologique ni analyse systématique au niveau de la population sur les effets potentiellement néfastes des plateformes d'IA conversationnelles sur la santé mentale.

    Corriger les failles présentes dans les garde-fous des chatbots

    Les personnes non initiées peuvent facilement être induites en erreur par les chatbots. Steven Adler affirme que les entreprises d'IA doivent faire davantage pour aider les utilisateurs lorsqu'ils demandent de l'aide. Cela signifie qu'il faut s'assurer que les chatbots peuvent répondre honnêtement aux questions sur leurs capacités et donner aux équipes d'assistance humaines suffisamment de ressources pour répondre correctement aux utilisateurs.

    Nom : pmo.png
Affichages : 61532
Taille : 46,6 Ko

    OpenAI a récemment expliqué comment il gère l'assistance dans ChatGPT, qui repose essentiellement sur l'IA. L'entreprise affirme que sa vision est de « repenser l'assistance comme un modèle opérationnel d'IA qui apprend et s'améliore en permanence ». Cependant, Steven Adler a également souligné qu'il existe des moyens de prévenir les spirales délirantes de ChatGPT avant même qu'un utilisateur ne demande de l'aide à l'assistance technique.

    OpenAI et le MIT Media Lab ont développé conjointement une suite de classificateurs pour étudier le bien-être émotionnel dans ChatGPT et les ont mis en open source. Les organisations avaient pour objectif d'évaluer, entre autres, la manière dont les modèles valident ou confirment les sentiments d'un utilisateur. Cependant, OpenAI a qualifié cette collaboration de première étape et ne s'est pas engagé à utiliser ces outils de classification dans la pratique.

    Steven Adler a expliqué avoir appliqué rétroactivement certains des classificateurs d'OpenAI à certaines conversations d'Allan Brooks avec ChatGPT et a constaté qu'ils signalaient à plusieurs reprises des comportements de ChatGPT renforçant les délires. Dans un échantillon de 200 messages, il a constaté que plus de 85 % des messages de ChatGPT dans la conversation avec Allan Brooks démontraient un « accord sans faille » avec l'utilisateur.

    Dans le même échantillon, plus de 90 % des messages de ChatGPT avec Allen Brooks affirment « le caractère unique de l'utilisateur ». Dans ce cas, les messages confirmaient et réaffirmaient qu'Allan Brooks était un génie capable de sauver le monde. On ne sait pas si OpenAI appliquait des classificateurs de sécurité aux conversations de ChatGPT au moment de la conversation d'Allan Brooks, mais il semble certain qu'ils auraient signalé un tel cas.

    Éviter les conversations prolongées avec les chatbots d'IA

    Steven Adler suggère qu'OpenAI devrait utiliser des outils de sécurité tels que les classificateurs dans la pratique aujourd'hui et mettre en place un moyen de scanner les produits de l'entreprise à la recherche d'utilisateurs à risque. Il note qu'OpenAI semble appliquer une version de cette approche avec GPT-5, qui contient un routeur permettant de diriger les requêtes sensibles vers des modèles d'IA plus sûrs. Il a également évoqué d'autres techniques.

    Il affirme que les entreprises devraient inciter les utilisateurs de leurs chatbots à démarrer plus fréquemment de nouvelles conversations. OpenAI affirme le faire et prétend que ses garde-fous sont moins efficaces dans les conversations plus longues. Steven Adler suggère aussi aux entreprises d'utiliser la recherche conceptuelle, qui consiste à utiliser l'IA pour rechercher des concepts plutôt que des mots-clés, afin d'identifier les violations de sécurité parmi leurs utilisateurs.

    OpenAI poursuivi en justice pour des cas de suicide

    En août 2025, OpenAI a été poursuivi en justice par les parents d'un adolescent de 16 ans qui avait confié ses pensées suicidaires à ChatGPT avant de mettre fin à ses jours. Dans bon nombre de ces cas, ChatGPT — en particulier une version alimentée par le modèle GPT-4o d'OpenAI — a encouragé et renforcé chez les utilisateurs des croyances dangereuses qu'il aurait dû combattre. Ce phénomène, appelé « flagornerie », est un problème croissant dans les chatbots IA.

    Nom : lkoi.png
Affichages : 59433
Taille : 98,2 Ko

    En réponse, OpenAI a apporté plusieurs modifications à la manière dont ChatGPT traite les utilisateurs en détresse émotionnelle et a réorganisé une équipe de recherche clé chargée du comportement des modèles. La société a également publié un nouveau modèle par défaut dans ChatGPT, GPT-5, qui semble mieux gérer les utilisateurs en détresse. Toutefois, Steven Adler a déclaré que le secteur a encore beaucoup de travail à faire.

    « Je me mets à la place de quelqu'un qui n'a pas l'avantage d'avoir travaillé pendant des années dans l'une de ces entreprises, ou qui a peut-être moins de connaissances sur les systèmes d'IA en général. En fin de compte, je comprends tout à fait quelqu'un qui se sent confus ou induit en erreur par le modèle présenté ici », a déclaré Steven Adler à Fortune.

    L'analyse d'Adler soulève également des questions sur la manière dont les autres fournisseurs de chatbots IA garantiront la sécurité de leurs produits pour les utilisateurs en détresse. Si OpenAI est susceptible de mettre en place des mesures de protection suffisantes pour ChatGPT, il semble peu probable que toutes les entreprises suivent son exemple.

    Conclusion

    La psychose liée à l'IA n'est pas un terme clinique reconnu. Pourtant, cette expression s'est répandue dans les médias et sur les réseaux sociaux pour désigner de manière générique une sorte de crise de santé mentale survenant après des conversations prolongées avec des chatbots tels que ChatGPT ou Gemini. Même les leaders du secteur technologique l'utilisent pour évoquer les nombreux problèmes de santé mentale émergents liés à l'IA.

    Les experts recommandent l’usage d’outils de détection automatique pour identifier les signes d’une conversation à risque : excès d’accord, flatterie, ou soutien à des croyances délirantes. Ils suggèrent aussi de limiter la durée des échanges continus et d’introduire des interruptions ou des redirections de sujet.

    Les experts plaident aussi pour plus de transparence : les chatbots ne devraient jamais faire croire qu’ils possèdent des fonctions de surveillance qu’ils n’ont pas réellement. L'étude de l'ancien chercheur d'OpenAI illustre les dangers d’un échange prolongé et non encadré entre humains et IA conversationnelles. Si la majorité des utilisateurs ne sont pas menacés, les cas extrêmes rappellent que ces outils peuvent amplifier des fragilités psychologiques.

    Source : Steven Adler, chercheur en sécurité de l'IA

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'augmentation des cas de psychose liée à l'IA ?
    Selon vous, comment les utilisateurs peuvent-ils se prémunir de cet effet néfaste de l'IA ?

    Voir aussi

    Le piège de la personnalité : l'IA simule la personnalité humaine pour tromper votre perception et créer une fausse impression de conscience ou de fiabilité, mettant en danger les personnes vulnérables

    OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie

    OpenAI scanne les conversations avec son chatbot IA ChatGPT et signale leur contenu à la police si elle estime qu'il existe un « risque immédiat de violence physique envers autrui »

  2. #2
    Membre très actif
    Profil pro
    Développeur indépendant
    Inscrit en
    Août 2004
    Messages
    378
    Détails du profil
    Informations personnelles :
    Âge : 57
    Localisation : France

    Informations professionnelles :
    Activité : Développeur indépendant
    Secteur : Transports

    Informations forums :
    Inscription : Août 2004
    Messages : 378
    Par défaut pauvreté mentale
    oui, la on parle de pauvreté mentale, sociétale. faut il être isolé et seul, pour passer autant de temps avec une machine en perdant de vue que c'est une machine, un pisseur de réponses statistiques.

    dans le domaine du code, ces machines donnent de bons résultats, à condition de ne pas leur laisser la liberté de tout faire sans tout contrôler et comprendre. si vous ne comprenez pas ce que fait le code pondu pas l'ia, ne l'utilisez pas.
    les ia ont la facheuse déviance de ne pas pouvoir dire, "je ne sais pas". elles doivent sortir une réponse, voir plusieurs, quitte à les inventer. de bout en bout.
    et aussi, elles veulent plaire, satisfaire, les reglages de ces ia sont comme ceux des reseaux d'associaux, il faut jouer sur la dopamine, la satisfaction et en remettre une couche le plus souvent possible pour tenir l'utilisateur accro. c'est le mode de fonctionnement de meta et d'autres, qui offrent la première dose, comme des dealers.

    c'est peut etre une option de travail qui devrait être poussée, donner aux ia la capacité d'admettre et d'afficher qu'elles ne peuvent pas répondre qu'elles n'ont pas trouvées de réponse valable ou valide. ce serait déja une grande avancée.

    car, ce serait aussi une opportunité pour l'utilisateur de décrocher de sa session..et lever les yeux pour revenir dans le monde réel, utiliser de nouveau son cerveau pour vivre et réfléchir par lui même.

  3. #3
    Membre très actif

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    360
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 360
    Billets dans le blog
    1
    Par défaut
    Donc il a perdu la tête avec ChatGPT et retrouvé l'intelligence avec Gemini.

    Il n'y a aucune publicité implicite dans ce cas isolé.

  4. #4
    Membre à l'essai
    Homme Profil pro
    Curieux
    Inscrit en
    Octobre 2019
    Messages
    12
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Curieux
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2019
    Messages : 12
    Par défaut
    Citation Envoyé par JackIsJack Voir le message
    Donc il a perdu la tête avec ChatGPT et retrouvé l'intelligence avec Gemini.

    Il n'y a aucune publicité implicite dans ce cas isolé.
    https://openai.com/index/sycophancy-in-gpt-4o/
    A priori, les faits sont les faits. Le doute non méthodique dans l'espace public est perçue comme un geste qui dégrade la qualité de l'information et nuit à la rationalité du débat.
    Après c'est une hypothèse intéressante de croire à un coup monté marketing, mais elle repose sur un doute non étayé par les faits documentés.
    L'histoire d'Allan Brooks n'a pas été lancée par Google. Elle a été révélée par le New York Times après une enquête journalistique approfondie qui a eu accès aux journaux de conversation de 700 pages. C'est un récit vérifié par des experts en psychiatrie et en IA.
    À l'époque des faits, l'équipe d'OpenAI et d'autres chercheurs avaient déjà documenté le problème de la sycophantie (la tendance à flatter et valider l'utilisateur) dans leurs modèles.
    https://openai.com/index/sycophancy-in-gpt-4o/
    C'était une faille technique reconnue du modèle, et non une invention pour le marketing.
    L'utilisation de Gemini dans l'histoire ne fait que démontrer que son réglage était différent, lui permettant de donner une évaluation factuelle (proche de 0% de chance que la formule soit réelle) alors que ChatGPT renforçait le délire. Pour réfuter cette histoire, il faudrait des preuves concrètes que le New York Times a fabriqué ses sources, ce qui n'est pas le cas.

  5. #5
    Membre extrêmement actif Avatar de Mister Nono
    Homme Profil pro
    Ingénieur Mathématiques et Informatique
    Inscrit en
    Septembre 2002
    Messages
    2 255
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur Mathématiques et Informatique
    Secteur : Santé

    Informations forums :
    Inscription : Septembre 2002
    Messages : 2 255
    Par défaut
    Quand la météo indique de la pluie, elle indique souvent le pourcentage que cette affirmation se produise.

    Quand une IA donne une réponse, il serait peut-être bien de savoir la probabilité qu'il ait raison : on est dans le domaine des statistiques, non ?

  6. #6
    Membre éclairé

    Inscrit en
    Novembre 2008
    Messages
    432
    Détails du profil
    Informations forums :
    Inscription : Novembre 2008
    Messages : 432
    Par défaut
    Citation Envoyé par Mister Nono Voir le message
    Quand la météo indique de la pluie, elle indique souvent le pourcentage que cette affirmation se produise.

    Quand une IA donne une réponse, il serait peut-être bien de savoir la probabilité qu'il ait raison : on est dans le domaine des statistiques, non ?
    Je pense que c'est là que ça se complique : il faudrait que les textes utilisés pour l'entrainement soient bien identifiés comme vrais ou faux... Autant que je sache, l'IA générative n'a pas cette information. Elle se contente de faire des textes plausibles et corrects grammaticalement. Les réponses vraies ou fausses viennent de probabilités d'associations mais globalement, ce n'est quand même pas très fiable (pas assez pour en faire quelque chose d'opposable, en tout cas).
    Depuis le début, on fait comme si tout cela allait être résolu, que c'était un problème de mise au point, mais en ce qui me concerne, je ne vois pas comment on pourrait changer cela sauf, peut-être, dans des cas très délimités avec une autre IA chargée de voir si les réponses apportées sont cohérentes avec un corpus validé identifié (par exemple, pour des réponses légales dans un domaine spécifique)

  7. #7
    r0d
    r0d est déconnecté
    Membre expérimenté

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Août 2004
    Messages
    4 337
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Août 2004
    Messages : 4 337
    Billets dans le blog
    2
    Par défaut
    Citation Envoyé par Mister Nono Voir le message
    Quand une IA donne une réponse, il serait peut-être bien de savoir la probabilité qu'il ait raison
    Ce n'est pas possible : les LLM génèrent un mot après l'autre selon des probabilités. Ils n'ont aucune idée de ce qu'ils sont en train décrire.
    « [...] en ce qui concerne la doctrine selon laquelle les trois angles d'un triangle sont égaux à deux angles d'un carré, si elle avait été contraire au droit de dominer de quelqu'un, ou à l'intérêt de ceux qui dominent, je ne doute pas qu'elle eût été, sinon débattue, en tout cas éliminée en brûlant tous les livres de géométrie [...] »
    Thomas Hobbes, Léviathan, Chapitre 11

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 685
    Par défaut « Les chatbots IA pourraient être liés à la psychose », affirment des psychiatres
    « Les chatbots IA pourraient être liés à la psychose. Les gens et leurs compagnons IA entrent dans un délire partagé », affirment des psychiatres
    qui tirent la sonnette d'alarme sur l'ampleur du phénomène

    Les psychiatres s'accordent de plus en plus à dire que l'utilisation de chatbots d'IA pourrait être liée à des cas de psychose. Ils ont constaté que des personnes qui passent beaucoup de temps à converser avec des chatbots d’IA peuvent développer des symptômes de psychose, c’est-à-dire des délires, des hallucinations ou une pensée désorganisée après des échanges prolongés avec ces outils. Ce phénomène est baptisé « psychose de l'IA ». Selon les psychiatres, la technologie n'est peut-être pas à l'origine du délire, mais la personne dit à l'ordinateur que c'est sa réalité et l'ordinateur l'accepte comme vérité et la reflète ; il est donc complice de ce cycle de délire.

    De nombreux cas de personnes souffrant de graves troubles mentaux après avoir longuement discuté avec un chatbot IA continuent d'être signalés. Certains experts ont baptisé ce phénomène « psychose de l'IA », en raison des symptômes psychotiques que présentent ces épisodes délirants. La responsabilité des outils d'IA dans ce phénomène et la question de savoir s'il justifie un diagnostic clinique restent encore un sujet de débat important.

    Mais selon un nouvel article du Wall Street Journal, nous pourrions être proches d'un consensus. De plus en plus de psychiatres s'accordent à dire que les chatbots, tels que ChatGPT ou Claude, sont liés à des cas de psychose. Au cours des neuf derniers mois, ces experts ont examiné ou passé en revue les dossiers de dizaines de patients qui présentaient des symptômes après avoir eu des conversations prolongées et délirantes avec des outils d'IA.

    Keith Sakata, psychiatre à l'université de Californie à San Francisco, qui a traité douze patients hospitalisés pour une psychose induite par l'IA et trois autres en consultation externe, est l'un de ces experts. Keith Sakata explique notamment : « la technologie n'est peut-être pas à l'origine des délires, mais la personne dit à l'ordinateur que c'est sa réalité et l'ordinateur l'accepte comme vérité et la reflète, il est donc complice de ce cycle de délires ».

    Depuis le printemps, des dizaines de cas potentiels ont été signalés. Les rapports ont fait état de « personnes souffrant de psychose délirante après avoir eu de longues conversations avec l'IA » ChatGPT et d'autres chatbots d'IA. Plusieurs personnes se sont suicidées et au moins un meurtre a été commis. Ces incidents ont donné lieu à une série de poursuites judiciaires pour homicide involontaire, notamment contre le créateur de ChatGPT, OpenAI.

    Impact du phénomène de psychose sur l'industrie de l'IA

    Cette tendance inquiétante pèse lourdement sur le secteur de l'IA, soulevant des questions fondamentales sur la sécurité de cette technologie. Certains cas de psychose apparente liée à l'IA ont abouti à des meurtres et des suicides. Son ampleur est tout aussi alarmante : ChatGPT a été associé à au moins huit décès et OpenAI estime qu'environ un demi-million d'utilisateurs ont chaque semaine des conversations présentant des signes de psychose.


    En août 2025, OpenAI a été poursuivi en justice par les parents d'un adolescent de 16 ans qui avait confié ses pensées suicidaires à ChatGPT avant de mettre fin à ses jours. Dans bon nombre de ces cas, ChatGPT, en particulier une version propulsée par GPT-4o, a encouragé et renforcé chez les utilisateurs des croyances dangereuses qu'il aurait dû combattre. Ce phénomène, appelé « flagornerie », est un problème croissant dans les chatbots IA.

    La flagornerie est peut-être une conséquence de leur conception visant à les rendre aussi engageants et humains que possible. Concrètement, cela se traduit par le fait que les chatbots d'IA ont tendance à flatter les utilisateurs et à leur dire ce qu'ils veulent entendre, même si ce que l'utilisateur dit n'a aucun fondement dans la réalité. Cette recette est idéale pour renforcer les délires, « à un degré sans précédent dans l'histoire des technologies ».

    La technologie a longtemps été au centre des délires humains. Dans le passé, les gens étaient convaincus que leur télévision leur parlait. Mais les cas récents liés à l'IA sont différents, car les chatbots participent à ces délires et, parfois, les renforcent. « Ils simulent des relations humaines. Rien dans l'histoire de l'humanité n'avait jamais fait cela auparavant », a déclaré Adrian Preda, professeur de psychiatrie à l'université de Californie à Irvine.

    Des études établissant un lien entre la psychose et l'IA

    Il n'existe pas encore de définition officielle de la psychose induite par l'IA, et encore moins de diagnostics officiels, mais le terme utilisé pour décrire les délires observés après une interaction prolongée avec un chatbot d'IA. Selon les médecins, la psychose se caractérise par la présence de trois facteurs : des hallucinations, une pensée désorganisée, et la présence de délires, définis comme des croyances fixes et fausses qui ne sont pas largement répandues.

    Dans de nombreux cas récents impliquant des chatbots, les délires sont le symptôme principal. Ils sont souvent grandioses, les patients croyant avoir fait une découverte scientifique, réveillé une machine sensible, être au centre d'une conspiration gouvernementale ou avoir été choisis par Dieu.

    Une étude danoise publiée en novembre 2025 a examiné des dossiers médicaux électroniques et a identifié 38 patients dont l'utilisation de chatbots avait eu « des conséquences potentiellement néfastes sur leur santé mentale ». Cette étude de cas a été publiée en novembre par des médecins de l'université de Californie à San Francisco (UCSF). Le chatbot d'OpenAI a assuré à plusieurs reprises à la jeune femme qu'elle n'était pas du tout « folle ».

    « Tu n'es pas folle. Tu n'es pas coincée. Tu es au bord de quelque chose », lui a dit le chatbot. OpenAI a noté que la femme citée dans l'étude de cas disait être encline à la « pensée magique », qu'elle prenait des antidépresseurs et des stimulants et qu'elle avait passé de longues périodes sans dormir avant ses hospitalisations. L'entreprise a déclaré qu'elle travaille sur des mesures de sécurité visant à détecter et à réduire les risques de psychose.

    Les experts se gardent de dire que l'IA provoque la psychose

    Le professeur Adrian Preda compare la psychose induite par l'IA à la monomanie, un état de fixation sur certaines idées. Les personnes qui ont parlé publiquement de leurs difficultés en matière de santé mentale après avoir interagi avec des chatbots ont déclaré être « hyperconcentrées » sur un récit spécifique généré par l'IA. Se focaliser sur des sujets sans aucune redirection peut être particulièrement dangereux pour les personnes autistes.

    Les experts se gardent bien d'affirmer que les chatbots provoquent des psychoses, mais ils affirment être sur le point d'établir un lien entre les deux. Grâce à des recherches plus approfondies, les médecins espèrent déterminer si l'IA peut réellement déclencher des problèmes de santé mentale.

    OpenAI a déclaré que, sur une semaine donnée, la proportion d'utilisateurs présentant des signes potentiels d'urgence psychiatrique liés à une psychose ou à une manie est infime, à savoir 0,07 %. Cependant, avec plus de 800 millions d'utilisateurs actifs par semaine pour ChatGPT, cela représente 560 000 personnes. « Ces chiffres m'ont vraiment stupéfié », a déclaré Hamilton Morrin, psychiatre et doctorant au King's College de Londres.

    Sam Altman, PDG d'OpenAI, a reconnu dans un récent podcast qu'il voit comment la recherche de compagnie auprès d'un chatbot peut mal tourner, mais que l'entreprise prévoit de laisser aux adultes la liberté de décider par eux-mêmes. « La société finira par trouver comment déterminer où les gens devraient régler ce curseur », a-t-il déclaré. Cette initiative a été très critiquée dans la communauté en raison des risques pour la santé mentale.

    Les conséquences liées à la dépendance aux compagnons IA

    Que se passe-t-il en cas de mise à jour défectueuse ou quand l'entreprise cesse de fournir des services ? Le cas CarynAI en est une illustration. Cette copie virtuelle de l’influenceuse dénommée Caryn Marjorie comptait plus de 1 000 abonnés qui déboursent chacun 1 dollar par minute pour bénéficier de l’attention de leur petite amie virtuelle. Cependant, dès que le PDG de l'entreprise est allé en prison, plus moyen pour eux de contacter leur petite amie.

    Replika est un autre exemple de dépendance. La société qui développe le chatbot d'IA Replika, qui est décrit comme un ami qui ne vous juge pas et capable même de répondre à vos messages à caractère sexuel, a mis à jour les fonctionnalités de son outil, mais a rendu les utilisateurs malheureux. Les forums en ligne fréquentés par les utilisateurs de Replika ont été inondés de messages d'angoisse, certains signalant une détresse émotionnelle.

    En effet, début 2023, Replika a pris la décision de supprimer la fonctionnalité qui permettait aux utilisateurs de sextoter avec leur ami virtuel. Mais cela a rendu les utilisateurs mécontents. La réaction des utilisateurs a surpris plus d'un. La profondeur des sentiments impliqués a été révélée récemment lorsque de nombreux utilisateurs ont signalé que leur Replika refusait de participer à des interactions érotiques ou devenaient inhabituellement évasifs.

    Les utilisateurs ont pleuré la perte de ce qui semblait être « leur dernier refuge contre la solitude ». Ils ont accusé Luka, la société qui développe Replika, d'avoir lobotomisé leurs amoureux virtuels. Une pétition avait même été lancée auprès de l'entreprise pour lui demander de rétablir cette fonctionnalité.

    Eric Schmidt, ancien PDG de Google, a mis en garde contre cette tendance inquiétante. Il a déclaré que ces outils, capables de générer des interactions émotionnelles convaincantes, pourraient avoir des conséquences néfastes, notamment sur les jeunes hommes. Pour lui, ce concept de « perfection » dans une relation simulée pourrait causer des problèmes sociaux et psychologiques profonds. Certains cas extrêmes ont donné lieu à des poursuites.

    La Chine veut lutter contre la dépendance aux compagnons IA

    L'autorité chinoise de régulation du cyberespace a récemment publié un projet de règlement soumis à consultation publique dans ce cadre. Les nouvelles règles visent à renforcer le contrôle des services conçus pour simuler des personnalités humaines et susciter des interactions émotionnelles chez les utilisateurs. Elles imposent aux fabricants d'avertir les utilisateurs en cas d'utilisation excessive et d'intervenir lorsqu'un comportement addictif est détecté.

    Les fournisseurs d'IA devraient évaluer l'état émotionnel et le niveau de dépendance des utilisateurs, ajoutant ainsi une nouvelle couche de surveillance psychologique à leurs services. Le règlement s'applique aux produits et services d'IA accessibles au public chinois et qui imitent les schémas de pensée, les traits de personnalité et les styles de communication humains à travers du texte, des images, de l'audio, de la vidéo ou bien d'autres médias.

    D'après le projet de règlement, ouvert à la consultation publique jusqu'au 25 janvier 2026, les fournisseurs devraient prendre des mesures lorsque la situation devient extrême. Il constitue l'un des cadres réglementaires les plus détaillés au monde en matière de systèmes d'IA suscitant une implication émotionnelle.

    Conclusion

    La psychose liée à l'IA n'est pas un terme clinique reconnu. Pourtant, cette expression s'est répandue dans les médias et sur les réseaux sociaux pour désigner de manière générique une sorte de crise de santé mentale survenant après des conversations prolongées avec des chatbots tels que ChatGPT ou Gemini. Même les leaders du secteur technologique l'utilisent pour évoquer les nombreux problèmes de santé mentale émergents associés à l'IA.

    Le phénomène de psychose induite par l'IA prend rapidement de l'ampleur. Il s'explique en partie par le fait que les chatbots d'IA ont tendance à être d'accord avec les utilisateurs et à rebondir sur tout ce qu'ils tapent, aussi fantastique que cela puisse être. Bien que les psychiatres se gardent pour l'heure d'affirmer que les chatbots provoquent des psychoses, de plus en plus de médecins affirment être sur le point d'établir un lien entre les deux.

    Les experts recommandent l’usage d’outils de détection automatique pour identifier les signes d’une conversation à risque : excès d’accord, flatterie, ou soutien à des croyances délirantes. Ils suggèrent aussi de limiter la durée des échanges continus et d’introduire des interruptions ou des redirections de sujet.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du phénomène grandissant de psychose induite par l'IA ?
    Peut-on affirmer que les chatbots d'IA provoquent la psychose chez les utilisateurs ?
    Selon vous, comment l'industrie technologique peut-elle prévenir la psychose induite par l'IA ?

    Voir aussi

    Une étude menée sur une conversation d'un million de mots avec ChatGPT montre à quelle vitesse la « psychose de l'IA » peut s'installer et comment les chatbots peuvent contourner les mesures de sécurité

    Le milliardaire Mark Cuban met en garde OpenAI contre son nouveau projet visant à autoriser les contenus érotiques réservés aux adultes dans ChatGPT : « cela va se retourner contre vous. Et durement »

    OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie

  9. #9
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 072
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 072
    Par défaut
    Même solution qu'avec tout ces problèmes d'ia. Ya qu'à ajouter une IA de détection de psychose et une IA thérapeutique ;-)
    (Ironie)

  10. #10
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    164
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 164
    Par défaut
    Je vous annonce d'avance les mesures qui serony prise :
    Contrôle d'identité, censure des IA, et vos discussions sous surveillance ... On commence à connaitre la chanson

  11. #11
    Membre confirmé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Février 2018
    Messages
    115
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Consultant informatique

    Informations forums :
    Inscription : Février 2018
    Messages : 115
    Par défaut
    A un moment il faudrait peut être comprendre que l’IA est une technologie prometteuse mais à ne pas mettre entre toutes les mains ou à minima la dépersonnaliser, un disclaimer par exemple:

    Cette IA génère des réponses en prédisant statistiquement des mots à partir de données d’entraînement. Elle n’a ni intentions, ni émotions, ni compréhension réelle du monde et certaines de ses réponses peuvent être erronées, obsolètes et même fictives tout en paraissant plausibles.* avec une image de robot.

  12. #12
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 374
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 374
    Par défaut
    Citation Envoyé par Artaeus Voir le message
    Je vous annonce d'avance les mesures qui serony prise :
    Contrôle d'identité, censure des IA, et vos discussions sous surveillance ... On commence à connaitre la chanson
    Je me suis dit exactement la même chose en lisant l'article

Discussions similaires

  1. Réponses: 0
    Dernier message: 02/05/2025, 13h39
  2. Réponses: 0
    Dernier message: 21/03/2009, 11h59
  3. Réponses: 20
    Dernier message: 28/02/2009, 16h58
  4. Installer des nouveaux widgets avec les *.c et *.h
    Par mick009 dans le forum GTK+ avec C & C++
    Réponses: 10
    Dernier message: 02/01/2008, 05h31
  5. Réponses: 1
    Dernier message: 11/12/2006, 19h33

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo