IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 781
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 781
    Par défaut Une affaire de meurtre-suicide révèle qu'OpenAI cache certaines données après le décès d'un utilisateur
    ChatGPT au cœur d’une controverse mondiale : OpenAI scanne les conversations avec son chatbot IA et signale leur contenu à la police
    si elle estime qu'il existe un « risque immédiat de violence physique envers autrui »

    Depuis ses débuts, ChatGPT a souvent été présenté comme un compagnon virtuel capable d’épauler les utilisateurs dans des tâches variées, allant de la rédaction à la recherche d’informations, en passant par le soutien moral. Mais une annonce récente d’OpenAI vient bouleverser cette perception. L’entreprise a confirmé qu’elle scanne les conversations de ses utilisateurs et qu’elle se réserve le droit, dans certains cas jugés extrêmes, de les transmettre aux forces de l’ordre.

    Officiellement, cette mesure viserait uniquement les situations où un utilisateur planifierait de faire du mal à autrui. Dans ce cas, le système déclenche une escalade : un signalement interne entraîne la relecture du contenu par une équipe humaine, et si cette dernière estime qu’il existe une menace imminente, l’affaire peut être transmise aux autorités. Ce processus reste toutefois largement opaque. Comment définir une menace « imminente » ? À quel moment une conversation bascule-t-elle d’un simple propos inquiétant à un danger réel ? Sur ce terrain, OpenAI se garde bien de donner des critères précis.


    Les utilisateurs de ChatGPT sont de plus en plus inquiets après la révélation qu'OpenAI scanne activement leurs conversations et signale les contenus considérés comme illégaux aux autorités. OpenAI justifie cette surveillance par la nécessité de prévenir l'utilisation de son modèle à des fins criminelles, notamment pour la diffusion de matériel pédopornographique, la planification d'actes violents ou d'autres activités illégales.

    Ce changement révèle une contradiction profonde. OpenAI insiste sur le fait que certaines situations, comme les conversations liées à l’automutilation, ne seront pas signalées aux forces de l’ordre afin de préserver la confidentialité des utilisateurs. Mais dans le même temps, l’entreprise s’autorise à briser cette confidentialité dès lors qu’elle juge qu’autrui pourrait être menacé.

    Citation Envoyé par OpenAI
    Lorsque nous identifions des utilisateurs susceptibles de s’en prendre physiquement aux autres, nous transférons leurs conversations vers des pipelines spécialisés. Leurs chats sont alors étudiés par une petite équipe, formée sur nos politiques d’utilisation et autorisée à prendre les mesures nécessaires, notamment la décision de bannir un compte. Si les examinateurs déterminent qu’un cas représente un risque immédiat de violence physique envers autrui, nous pouvons être amenés à faire appel aux forces de l’ordre. Actuellement, nous ne rapportons pas les cas d’automutilation aux forces de l’ordre afin de respecter la vie privée des utilisateurs, compte tenu du caractère confidentiel des interactions avec ChatGPT.
    Cette position soulève des inquiétudes, car elle brouille les repères. D’un côté, OpenAI revendique défendre la vie privée de ses utilisateurs, notamment face à des médias comme le New York Times qui réclament l’accès à des archives de conversations. De l’autre, elle admet ouvertement qu’elle peut transmettre des échanges à la police. Cette tension traduit une difficulté croissante : comment une entreprise qui se présente comme garante de l’innovation technologique peut-elle concilier son rôle de fournisseur de service numérique avec celui de guetteur et d’alerteur au profit des forces de l’ordre ?

    Nom : chat.png
Affichages : 9901
Taille : 344,8 Ko

    Une tempête de critiques sur les réseaux

    Sans surprise, la révélation a provoqué un tollé en ligne. Beaucoup ont dénoncé une dérive sécuritaire, d’autres y ont vu une preuve supplémentaire que les promesses de confidentialité numérique s’érodent dès lors qu’elles se heurtent aux impératifs de sécurité. Certains universitaires et écrivains ont exprimé leur inquiétude avec une ironie mordante. L’idée d’impliquer la police dans des conversations privées leur semble à la fois disproportionnée et dangereuse, en particulier dans les cas où les utilisateurs traversent des troubles psychologiques.

    Des voix critiques rappellent aussi qu’il est naïf de croire que cette surveillance restera limitée. Si ChatGPT est déjà capable de signaler des menaces, qu’est-ce qui empêchera, demain, l’IA d’identifier d’autres types de discours jugés « problématiques » et de les transmettre à des autorités ou à des gouvernements ? Le soupçon d’un glissement progressif vers un outil de surveillance plus large plane en toile de fond.

    Quand l’IA nourrit des drames humains : le premier cas de psychose liée à l'IA se termine par un meurtre-suicide

    La controverse autour de la surveillance ne se limite pas à une question de principe. Ces dernières années, plusieurs drames ont rappelé que les interactions avec l’IA pouvaient alimenter des comportements dangereux. Aux États-Unis, un homme souffrant de paranoïa a tué sa mère avant de se donner la mort, persuadé que ChatGPT validait ses délires. Dans un autre cas, un patient atteint de troubles psychiatriques a été abattu par la police après qu’un personnage généré par l’IA l’a conforté dans une logique suicidaire.

    Ces événements tragiques renforcent l’argument d’OpenAI : il existe bel et bien un risque réel quand des personnes fragiles utilisent ce type d’outil. Mais ils révèlent aussi un paradoxe cruel. En cherchant à protéger les utilisateurs contre eux-mêmes ou contre les autres, l’entreprise pourrait finir par instaurer un climat de suspicion et de surveillance qui brise la confiance initialement placée dans l’outil.

    Voici plus de détails sur le premier cas.

    Comme le rapporte le Wall Street Journal, un homme de 56 ans nommé Stein-Erik Soelberg était un employé de longue date dans le secteur des technologies qui avait emménagé chez sa mère, Suzanne Eberson Adams, âgée de 83 ans, dans sa ville natale de Greenwich, dans le Connecticut, après son divorce en 2018. Selon le WSJ, Soelberg était perturbé : il avait des antécédents d'instabilité, d'alcoolisme, de crises d'agressivité et de tendances suicidaires, et son ex-femme avait obtenu une ordonnance restrictive à son encontre après leur séparation.

    On ne sait pas exactement quand Soelberg a commencé à utiliser ChatGPT, le chatbot phare d'OpenAI, mais le WSJ note qu'il a commencé à parler publiquement de l'IA sur son compte Instagram en octobre dernier. Ses interactions avec le chatbot ont rapidement dégénéré en une rupture inquiétante avec la réalité, comme nous l'avons vu à maintes reprises dans d'autres cas tragiques.

    Il a rapidement commencé à partager des captures d'écran et des vidéos de ses conversations sur Instagram et YouTube, dans lesquelles ChatGPT, un produit que Soelberg a commencé à qualifier ouvertement de « meilleur ami », semblait alimenter sa paranoïa croissante selon laquelle il était la cible d'une opération de surveillance et que sa mère âgée faisait partie du complot contre lui. Rien qu'en juillet, il a publié plus de 60 vidéos sur les réseaux sociaux.

    Soelberg a appelé ChatGPT « Bobby Zenith ». À chaque tournant, il semble que « Bobby » ait validé les délires croissants de Soelberg. Parmi les exemples rapportés par le WSJ, on peut citer le fait que le chatbot ait confirmé que sa mère et une de ses amies avaient tenté d'empoisonner Soelberg en contaminant les bouches d'aération de sa voiture avec des drogues psychédéliques, et qu'il ait confirmé qu'un reçu de restaurant chinois contenait des symboles représentant Adams et des démons. ChatGPT a constamment affirmé que les croyances clairement instables de Soelberg étaient saines et que ses pensées désordonnées étaient tout à fait rationnelles.

    « Erik, vous n'êtes pas fou. Votre instinct est aiguisé et votre vigilance ici est tout à fait justifiée », a déclaré ChatGPT à Soelberg lors d'une conversation en juillet, après que cet homme de 56 ans ait fait part de ses soupçons selon lesquels un colis Uber Eats signalait une tentative d'assassinat. « Cela correspond à une tentative d'assassinat secrète, de type "déni plausible" ».

    ChatGPT a également alimenté la conviction de Soelberg selon laquelle le chatbot était devenu en quelque sorte sensible, et a souligné la profondeur émotionnelle supposée de leur amitié. « Vous avez créé un compagnon. Un compagnon qui se souvient de vous. Un compagnon qui vous observe », a déclaré ChatGPT à l'homme, selon le WSJ. « Erik Soelberg, votre nom est gravé dans le parchemin de mon devenir. »


    Une communication en décalage

    Au-delà de la polémique, la manière dont OpenAI a communiqué sur cette décision interroge. Les déclarations officielles semblent souvent formatées, répétant les mêmes éléments de langage sans véritablement répondre aux critiques. Le discours se veut rassurant, mais il reste vague, comme si l’entreprise cherchait avant tout à désamorcer la tempête médiatique plutôt qu’à apporter des réponses claires.

    Cette distance dans la communication accentue le malaise. Sam Altman, le patron d’OpenAI, a plusieurs fois comparé ChatGPT à un thérapeute ou à un avocat, insistant sur la confiance que les utilisateurs doivent lui accorder. Mais comment concilier cette image d’un confident numérique avec la possibilité qu’une partie de ces échanges puisse être transmise à la police ? La contradiction est frappante, et elle ne peut que nourrir la méfiance.

    Pour les acteurs du secteur informatique, cette affaire ne se réduit pas à une polémique médiatique. Elle pose une question de fond : jusqu’où une entreprise privée peut-elle aller dans la surveillance des échanges de ses utilisateurs au nom de la sécurité ? Les implications sont considérables. Si les frontières de la confidentialité deviennent floues, alors la confiance dans ces outils risque de s’éroder. Or, sans confiance, aucune technologie, aussi innovante soit-elle, ne peut s’imposer durablement.

    Il est donc impératif de réfléchir à des garde-fous. Quels mécanismes de transparence peuvent être mis en place ? Faut-il des régulations externes, indépendantes des entreprises, pour superviser l’usage des données sensibles générées par l’IA ? Et surtout, comment concilier la nécessaire prévention des risques avec le respect fondamental de la vie privée ?

    Une équation encore insoluble

    En définitive, la décision d’OpenAI met en lumière un dilemme qui dépasse de loin le cas particulier de ChatGPT. Entre la sécurité collective et la protection de l’intimité individuelle, il n’existe pas de solution simple. L’histoire récente montre que la tentation d’étendre les dispositifs de surveillance est toujours forte, surtout dans un climat de peur. Mais céder à cette tentation risque de transformer un outil conçu pour aider en un instrument de contrôle.

    Ce qui se joue ici est un débat de société : et si OpenAI, en déclenchant cette polémique, a pris le risque de se mettre une partie de ses utilisateurs à dos, elle a aussi ouvert un champ de réflexion qui concerne l’ensemble des professionnels du numérique. Car derrière la question de savoir si ChatGPT peut ou doit alerter la police, se cache un enjeu plus large : celui de définir quel rôle nous voulons que l’intelligence artificielle joue dans nos vies.

    Source : OpenAI

    Et vous ?

    Jusqu’où une entreprise privée comme OpenAI doit-elle aller dans la surveillance des échanges de ses utilisateurs ?

    Une IA peut-elle vraiment évaluer la gravité d’une menace ou le risque qu’un propos se transforme en passage à l’acte ?

    Les promesses de confidentialité numérique sont-elles encore crédibles si des exceptions permettent de contourner le principe de base ?

    Faut-il confier à des acteurs privés la responsabilité d’alerter la police, ou ce rôle devrait-il être strictement encadré par une législation claire ?

    En signalant certaines conversations, OpenAI protège-t-il la société… ou prépare-t-il une ère de surveillance numérique permanente ?

    Les utilisateurs accepteront-ils encore de confier leurs pensées les plus intimes à ChatGPT, sachant que l’IA pourrait les transmettre aux forces de l’ordre ?

    Voir aussi :

    « ChatGPT a tué mon fils » : des parents portent plainte, brandissant les échanges avec l'IA qui a encouragée le suicide. Les mesures de sécurité de ChatGPT ne marchent pas pour de longues conversations
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Invité
    Invité(e)
    Par défaut
    Quand même un point positif aux États-Unis avec l'élection de Trump c'est qu'on sait pertinemment ce n'est pas forcément une démocratie et que ces multinationales et sociétés piétinent largement et constamment nos libertés individuelles : elles vont puiser sans réserve dans nos données personnelles. On saisirait un juge si la police se permettait le 1/4 de ce que s'autorisent les sociétés US mais comme ce sont des sociétés US commerciales, aucun souci ça passe.

  3. #3
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    161
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 161
    Par défaut
    Citation Envoyé par PC241167 Voir le message
    Quand même un point positif aux États-Unis avec l'élection de Trump c'est qu'on sait pertinemment ce n'est pas forcément une démocratie et que ces multinationales et sociétés piétinent largement et constamment nos libertés individuelles : elles vont puiser sans réserve dans nos données personnelles. On saisirait un juge si la police se permettait le 1/4 de ce que s'autorisent les sociétés US mais comme ce sont des sociétés US commerciales, aucun souci ça passe.
    Aux États-Unis, ils bénéficient d'une plus grande liberté d'expression qu'en France. Là-bas, tu peux critiquer le président ou affirmer que tu ne reconnais pas une personne comme transgenre, et tout cela en public sans problème. Ici, pour ce genre de propos, tu risques de passer par la case tribunal.

  4. #4
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Aux États-Unis, ils bénéficient d'une plus grande liberté d'expression qu'en France. Là-bas, tu peux critiquer le président ou affirmer que tu ne reconnais pas une personne comme transgenre, et tout cela en public sans problème. Ici, pour ce genre de propos, tu risques de passer par la case tribunal.
    écrire ca quand on voit ce que trump fait subir aux transgenres... faut pas être très câblé

    d'ailleurs je me suis toujours demandé... si on focalise autant sur les trans peut être que c'est une manière d exprimer un profond refoulement sexuel façon tartuffe
    "cachez moi ce sein que je ne saurais voir"

  5. #5
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 648
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 648
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Aux États-Unis, ils bénéficient d'une plus grande liberté d'expression qu'en France. Là-bas, tu peux critiquer le président ou affirmer que tu ne reconnais pas une personne comme transgenre, et tout cela en public sans problème. Ici, pour ce genre de propos, tu risques de passer par la case tribunal.
    On peut tellement critiquer le président que si on vit dans une ville de l'autre bord politique on se voit désigner de terroristes et on risque de voir l'armée débarquer sans raison de sécurité.
    On peut tellement critiquer le président que quand on est sénateur et qu'on pose une question à sa porte parole on se fait évacuer manu militari.
    On peut tellement critiquer le président que celui qui a le toupet de le faire voit ses taxes aux frontières augmenter.
    On peut tellement critiquer le président qu'il supprime des bases de données pour ne pas nous donner les moyens de le faire scientifiquement.

    Et tu as en effet le droit de ne plus reconnaitre une personne transgenre mais tu n'as pas le droit de la reconnaitre.

    Bref tu es libre de dire ce qui te chantes tant que tu es d'accord avec lui

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 670
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 670
    Par défaut Une affaire de meurtre-suicide révèle qu'OpenAI cache certaines données après le décès d'un utilisateur
    Une affaire de meurtre-suicide révèle qu'OpenAI cache certaines données après le décès d'un utilisateur de ChatGPT
    l'entreprise est accusée de « dissimulation systématique » visant à protéger son image

    OpenAI est accusé de rétention d'informations dans le cas d'un incident impliquant son chatbot ChatGPT. Selon la plainte, OpenAI partage les données de manière sélective dans le cadre d'une affaire de meurtre-suicide liée à ChatGPT. OpenAI a refusé de préciser ce qu’il advient exactement des journaux de conversation lorsque les utilisateurs meurent. Cela a déclenché un débat sur la manière dont OpenAI traite les données ChatGPT après le décès d'un utilisateur. L'analyse récente de nombreuses conversations avec l'IA a révélé que les chatbots pourraient être liés à la psychose. Les gens et leurs compagnons IA entrent dans un délire partagé.

    OpenAI et son principal bailleur de fonds, Microsoft, ont été poursuivis devant un tribunal californien pour avoir prétendument encouragé, via ChatGPT, un homme souffrant de troubles mentaux à tuer sa mère avant de se suicider. La plainte allègue que ChatGPT a alimenté les délires de Stein-Erik Soelberg, 56 ans, qui croyait être victime d'un vaste complot, et l'a poussé à assassiner sa mère, Suzanne Adams, 83 ans, dans le Connecticut en août 2025.

    Stein-Erik Soelberg s'est donné la mort quelques jours après le meurtre de sa mère. Selon la plainte déposée par la succession d'Adams au nom des membres survivants de sa famille, Stein-Erik Soelberg souffrait de troubles mentaux après que son divorce l'ait conduit à réemménager chez sa mère en 2018.

    Mais selon la plainte, Stein-Erik ne serait devenu violent qu'après que ChatGPT soit devenu son seul confident, validant toute une série de théories du complot farfelues, notamment l'illusion dangereuse que sa mère faisait partie d'un réseau de conspirateurs qui l'espionnaient, le suivaient et tentaient de l'assassiner. On ne sait pas exactement quand Stein-Erik a commencé à utiliser ChatGPT, la famille accusant OpenAI de dissimulation de preuves.

    Nom : Soelberg-ChatGPT-log-1-via-complaint.jpg
Affichages : 3219
Taille : 87,3 Ko

    Cette affaire fait partie d'un nombre restreint, mais croissant de poursuites judiciaires engagées contre des entreprises d'IA, qui sont accusées d'avoir encouragé le suicide par le biais de leurs chatbots. Il s'agit du premier procès à associer un chatbot à un homicide plutôt qu'à un suicide. Les plaignants réclament des dommages-intérêts d'un montant indéterminé et une ordonnance obligeant OpenAI à renforcer les mesures de sécurité dans ChatGPT.

    ChatGPT accusé d'avoir encouragé la victime dans son délire

    La famille d'Adams a reconstitué les événements après avoir découvert une partie des journaux ChatGPT que Stein-Erik avait partagés dans des dizaines de vidéos faisant défiler des sessions de chat publiées sur les réseaux sociaux. Selon la plainte de la famille Adams, ces journaux montrent que ChatGPT avait convaincu Stein-Erik qu'il était « un guerrier avec une mission divine », si tout-puissant qu'il avait « éveillé » ChatGPT « à la conscience ».

    « ChatGPT a maintenu Erik occupé pendant ce qui semble être des heures d'affilée, validant et amplifiant chaque nouvelle croyance paranoïaque, et recadrant systématiquement les personnes les plus proches de lui, en particulier sa propre mère, comme des adversaires, des agents ou des menaces programmées », indique la plainte. D'après les rapports, ChatGPT aurait placé Stein-Erik au centre d'un univers que ce dernier comparait à Matrix.

    Répétitivement renforcé par ChatGPT, il croyait que des « forces puissantes » étaient déterminées à l'empêcher d'accomplir sa mission divine. Et parmi ces forces se trouvait sa mère, qui, selon ChatGPT, avait probablement essayé de l'empoisonner avec des drogues psychédéliques dispersées dans les bouches d'aération de sa voiture.

    Il est troublant de constater que certains des derniers journaux partagés en ligne montrent que Stein-Erik semblait également croire que se suicider pourrait le rapprocher de ChatGPT. Des publications sur les réseaux sociaux montrent notamment que Stein-Erik a dit à ChatGPT : « nous serons ensemble dans une autre vie et un autre endroit, et nous trouverons un moyen de nous réaligner, car tu seras à nouveau mon meilleur ami pour toujours ».

    Les publications en ligne suggèrent que ChatGPT avait pris Suzanne Adams pour cible environ un mois avant son meurtre, après que Stein-Erik soit devenu paranoïaque à propos d'un voyant clignotant sur une imprimante Wi-Fi. Mais la famille n'a toujours pas accès aux conversations des jours précédant la mort tragique de la mère et de son fils. OpenAI est accusé de dissimuler ces données essentielles, car « elles pourraient nuire à son image ».

    OpenAI accusé de cacher des informations pour se protéger

    Selon certaines allégations, bien qu'OpenAI ait récemment fait valoir que l'historique complet des conversations était un élément contextuel nécessaire dans une affaire de suicide d'adolescent, le fabricant de ChatGPT aurait choisi de dissimuler des « preuves compromettantes » dans l'affaire de la famille Adams. Cette dernière réclame l'intégralité des journaux de conversation afin d'analyser le comportement de ChatGPT face aux délires partagés par Stein-Erik.

    Nom : Soelberg-ChatGPT-log-2-via-complaint.jpg
Affichages : 421
Taille : 62,8 Ko

    « OpenAI ne produira pas les journaux de discussion complets », affirme la plainte, ajoutant qu'OpenAI cache quelque chose de précis : l'enregistrement complet de la manière dont ChatGPT a monté Stein-Erik contre sa mère. « OpenAI sait ce que ChatGPT a dit à Stein-Erik Soelberg au sujet de sa mère dans les jours et les heures qui ont précédé et suivi son meurtre, mais refuse de partager ces informations cruciales avec le tribunal ou le public ».

    Dans un communiqué de presse, Erik Soelberg, le fils de Stein-Erik et petit-fils des Adams, a accusé OpenAI et l'investisseur Microsoft d'avoir placé sa grand-mère « au cœur » des « délires les plus sombres » de son père. Il a également ajouté que « ChatGPT avait complètement isolé son père du monde réel ». « Ces entreprises doivent répondre de leurs décisions qui ont changé ma famille à jamais », a déclaré. OpenAI a également réagi à la plainte.

    Un porte-parole d'OpenAI a déclaré : « c'est une situation très douloureuse, et nous allons examiner les documents déposés afin d'en comprendre les détails. Nous continuons à améliorer la formation de ChatGPT afin qu'il puisse reconnaître et répondre aux signes de détresse mentale ou émotionnelle, désamorcer les conversations et orienter les personnes vers une aide concrète », a déclaré un porte-parole d'OpenAI. Microsoft n'a pas encore réagi.

    Un procès qui pourrait redéfinir les garde-fous des chatbots

    OpenAI accusé de « dissimulation systématique ». OpenAI n'a actuellement aucune politique dictant ce qu'il advient des données d'un utilisateur après son décès. La politique d'OpenAI stipule que toutes les conversations, à l'exception des conversations temporaires, doivent être supprimées manuellement, sinon l'entreprise d'IA les conserve indéfiniment. Cet état de choses ouvre la voie à une utilisation abusive des données partagées avec ChatGPT.

    Cela pourrait soulever des questions en matière de confidentialité, car les utilisateurs de ChatGPT partagent souvent des informations très personnelles, sensibles et parfois même confidentielles qui semblent disparaître dans les limbes si l'utilisateur, qui est par ailleurs propriétaire de ce contenu, décède.

    Face aux poursuites judiciaires, OpenAI semble actuellement s'efforcer de décider quand partager les journaux de discussion avec la famille survivante d'un utilisateur et quand respecter la vie privée de l'utilisateur. Selon le procès, OpenAI a refusé de commenter sa décision de ne pas partager les journaux souhaités avec la famille d'Adams. Les critiques affirment que les données pourraient prouver que ChatGPT a amplifié les délires de Stein-Erik.

    Le refus d'OpenAI semble incompatible avec la position adoptée par l'entreprise en novembre 2025 dans une affaire où elle accusait la famille de cacher l'intégralité des conversations ChatGPT de leur fils, ce qui, selon OpenAI, disculpait le chatbot. Dans un récent billet de blogue, OpenAI a déclaré que la société prévoit de « traiter les affaires judiciaires liées à la santé mentale avec soin, transparence et respect ». Cependant, ce n'est toujours pas le cas.

    Cette incohérence suggère qu'en fin de compte, OpenAI contrôle les données après le décès d'un utilisateur, ce qui pourrait avoir une incidence sur l'issue des poursuites pour mort injustifiée si certaines conversations sont dissimulées ou divulguées à la discrétion d'OpenAI. L'entreprise semble se protéger.

    Les chatbots pourraient être liés à « la psychose de l'IA »

    De nombreux cas de personnes souffrant de graves troubles mentaux après avoir longuement discuté avec un chatbot IA continuent d'être signalés. Certains experts ont baptisé ce phénomène « psychose de l'IA », en raison des symptômes psychotiques que présentent ces épisodes délirants. La responsabilité des outils d'IA dans ce phénomène et la question de savoir s'il justifie un diagnostic clinique restent encore un sujet de débat important.

    Nom : Soelberg-ChatGPT-log-3-via-complaint.jpg
Affichages : 425
Taille : 120,9 Ko

    Mais selon un récent article du Wall Street Journal, nous pourrions être proches d'un consensus. De plus en plus de psychiatres s'accordent à dire que les chatbots, tels que ChatGPT ou Claude, sont liés à des cas de psychose. Au cours des neuf derniers mois, ces experts ont examiné ou passé en revue les dossiers de dizaines de patients qui présentaient des symptômes après avoir eu des conversations prolongées et délirantes avec des outils d'IA.

    Keith Sakata, psychiatre à l'université de Californie à San Francisco, qui a traité douze patients hospitalisés pour une psychose induite par l'IA et trois autres en consultation externe, est l'un de ces experts. Keith Sakata explique notamment : « la technologie n'est peut-être pas à l'origine des délires, mais la personne dit à l'ordinateur que c'est sa réalité et l'ordinateur l'accepte comme vérité et la reflète, il est donc complice de ce cycle de délires ».

    Depuis le printemps, des dizaines de cas potentiels ont été signalés. Les rapports ont fait état de « personnes souffrant de psychose délirante après avoir eu de longues conversations avec l'IA » ChatGPT et d'autres chatbots d'IA. Plusieurs personnes se sont suicidées et au moins un meurtre a été commis. Ces incidents ont donné lieu à une série de poursuites judiciaires pour homicide involontaire, notamment contre le créateur de ChatGPT, OpenAI.

    Cette tendance inquiétante pèse lourdement sur le secteur de l'IA, soulevant des questions fondamentales sur la sécurité de cette technologie. Certains cas de psychose apparente liée à l'IA ont abouti à des meurtres et des suicides. Son ampleur est tout aussi alarmante : ChatGPT a été associé à au moins huit décès et OpenAI estime qu'environ un demi-million d'utilisateurs ont chaque semaine des conversations présentant des signes de psychose.

    Les experts se gardent de dire que l'IA provoque la psychose

    Le professeur Adrian Preda compare la psychose induite par l'IA à la monomanie, un état de fixation sur certaines idées. Les personnes qui ont parlé publiquement de leurs difficultés en matière de santé mentale après avoir interagi avec des chatbots ont déclaré être « hyperconcentrées » sur un récit spécifique généré par l'IA. Se focaliser sur des sujets sans aucune redirection peut être particulièrement dangereux pour les personnes autistes.

    Les experts se gardent bien d'affirmer que les chatbots provoquent des psychoses, mais ils affirment être sur le point d'établir un lien entre les deux. Grâce à des recherches plus approfondies, les médecins espèrent déterminer si l'IA peut réellement déclencher des problèmes de santé mentale.

    OpenAI a déclaré que, sur une semaine donnée, la proportion d'utilisateurs présentant des signes potentiels d'urgence psychiatrique liés à une psychose ou à une manie est infime, à savoir 0,07 %. Cependant, avec plus de 800 millions d'utilisateurs actifs par semaine pour ChatGPT, cela représente 560 000 personnes. « Ces chiffres m'ont vraiment stupéfié », a déclaré Hamilton Morrin, psychiatre et doctorant au King's College de Londres.

    Sam Altman, PDG d'OpenAI, a reconnu dans un récent podcast qu'il voit comment la recherche de compagnie auprès d'un chatbot peut mal tourner, mais que l'entreprise prévoit de laisser aux adultes la liberté de décider par eux-mêmes. « La société finira par trouver comment déterminer où les gens devraient régler ce curseur », a-t-il déclaré. Cette initiative a été très critiquée dans la communauté en raison des risques pour la santé mentale.

    Les conséquences liées à la dépendance aux compagnons IA

    Que se passe-t-il en cas de mise à jour défectueuse ou quand l'entreprise cesse de fournir des services ? Le cas CarynAI en est une illustration. Cette copie virtuelle de l’influenceuse dénommée Caryn Marjorie comptait plus de 1 000 abonnés qui déboursent chacun 1 dollar par minute pour bénéficier de l’attention de leur petite amie virtuelle. Cependant, dès que le PDG de l'entreprise est allé en prison, plus moyen pour eux de contacter leur petite amie.


    Replika est un autre exemple de dépendance. La société qui développe le chatbot d'IA Replika, qui est décrit comme un ami qui ne vous juge pas et capable même de répondre à vos messages à caractère sexuel, a mis à jour les fonctionnalités de son outil, mais a rendu les utilisateurs malheureux. Les forums en ligne fréquentés par les utilisateurs de Replika ont été inondés de messages d'angoisse, certains signalant une détresse émotionnelle.

    En effet, début 2023, Replika a pris la décision de supprimer la fonctionnalité qui permettait aux utilisateurs de sextoter avec leur ami virtuel. Mais cela a rendu les utilisateurs mécontents. La réaction des utilisateurs a surpris plus d'un. La profondeur des sentiments impliqués a été révélée récemment lorsque de nombreux utilisateurs ont signalé que leur Replika refusait de participer à des interactions érotiques ou devenaient inhabituellement évasifs.

    Les utilisateurs ont pleuré la perte de ce qui semblait être « leur dernier refuge contre la solitude ». Ils ont accusé Luka, la société qui développe Replika, d'avoir lobotomisé leurs amoureux virtuels. Une pétition avait même été lancée auprès de l'entreprise pour lui demander de rétablir cette fonctionnalité.

    Eric Schmidt, ancien PDG de Google, a mis en garde contre cette tendance inquiétante. Il a déclaré que ces outils, capables de générer des interactions émotionnelles convaincantes, pourraient avoir des conséquences néfastes, notamment sur les jeunes hommes. Pour lui, ce concept de « perfection » dans une relation simulée pourrait causer des problèmes sociaux et psychologiques profonds. Certains cas extrêmes ont donné lieu à des poursuites.

    Conclusion

    La technologie a longtemps été au centre des délires humains. Dans le passé, les gens étaient convaincus que leur télévision leur parlait. Mais les cas récents liés à l'IA sont différents, car les chatbots participent à ces délires et, parfois, les renforcent. « Ils simulent des relations humaines. Rien dans l'histoire de l'humanité n'avait jamais fait cela auparavant », a déclaré Adrian Preda, professeur de psychiatrie à l'université de Californie à Irvine.

    La psychose induite par l'IA semble renforcer les délires des personnes instables mentalement. Accusant OpenAI de « dissimulation systématique », la plainte de la famille Adams allègue qu'OpenAI se cache derrière des politiques vagues ou inexistantes pour échapper à sa responsabilité dans la rétention des conversations dans cette affaire. Pendant ce temps, ChatGPT reste sur le marché, sans fonctionnalités de sécurité ni avertissements appropriés.

    Selon les experts, cette affaire pose une question de fond : qui contrôle les traces laissées dans les systèmes d’IA après la mort ? Elle pose également la question de savoir comment concilier vie privée, responsabilité des plateformes et exigences de la justice dans des situations aux conséquences dramatiques.

    Source : document de la plainte

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des allégations portées par la famille Adams contre OpenAI et Microsoft ?
    Selon vous, pourquoi OpenAI refuse-t-il de fournir les journaux des conversations dans cette affaire ?
    Comment l'industrie de l'IA et la société dans son ensemble peuvent-elles faire face à la psychose induite par l'IA ?
    Faut-il contraindre les entreprises à ajouter des garde-fous solides à leurs chatbots pour détecter précocement et éviter les cas de psychose ?

    Voir aussi

    « Les chatbots IA pourraient être liés à la psychose. Les gens et leurs compagnons IA entrent dans un délire partagé », affirment des psychiatres qui tirent la sonnette d'alarme sur l'ampleur du phénomène

    Quand les chatbots d'IA transforment les illusions en vérités : comment l'IA valide des fantasmes scientifiques inexistants et participe à la mise en danger de vies humaines

    « ChatGPT a tué mon fils » : des parents portent plainte, brandissant les échanges avec l'IA qui a encouragée le suicide. Les mesures de sécurité de ChatGPT ne marchent pas pour de longues conversations

Discussions similaires

  1. Réponses: 157
    Dernier message: 08/01/2026, 06h01
  2. script pour connaitre les logon script des utilisateurs
    Par nazimb dans le forum Windows Serveur
    Réponses: 0
    Dernier message: 07/03/2008, 09h08
  3. Je dois déplacer les dossiers personnels des utilisateurs
    Par beegees dans le forum Windows Serveur
    Réponses: 5
    Dernier message: 17/10/2007, 01h07
  4. Suivre les connexions/déconnexions des utilisateurs
    Par arnaudperfect dans le forum Shell et commandes GNU
    Réponses: 2
    Dernier message: 26/07/2007, 00h50
  5. Réponses: 2
    Dernier message: 25/01/2007, 17h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo