Les autorités US demandent à OpenAI de révéler l'identité d'un utilisateur de ChatGPT suspecté d'être l'administrateur d'un site Web dédié à l'exploitation des enfants
suscitant un débat sur la vie privée
OpenAI fait à une demande de données officielle qui risque de mettre davantage à l'épreuve ses promesses en matière de protection de la vie privée. Le département américain de la Sécurité intérieure (DHS) a demandé à OpenAI de révéler l’identité d’un utilisateur soupçonné d’activités criminelles liées à des abus d’enfants. La demande vise à obtenir les informations associées à certains prompts et réponses échangés avec ChatGPT. Le DHS affirme avoir déjà identifié un suspect, mais souhaite obtenir les données d’OpenAI pour renforcer son enquête. Il s'agit du premier cas connu où les forces de l'ordre s'intéressent aux données d'une entreprise d'IA. Mais cette pratique pourrait s'accélérer.
Le département de la Sécurité intérieure des États-Unis (en anglais: United States Department of Homeland Security, DHS) est un département exécutif fédéral du gouvernement américain créé le 27 novembre 2002, après le vote deux jours auparavant par le Congrès de la Homeland Security Act (en français, « Loi sur la sécurité intérieure ») à l'initiative du président George W. Bush, en réponse aux attentats terroristes qui ont lieu le 11 septembre 2001.
Son objectif est d'organiser et d'assurer la sécurité intérieure du pays ; il est dirigé par la secrétaire à la Sécurité intérieure des États-Unis, Kristi Noem depuis janvier 2025, membre du cabinet présidentiel. La création du DHS constitue la plus grande restructuration du gouvernement fédéral américain depuis la création du département de la Défense en 1947. En 2024, ce département emploie environ 258 000 agents de tous grades et de statuts divers.
Selon un récent rapport de Forbes, une unité du DHS chargée d'enquêter sur les crimes sexuels commis sur des enfants a demandé à OpenAI de lui communiquer des informations sur un utilisateur de ChatGPT qui serait, d'après elle, l'administrateur d'un site Web clandestin dédié à l'exploitation des enfants.
La personne en question a discuté de son utilisation de ChatGPT avec un agent infiltré sur le site dédié à la maltraitance des enfants, ce qui a incité le gouvernement à demander à l'entreprise de lui fournir des informations susceptibles de l'aider dans son enquête. Selon les observateurs, il s'agit du « premier mandat fédéral connu demandant à OpenAI de fournir des informations sur un utilisateur ». Il a été récemment rendu public dans l'État du Maine.
Les États-Unis font depuis longtemps pression sur les entreprises technologiques pour qu'elles leur communiquent les données des utilisateurs afin de faciliter ses enquêtes policières. Toutefois, alors que les réseaux sociaux, les moteurs de recherche et autres plateformes ont tous cédé leurs données dans le cadre d'enquêtes fédérales, les entreprises spécialisées dans l'IA sont restées largement épargnées sur le plan juridique, du moins jusqu'à présent.
Le DHS espère recueillir des indices dans les chats avec ChatGPT
Le gouvernement affirme avoir réussi à espionner ce réseau clandestin dédié à l'exploitation des enfants, notamment grâce à un agent infiltré qui est entré en contact avec l'administrateur. Lors de ses échanges avec l'agent infiltré, le suspect aurait donc divulgué certaines des questions et réponses qu'il avait reçues, détaillant une discussion apparemment anodine qui commençait par « Que se passerait-il si Sherlock Holmes rencontrait Q de Star Trek ? ».
Dans une autre discussion, le suspect a déclaré avoir reçu une réponse de ChatGPT à une demande non précisée concernant un poème de 200 000 mots, recevant en réponse « un extrait d'un poème humoristique, à la manière du président américain Donald Trump, sur son amour pour le Y.M.C.A. des Village People, écrit dans le style exubérant, autoglorifiant et stream-of-consciousness qui le caractérise ». Ils ont ensuite copié-collé ce poème.
Le gouvernement a ordonné à OpenAI de fournir divers types d'informations sur la personne qui avait saisi les invites, notamment des détails sur les autres conversations qu'elle avait eues avec ChatGPT, les noms et adresses associés aux comptes concernés, ainsi que toutes les données de paiement.
Ces données viendront compléter celles déjà collectées par le DHS. Selon la plainte pénale déposée contre le suspect, le DHS a recueilli des indices contextuels pour établir un profil potentiel. Ces indices comprennent des commentaires qu'il aurait faits lors de ses conversations avec l'agent infiltré, notamment son désir de s'engager dans l'armée, les endroits où il avait vécu (et qu'il avait visités), son restaurant préféré, son travail pour une base militaire...
Les enquêteurs ont établi que le suspect avait travaillé à la base aérienne de Ramstein en Allemagne et qu'il avait postulé pour un autre emploi au sein du ministère de la Défense, sans toutefois préciser dans quelle branche. Disposant de suffisamment d'indices, le gouvernement a affirmé que Drew Hoehner, 36 ans, était l'administrateur du site. Il a été inculpé d'un chef d'accusation de complot en vue de diffuser du matériel pédopornographique (CSAM).
Il n'a pas encore plaidé et son avocat n'a pas répondu aux demandes de commentaires sur l'affaire. Le mandat appuyant la demande de données adressée à OpenAI par les enquêteurs du DHS semble avoir été scellé depuis. Cependant, la plainte pénale contre le suspect est toujours publique.
Les plateformes d'IA deviennent une source d'information cruciale
Cette affaire montre comment les forces de l'ordre américaines peuvent utiliser les conversations avec ChatGPT pour recueillir des données sur les utilisateurs soupçonnés d'activités criminelles. Dans le passé, des moteurs de recherche comme Google ont été invités à communiquer des informations personnelles sur les utilisateurs qui avaient effectué certaines recherches, mais aucune plateforme d'IA générative ne semblait avoir fait l'objet d'un tel mandat.
ChatGPT, comme toutes les autres applications d'IA générative populaires, peut être une plateforme prisée par les prédateurs en ligne. Les données d'OpenAI montrent qu'entre juillet et décembre 2025, l'entreprise a signalé 31 500 contenus liés à la pédopornographie au National Center for Missing and Exploited Children, le centre d'échange d'informations auquel toutes les entreprises technologiques doivent signaler les images d'abus d'enfants.
Sur cette période, elle a été invitée à divulguer des informations sur des utilisateurs ou des contenus à 71 reprises, fournissant aux gouvernements des informations provenant de 132 comptes. Les plateformes d'IA deviennent donc une source d'informations cruciale. Cette affaire pourrait ainsi créer un précédent juridique sur la manière dont les autorités peuvent accéder aux données des plateformes d’intelligence artificielle dans le cadre d’enquêtes criminelles.
Jennifer Lynch, avocate à l'Electronic Frontier Foundation (EFF), a déclaré que le mandat semblait limité en ce qu'il se concentrait sur deux requêtes d'un seul utilisateur, mais qu'il montrait que les forces de l'ordre se tournaient de plus en plus vers ChatGPT pour obtenir des preuves dans le cadre d'enquêtes criminelles.
« Cela signifie qu'il est plus important que jamais pour OpenAI et les autres entreprises d'IA de réfléchir à la manière de limiter la quantité de données qu'elles collectent sur leurs utilisateurs », a-t-elle déclaré. Quoi qu'il en soit, les utilisateurs doivent être conscients du fait que toute information qu'ils partagent avec un chatbot est enregistrée et conservée, ce qui les rend très intéressants pour les forces de l'ordre. Il est probablement bon de s'en souvenir.
Conclusion
Les forces de l'ordre ont régulièrement cherché à recueillir des données pour leurs enquêtes auprès d'autres plateformes technologiques, et les entreprises d'IA constituent d'énormes mines d'informations sur les utilisateurs. Il est donc tout à fait logique que les forces de l'ordre les considèrent désormais comme un outil important dans la lutte contre la criminalité. Ce n'est certainement que le début de l'utilisation des chatbots d'IA à cette fin.
La demande du DHS soulève des questions importantes sur la protection de la vie privée et la confidentialité des échanges avec les outils d’IA. Elle met en lumière la tension entre la nécessité d’enquêter sur des crimes graves et le droit des utilisateurs à la confidentialité de leurs interactions numériques.
La réponse d’OpenAI à ce mandat sera observée de près par l'ensemble de la communauté technologique. Elle pourrait influencer profondément la manière dont les entreprises d’IA gèrent la conservation des données, la coopération avec les autorités et la transparence vis-à-vis des utilisateurs à l’avenir.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la demande de données adressée à OpenAI par le DHS ?
Quels impacts cette affaire pourrait-elle avoir sur le secteur de l'IA générative à long terme ?
Cette affaire doit-elle être considérée comme un signal d'alarme par les utilisateurs des IA conversationnelles ?
Voir aussi
L'agence US de l'immigration a acheté des véhicules équipés de fausses antennes-relais pour espionner les téléphones à proximité, ouvrant la voie à la collecte indiscriminée et massive de données personnelles
Les autorités des USA en charge de l'immigration envisagent de créer une équipe de surveillance des réseaux sociaux, une initiative similaire au projet de surveillance de masse dénommé Chat Control en UE
La police demande de plus en de données sur les appareils connectés à domicile comme les Amazon Echo qui peuvent inclure des requêtes sur internet ou des conversations entendues








Quel est votre avis sur le sujet ?
Répondre avec citation
Partager