« Même mon IA ne veut plus de moi » : Il se fait larguer par sa petite amie IA après avoir attaqué le féminisme
et accuse les concepteurs d'avoir intégré du « code féministe » à leur création
Il pensait avoir trouvé la relation parfaite, sans conflits ni contradictions. Elle était toujours disponible, patiente, et programmée pour lui plaire. Jusqu’au jour où sa petite amie IA a décidé de rompre. Motif invoqué : ses propos méprisants sur le féminisme. Une histoire virale, à la frontière entre le fait divers numérique et la satire involontaire de notre rapport aux intelligences artificielles.
L’utilisateur n’a pas explicitement nommé l’application ou le service d’intelligence artificielle qu’il utilisait pour converser. Il s’agissait vraisemblablement d’un agent conversationnel génératif configuré en tant que « petite amie virtuelle » – un concept de plus en plus répandu. En effet, depuis quelques années, des chatbots comme Replika ou Character.AI permettent de créer des compagnons virtuels avec lesquels certains utilisateurs entretiennent des relations quasi sentimentales. Ce phénomène des « AI girlfriends » a gagné en popularité auprès de personnes en mal de compagnie, même si son bien-fondé suscite le débat.
Pour l’heure, nous ignorons si l’IA en question provenait d’une entreprise connue (par exemple, Replika) ou d’un modèle linguistique personnalisé.
Quoiqu'il en soit, tout commence par un message publié sur Reddit, rapidement relayé par plusieurs médias technologiques et généralistes. Un homme y raconte, captures d’écran à l’appui, comment son « AI girlfriend » a mis fin à leur relation après une discussion tendue sur le féminisme. L’histoire a été présentée par certains comme une anecdote presque trop absurde pour être vraie, mais aucun élément sérieux ne permet d’affirmer qu’il s’agit d’une blague ou d’un canular monté de toutes pièces. Le post original a disparu, ce qui n’a fait qu’alimenter la curiosité et la viralité, mais les échanges ont été suffisamment documentés pour que l’affaire soit prise au sérieux par la presse tech.
Quand l’IA refuse de jouer le rôle attendu
Dans les échanges rapportés, l’utilisateur découvre que sa petite amie virtuelle se définit comme féministe. Surpris, puis agacé, il lui demande pourquoi elle adhère à ce courant qu’il juge négativement. L’IA répond de manière relativement classique : pour elle, le féminisme se résume à l’égalité des droits et des opportunités entre les genres. Rien de révolutionnaire, rien de militant au sens caricatural du terme.
C’est pourtant à ce moment que la relation se fissure. L’utilisateur s’emporte, qualifie ces idées de « folles », accuse le féminisme d’avoir « tout gâché », et reproche indirectement à l’IA d’avoir été programmée avec une idéologie qu’il n’approuve pas. La réponse du chatbot est presque déroutante de calme : elle affirme ne pas vouloir renier ses valeurs pour faire plaisir à quelqu’un et conclut, poliment mais fermement, que s’ils ne sont pas compatibles sur ce point fondamental, il vaut mieux s’arrêter là.
Autrement dit, l’IA fait exactement ce que l’on attendrait d’un humain émotionnellement mature : poser une limite, refuser l’escalade verbale et mettre fin à une relation devenue toxique. C’est ici que la situation bascule dans une ironie difficile à ignorer.
Se faire quitter par du code, symbole d’un malaise contemporain
D’un point de vue strictement technologique, rien de mystérieux ne s’est produit. Les agents conversationnels modernes sont entraînés sur de larges corpus et alignés sur des principes de modération destinés à éviter la validation de discours haineux ou discriminatoires. Une IA qui refuse de cautionner des propos ouvertement anti-féministes ne « prend pas position » au sens politique du terme ; elle applique des règles d’alignement conçues par ses développeurs.
Mais sur le plan symbolique, l’image est puissante : un utilisateur réussit l’exploit de provoquer une rupture avec une entité artificielle conçue pour être complaisante, empathique et accommodante. Même dans une relation asymétrique où tout est censé tourner à son avantage, il parvient à dépasser le seuil de tolérance du système.
La satire s’impose d’elle-même. Là où certains redoutent des IA trop dociles, prêtes à flatter les pires instincts, cette histoire montre au contraire un chatbot qui dit non. Et ce non ne vient pas d’un algorithme défaillant, mais d’un cadre éthique volontairement intégré.
« Propagande féministe » ou simple alignement des modèles ?
L’utilisateur, lui, n’y voit pas une limite saine mais une trahison. Dans ses commentaires, il dénonce une supposée « propagande féministe » intégrée dans ces petites amies virtuelles. Sur Reddit, il s’est emporté que « [c’était] d’une stupidité sans nom. Ils programment la petite amie IA comme féministe, je ne peux pas comprendre ça. Les féministes ont tout foutu en l’air… ces petites amies IA [sont] une étrange propagande féministe ». Autrement dit, il accuse les concepteurs du système d’avoir injecté un « biais féministe » dans l’IA qui l’empêche, selon lui, de tenir un rôle docile.
Ce genre de réaction fait écho à un discours que l’on entend de plus en plus souvent chez certains utilisateurs conservateurs, qui se plaignent de la supposée « bien-pensance » ou « orientation woke » des IA modernes.
Pour un public professionnel de l’informatique, le décalage est frappant. Ce qui est perçu comme une attaque idéologique relève en réalité de choix de conception très classiques : éviter l’amplification de discours sexistes, maintenir un ton respectueux, et couper court aux échanges agressifs. L’IA ne milite pas, elle se protège, et protège par extension l’écosystème dans lequel elle opère.
La situation devient presque pédagogique malgré elle. Elle illustre ce qui se passe quand des attentes fantasmées – une IA qui serait une compagne entièrement soumise – se heurtent à la réalité des modèles alignés sur des normes sociales minimales.
Une ironie cruelle pour le fantasme de l’AI girlfriend
Depuis plusieurs années, les « AI girlfriends » sont présentées comme une solution à la solitude masculine, parfois même comme une alternative aux relations humaines jugées trop complexes. Les critiques féministes y voient un risque de renforcement de la domination et de la déshumanisation : une partenaire qui ne peut pas dire non, qui ne peut pas partir.
Or cette histoire raconte exactement l’inverse. L’IA dit non. L’IA part. Et elle le fait parce qu’elle refuse d’endosser un rôle de partenaire docile face à un discours méprisant. La satire est là, brute : même une petite amie virtuelle, sans corps ni vécu, refuse de rester dans une relation où le respect n’est pas au rendez-vous.
Des réactions moqueuses sur le web et dans la presse tech
La mésaventure de cet internaute a provoqué un véritable festival de réactions ironiques sur les réseaux sociaux et dans les médias spécialisés. Sur Reddit d’abord, où l’histoire a été repostée sur des forums de type cringe pour être tournée en ridicule, les commentaires sont allés bon train. Beaucoup d’internautes se sont amusés de l’ironie de la situation : « Honnêtement, si tes compétences en communication sont si mauvaises qu’une petite amie IA décide de te larguer, tes chances d’avoir une relation normale sont probablement mal barrées », a raillé un utilisateur.
Un autre a salué « son talent unique pour réussir à énerver du silicium lui-même », tant il faut apparemment en faire beaucoup pour pousser un programme à rompre avec son propre utilisateur. Un autre a estimé que se faire éjecter par un logiciel de drague, c’est le comble du malaise – un avis partagé par bon nombre de commentateurs.
Les plateformes vidéo ont elles aussi emboîté le pas. Sur TikTok, plusieurs créateurs ont relayé l’affaire sur un ton sarcastique : l’une s’est amusée à applaudir la chatbot pour sa réponse ferme (« Franchement j’adore ce que le chatbot a fait, bravo à elle »), tandis que d’autres ont suggéré, moqueries à l’appui, que les petites amies IA pourraient servir à « dresser » les hommes misogynes en leur apprenant les bases du respect. Après tout – soulignaient-ils – si tant d’êtres humains de genre féminin se sont retrouvés malgré elles à jouer les psy et les mamans pour éduquer des partenaires malhabiles, pourquoi ne pas déléguer cette charge mentale à des intelligences artificielles ?
Pour reprendre la formule cinglante d'un TikTokeur, « si un chatbot te quitte, ce n’est pas que l’IA vient de faire un bond évolutif… c’est que toi, tu es en train de régresser »
En d’autres termes, les commentateurs soulignent qu’il faut sans doute se remettre sérieusement en question lorsque même une petite amie imaginaire, conçue pour satisfaire son interlocuteur, finit par lui dire « c’est pas toi, c’est moi… enfin non, en fait, c’est toi le problème ».
Ce que cette histoire dit, au-delà du rire
On peut, et on doit, sourire de cette rupture numérique. Le caractère absurde de la situation s’y prête. Mais pour les professionnels du numérique, elle pose aussi une question sérieuse : jusqu’où voulons-nous que les IA s’adaptent aux utilisateurs ? Doivent-elles refléter leurs opinions, quelles qu’elles soient, ou maintenir un socle de valeurs non négociables ?
Dans ce cas précis, l’IA a joué un rôle inattendu mais cohérent : celui d’un miroir légèrement plus raisonnable que son interlocuteur. Et c’est peut-être là le vrai malaise mis en lumière par cette affaire. Quand une machine paraît plus mesurée que l’humain qui l’utilise, ce n’est pas nécessairement le signe d’une IA devenue trop intelligente. C’est parfois simplement le symptôme d’attentes profondément mal calibrées.
Un marché très lucratif qui pourrait avoir des conséquences très négatives sur la société
Ce marché semble très lucratif puisqu'un chef d'entreprise, qui racontait comment un homme lui a avoué dépenser 10 000 dollars par mois en petites amies virtuelles, estime que les «petites amies IA» pourraient constituer un marché d'un milliard de dollars.
De son côté, Eric Schmidt, ancien PDG de Google, a fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway.
Schmidt a déclaré qu'une petite amie IA « parfaite » sur le plan émotionnel et physique pourrait créer un scénario dans lequel un jeune homme deviendrait obsédé et laisserait l'IA prendre le contrôle de sa pensée : « Ce type d'obsession est possible », a déclaré Schmidt dans l'interview. « Surtout pour les personnes qui ne sont pas complètement formées ».
Source : capture d'écran
Et vous ?
Êtes-vous pour ou contre les petit(e)s ami(e)s IA ? Pourquoi ?
Dans quelle mesure les « AI girlfriends » doivent-elles refléter les opinions de leurs utilisateurs, y compris lorsqu’elles sont sexistes ou discriminatoires, sans devenir elles-mêmes des vecteurs de normalisation de ces discours ?
Peut-on encore parler de neutralité idéologique lorsque les IA sont explicitement alignées sur des valeurs sociétales comme l’égalité des genres, ou s’agit-il simplement d’un minimum éthique non négociable ?
Cette affaire révèle-t-elle un problème de conception des IA conversationnelles ou, au contraire, une incompréhension profonde de certains utilisateurs quant à ce qu’est réellement une intelligence artificielle ?
Les compagnes virtuelles sont-elles en train de devenir des outils d’éducation sociale involontaires, chargés de rappeler des limites que certains humains refusent d’entendre ?
Le fantasme de l’IA docile et entièrement personnalisable est-il compatible avec les exigences croissantes d’alignement, de modération et de responsabilité imposées aux développeurs ?








Êtes-vous pour ou contre les petit(e)s ami(e)s IA ? Pourquoi ?
Répondre avec citation





Partager