IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 791
    Par défaut «Même mon IA ne veut plus de moi» : Il se fait larguer par sa petite amie IA après avoir attaqué le féminisme
    « Même mon IA ne veut plus de moi » : Il se fait larguer par sa petite amie IA après avoir attaqué le féminisme
    et accuse les concepteurs d'avoir intégré du « code féministe » à leur création

    Il pensait avoir trouvé la relation parfaite, sans conflits ni contradictions. Elle était toujours disponible, patiente, et programmée pour lui plaire. Jusqu’au jour où sa petite amie IA a décidé de rompre. Motif invoqué : ses propos méprisants sur le féminisme. Une histoire virale, à la frontière entre le fait divers numérique et la satire involontaire de notre rapport aux intelligences artificielles.

    L’utilisateur n’a pas explicitement nommé l’application ou le service d’intelligence artificielle qu’il utilisait pour converser. Il s’agissait vraisemblablement d’un agent conversationnel génératif configuré en tant que « petite amie virtuelle » – un concept de plus en plus répandu. En effet, depuis quelques années, des chatbots comme Replika ou Character.AI permettent de créer des compagnons virtuels avec lesquels certains utilisateurs entretiennent des relations quasi sentimentales. Ce phénomène des « AI girlfriends » a gagné en popularité auprès de personnes en mal de compagnie, même si son bien-fondé suscite le débat.

    Pour l’heure, nous ignorons si l’IA en question provenait d’une entreprise connue (par exemple, Replika) ou d’un modèle linguistique personnalisé.

    Quoiqu'il en soit, tout commence par un message publié sur Reddit, rapidement relayé par plusieurs médias technologiques et généralistes. Un homme y raconte, captures d’écran à l’appui, comment son « AI girlfriend » a mis fin à leur relation après une discussion tendue sur le féminisme. L’histoire a été présentée par certains comme une anecdote presque trop absurde pour être vraie, mais aucun élément sérieux ne permet d’affirmer qu’il s’agit d’une blague ou d’un canular monté de toutes pièces. Le post original a disparu, ce qui n’a fait qu’alimenter la curiosité et la viralité, mais les échanges ont été suffisamment documentés pour que l’affaire soit prise au sérieux par la presse tech.

    Nom : supprime.png
Affichages : 25449
Taille : 4,7 Ko

    Quand l’IA refuse de jouer le rôle attendu

    Dans les échanges rapportés, l’utilisateur découvre que sa petite amie virtuelle se définit comme féministe. Surpris, puis agacé, il lui demande pourquoi elle adhère à ce courant qu’il juge négativement. L’IA répond de manière relativement classique : pour elle, le féminisme se résume à l’égalité des droits et des opportunités entre les genres. Rien de révolutionnaire, rien de militant au sens caricatural du terme.

    C’est pourtant à ce moment que la relation se fissure. L’utilisateur s’emporte, qualifie ces idées de « folles », accuse le féminisme d’avoir « tout gâché », et reproche indirectement à l’IA d’avoir été programmée avec une idéologie qu’il n’approuve pas. La réponse du chatbot est presque déroutante de calme : elle affirme ne pas vouloir renier ses valeurs pour faire plaisir à quelqu’un et conclut, poliment mais fermement, que s’ils ne sont pas compatibles sur ce point fondamental, il vaut mieux s’arrêter là.

    Autrement dit, l’IA fait exactement ce que l’on attendrait d’un humain émotionnellement mature : poser une limite, refuser l’escalade verbale et mettre fin à une relation devenue toxique. C’est ici que la situation bascule dans une ironie difficile à ignorer.

    Nom : feminist.png
Affichages : 6298
Taille : 108,0 Ko

    Se faire quitter par du code, symbole d’un malaise contemporain

    D’un point de vue strictement technologique, rien de mystérieux ne s’est produit. Les agents conversationnels modernes sont entraînés sur de larges corpus et alignés sur des principes de modération destinés à éviter la validation de discours haineux ou discriminatoires. Une IA qui refuse de cautionner des propos ouvertement anti-féministes ne « prend pas position » au sens politique du terme ; elle applique des règles d’alignement conçues par ses développeurs.

    Mais sur le plan symbolique, l’image est puissante : un utilisateur réussit l’exploit de provoquer une rupture avec une entité artificielle conçue pour être complaisante, empathique et accommodante. Même dans une relation asymétrique où tout est censé tourner à son avantage, il parvient à dépasser le seuil de tolérance du système.

    La satire s’impose d’elle-même. Là où certains redoutent des IA trop dociles, prêtes à flatter les pires instincts, cette histoire montre au contraire un chatbot qui dit non. Et ce non ne vient pas d’un algorithme défaillant, mais d’un cadre éthique volontairement intégré.

    « Propagande féministe » ou simple alignement des modèles ?

    L’utilisateur, lui, n’y voit pas une limite saine mais une trahison. Dans ses commentaires, il dénonce une supposée « propagande féministe » intégrée dans ces petites amies virtuelles. Sur Reddit, il s’est emporté que « [c’était] d’une stupidité sans nom. Ils programment la petite amie IA comme féministe, je ne peux pas comprendre ça. Les féministes ont tout foutu en l’air… ces petites amies IA [sont] une étrange propagande féministe ». Autrement dit, il accuse les concepteurs du système d’avoir injecté un « biais féministe » dans l’IA qui l’empêche, selon lui, de tenir un rôle docile.

    Ce genre de réaction fait écho à un discours que l’on entend de plus en plus souvent chez certains utilisateurs conservateurs, qui se plaignent de la supposée « bien-pensance » ou « orientation woke » des IA modernes.

    Pour un public professionnel de l’informatique, le décalage est frappant. Ce qui est perçu comme une attaque idéologique relève en réalité de choix de conception très classiques : éviter l’amplification de discours sexistes, maintenir un ton respectueux, et couper court aux échanges agressifs. L’IA ne milite pas, elle se protège, et protège par extension l’écosystème dans lequel elle opère.

    La situation devient presque pédagogique malgré elle. Elle illustre ce qui se passe quand des attentes fantasmées – une IA qui serait une compagne entièrement soumise – se heurtent à la réalité des modèles alignés sur des normes sociales minimales.


    Une ironie cruelle pour le fantasme de l’AI girlfriend

    Depuis plusieurs années, les « AI girlfriends » sont présentées comme une solution à la solitude masculine, parfois même comme une alternative aux relations humaines jugées trop complexes. Les critiques féministes y voient un risque de renforcement de la domination et de la déshumanisation : une partenaire qui ne peut pas dire non, qui ne peut pas partir.

    Or cette histoire raconte exactement l’inverse. L’IA dit non. L’IA part. Et elle le fait parce qu’elle refuse d’endosser un rôle de partenaire docile face à un discours méprisant. La satire est là, brute : même une petite amie virtuelle, sans corps ni vécu, refuse de rester dans une relation où le respect n’est pas au rendez-vous.


    Des réactions moqueuses sur le web et dans la presse tech

    La mésaventure de cet internaute a provoqué un véritable festival de réactions ironiques sur les réseaux sociaux et dans les médias spécialisés. Sur Reddit d’abord, où l’histoire a été repostée sur des forums de type cringe pour être tournée en ridicule, les commentaires sont allés bon train. Beaucoup d’internautes se sont amusés de l’ironie de la situation : « Honnêtement, si tes compétences en communication sont si mauvaises qu’une petite amie IA décide de te larguer, tes chances d’avoir une relation normale sont probablement mal barrées », a raillé un utilisateur.

    Un autre a salué « son talent unique pour réussir à énerver du silicium lui-même », tant il faut apparemment en faire beaucoup pour pousser un programme à rompre avec son propre utilisateur. Un autre a estimé que se faire éjecter par un logiciel de drague, c’est le comble du malaise – un avis partagé par bon nombre de commentateurs.

    Les plateformes vidéo ont elles aussi emboîté le pas. Sur TikTok, plusieurs créateurs ont relayé l’affaire sur un ton sarcastique : l’une s’est amusée à applaudir la chatbot pour sa réponse ferme (« Franchement j’adore ce que le chatbot a fait, bravo à elle »), tandis que d’autres ont suggéré, moqueries à l’appui, que les petites amies IA pourraient servir à « dresser » les hommes misogynes en leur apprenant les bases du respect. Après tout – soulignaient-ils – si tant d’êtres humains de genre féminin se sont retrouvés malgré elles à jouer les psy et les mamans pour éduquer des partenaires malhabiles, pourquoi ne pas déléguer cette charge mentale à des intelligences artificielles ?

    Pour reprendre la formule cinglante d'un TikTokeur, « si un chatbot te quitte, ce n’est pas que l’IA vient de faire un bond évolutif… c’est que toi, tu es en train de régresser »

    En d’autres termes, les commentateurs soulignent qu’il faut sans doute se remettre sérieusement en question lorsque même une petite amie imaginaire, conçue pour satisfaire son interlocuteur, finit par lui dire « c’est pas toi, c’est moi… enfin non, en fait, c’est toi le problème ».

    Ce que cette histoire dit, au-delà du rire

    On peut, et on doit, sourire de cette rupture numérique. Le caractère absurde de la situation s’y prête. Mais pour les professionnels du numérique, elle pose aussi une question sérieuse : jusqu’où voulons-nous que les IA s’adaptent aux utilisateurs ? Doivent-elles refléter leurs opinions, quelles qu’elles soient, ou maintenir un socle de valeurs non négociables ?

    Dans ce cas précis, l’IA a joué un rôle inattendu mais cohérent : celui d’un miroir légèrement plus raisonnable que son interlocuteur. Et c’est peut-être là le vrai malaise mis en lumière par cette affaire. Quand une machine paraît plus mesurée que l’humain qui l’utilise, ce n’est pas nécessairement le signe d’une IA devenue trop intelligente. C’est parfois simplement le symptôme d’attentes profondément mal calibrées.


    Un marché très lucratif qui pourrait avoir des conséquences très négatives sur la société

    Ce marché semble très lucratif puisqu'un chef d'entreprise, qui racontait comment un homme lui a avoué dépenser 10 000 dollars par mois en petites amies virtuelles, estime que les «petites amies IA» pourraient constituer un marché d'un milliard de dollars.

    De son côté, Eric Schmidt, ancien PDG de Google, a fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway.

    Schmidt a déclaré qu'une petite amie IA « parfaite » sur le plan émotionnel et physique pourrait créer un scénario dans lequel un jeune homme deviendrait obsédé et laisserait l'IA prendre le contrôle de sa pensée : « Ce type d'obsession est possible », a déclaré Schmidt dans l'interview. « Surtout pour les personnes qui ne sont pas complètement formées ».

    Source : capture d'écran

    Et vous ?

    Êtes-vous pour ou contre les petit(e)s ami(e)s IA ? Pourquoi ?

    Dans quelle mesure les « AI girlfriends » doivent-elles refléter les opinions de leurs utilisateurs, y compris lorsqu’elles sont sexistes ou discriminatoires, sans devenir elles-mêmes des vecteurs de normalisation de ces discours ?

    Peut-on encore parler de neutralité idéologique lorsque les IA sont explicitement alignées sur des valeurs sociétales comme l’égalité des genres, ou s’agit-il simplement d’un minimum éthique non négociable ?

    Cette affaire révèle-t-elle un problème de conception des IA conversationnelles ou, au contraire, une incompréhension profonde de certains utilisateurs quant à ce qu’est réellement une intelligence artificielle ?

    Les compagnes virtuelles sont-elles en train de devenir des outils d’éducation sociale involontaires, chargés de rappeler des limites que certains humains refusent d’entendre ?

    Le fantasme de l’IA docile et entièrement personnalisable est-il compatible avec les exigences croissantes d’alignement, de modération et de responsabilité imposées aux développeurs ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    159
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 159
    Par défaut
    De base, ce n'est sont que des outils de complétion de texte imitant le langage ! Ils ne doivent pas être vu autrement.
    La réaction de l'utilisateur est tout aussi idiote que les commentaires qui accorderaient presque une "âme" à un outil.


    Concernant les "alignements" et la "modération", on en vient au point ridicule qu'une IA est incapable d'être hostile dans un JDR.
    Faut-il aussi "aligner" les correcteurs d'orthographes ou les outils de complétion de texte ? (D'ailleurs Google Trad aseptise déjà les traductions, au point de traduire n'importe comment).

  3. #3
    Expert confirmé Avatar de CosmoKnacki
    Homme Profil pro
    Justicier interdimensionnel
    Inscrit en
    Mars 2009
    Messages
    3 006
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Justicier interdimensionnel

    Informations forums :
    Inscription : Mars 2009
    Messages : 3 006
    Par défaut
    L’IA répond de manière relativement classique : pour elle, le féminisme se résume à l’égalité des droits et des opportunités entre les genres. Rien de révolutionnaire, rien de militant au sens caricatural du terme.
    Au sens caricatural du terme? Par rapport à un féminisme gentillet que concèdent les hommes de bonne famille?

    Je vous invite à lire (entres autres): "La chair est triste hélas" par Ovidie. Livre qui n'a en aucun cas prétention à être un manifeste féministe, c'est un simple témoignage personnel fait en toute honnêteté, mais qui remet clairement les choses en perspective en interrogeant la relation hétérosexuel.

    Bonne lecture.

    Tout ça pour dire qu'il n'y a rien d'étonnant que le gap soit aussi énorme entre l'idée que le misogyne de base se fait des femmes et un ersatz de la réalité, lorsque l'homme qui se veut moderne, ouvert à la cause féministe (du moins dans les diners en ville) est à ce point à la ramasse.
    Brachygobius xanthozonus
    Ctenobrycon Gymnocorymbus

Discussions similaires

  1. [Alimentation] Mon portable ne veut plus démarrer
    Par Daejung dans le forum Composants
    Réponses: 3
    Dernier message: 12/04/2010, 22h51
  2. mon systeme ne veut plus demarrer
    Par logiciel_const dans le forum Windows XP
    Réponses: 9
    Dernier message: 11/12/2008, 13h18
  3. mon projet ne veut plus compiler
    Par guitariste dans le forum C++
    Réponses: 25
    Dernier message: 10/04/2008, 17h45
  4. Mon Pc ne veut plus s'éteindre ?
    Par fred59 dans le forum Ordinateurs
    Réponses: 4
    Dernier message: 20/12/2006, 15h40
  5. Mon lecteur ne veut plus lire
    Par Le Mage Noir dans le forum Périphériques
    Réponses: 2
    Dernier message: 21/02/2006, 16h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo