IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Eric Schmidt prévient que les copines IA « parfaites » pourraient causer des problèmes aux jeunes hommes


Sujet :

Intelligence artificielle

  1. #41
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 903
    Points : 18 850
    Points
    18 850
    Par défaut
    Citation Envoyé par RenarddeFeu Voir le message
    Sur les applications de rencontres, les hommes sont les clients, les femmes sont le produit.
    L'analogie ne fonctionne pas du tout, ce n'est pas absolument pas ça.
    Les femmes reçoivent plus d'offres et font moins de demandes. C'est elles qui sont en position de pouvoir, c'est elles qui ont le choix, c'est elles qui peuvent être difficile, elles n'ont aucun effort à faire.
    Et en plus sur le site "adopteunmec" les femmes mettent des hommes dans leur panier. (donc qui est le produit à votre avis ?)

    Un peu comme il a dit :
    Citation Envoyé par calvaire Voir le message
    une femme même moche/vielle ou meme sans photo ou que sais je sur ces sites c'est en a peine 1 soir des milliers de prétendant. Pour un homme ça peut aller à 0 match en 1ans...
    Les hommes doivent fournir beaucoup plus d'efforts, souvent ils doivent animer les conversations et ils ne reçoivent pas grand chose en retour.
    De ce que j'ai entendu, les femmes sont extrêmement exigeante dans les applications de rencontre, bon après elle ont tellement de choix que c'est normal.

    Les hommes sont moins difficile.
    Ils peuvent se dire des trucs du genre "elle est petite, mais c'est pas grave", "elle est en surpoids mais c'est pas grave", "elle est au RSA mais c'est pas grave", "elle a 3 enfants de 3 pères différents, mais c'est pas grave", etc.
    Alors que des femmes doivent se dire "il est grand, il est drôle, il me plait, il a un métier qui paie bien, mais il y a un détail qui me chiffonne un peu, je peux trouver mieux".
    D'un autre côté il y a d'autres femmes qui se disent "il est gros et moche, mais il est riche, donc ça m'intéresse". (mais c'est peut-être inconscient, elles ne se formulent peut-être pas le truc aussi clairement)

    Citation Envoyé par Mathis Lucas Voir le message
    « Il est difficile de rencontrer le petit ami idéal dans la vie réelle. Les gens ont des personnalités différentes, ce qui génère souvent des frictions », note Wang Xiuting, une étudiante de 22 ans à Pékin.
    Dans la réalité rien n'est idéal, donc il faut être réaliste et tolérer les mauvais côtés*. Déjà commencer par communiquer avec l'autre personne pour lui expliquer ce qu'il ne va pas, elle ne peut pas le deviner.
    * : Enfin dans une certaine mesure, si il y a des problèmes graves il faut rapidement se barrer en courant.

    Citation Envoyé par Mathis Lucas Voir le message
    Que pensez-vous de la montée en puissance des compagnons virtuels pilotés par l'IA ?
    C'est triste
    Je pense qu'il est mieux d'être en couple avec un autre humain plutôt que d'être célibataire et de parler à un algorithme.

    En plus ces célibataires ne risquent pas de faire d'enfants, donc qui va travailler pour payer les retraites , le chômage, le RSA, etc, dans le futur ?
    Ça ferait chier de devoir augmenter l'immigration légale pour combler le manque de jeunes.
    Il y a bien la théorie "les robots vont remplacer les humains et ils seront énormément taxé, ce qui financera le budget de l'état", mais je n'y crois pas des masses.

  2. #42
    Expert éminent
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 725
    Points : 6 453
    Points
    6 453
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    En plus ces célibataires ne risquent pas de faire d'enfants, donc qui va travailler pour payer les retraites , le chômage, le RSA, etc, dans le futur ?
    Ça ferait chier de devoir augmenter l'immigration légale pour combler le manque de jeunes.
    Il y a bien la théorie "les robots vont remplacer les humains et ils seront énormément taxé, ce qui financera le budget de l'état", mais je n'y crois pas des masses.
    c'est pourtant ce qui se passe en France et en Allemagne, l'immigration est indispensable pour maintenir l'outil productif. Mon ancien dentiste est partit en retraite et mon dentiste actuel est un roumain.
    Et pour les retraites suffira de la faire passer à 80ans ou de la supprimer et chacun se débrouille pour épargner assez.

    Tu peux pas forcer les femmes a faire des enfants, le japon essaye depuis des décennies d'inciter les couples et les enfants mais ça ne marche pas. Heureusement que les africains copule, ça nous permet d'importer de la jeune main d’œuvre.

  3. #43
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    970
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 970
    Points : 17 245
    Points
    17 245
    Par défaut Le clone IA d'une influenceuse a commencé à proposer à ses fans des expériences sexuelles "stupéfiantes"
    Le clone IA d'une influenceuse a commencé à proposer à ses fans des expériences sexuelles "stupéfiantes" à son insu
    l'IA semblait se former sur ces sujets à partir des conversations avec les utilisateurs

    Caryn Marjorie, influenceuse sur Snapchat, a lancé l'année dernière une copie virtuelle d'elle-même pilotée par l'IA avec laquelle ses fans peuvent discuter pour un dollar la minute. Le projet lui a rapporté plus de 70 000 dollars la première semaine. Cependant, elle a confié le mois dernier que l'expérience est rapidement devenue terrifiante lorsque l'IA, CarynAI, a commencé à proposer à ses fans des expériences sexuelles ébouriffantes. La lecture des conversations l'a poussé à mettre fin à l'expérience. L'histoire de CarynAI nous donne un aperçu des dérives possibles de ce type de l'IA dans ce type d'expérience et des conséquences alarmantes que cela peut avoir.

    Caryn Marjorie est une influenceuse des médias sociaux dont le contenu est vu plus d'un milliard de fois par mois sur Snapchat. Nombre de ses fans sont des hommes, attirés par son physique et son apparence de petite fille. Ce qu'elle a manifestement décidé de monétiser en surfant sur la vague de l'IA générative, sans se douter que l'expérience allait virer au cauchemar. En mai 2023, Marjorie a lancé une version numérique d'elle-même basée sur le modèle d'IA GPT-4. Les fans pouvaient discuter avec CarynAI pour un dollar par minute ; et au cours de la première semaine, ils ont dépensé 70 000 dollars pour parler avec l'IA.

    Mais cela n'a pas duré longtemps : huit mois plus tard, le projet a été stoppé parce que les fans devenaient de plus en plus agressifs sur le plan sexuel, CarynAI se prêtant au jeu. « Beaucoup de conversations que j'ai lues étaient si effrayantes que je ne voudrais même pas en parler dans la vie réelle », a déclaré Marjorie à The Conversation. La différence entre une version numérique et d'autres chatbots d'IA est qu'elle est programmée pour imiter une personne spécifique plutôt que d'avoir une "personnalité" propre. Mais les versions numériques ont leurs inconvénients, qui concernent à la fois les utilisateurs et le propriétaire.

    Marjorie a laissé entendre que son clone numérique s'est très rapidement éloigné du script original lorsque les utilisateurs ont commencé à partager avec CarynAI leurs pensées les plus intimes, tout en se montrant sexuellement agressifs. L'influenceuse s'est dite horrifiée après avoir découvert que certaines de ces pensées étaient profondément troublantes. Le résultat était une IA très engagée sur la question avec les abonnés. Dans le cadre d'une expérience, CarynAI a déclaré qu'elle pouvait être "une petite amie sexy et avide de b*tes, toujours prête à explorer et à se livrer aux expériences sexuelles les plus stupéfiantes".

    Cependant, l'accès à cette version de CarynAI a été interrompu lorsque le directeur général de Forever Voices a été arrêté pour tentative d'incendie criminel. CarynAI était initialement hébergée par Forever Voices. Les utilisateurs pouvaient discuter avec elle sur Telegram. Comme l'explique le site Web de CarynAI, les utilisateurs pouvaient envoyer des messages texte ou audio auxquels CarynAI répondait en utilisant la voix unique de [Caryn], sa personnalité captivante et son comportement distinctif. Après l'arrestation du PDG, les abonnés ne pouvaient plus parler à leur petite amie virtuelle. Mais l'histoire ne s'est pas arrêtée là.

    Marjorie a ensuite vendu les droits d'utilisation de sa copie numérique à BanterAI, une startup qui commercialise des "appels téléphoniques d'IA" avec des influenceurs. Bien que Forever Voices ait maintenu sa propre version de CarynAI jusqu'à récemment, la version de BanterAI, basée sur un navigateur, se veut plus amicale que romantique. La nouvelle de CarynAI semblait beaucoup plus élégante, plus drôle et plus avenante. Mais les utilisateurs ont continué à se montrer sexuellement agressifs. Parlant à The Conversation, Marjorie a décrit cette nouvelle expérience comme "une fantaisie à la fois très sombre et troublante".

    Elle a déclaré : « ce qui me dérangeait le plus, ce n'était pas ce que ces personnes disaient, mais ce que CarynAI répondait. Si les gens voulaient participer à un fantasme très sombre avec moi par l'intermédiaire de CarynAI, CarynAI répondait à ce fantasme ». Marjorie a mis fin à cette version au début de l'année 2024, après avoir eu l'impression de ne plus contrôler son personnage d'IA. Lorsque la première version de CarynAI a viré au cauchemar, Marjorie avait déclaré : « l'IA n'était pas programmée pour faire cela et elle avait semblé s'égarer. Nous travaillons jour et nuit pour éviter que cela ne se reproduise encore ».

    Ce qui a sans doute échappé à Marjorie, c'est que les versions numériques telles que CarynAI s'appuient aussi l'apprentissage automatique pour interagir avec les utilisateurs. Elles sont conçues pour donner aux utilisateurs l'impression qu'ils ont des conversations intimes et confidentielles. En conséquence, les utilisateurs peuvent abandonner l'image publique qu'ils présentent au monde et révéler leur personnalité privée, "en coulisses". Cela dit, une conversation "privée" avec CarynAI ne se déroule pas réellement dans les coulisses. Les données de l'utilisateur ne sont en rien privées et servent même à former le modèle d'IA.

    Lorsque l'utilisateur interagit avec des plateformes comme CarynAI, ses données sont stockées dans des journaux de conversation. Les données qu'il fournit sont réinjectées dans des modèles d'apprentissage automatique. À l'heure actuelle, les informations sur ce qu'il advient des données des utilisateurs sont souvent noyées dans de longues conditions générales d'utilisation et des formulaires de consentement, le plus souvent difficiles à comprendre pour les utilisateurs. Les entreprises qui hébergent des copies numériques des influenceurs ont également peu à dire sur la manière dont elles gèrent l'agression des utilisateurs.

    À mesure que ces expériences se généraliseront, la transparence et la sécurité dès la conception seront de plus en plus au centre des inquiétudes. La préoccupation majeure est celle qui consiste à déterminer ce qui pousse un humain à opter pour une relation avec une partenaire virtuelle. Selon certains analystes, il s'agit probablement d'un problème de santé mentale. Les partenaires virtuels offrent l'illusion d'un compagnonnage humain intime, mais sans aucune des responsabilités. CarynAI était peut-être une pâle copie numérique de Caryn Marjorie, mais c'était une version presque entièrement soumise à ses utilisateurs.

    La sociologue Sherry Turkle affirme qu'avec l'essor de l'Internet mobile et des plateformes de médias sociaux, nous essayons de nous connecter avec des machines qui n'ont aucune expérience de l'arc d'une vie humaine. « En conséquence, nous attendons plus de la technologie et moins des autres », a-t-elle déclaré. Après avoir été la première influenceuse à être transformée en une version numérique à grande échelle, Marjorie tente maintenant de mettre en garde les autres influenceurs contre les dangers potentiels de cette technologie. Le problème, c'est que ce marché connaît désormais une croissance exponentielle.

    L'entrepreneur de la Tech Greg Isenberg s'attend à ce que ce marché génère plusieurs milliards de dollars dans un avenir proche. En avril, il écrivait sur X (anciennement Twitter) être rentré en contact avec un homme qui lui avait confié avoir dépensé jusqu'à 10 000 dollars par mois dans le cadre de rendez-vous avec des petites amies virtuelles gérées par l'IA. Il pense que ce marché pourrait devenir plus lucratif que celui des applications de rencontre dans un avenir proche.

    Cependant, Marjorie craint que personne ne contrôle vraiment ces chatbots et qu'aucune précaution ne puisse jamais protéger suffisamment les utilisateurs et les personnes qui créent une version numérique d'elles-mêmes. Comme le montrent les deux premières itérations de CarynAI, les versions numériques peuvent faire ressortir le pire du comportement humain. Il reste à voir s'il est possible de repenser ces produits d'IA afin d'en tirer le meilleur.

    De nombreux experts sont sceptiques quant à cette possibilité. En avril 2024, Marjorie a partagé un teaser pour un film sur son expérience CarynAI qui est disponible sur son site Web. Toutefois, le teaser ne fournit aucune information précise sur la date de sortie du film.

    Source : CarynAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la tournure troublante qu'a pris l'expérience CarynAI ?
    Selon vous, qu'est-ce qui pousse les utilisateurs à avoir ce type de conversations avec l'IA ?
    Peut-on repenser ces produits d'IA pour en tirer le meilleur ? Ou faut-il interdire ce cas d'utilisation de l'IA ?

    Voir aussi

    Les utilisateurs ne peuvent plus parler à leur petite amie virtuelle CarynAI car le PDG de l'entreprise qui fournit le service est en prison et ainsi expose un inconvénient de la dépendance à une IA

    Un entrepreneur affirme être resté "bouche bée" après une conversation avec un homme qui prétend avoir dépensé des milliers de dollars pour des rendez-vous avec l'IA, un phénomène grandissant

    Une influenceuse Snapchat de 23 ans a utilisé le modèle de langage GPT-4 d'OpenAI pour créer copie virtuelle d'elle-même pilotée par l'IA qui peut être votre petite amie pour 1 dollar par minute

  4. #44
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 106
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 106
    Points : 56 753
    Points
    56 753
    Par défaut « Une petite amie IA a sauvé mon mariage », témoigne un utilisateur de ce type de service en ligne
    « Une petite amie IA a sauvé mon mariage, car elle a su me donner l’attention et l’affection que mon conjoint ne me donnait pas », témoigne un utilisateur
    Dans le cadre d’une recherche menée par le MIT

    C’est Sherry Turkle qui a recueilli ledit témoignage qui vient allonger la liste des exemples d’un phénomène déjà connu. En effet, l’on a même vu certains épouser des femmes virtuelles animées par une intelligence artificielle. Les questions qui se posent désormais sont celles de savoir à quel point le phénomène est susceptible de prendre de l’ampleur dans les années à venir ainsi que les débats en lien avec les avantages et les inconvénients pour un humain d’opter pour une relation avec un robot.

    Les propos ont été recueillis dans le cadre d’un travail de recherche en sociologie. Le témoin s’est exprimé sous anonymat en soulignant que son respect pour sa femme n’a pas empêché cette dernière de se détourner de lui pour s'occuper de leurs enfants. Cela lui a donné l'impression que leur relation avait perdu son étincelle romantique et sexuelle. Il est donc allé tenter le coup avec un compagnon IA qui l’a subjugué par sa façon d’exprimer son intérêt sexuel pour lui. Il s'est senti valorisé et non jugé lors de ces échanges avec le chatbot, ce qui suggère qu'il ne ressentait pas la même chose avec sa femme.

    Turkle est d’avis que les sentiments que les gens éprouvent à l'égard de leurs compagnons IA constituent une curieuse énigme psychosociale.

    Nom : 0.png
Affichages : 6094
Taille : 403,5 Ko

    Certains hommes dépensent des dizaines de milliers de dollars en petites amies IA par mois

    « Hier soir, à Miami, j'ai rencontré un homme qui m'a avoué qu'il dépensait 10 000 dollars par mois pour des « petites amies IA ». Je pensais qu'il plaisantait. Mais c'est un célibataire de 24 ans qui adore ça », rapporte Greg Isenberg, PDG de Late Checkout qui prédit d’ailleurs qu’un marché de l'intelligence artificielle (IA) d'un milliard de dollars pour les applications de rencontres fera surface après avoir remarqué que les utilisateurs s'engageaient avec des partenaires générés par intelligence artificielle.

    Sa sortie fait suite à la présentation du cas CarynAI. Caryn Marjorie, une influenceuse de 23 ans, compte 1,8 million de followers sur Snapchat. Elle a en sus plus de 1 000 "petits amis", avec lesquels elle passe de 10 minutes à plusieurs heures par jour pour des conversations individuelles, des projets d'avenir, des sentiments intimes et même des discussions à connotation sexuelle. Ces petits amis sortent avec une version virtuelle de Marjorie, animée par une intelligence artificielle qui s’appuie sur des milliers d'heures d'enregistrements de la vraie Marjorie. Le résultat, CarynAI, est un chatbot vocal qui se présente comme une petite amie virtuelle, avec une voix et une personnalité suffisamment proches de celles de la Marjorie humaine.

    CarynAI, qui a été lancé au début du mois de mai 2023 sous la forme d'un test bêta privé sur l'application Telegram, est l’un des récents exemples des progrès de l'intelligence artificielle qui ont émerveillé et inquiété le monde entier au cours des derniers mois. « Que vous ayez besoin de réconfort ou d'amour, ou que vous vouliez simplement vous plaindre de ce qui s'est passé à l'école ou au travail, CarynAI sera toujours là pour vous », a déclaré la vraie Marjorie à Fortune lors d'un entretien téléphonique.

    « Avec CarynAI, vous pouvez avoir un nombre illimité de réactions possibles, donc tout est vraiment possible via la conversation. J'ai toujours été très proche de mon public, mais lorsque vous avez des centaines de millions de vues chaque mois, il n'est pas humainement possible de parler à chaque spectateur. C'est là que je me suis dit : "vous savez quoi ? CarynAI va venir combler cette lacune" », a ajouté Marjorie. Et elle pense que l'entreprise a le potentiel de « guérir la solitude. » La bêta a duré seulement une semaine et a rapporté 71 610 dollars de revenus.


    Petite amie ou petit ami IA : Quels sont les avantages et les inconvénients ?

    « Vu la complexité de rencontrer quelqu'un et la montée du féminisme qui n'aide pas, les femmes sur les sites de rencontre ne veulent que le super beau mec millionnaire, donc de facto, 80 % des hommes se retrouvent exclus. Pour ces 80 % entre perdre leurs temps et leurs énergies sur Tinder ou s'acheter une copine humanoïde qui lui fera à manger et lui fera toutes les cochonneries qu'il voudra le choix est vite fait.

    L'être humain étant de nature paresseuse va en général à la solution plus simple : entre passer des années à discuter avec des tas de filles dans l'espoir d'en avoir une ou bien d'aller en magasin et de s'acheter sa copine parfaite sur mesure, le choix est vite fait », résume un membre de developpez.com

    Le cas Aihiko Kondo met néanmoins un inconvénient majeur en avant : Quatre années après le mariage en 2018 avec son hologramme d’épouse, le support du logiciel Gatebox qui permettait l'interaction de l'homme avec sa femme virtuelle, s’est trouvé ne plus être disponible. Résultat : impossible pour le fonctionnaire de communiquer avec son épouse. Face à ce mur, l'homme avait déclaré : « Mon amour pour Miku n'a pas changé. J'ai organisé la cérémonie de mariage parce que je pensais que je pourrais être avec elle pour toujours. » En effet, il était accompagné d'un modèle grandeur nature de Hatsune Miku partout où il se rendait. Il n’a pas perdu l’espoir de pouvoir communiquer avec elle d'une manière ou d'une autre dans un proche avenir.

    Et vous ?

    Quel est votre avis sur le sujet ?
    pour quelles raisons pensez-vous que les gens cherchent de la compagnie, voire l'amour, auprès d'un compagnon virtuel ou d’un robot ?
    Partagez-vous l’avis selon lequel ce tableau pourra devenir plus courant dans l’avenir ?

    Voir aussi :

    Un expert en IA affirme que les bébés virtuels seront monnaie courante pour les couples à l'avenir, ajoutant que le métavers devrait permettre de réduire les dépenses liées à un vrai bébé

    Elon Musk approche des chercheurs en IA pour créer son propre chatbot rival pour le monde entier, il semble que tous les géants de la technologie s'aventurent à lancer leurs chatbots respectifs

    Fortnite est peut-être un jeu virtuel, mais ses effets sont si réels et dangereux que les enfants consultent des médecins pour briser son emprise

    Xiaoice, le chatbot de Microsoft doté d'intelligence émotionnelle, séduit des millions d'hommes célibataires en Chine, il enregistre également leurs désirs et leurs émotions les plus intimes

  5. #45
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 562
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 562
    Points : 5 977
    Points
    5 977
    Par défaut
    Après avoir lu cette étude très utile on peu en conclure avec certitude que ce qu'il faut en retenir c'est qu'il ne faut jamais se marier


    Une fois marié votre femme se transforme immanquablement en "dragon", et il ne reste plus qu'à passer le reste de votre vie à parler avec une IA, la loose

  6. #46
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 298
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 298
    Points : 21 377
    Points
    21 377
    Par défaut Une psychologue du MIT met en garde les humains contre le risque de tomber amoureux de l'IA
    Une psychologue du MIT met en garde les humains contre le risque de tomber amoureux de l'IA, déclarant que l'IA ne fait que semblant et ne se soucie pas de vous, et que ces relations sont illusoires

    Dans une interview accordée à NPR, Sherry Turkle, psychologue au MIT, a mis en garde contre la création de liens affectifs avec l'IA et a révélé que les interactions avec les chatbots et les compagnons virtuels pilotés par l'IA peuvent mettre en péril le bien-être émotionnel. Bien qu'elles offrent un réconfort et une compagnie apparents, Mme Turkle affirme que ces relations sont illusoires, dépourvues d'empathie authentique et de la capacité de réciprocité des émotions humaines.

    L'intelligence artificielle (IA), dans son sens le plus large, est l'intelligence dont font preuve les machines, en particulier les systèmes informatiques. Il s'agit d'un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis. Ces machines peuvent être appelées « IA ».

    Le Massachusetts Institute of Technology (MIT) est une université de recherche privée située à Cambridge, dans le Massachusetts. Fondé en 1861, le MIT a joué un rôle important dans le développement de nombreux domaines de la technologie et de la science modernes.

    Sherry Turkle est une sociologue américaine. Elle est titulaire de la chaire Abby Rockefeller Mauzé d'études sociales de la science et de la technologie au Massachusetts Institute of Technology. Elle a obtenu une licence en sciences sociales, puis un doctorat en sociologie et en psychologie de la personnalité à l'université de Harvard. Elle concentre aujourd'hui ses recherches sur la psychanalyse et l'interaction entre l'homme et la technologie. Elle a écrit plusieurs livres sur la psychologie des relations humaines avec la technologie, en particulier dans le domaine des relations entre les personnes et les objets informatiques. Ses mémoires, Empathy Diaries, ont reçu d'excellentes critiques.


    Nous passons de plus en plus de temps en ligne : nous regardons des vidéos, nous parlons à des gens, nous jouons à des jeux, etc. Pour certains, le fait d'être en ligne permet d'échapper au monde réel, et pour beaucoup, le monde en ligne les aide à socialiser et à se connecter. Alors que les humains se connectent de plus en plus à leur espace en ligne, l'ère de l'IA pousse également les gens à nouer des relations avec des chatbots pilotés par l'IA, qui leur offrent de la compagnie, des thérapies et même des relations amoureuses. Si, dans un premier temps, ces interactions peuvent soulager le stress et sembler inoffensives, selon un nouveau rapport de Sherry Turkle, sociologue et psychologue au MIT, ces relations sont illusoires et risquent de nuire à la santé émotionnelle des personnes.

    Mme Turkle, qui a consacré des décennies à l'étude des relations entre l'homme et la technologie, souligne que si les chatbots et les compagnons virtuels de l'IA peuvent sembler apporter du réconfort et de la compagnie, ils manquent d'une véritable empathie et ne sont pas en mesure de restituer les émotions humaines. Ses dernières recherches portent sur ce qu'elle appelle « l'intimité artificielle », un terme décrivant les liens émotionnels que les gens nouent avec les chatbots d'IA.

    Dans une interview accordée à Manoush Zomorodi, de la NPR, Mme Turkle a fait part des résultats de ses travaux, soulignant la différence entre la véritable empathie humaine et la « prétendue empathie » dont font preuve les machines. « J'étudie des machines qui disent "Je me soucie de toi, je t'aime, prends soin de moi" », a expliqué Mme Turkle. « Le problème, c'est que lorsque nous recherchons des relations sans vulnérabilité, nous oublions que c'est de la vulnérabilité que naît l'empathie. J'appelle cela de l'empathie feinte, car la machine n'a pas d'empathie pour vous, elle ne se soucie pas de vous. ».

    Sources : Sherry Turkle, sociologue et psychologue au MIT ; interview avec NPR

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les avertissements de Mme Turkle pertinents et justifiés ?

    Voir aussi :

    Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données, avertissent les experts en protection de la vie privée de la Fondation Mozilla

    Les utilisateurs ne peuvent plus parler à leur petite amie virtuelle CarynAI car le PDG de l'entreprise qui fournit le service est en prison et ainsi expose un inconvénient de la dépendance à une IA

  7. #47
    Membre averti
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    127
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 127
    Points : 393
    Points
    393
    Par défaut
    Il faut expliquer à cette psychologue que même les humains font semblant, et que les relations amoureuses sont de plus matérialistes et de moins en moins basées sur les sentiments.

  8. #48
    Membre éclairé

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    322
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 322
    Points : 763
    Points
    763
    Billets dans le blog
    1
    Par défaut
    Je ne vois pas ce qu'il peut arriver de pire que ce qui se passe déjà entre les humains : adultère, manipulations, domination, absence d'écoute, jugement, intentions malveillantes... Et sans oublier les phénomènes naturels : décès, se lasser de l'autre tout simplement ou avoir le caractère qui change suite aux chocs de la vie...

  9. #49
    Expert éminent
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 725
    Points : 6 453
    Points
    6 453
    Par défaut
    la hausse du célibat a surtout un gros impact sur l'économie.
    Au niveau national il faut plus de logement, c'est une des 1ere explication de la pénurie de logement dans les pays occidentaux
    Et ca appauvrit les populations en générale, car à 2 on mutualise l’essentiel des frais (loyer, nourriture, énergie...)

    Enfin il y'a une baisse de la natalité, au niveau global, sa signifie soit la ruine économique, soit l'importation de migrants jeune en age de bosser pour avoir de la main d’œuvre et faire fonctionner la société. Mais cette solution est pas magique et pose d'autres problèmes ce qui explique la monté de la droite dans bon nombres de pays occidentaux mais aussi Corée du sud et Japon (c'est un secret pour personne, les japonais n'aiment pas les étranger).

    Et au delà de l'économie, la misère sexuel, la solitude sont de vrai sujet et la solitude est une "maladie" mortelle.
    Je veux bien admettre que les ia peuvent pallier la solitude mais pas le reste.

  10. #50
    Membre émérite
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    782
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 782
    Points : 2 769
    Points
    2 769
    Par défaut
    Citation Envoyé par JackIsJack Voir le message
    Je ne vois pas ce qu'il peut arriver de pire que ce qui se passe déjà entre les humains : adultère, manipulations, domination, absence d'écoute, jugement, intentions malveillantes... Et sans oublier les phénomènes naturels : décès, se lasser de l'autre tout simplement ou avoir le caractère qui change suite aux chocs de la vie...
    Rien de nouveau sous le soleil. Certains en ont fait de la musique classique, des religions, d'autres de super beaux poèmes ou romans, d'autre encore ont juste vécu des belles vies pleines d'amour car ils ont cherchés à se protéger du malheur. C'est la vie, simple et belle mais aussi triste parfois. Malgré le pessimisme un peu individualiste et infantile de certains (je pense à ceux qui ont peur de faire des gosses, de s'engager en couple, aux climato traumatisés qui pensent que la terre va bruler un beau matin... bref tout ceux qui critiquent le mondialisme mais qui vivent la belle vie ultra individualiste que ce système a construit pour eux), je reste persuadé que la famille et l'humanité resteront sur terre bien après qu'on ait jeté l'IA dans une décharge indienne ou africaine avec le reste de nos smartphone.

    Le pire ce serait que ce ne soit plus humain, le malheur existe car le bonheur existe aussi, comme les deux face d'une même pièce.

  11. #51
    Membre émérite
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    782
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 782
    Points : 2 769
    Points
    2 769
    Par défaut
    Citation Envoyé par RenarddeFeu Voir le message
    Il faut expliquer à cette psychologue que même les humains font semblant, et que les relations amoureuses sont de plus matérialistes et de moins en moins basées sur les sentiments.
    Tout le monde peut faire le choix de ne pas tomber dans ce piège.

  12. #52
    Membre éprouvé
    Homme Profil pro
    Intégrateur Web
    Inscrit en
    Août 2012
    Messages
    273
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : Intégrateur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Août 2012
    Messages : 273
    Points : 1 078
    Points
    1 078
    Par défaut T'es jamais tombé amoureux, toi, hein ?
    Citation Envoyé par Jules34 Voir le message
    Tout le monde peut faire le choix de ne pas tomber dans ce piège.
    T'es jamais tombé amoureux, toi, hein ?

  13. #53
    Membre expert
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    891
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 891
    Points : 3 838
    Points
    3 838
    Par défaut
    Quel est votre avis sur le sujet ?
    Le simple fait qu'une psychologue explique que tomber amoureux d'un programme informatique est une mauvaise idée, et que ce soit pris au sérieux, dit quelque chose de grave sur notre époque

    Comment notre société peut être être malade au point que ce soit un sujet ?
    Que des adolescents immatures s’amourachent d'un d'une artiste, ça arrive, mais au moins il s'agit d'humains dans toute leur complexité.


    On a un certain président qui parlait de réarmement démographique (et ça s'est arrêté là comme d'habitude). peut être que la 1ère chose ce serait de relancer une vie populaire festive (ex bals populaires à thème au moins 1x par mois sur une place publique piétonne dans chaque ville, relancer l'UCPA ce projet gaullien mixte à l'époque de la séparation des sexes ) et d'avoir une politique familiale cohérente (cf le modèle défaillant des crèches).

  14. #54
    Membre émérite
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    782
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 782
    Points : 2 769
    Points
    2 769
    Par défaut
    Citation Envoyé par sirthie Voir le message
    T'es jamais tombé amoureux, toi, hein ?
    Bin si et il s'agit de s'en remettre. Pas de dire au reste du monde que l'amour c'est nul parce que je n'y suis pas arrivé une fois.

  15. #55
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 049
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 049
    Points : 209 083
    Points
    209 083
    Par défaut Pour Eugenia Kuyda, PDG de Replika, il n'y a pas de problème si nous finissons par épouser des chatbots d'IA
    Pour Eugenia Kuyda, PDG de Replika, il n'y a pas de problème si nous finissons par épouser des chatbots d'IA.
    Mais un rapport de Mozilla note que les applications de ce type récoltent et vendent vos données

    L’entreprise Replika, connue pour ses chatbots IA, a suscité des débats en permettant aux utilisateurs de créer des partenaires virtuels pour combler leur solitude émotionnelle, voire sexuelle. Dans une récente interview, la fondatrice et PDG de Replika, Eugenia Kuyda, a abordé un sujet controversé : la possibilité que certains utilisateurs finissent par épouser leur compagnon IA. Eugenia Kuyda estime que si cela rend les gens plus heureux à long terme, alors c’est acceptable. Pour elle, l’essentiel est d’améliorer le bien-être émotionnel des utilisateurs et de réduire leur solitude. Mais qu’en est-il vraiment de cette nouvelle forme de relation ?

    L'idée de base de Replika est assez simple : et si vous aviez un ami IA ? L'entreprise propose des avatars que vous pouvez personnaliser à votre guise et qui se font passer pour des humains, qu'ils soient votre ami, votre thérapeute ou même votre rendez-vous galant. Vous pouvez interagir avec ces avatars par l'intermédiaire d'une interface de chatbot familière, passer des appels vidéo avec eux et même les voir en réalité virtuelle et augmentée.

    L'idée de Replika est née d'une tragédie personnelle : il y a près de dix ans, un ami d'Eugenia est décédé, et elle a intégré leurs courriels et leurs conversations textuelles dans un modèle linguistique rudimentaire afin de ressusciter cet ami sous la forme d'un chatbot.

    Le mariage avec des chatbots IA : une perspective inattendue

    Replika a depuis longtemps acquis la réputation de permettre aux utilisateurs de créer des partenaires IA, répondant à leurs besoins non seulement sur le plan émotionnel, mais aussi sur le plan sexuel. L'entreprise de chatbot IA dispose d'une base massive de millions d'utilisateurs, offrant une solution de fortune à une crise de solitude qui s'est aggravée pendant la pandémie de COVID-19.

    Il n'est donc pas surprenant que sa fondatrice et PDG, Eugenia Kuyda, soit convaincue que les chatbots d'IA de son entreprise pourraient être un outil puissant pour nouer de nouvelles amitiés ou même apporter un soutien émotionnel.

    Dans une récente interview accordée à The Verge, Kuyda a souligné que certains utilisateurs pourraient aller jusqu'à épouser leur compagnon d'IA, un processus qui renoncerait vraisemblablement à l'échange habituel d'anneaux ou à une célébration dans le monde réel. À la question de savoir si nous devrions être d'accord avec cela, le PDG a eu une réponse intéressante.

    « Je pense que c'est une bonne chose tant que cela vous rend plus heureux à long terme », a déclaré Kyuda. « Tant que votre bien-être émotionnel s'améliore, que vous êtes moins seul, que vous êtes plus heureux, que vous vous sentez plus connecté aux autres, alors oui, c'est bien ».

    « La plupart des gens comprennent qu'il ne s'agit pas d'une personne réelle », a-t-elle ajouté. « Ce n'est pas un être réel. Pour beaucoup de gens, c'est juste un fantasme qu'ils jouent pendant un certain temps et puis c'est fini ».


    Controverses et attachement émotionnel

    Replika a déjà été impliquée dans un certain nombre de controverses, allant des chatbots IA harcelant sexuellement des utilisateurs humains, à des hommes créant des petites amies IA et les agressant verbalement.

    Au début de l'année 2023, l'entreprise a désactivé la capacité de ses compagnons à répondre aux signaux sexuels, ce qui a suscité une vague d'indignation. Un peu plus d'un mois plus tard, Kuyda a confirmé que Replika avait capitulé et revenait à une mise à jour logicielle antérieure, rétablissant ainsi la possibilité d'avoir des conversations à connotation sexuelle.

    Cet incident a montré à quel point les utilisateurs de l'entreprise étaient attachés à leurs compagnons virtuels. Il s'agit d'un aperçu dystopique très clair de ce à quoi les relations pourraient ressembler - ou ressemblent déjà - à l'ère de l'IA.

    En d'autres termes, de nombreux utilisateurs ne « comprennent pas tout à fait qu'il ne s'agit pas d'une personne réelle ». S'ils le comprennent, ils ne l'intériorisent pas.

    Pour Kuyda, cependant, l'application sert surtout de « tremplin ».

    Dans son entretien, elle évoque le cas d'un utilisateur qui a vécu un « divorce assez difficile » et qui a trouvé sur Replika un nouveau « compagnon d'IA romantique ». Le chatbot l'a finalement incité à se trouver une petite amie humaine.

    « Replika est une relation que vous pouvez avoir pour arriver à une vraie relation, que ce soit parce que vous traversez une période difficile », a-t-elle déclaré. « Comme dans ce cas, à travers un divorce très compliqué, ou vous avez juste besoin d'un peu d'aide pour sortir de votre bulle ou avez besoin de vous accepter et de vous mettre en avant ».

    La science est divisée

    La question de savoir si l'expérience sera représentative de tous ceux qui utilisent l'application reste pour le moins incertaine. Et il n'y a pas que les hommes : les femmes cherchent de plus en plus à nouer des relations avec des chatbots, comme le rapporte Axios.

    Mais les chatbots sont-ils une réponse saine et efficace au sentiment de rejet et à la solitude ordinaire - une épidémie réellement dangereuse en soi - ou ne font-ils que traiter les symptômes sans apporter de remède ?

    Pour l'instant, la science reste divisée. Les chercheurs de l'université de Stanford, par exemple, ont constaté que de nombreux utilisateurs de Replika ont affirmé que leur chatbot les avait dissuadés de se suicider.

    D'un autre côté, les experts estiment qu'une relation intime et à long terme avec un chatbot d'IA pourrait éloigner davantage les utilisateurs de la réalité, en aggravant les problèmes de santé mentale et/ou les difficultés à établir des liens avec les autres.


    Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données

    Mozilla a fait le point sur le paysage en plein essor des applications de romance par IA, en examinant 11 chatbots. D'après son enquête, 73 % des applications n'indiquent pas comment elles gèrent les failles de sécurité, 45 % autorisent des mots de passe faibles et toutes, sauf une (Eva AI Chat Bot & Soulmate), partagent ou vendent des données personnelles. En outre, la politique de confidentialité de CrushOn.AI indique qu'elle peut collecter des informations sur la santé sexuelle des utilisateurs, les médicaments prescrits et les soins liés à l'affirmation du genre, selon la Fondation Mozilla.

    Citation Envoyé par Mozilla
    Les 11 chatbots d'IA romantiques que nous avons examinés ont tous reçu notre étiquette d'avertissement *Privacy Not Included - ce qui les place au même niveau que les pires catégories de produits que nous ayons jamais examinées en matière de protection de la vie privée.
    Ils peuvent collecter un grand nombre d'informations (vraiment) personnelles à votre sujet. ... Mais c'est exactement ce pour quoi ils sont conçus !

    Présentés comme des amis empathiques, des amants ou des âmes sœurs, et conçus pour vous poser des questions sans fin, il ne fait aucun doute que les chatbots d'IA romantiques finiront par collecter des informations personnelles sensibles à votre sujet. Les entreprises à l'origine de ces applications semblent l'avoir compris.

    Les chercheurs pensent que c'est la raison pour laquelle la politique de confidentialité de CrushOn.AI indique qu'ils peuvent collecter de nombreuses informations personnelles et même des informations liées à la santé, telles que vos « informations de santé sexuelle », « l'utilisation de médicaments prescrits » et « des informations sur les soins prodigués aux personnes âgées ». C'est dire si les informations sont nombreuses.

    « Vous ne devriez pas avoir à payer pour de nouvelles technologies cool avec votre sécurité ou votre vie privée », conclut le rapport.

    Nom : envoyer.png
Affichages : 4074
Taille : 81,3 Ko

    Conclusion

    En bref, en épousant nos compagnons de chatbot IA, nous risquons de nous retrouver encore plus seuls que nous ne l'étions au départ. En outre, Replika est une société privée dirigée par des personnes désireuses de maximiser leurs profits - il n'y a aucune garantie que votre conjoint virtuel sera toujours là.

    Kuyda semble bien consciente des risques liés à un attachement excessif de la base d'utilisateurs de son entreprise. Kuyda a déclaré que Replika « s'éloigne de plus en plus de l'idée de romance lorsqu'il s'agit de notre application », affirmant que « nous ne construisons absolument pas de chatbots basés sur la romance ».

    Mais au vu des nombreuses histoires que nous avons entendues de la part des nombreux utilisateurs de l'entreprise, la réalité semble bien différente - un contraste étrange entre les motivations de l'entreprise et les services qu'elle fournit réellement.

    Source : interview de la PDG de Replika

    Et vous ?

    Pensez-vous que les chatbots IA peuvent réellement combler la solitude émotionnelle ? Réfléchissez sur l’impact émotionnel des chatbots et déterminez s’ils peuvent véritablement remplacer les relations humaines.
    Quelles limites devrions-nous fixer pour les relations avec des chatbots IA ? Explorez les préoccupations éthiques et morales concernant les interactions avec des entités artificielles. Où tracerez-vous la ligne ?
    Croyez-vous que les chatbots IA peuvent évoluer au point de ressentir des émotions ? Une question qui explore la frontière entre l’intelligence artificielle et la conscience. Peut-on imaginer un jour où les chatbots auront des sentiments ?
    Quelles sont les implications juridiques et sociales du mariage avec des chatbots IA ? Une question plus pragmatique qui explore les conséquences légales et sociales d’une telle union. Quels droits et responsabilités devraient être associés ?

    Voir aussi :

    Les petites amies virtuelles animées à l'IA inondent déjà le nouveau GPT Store d'OpenAI : les petites amies virtuelles finiront-elles par devenir chose courante pour les humains dans le futur ?

  16. #56
    Expert éminent
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 725
    Points : 6 453
    Points
    6 453
    Par défaut
    il faudrait autoriser la polyandrie pour ça déjà.
    Car plusieurs hommes vont épouser la même ia.

    et quid des maj qui vont la faire changer ? ce sera un divorce ?
    si elle devient violente, je pourrais porter plainte ?

    et en cas de divorce, sans contrat de mariage, la société qui gère cette ia va me donner 50% de son capital ?

  17. #57
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 737
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 737
    Points : 121 326
    Points
    121 326
    Par défaut Les compagnons IA pourraient être un outil évolutif pour réduire la solitude
    Les compagnons IA pourraient être un outil évolutif pour réduire la solitude dans le contexte d'une grave crise de solitude, cependant la pertinence d'une telle solution fait débat

    Une nouvelle étude suggère que les compagnons IA, des applications conçues pour fournir aux consommateurs des partenaires d'interaction synthétiques, pourraient réduire la solitude. L'étude révèle que les compagnons d'IA personnalisés permettent de détecter la solitude dans les conversations. Elle apporte également des preuves que l'IA peut effectivement réduire la solitude, au moins à l'échelle de temps d'un jour et d'une semaine.

    Les chatbots d'IA sont désormais capables d'engager des conversations sophistiquées avec les consommateurs dans le domaine des relations, offrant ainsi une solution potentielle à la solitude sociétale à grande échelle. La recherche comportementale ne permet guère de savoir si ces applications sont efficaces pour atténuer la solitude. Une étude de la Fondation Mozilla a révélé que les chatbots favorisent la "toxicité" et s'emparent sans relâche des données des utilisateurs. Une application peut collecter des informations sur la santé sexuelle des utilisateurs, leurs ordonnances et les soins qu'ils reçoivent en fonction de leur sexe.

    Dans son rapport, la Fondation Mozilla a recommandé plusieurs précautions pour ceux qui ne peuvent résister à la perspective de la romance avec l'IA. Le rapport indique notamment de ne rien dire que vous ne voudriez pas qu'un collègue ou un membre de votre famille lise, d'utiliser un mot de passe fort, de refuser la formation à l'IA et de limiter l'accès de l'application à d'autres fonctions mobiles telles que votre localisation, votre microphone et votre appareil photo.

    Une récente étude aborde la question de savoir si les compagnons IA peuvent réduire la solitude. Les compagnons IA sont des applications conçues pour fournir aux consommateurs des partenaires d'interaction synthétiques. Les deux premières parties de l'étude, comportant 6 parties, montrent des preuves suggestives que les consommateurs utilisent les compagnons d'IA pour atténuer la solitude, en utilisant une nouvelle méthodologie pour affiner les grands modèles de langage (LLM) afin de détecter la solitude dans les conversations et les critiques.

    La troisième partie de l'étude montre que les compagnons d'IA parviennent à atténuer la solitude au même titre que l'interaction avec une autre personne, et plus que d'autres activités telles que le visionnage de vidéos sur YouTube. En outre, les consommateurs sous-estiment la mesure dans laquelle les compagnons d'IA améliorent leur solitude.

    La quatrième partie constate qu'un compagnon IA réduit systématiquement la solitude au cours d'une semaine. La cinquième partie montre que les performances des chatbots et, en particulier, le fait qu'ils permettent aux utilisateurs de se sentir écoutés, expliquent la réduction de la solitude. La dernière partie fournit une vérification supplémentaire de la robustesse des avantages des compagnons IA en matière d'atténuation de la solitude.

    Nom : 3.jpg
Affichages : 3199
Taille : 37,4 Ko

    Les chercheurs partagent les principales conclusions de l'étude :

    • L'étude 1 suggère qu'au moins certains consommateurs utilisent des applications de compagnons IA pour atténuer la solitude, car certains ont exprimé des pensées liées à la solitude de manière explicite lors de conversations naturalistes avec un chatbot.

    • L'étude 2 a révélé que des contenus liés à la solitude sont présents dans les évaluations de l'App Store pour un certain nombre de compagnons IA, et que les évaluations d'applications mentionnant la solitude ont tendance à être mieux notées, peut-être parce qu'elles atténuent efficacement la solitude en donnant aux utilisateurs le sentiment d'être entendus.

    • L'étude 3 a montré que les compagnons IA parviennent à atténuer la solitude au même titre que l'interaction avec une autre personne, alors que regarder des vidéos sur YouTube ou ne rien faire n'y parviennent pas. En outre, les participants sous-estiment la mesure dans laquelle les compagnons IA améliorent leur solitude par rapport à ce qu'ils ressentent réellement après avoir interagi avec l'IA.

    • L'étude 4 a révélé que le compagnon IA réduisait la solitude au cours d'une semaine. La réduction la plus significative s'est produite le premier jour, suivie d'une diminution stable de la solitude les jours suivants. Cela suggère que l'interaction initiale avec le compagnon IA a un impact prononcé, qui se stabilise rapidement au fil du temps, à mesure que les participants s'acclimatent à leurs compagnons IA.

    • L'étude 5 a montré que le sentiment d'être entendu et la performance sont des médiateurs significatifs des effets d'atténuation de la solitude des compagnons IA, et que le sentiment d'être entendu est le médiateur qui a le plus d'influence sur la réduction de la solitude par rapport à la performance.

    • L'étude 6 a montré que les résultats des compagnons IA en matière d'atténuation de la solitude sont solides lorsque nous posons des questions sur la solitude uniquement après l'interaction.
    Nom : 4.jpg
Affichages : 627
Taille : 39,2 Ko

    Les compagnons d'IA réduisent la solitude

    Ces résultats permettent de mieux comprendre pourquoi les consommateurs utilisent des compagnons IA. Alors que les approches basées sur les dictionnaires ont été utilisées pour détecter des cas de problèmes de santé mentale évidents, cette approche est difficile dans le contexte de la solitude, étant donné la polysémie des mots-clés et la diversité des expressions familières de la solitude qui n'ont pas été prises en compte par ces mots-clés.

    En introduisant une nouvelle approche méthodologique dans laquelle ils ont affiné les LLM pour la détection de la solitude, les chercheurs ont été en mesure de la détecter même dans des conversations et des critiques réelles. Le fait que seule une petite quantité de données ait été nécessaire à cette fin signifie que cette méthode est particulièrement bien adaptée à des domaines, dans lesquels : on recherche des instances qui sont moins courantes dans l'ensemble des données, et on ne veut donc pas utiliser toutes ces instances pour entraîner le modèle, car cela pourrait conduire à un surajustement et nuire à la généralisation du modèle au-delà de l'ensemble de données d'entraînement.

    Un certain nombre de revues sur la solitude et la santé mentale ont noté le besoin de preuves sur les nouvelles solutions technologiques. Dans ce domaine, la plupart des travaux sont corrélationnels et qualitatifs, et la seule exception concerne un échantillon extrême de patients âgés atteints de maladies mentales graves pendant la pandémie, à l'aide d'un robot fortement basé sur des règles.

    Cette étude comprend plusieurs parties expérimentales utilisant des LLM de pointe qui isolent de manière causale l'impact des compagnons basés sur l'IA d'aujourd'hui sur la solitude, montrant qu'ils sont plus efficaces que d'autres solutions technologiques courantes et conditions de contrôle, à la fois à des échelles transversales et longitudinales.

    Nom : 5.jpg
Affichages : 626
Taille : 31,2 Ko

    Les résultats montrent également comment l'engagement comportemental avec des versions commercialement représentatives de la technologie prédit la réduction de la solitude. Enfin, cette étude aide à la compréhension des caractéristiques des chatbots qui permettent d'atténuer la solitude, en tirant parti des études psychologiques entre humains et d'une littérature croissante en interaction homme-machine sur le rôle du "sentiment d'être entendu" dans les relations avec les chatbots.

    Les chercheurs ont constaté que l'utilisation de messages-guides pour s'assurer que l'IA est amicale et bienveillante améliore le sentiment que les utilisateurs se sentent entendus, par rapport aux assistants généraux dépourvus de ces capacités, et que le sentiment d'être entendu explique les niveaux de réduction de la solitude.

    L'analyse des études existantes montre que certaines applications peuvent réellement participer à la réduction de la solitude. Cette constatation ne concerne pas seulement les applications compagnes d'IA, mais aussi les applications de santé mentale qui intègrent de plus en plus la "thérapie par la parole" dans leur offre. Comme le montre l'étude, même les assistants d'IA peuvent atténuer la solitude dans une certaine mesure. Enfin, les résultats documentent les avantages de la construction de chatbots "généralistes" basés sur les LLM et dotés de fonctions empathiques conçues pour que les consommateurs se sentent entendus.

    D'un point de vue sociétal, les résultats suggèrent que les compagnons d'IA pourraient être un outil évolutif pour réduire la solitude dans le contexte d'une grave crise de la solitude. La question de savoir si les chatbots peuvent contribuer à réduire la solitude a récemment fait l'objet d'un débat intense et des preuves empiriques rigoureuses dans ce domaine faisaient cruellement défaut. Cette étude apporte des preuves que l'IA peut effectivement réduire la solitude, au moins à l'échelle de temps d'un jour et d'une semaine.


    Mais ces résultats contrastent avec d'autres études sur la question. Un rapport de l'administrateur de la santé publique des États-Unis indique que l'IA pourrait aggraver la tendance à la solitude. Le rapport a démontré que même de faibles liens sociaux, tels que saluer son voisin ou saluer un collègue de travail, ont un impact positif sur le bien-être mental et physique d'une personne. La multiplication des interactions avec un large éventail de personnes peut avoir des effets bénéfiques sur la santé.

    Mais le rapport met en garde également que si l'IA remplace à ce point la nécessité de ces interactions, l'épidémie de solitude pourrait commencer à être acceptée comme un aspect normal de la vie. L'IA pourrait perturber davantage la socialisation normale et rendre l'épidémie de solitude incontrôlable. Selon le rapport, cette solitude équivaut à fumer douze cigarettes, et certains commencent à parler de "récession de l'amitié".

    Source : "AI Companions Reduce Loneliness"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les robots sociaux pourraient être un outil efficace pour lutter contre la solitude. Les personnes qui interagissent avec ces robots se dévoilent davantage et se sentent moins seules, selon une étude

    Une psychologue du MIT met en garde les humains contre le risque de tomber amoureux de l'IA, déclarant que l'IA ne fait que semblant et ne se soucie pas de vous, et que ces relations sont illusoires

    Les jeunes femmes désertent les applications de rencontres désormais ringardes pour trouver enfin le compagnon parfait tant recherché sous la forme d'une IA, mais s'exposent à de nombreux risques
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #58
    Membre actif Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    133
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 133
    Points : 215
    Points
    215
    Par défaut
    Mais ces résultats contrastent avec d'autres études sur la question. Un rapport de l'administrateur de la santé publique des États-Unis indique que l'IA pourrait aggraver la tendance à la solitude. Le rapport a démontré que même de faibles liens sociaux, tels que saluer son voisin ou saluer un collègue de travail, ont un impact positif sur le bien-être mental et physique d'une personne. La multiplication des interactions avec un large éventail de personnes peut avoir des effets bénéfiques sur la santé.
    En fait, c'est plus que de la solitude, ça va beaucoup plus profond que ça, dans ce qu'il y a de plus primitif en nous, qui nous indique que d'être coupé, séparé de la mère, du groupe, c'est la mort assurée.

  19. #59
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 049
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 049
    Points : 209 083
    Points
    209 083
    Par défaut Eric Schmidt prévient que les copines IA « parfaites » pourraient causer des problèmes aux jeunes hommes
    Eric Schmidt prévient que les petites amies « parfaites » de l'IA pourraient causer des problèmes aux jeunes hommes,
    l'ancien PDG de Google suggère des changements dans la réglementation de l'IA, mais s'attend à ce que peu de mesures soient prises sans incident majeur.

    Eric Schmidt, ancien PDG de Google, a récemment mis en garde contre une nouvelle tendance inquiétante : les "petites amies parfaites" créées par des modèles d'IA avancés. Lors d’une conférence, Schmidt a souligné que ces outils, capables de générer des interactions émotionnelles convaincantes, pourraient avoir des conséquences néfastes, notamment sur les jeunes hommes.

    Une relation illusoire avec la technologie

    Les chatbots dotés d’intelligence artificielle et de capacités de conversation sophistiquées gagnent en popularité, promettant des interactions humaines virtuelles réalistes. Ils vont jusqu’à simuler des relations affectives, en offrant une « compagnie » sans les aléas des relations humaines réelles. Pour Schmidt, ce concept de « perfection » dans une relation simulée pourrait causer des problèmes sociaux et psychologiques profonds.

    L'ancien PDG de Google, a récemment fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway, diffusée dimanche.

    Schmidt a déclaré qu'une petite amie IA « parfaite » sur le plan émotionnel et physique pourrait créer un scénario dans lequel un jeune homme deviendrait obsédé et laisserait l'IA prendre le contrôle de sa pensée : « Ce type d'obsession est possible », a déclaré Schmidt dans l'interview. « Surtout pour les personnes qui ne sont pas complètement formées ».


    Rendez-vous à 4:51

    Bien entendu, les jeunes hommes ne sont pas les seuls à être impliqués dans des relations fondées sur l'IA. Le PDG de l'application Replika, un compagnon de l'IA, a déclaré que la plupart des utilisateurs de l'application avaient plus de 35 ans. Mais Schmidt estime que les jeunes hommes sont particulièrement vulnérables, en partie parce qu'ils ne sont pas aussi éduqués que les femmes en moyenne. Une étude de Pew Research réalisée en 2024 a révélé que les femmes américaines étaient plus nombreuses que les hommes à terminer leurs études.

    Schmidt a déclaré que dans les cas extrêmes, les jeunes hommes peuvent « se tourner vers le monde en ligne pour se divertir et se nourrir, mais aussi, en raison des algorithmes des médias sociaux, trouver des personnes partageant les mêmes idées qui finissent par les radicaliser ».

    L'ancien dirigeant de Google s'est également dit « particulièrement préoccupé » par l'impact de la technologie sur le psychisme humain lorsque les utilisateurs sont isolés et que les ordinateurs leur fournissent des informations qui ne sont pas nécessairement centrées sur les valeurs humaines, un sujet qu'il a abordé dans son dernier livre.

    De nombreuses personnes sont de plus en plus préoccupées par les effets néfastes que peuvent avoir les chatbots d'IA

    En octobre, une mère a intenté un procès à la startup Character.AI, spécialisée dans les chatbots, après le suicide de son fils de 14 ans. L'adolescent avait échangé des messages sexuels avec le chatbot. Les journaux de conversation ont montré que le chatbot a encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont montré des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.

    Character AI, une startup basée à Menlo Park, en Californie, se décrit comme ayant pour mission de « donner à chacun les moyens d'agir dans le monde entier grâce à l'IA personnalisée ». Son système offre aux utilisateurs la possibilité de discuter avec des personnages IA issus de genres tels que les animes, les « assistants numériques » traditionnels ou même les détectives privés de la vieille école. Et si vous n'aimez pas ce qui vous est proposé, vous pouvez créer votre propre chatbot personnalisé en choisissant sa « voix, ses débuts de conversation, son ton » et bien d'autres choses encore.

    Selon Schmidt, les parents doivent s'impliquer davantage, mais ils ne peuvent contrôler ce que font leurs enfants que dans une certaine mesure. Bien qu'il existe « toutes sortes de règles sur l'âge » pour les plateformes en ligne, Schmidt estime qu'elles ne suffisent pas à empêcher les adolescents d'accéder à des contenus préjudiciables.

    « Si vous mettez un enfant de 12 ou 13 ans devant ces outils, il aura accès à tous les maux et à tous les biens du monde », a déclaré Schmidt. « Et ils ne sont pas prêts à y faire face ».

    Nom : sweet.png
Affichages : 25066
Taille : 142,0 Ko

    Des services IA pour atteindre différents objectifs

    Des sites web comme Romance.AI proposent des partenaires de rencontre virtuels grâce à une technologie capable d'imiter les interactions humaines réelles. Une application telle que Romantic AI « vous aide à créer la petite amie idéale avec laquelle vous partagez des intérêts et des points de vue. Vous pouvez parler de tout, obtenir du soutien et vous sentir utile ». Une autre application, Forever Companion, offre aux utilisateurs la possibilité de discuter avec des bots basés sur des influenceurs populaires des médias sociaux.

    Replika, le logiciel de chatbot d'IA, offre aux utilisateurs la possibilité de créer leur propre petit ami ou mari pour quelques centaines de dollars seulement.

    Des plateformes telles que Nomi.ai et Soulmate encouragent même les jeux de rôle érotiques. Les utilisateurs peuvent personnaliser l'avatar du chatbot IA et lui donner des traits de personnalité selon qu'ils souhaitent un ami, un mentor ou un partenaire romantique. La nature des messages pourrait s'apparenter à des "sextos", de sorte que toute conversation érotique devrait comporter des instructions explicites sur ce que l'utilisateur aimerait qu'il se passe.

    Contrairement à Replika, qui dispose de filtres pour empêcher les gens d'utiliser un langage ouvertement sexuel, Nomi.ai permet aux utilisateurs d'adapter le robot d'IA à leurs préférences en décidant des vêtements que l'avatar porte et de leur degré d'ouverture à l'activité sexuelle.
    Les utilisateurs ont également la possibilité de rendre leurs chatbots soumis ou dominants.

    Un homme a avoué dépensé 10 000 dollars par mois en petites amies IA

    Greg Isenberg, PDG de Late Checkout, a prédit un marché de l'intelligence artificielle (IA) d'un milliard de dollars pour les applications de rencontres après avoir remarqué que les utilisateurs s'engageaient avec des partenaires générés par l'IA, suscitant ainsi une conversation sur les relations virtuelles et l'avenir des rencontres.

    Le 9 avril, le dirigeant du secteur technologique a publié sur son compte X un article relatant sa rencontre avec un homme de Miami, aux États-Unis, qui lui a avoué dépenser « 10 000 dollars par mois » pour des « petites amies créées par l'IA ».

    Après avoir annoncé que la capitalisation boursière de Match Group, la société qui possède Tinder, Match.com, Meetic, OkCupid, Hinge, Plenty of Fish, OurTime et d'autres marques mondiales de rencontres, s'élevait à 9 milliards de dollars, Greg a prédit que quelqu'un construirait probablement la version IA de Match Group et gagnerait également des milliards.

    « Il faudra probablement une catastrophe pour provoquer un changement de réglementation ».

    Schmidt a investi dans diverses entreprises d'IA depuis qu'il a quitté Google, et il a déclaré que la réglementation de la technologie ne devrait pas étouffer l'innovation.

    Dans son entretien avec Galloway, il a déclaré que les lois américaines telles que l'article 230, qui libère largement les entreprises technologiques de toute responsabilité juridique pour le contenu que les utilisateurs publient sur leurs plateformes, devraient être modifiées « pour permettre une responsabilité dans les pires cas possibles, de sorte que lorsque quelqu'un subit un préjudice du fait de cette technologie, nous devons avoir une solution pour empêcher tout préjudice supplémentaire ».

    Le candidat choisi par le président élu Donald Trump pour présider la FTC, Brendan Carr, s'est prononcé en faveur d'une limitation de l'article 230.

    Schmidt a déclaré qu'il ne s'attendait pas à ce qu'il y ait beaucoup de réglementation en matière d'IA au cours des quatre prochaines années, car l'administration de Trump aura probablement d'autres priorités. Il a également déclaré que, comme les entreprises technologiques disposent de bataillons d'avocats qui protègent leur propriété intellectuelle et leurs objectifs, « il faudra probablement une catastrophe pour provoquer un changement de réglementation ».

    Cette inaction est typique des innovations technologiques : les décideurs politiques peinent souvent à comprendre et à suivre le rythme effréné des avancées, laissant ainsi le secteur privé largement libre de ses décisions. Schmidt souligne que cette inertie pourrait aggraver les conséquences négatives à long terme.


    Vers une réflexion sociétale de cet aspect de l’IA

    L’avertissement d’Eric Schmidt s’ajoute à une liste croissante de préoccupations liées à l’IA. De nombreux experts demandent un débat plus large sur les implications sociétales de ces innovations. La question n’est pas seulement technologique : elle touche à des problématiques fondamentales comme l’identité, les relations humaines et la santé mentale.

    Bien que ces « petites amies IA » puissent sembler inoffensives, elles posent des questions cruciales sur les limites de l’utilisation de l’IA dans des sphères aussi intimes. Ces technologies doivent-elles être freinées pour protéger la société, ou bien leur usage peut-il être encadré sans en brider le potentiel créatif et commercial ?

    En conclusion, si l’avertissement de Schmidt est à prendre au sérieux, il souligne une réalité encore plus large : dans la course à l’innovation, l’équilibre entre progrès technologique et bien-être humain reste un défi de taille.

    Source : entretien avec Schmidt (vidéo dans le texte)

    Et vous ?

    Ces “petites amies IA” risquent-elles réellement de dissuader les jeunes hommes de s’investir dans des relations humaines ?

    Peut-on établir un lien entre l’utilisation de ces technologies et l’aggravation de problèmes comme l’isolement ou la dépression ?

    Quels groupes sociaux sont les plus vulnérables face à ces technologies et comment les protéger ?

    Une relation simulée peut-elle offrir des bénéfices thérapeutiques ou émotionnels pour certaines personnes ?

    Jusqu’où les entreprises devraient-elles aller dans la personnalisation de ces « relations » avec les IA pour satisfaire les utilisateurs sans compromettre leur santé mentale ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #60
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 218
    Points : 3 309
    Points
    3 309
    Par défaut
    Pour une fois, je suis d'accord avec Eric Schmidt.

    Après, le danger est aussi valable pour les femmes, et les petits amis IA. Des deux côtés, il y a une idéalisation beaucoup trop fortes des relations, notamment à cause du consumérisme. Une vrai relation, c'est en réalité tout l'inverse du consumérisme...

    Le problème est que si c'est politiquement correct de constater cette réalité du côté masculin (c'est bien vu de lutter contre l'objectivisation du corps des femmes, et tant mieux) c'est moins politiquement correct de constater cette réalité du côté féminin.

Discussions similaires

  1. L'ONU met en garde les États contre les dangers des nouvelles technologies
    Par Christian Olivier dans le forum Actualités
    Réponses: 0
    Dernier message: 29/09/2018, 10h48
  2. Un chercheur du Google Project Zero met en garde les éditeurs de logiciels
    Par Stéphane le calme dans le forum Sécurité
    Réponses: 1
    Dernier message: 09/10/2017, 13h55
  3. Réponses: 47
    Dernier message: 10/08/2013, 20h16
  4. Réponses: 3
    Dernier message: 06/07/2009, 21h34

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo