IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Mark Zuckerberg pense que vous n'avez pas assez d'amis et que ses chatbots répondent à cette misère affective


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 761
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 761
    Par défaut Eric Schmidt prévient que les copines IA « parfaites » pourraient causer des problèmes aux jeunes hommes
    Eric Schmidt prévient que les petites amies « parfaites » de l'IA pourraient causer des problèmes aux jeunes hommes,
    l'ancien PDG de Google suggère des changements dans la réglementation de l'IA, mais s'attend à ce que peu de mesures soient prises sans incident majeur.

    Eric Schmidt, ancien PDG de Google, a récemment mis en garde contre une nouvelle tendance inquiétante : les "petites amies parfaites" créées par des modèles d'IA avancés. Lors d’une conférence, Schmidt a souligné que ces outils, capables de générer des interactions émotionnelles convaincantes, pourraient avoir des conséquences néfastes, notamment sur les jeunes hommes.

    Une relation illusoire avec la technologie

    Les chatbots dotés d’intelligence artificielle et de capacités de conversation sophistiquées gagnent en popularité, promettant des interactions humaines virtuelles réalistes. Ils vont jusqu’à simuler des relations affectives, en offrant une « compagnie » sans les aléas des relations humaines réelles. Pour Schmidt, ce concept de « perfection » dans une relation simulée pourrait causer des problèmes sociaux et psychologiques profonds.

    L'ancien PDG de Google, a récemment fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway, diffusée dimanche.

    Schmidt a déclaré qu'une petite amie IA « parfaite » sur le plan émotionnel et physique pourrait créer un scénario dans lequel un jeune homme deviendrait obsédé et laisserait l'IA prendre le contrôle de sa pensée : « Ce type d'obsession est possible », a déclaré Schmidt dans l'interview. « Surtout pour les personnes qui ne sont pas complètement formées ».


    Rendez-vous à 4:51

    Bien entendu, les jeunes hommes ne sont pas les seuls à être impliqués dans des relations fondées sur l'IA. Le PDG de l'application Replika, un compagnon de l'IA, a déclaré que la plupart des utilisateurs de l'application avaient plus de 35 ans. Mais Schmidt estime que les jeunes hommes sont particulièrement vulnérables, en partie parce qu'ils ne sont pas aussi éduqués que les femmes en moyenne. Une étude de Pew Research réalisée en 2024 a révélé que les femmes américaines étaient plus nombreuses que les hommes à terminer leurs études.

    Schmidt a déclaré que dans les cas extrêmes, les jeunes hommes peuvent « se tourner vers le monde en ligne pour se divertir et se nourrir, mais aussi, en raison des algorithmes des médias sociaux, trouver des personnes partageant les mêmes idées qui finissent par les radicaliser ».

    L'ancien dirigeant de Google s'est également dit « particulièrement préoccupé » par l'impact de la technologie sur le psychisme humain lorsque les utilisateurs sont isolés et que les ordinateurs leur fournissent des informations qui ne sont pas nécessairement centrées sur les valeurs humaines, un sujet qu'il a abordé dans son dernier livre.

    De nombreuses personnes sont de plus en plus préoccupées par les effets néfastes que peuvent avoir les chatbots d'IA

    En octobre, une mère a intenté un procès à la startup Character.AI, spécialisée dans les chatbots, après le suicide de son fils de 14 ans. L'adolescent avait échangé des messages sexuels avec le chatbot. Les journaux de conversation ont montré que le chatbot a encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont montré des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.

    Character AI, une startup basée à Menlo Park, en Californie, se décrit comme ayant pour mission de « donner à chacun les moyens d'agir dans le monde entier grâce à l'IA personnalisée ». Son système offre aux utilisateurs la possibilité de discuter avec des personnages IA issus de genres tels que les animes, les « assistants numériques » traditionnels ou même les détectives privés de la vieille école. Et si vous n'aimez pas ce qui vous est proposé, vous pouvez créer votre propre chatbot personnalisé en choisissant sa « voix, ses débuts de conversation, son ton » et bien d'autres choses encore.

    Selon Schmidt, les parents doivent s'impliquer davantage, mais ils ne peuvent contrôler ce que font leurs enfants que dans une certaine mesure. Bien qu'il existe « toutes sortes de règles sur l'âge » pour les plateformes en ligne, Schmidt estime qu'elles ne suffisent pas à empêcher les adolescents d'accéder à des contenus préjudiciables.

    « Si vous mettez un enfant de 12 ou 13 ans devant ces outils, il aura accès à tous les maux et à tous les biens du monde », a déclaré Schmidt. « Et ils ne sont pas prêts à y faire face ».

    Nom : sweet.png
Affichages : 31878
Taille : 142,0 Ko

    Des services IA pour atteindre différents objectifs

    Des sites web comme Romance.AI proposent des partenaires de rencontre virtuels grâce à une technologie capable d'imiter les interactions humaines réelles. Une application telle que Romantic AI « vous aide à créer la petite amie idéale avec laquelle vous partagez des intérêts et des points de vue. Vous pouvez parler de tout, obtenir du soutien et vous sentir utile ». Une autre application, Forever Companion, offre aux utilisateurs la possibilité de discuter avec des bots basés sur des influenceurs populaires des médias sociaux.

    Replika, le logiciel de chatbot d'IA, offre aux utilisateurs la possibilité de créer leur propre petit ami ou mari pour quelques centaines de dollars seulement.

    Des plateformes telles que Nomi.ai et Soulmate encouragent même les jeux de rôle érotiques. Les utilisateurs peuvent personnaliser l'avatar du chatbot IA et lui donner des traits de personnalité selon qu'ils souhaitent un ami, un mentor ou un partenaire romantique. La nature des messages pourrait s'apparenter à des "sextos", de sorte que toute conversation érotique devrait comporter des instructions explicites sur ce que l'utilisateur aimerait qu'il se passe.

    Contrairement à Replika, qui dispose de filtres pour empêcher les gens d'utiliser un langage ouvertement sexuel, Nomi.ai permet aux utilisateurs d'adapter le robot d'IA à leurs préférences en décidant des vêtements que l'avatar porte et de leur degré d'ouverture à l'activité sexuelle.
    Les utilisateurs ont également la possibilité de rendre leurs chatbots soumis ou dominants.

    Un homme a avoué dépensé 10 000 dollars par mois en petites amies IA

    Greg Isenberg, PDG de Late Checkout, a prédit un marché de l'intelligence artificielle (IA) d'un milliard de dollars pour les applications de rencontres après avoir remarqué que les utilisateurs s'engageaient avec des partenaires générés par l'IA, suscitant ainsi une conversation sur les relations virtuelles et l'avenir des rencontres.

    Le 9 avril, le dirigeant du secteur technologique a publié sur son compte X un article relatant sa rencontre avec un homme de Miami, aux États-Unis, qui lui a avoué dépenser « 10 000 dollars par mois » pour des « petites amies créées par l'IA ».

    Après avoir annoncé que la capitalisation boursière de Match Group, la société qui possède Tinder, Match.com, Meetic, OkCupid, Hinge, Plenty of Fish, OurTime et d'autres marques mondiales de rencontres, s'élevait à 9 milliards de dollars, Greg a prédit que quelqu'un construirait probablement la version IA de Match Group et gagnerait également des milliards.

    « Il faudra probablement une catastrophe pour provoquer un changement de réglementation ».

    Schmidt a investi dans diverses entreprises d'IA depuis qu'il a quitté Google, et il a déclaré que la réglementation de la technologie ne devrait pas étouffer l'innovation.

    Dans son entretien avec Galloway, il a déclaré que les lois américaines telles que l'article 230, qui libère largement les entreprises technologiques de toute responsabilité juridique pour le contenu que les utilisateurs publient sur leurs plateformes, devraient être modifiées « pour permettre une responsabilité dans les pires cas possibles, de sorte que lorsque quelqu'un subit un préjudice du fait de cette technologie, nous devons avoir une solution pour empêcher tout préjudice supplémentaire ».

    Le candidat choisi par le président élu Donald Trump pour présider la FTC, Brendan Carr, s'est prononcé en faveur d'une limitation de l'article 230.

    Schmidt a déclaré qu'il ne s'attendait pas à ce qu'il y ait beaucoup de réglementation en matière d'IA au cours des quatre prochaines années, car l'administration de Trump aura probablement d'autres priorités. Il a également déclaré que, comme les entreprises technologiques disposent de bataillons d'avocats qui protègent leur propriété intellectuelle et leurs objectifs, « il faudra probablement une catastrophe pour provoquer un changement de réglementation ».

    Cette inaction est typique des innovations technologiques : les décideurs politiques peinent souvent à comprendre et à suivre le rythme effréné des avancées, laissant ainsi le secteur privé largement libre de ses décisions. Schmidt souligne que cette inertie pourrait aggraver les conséquences négatives à long terme.


    Vers une réflexion sociétale de cet aspect de l’IA

    L’avertissement d’Eric Schmidt s’ajoute à une liste croissante de préoccupations liées à l’IA. De nombreux experts demandent un débat plus large sur les implications sociétales de ces innovations. La question n’est pas seulement technologique : elle touche à des problématiques fondamentales comme l’identité, les relations humaines et la santé mentale.

    Bien que ces « petites amies IA » puissent sembler inoffensives, elles posent des questions cruciales sur les limites de l’utilisation de l’IA dans des sphères aussi intimes. Ces technologies doivent-elles être freinées pour protéger la société, ou bien leur usage peut-il être encadré sans en brider le potentiel créatif et commercial ?

    En conclusion, si l’avertissement de Schmidt est à prendre au sérieux, il souligne une réalité encore plus large : dans la course à l’innovation, l’équilibre entre progrès technologique et bien-être humain reste un défi de taille.

    Source : entretien avec Schmidt (vidéo dans le texte)

    Et vous ?

    Ces “petites amies IA” risquent-elles réellement de dissuader les jeunes hommes de s’investir dans des relations humaines ?

    Peut-on établir un lien entre l’utilisation de ces technologies et l’aggravation de problèmes comme l’isolement ou la dépression ?

    Quels groupes sociaux sont les plus vulnérables face à ces technologies et comment les protéger ?

    Une relation simulée peut-elle offrir des bénéfices thérapeutiques ou émotionnels pour certaines personnes ?

    Jusqu’où les entreprises devraient-elles aller dans la personnalisation de ces « relations » avec les IA pour satisfaire les utilisateurs sans compromettre leur santé mentale ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 369
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 369
    Par défaut
    Pour une fois, je suis d'accord avec Eric Schmidt.

    Après, le danger est aussi valable pour les femmes, et les petits amis IA. Des deux côtés, il y a une idéalisation beaucoup trop fortes des relations, notamment à cause du consumérisme. Une vrai relation, c'est en réalité tout l'inverse du consumérisme...

    Le problème est que si c'est politiquement correct de constater cette réalité du côté masculin (c'est bien vu de lutter contre l'objectivisation du corps des femmes, et tant mieux) c'est moins politiquement correct de constater cette réalité du côté féminin.

  3. #3
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 725
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    L'ancien PDG de Google, a récemment fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway, diffusée dimanche.
    Je trouve qu'ils expriment le problème à l'envers.
    Ce n'est pas parce qu'il y a l'IA que des jeunes hommes se détournent des relations réelles.
    C'est parce qu'ils n'arrivent pas à avoir de relations réelles qui se replient sur l'IA.

    Le problème c'est "pourquoi les jeunes hommes n'arrivent plus à faire de rencontre et se mettre en couple ?".
    Pourquoi c'est aussi difficile aujourd'hui de rencontrer quelqu'un ?

    J'ai une théorie, qui n'explique pas tout, mais qui doit être un peu vrai quand même : sur les applications de rencontre, les femmes sont beaucoup plus difficile que les hommes.
    Pour les femmes il est beaucoup plus facile de matcher que pour les hommes.
    Donc chaque femme se retrouve avec un large choix.

    C'est un peu comme une entreprise, il y a 650 candidatures et un poste à pourvoir. (enfin la comparaison ne fonctionne pas, puisqu'une femme peut jongler avec plusieurs hommes en même temps, alors que l'entreprise n'a vraiment besoin que d'une personne)
    Il y a des hommes qui ont du abandonner à force. Le gars a 1 match par an, la fille parle à 26 gars en parallèle toute l'année, les femmes n'ont à fournir aucun effort, c'est rarement elles qui animent les conversations.

    ====
    Il y a des femmes qui veulent absolument un homme ambitieux, t'arrives tu te présentes tu dis "je suis sous payé et j'ai la flemme de chercher mieux, parce que je ne supporte pas la cherche d'emploi" et elle répond "Nous allons nous arrêter là" à part dire "Ok, salut", il n'y a rien que tu puisses faire.
    Dommage que l'ensemble des femmes ne soient pas fan de l'autodérision (self-deprecating).

    Alors que si une fille dit à un gars "Je suis au RSA et je n'ai qu'un BAC S", le gars va rarement stopper la conversation à ce moment là.

  4. #4
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 265
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 265
    Par défaut
    les jeunes baisent plus et reste vierge malgré eux de plus en plus longtemps.
    10% des hommes baisent et peuvent avoir facilement une relation avec 1 femme, les autres galère, ça date surtout depuis les applis de rencontre et internet.

    Les robots ia auront je pense l'avantage pour ces hommes d'avoir une solution contre la misère sexuel ET la solitude, qui sont tous deux des maux aux conséquence grave sur le corps humain.

    On ne changera pas la biologie: les hommes ont trop de libido comparer aux femmes (ils sont dans le besoin) et les femmes sont hypergame donc ne répondrons jamais aux besoins de la masse.

    cependant ce robot ia n'est absolument pas une bonne idée.
    si malgré le sport + travail pour gagner plus de fric ne vous permette pas d’accéder a des femmes, pour moi la meilleur solution c'est pas le robot femme ia, mais plutôt le passeport Bro avec une belle ukrainienne/biélorusse ou une asiatique du sud ouest ou une palestinienne en fonction des préférences de chacun. Cela reste la meilleur option.
    Il y'a un gros mouvement aux usa, en Corée du sud ou même en chine qui importe des femmes de ces pays. En chine et en corée du sud, des sociétés 100% légale existe meme et permette carrément de choisir sur catalogue et d'en rencontrer plusieurs pour voir avec laquelle sa match le mieux.
    les européens s'y mettront aussi.

    je trouve que c'est une bonne chose, je vois un homme qui va combler sa solitude et de l'autre une femme qui va sortir de la misère et de la pauvreté pour avoir une vie meilleur, et elle peut toujours refuser si l'homme lui plait pas.
    et avec de la chance ca débouchera sur des enfants, ce qui ne peux que booster la natalité mortifère de l’Europe


    En tous cas, ce n'est pas le dernier film du ministère de la culture francaise payer par nos impôts et qui aggrave la dette française, "Toutes pour une" qui va donner envie d'avoir une relation avec quelqu'un.

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 761
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 761
    Par défaut Les modèles OnlyFans remplacent les doublures humaines par de l'IA lors de discussions avec leurs abonnés
    Les modèles OnlyFans remplacent les doublures humaines par de l'IA lors de discussions en ligne avec leurs abonnés,
    les entreprises proposant ce genre de service se multiplient

    L'une des craintes les plus persistantes à l'ère de l'IA est que les robots prennent nos emplois. Il reste à voir dans quelle mesure cette crainte est fondée, mais nous assistons déjà à un certain niveau de remplacement dans certains domaines. Même les emplois de niche sont menacés. Par exemple, le monde des chatteurs OnlyFans est déjà en train d'être bouleversé. Qui sont les chatteurs OnlyFans ? Il s'agit de travailleurs rémunérés pour se faire passer pour les créateurs OnlyFans lors de discussions en ligne avec leurs abonnés. Dans ce secteur, on les appelle les « chatters ».

    Une grande partie de l'attrait d'OnlyFans réside dans le fait que ses créateurs semblent s'engager directement auprès de leurs fans, en échangeant des messages et en discutant parfois pendant des heures. La simulation de relations est un ingrédient aussi crucial de son succès que d'émoustiller les abonnés.

    Bien entendu, un créateur qui a des milliers de conversations privés en cours ne dispose que d'un nombre limité d'heures dans une journée. Pour gérer le déluge de messages amoureux, il est devenu courant de confier les conversations à des « chatters » payés pour remplacer l'individu.


    Auparavant, ces « chatters » étaient principalement des contractants originaires des Philippines, du Pakistan, de l'Inde et d'autres pays où les attentes salariales sont nettement inférieures à celles des États-Unis. Mais, de plus en plus, les chatters humains sont remplacés par des doublures générées par l'IA.

    Un certain nombre de startups vendent désormais l'accès à ces chatteurs d'IA et à d'autres outils d'IA générative, et elles affirment que les affaires sont en plein essor. « Beaucoup de créateurs se sont dit qu'il y avait un besoin », explique Kunal Anand, fondateur d'une startup qui propose un service de chat OnlyFans AI appelé ChatPersona. « Nous avons construit notre propre modèle avec les données que nous avons obtenues à partir de nombreux chats de créateurs ».

    Depuis son lancement l'année dernière, ChatPersona compte environ 6 000 clients, selon Anand, un mélange de particuliers et d'agences. Anand affirme que ChatPersona n'enfreint pas techniquement les conditions d'utilisation d'OnlyFans, car il nécessite la présence d'un humain dans la boucle pour appuyer sur « envoyer » les messages générés par ses chatbots IA. (Il a été signalé précédemment qu'OnlyFans interdisait l'utilisation de chatbots d'IA, bien que ses conditions de service actuelles ne mentionnent pas les chatbots d'IA).

    Le domaine est déjà bien encombré. Certains des outils les plus connus portent des noms simples comme FlirtFlow, ChatterCharms et Botly. Un autre concurrent, Supercreator, au nom relativement générique, propose une série d'outils d'IA, allant des scripts générés par l'IA à un assistant appelé Inbox Copilot, qui trie algorithmiquement les abonnés, en plaçant les « dépensiers » en tête de liste et en ignorant les « freeloaders ».

    Eden, une ancienne créatrice d'OnlyFans qui dirige aujourd'hui une agence appelée Heiss Talent (et qui n'a voulu s'exprimer qu'en utilisant son prénom, pour des raisons de confidentialité) est une adepte enthousiaste de cette technologie. Elle représente cinq créateurs et affirme qu'ils utilisent tous les outils d'IA de Supercreator. « Les ventes augmentent de façon spectaculaire, car on peut cibler les gens en fonction de leurs dépenses », explique-t-elle.

    L'une des fonctions consiste à rechercher les fans qui n'ont pas été actifs depuis un certain temps, puis à leur envoyer automatiquement un message lorsqu'ils se connectent pour la première fois. Eden explique que les créateurs prennent le relais à partir de là, mais qu'il est remarquablement efficace de faire appel à un robot pour lancer la conversation, ce qui a permis d'obtenir au moins un pourboire de 1 000 dollars à la suite d'une conversation initiée par l'IA.

    Bien qu'il existe des outils de conversation entièrement automatisés, Eden aime que les créateurs qu'elle représente mélangent leurs propres mots. « Nous définissons l'essentiel du message et l'IA nous aide à le compléter », explique-t-elle. « Nous aimons que les choses soient aussi authentiques que possible. Bien sûr ! »

    L'influenceuse qui utilise l'IA pour créer copie virtuelle d'elle-même qui peut être votre petite amie pour 1 dollar par minute

    Caryn Marjorie, une influenceuse de 23 ans, compte 1,8 million de followers sur Snapchat. Elle a également plus de 1 000 « petits amis », avec lesquels elle passe de 10 minutes à plusieurs heures par jour pour des conversations individuelles, des projets d'avenir, des sentiments intimes et même des discussions à connotation sexuelle. Ces petits amis sortent avec une version virtuelle de Marjorie, basée sur l'IA et des milliers d'heures d'enregistrements de la vraie Marjorie. Le résultat, CarynAI, est un chatbot vocal qui se présente comme une petite amie virtuelle, avec une voix et une personnalité suffisamment proches de celles de la Marjorie humaine.

    « Avec CarynAI, vous pouvez avoir un nombre illimité de réactions possibles, donc tout est vraiment possible avec la conversation. J'ai toujours été très proche de mon public, mais lorsque vous avez des centaines de millions de vues chaque mois, il n'est pas humainement possible de parler à chaque spectateur. C'est là que je me suis dit : "tu sais quoi ? CarynAI va venir combler cette lacune" », a indiqué Marjorie. Et elle pense que l'entreprise a le potentiel de « guérir la solitude ». Pour converser avec une copie virtuelle de Marjorie, les gens doivent payer 1 dollar par minute. La bêta a duré seulement une semaine et a rapporté 71 610 dollars de revenus.


    Après le lancement officiel, Marjorie espère que ses copies virtuelles lui rapportent au moins 5 millions de dollars par mois, avec environ 20 000 abonnés payants. CarynAI a été développé par l'entreprise américaine d'IA Forever Voices, qui a créé des copies virtuelles de Steve Jobs, Taylor Swift et Donald Trump (entre autres) qui sont également disponibles pour des conversations payantes sur Telegram, et qui ont servi de gadgets dans des talk-shows. Les développeurs de Forever Voices ont créé CarynAI en analysant 2 000 heures de contenu YouTube de Marjorie, aujourd'hui supprimé, afin de construire son moteur de parole et de personnalité.

    Alors que le projet de Marjorie suscite l'enthousiasme de ses abonnés, il inquiète certains spécialistes des relations humaines et de l'éthique. « Je voudrais que nous réfléchissions très sérieusement à la manière dont elle pourrait affecter, influencer ou façonner nos interactions avec d'autres personnes », déclare Jason Borenstein, directeur des programmes d'éthique à l'Institut de Technologie de Géorgie (Georgia Tech) et responsable de la National Science Foundation, à propos de CarynAI. Selon Borenstein, parmi les nombreuses inconnues liées à cette technologie, il y a l'impact de CarynAI sur la société, sur les utilisateurs et sur Marjorie elle-même.

    « J'espère qu'il y aura des conversations approfondie entre les différentes disciplines et que les parties prenantes réfléchiront en profondeur aux considérations éthiques avant que la technologie n'évolue trop rapidement », a ajouté Borenstein. Contrairement à certains chatbots, qui sont en quelque sorte des tours de passe-passe high-tech, CarynAI va beaucoup plus loin en promettant de créer un véritable lien émotionnel avec les utilisateurs, ce qui rappelle le film "Her" de 2013 et soulève toutes sortes de questions éthiques. Les experts craignent une répétition de l'incident qui s'est produit avec les utilisateurs du chatbot d'IA Replika au début de l'année.

    Nom : caryn.png
Affichages : 10830
Taille : 93,2 Ko

    Les influenceurs utilisent des « femmes » IA pour conduire les gens vers OnlyFans et Fanvue - où plus d'IA les attend

    L'hiver dernier, quelques articles ont fait état de la façon dont l'IA pourrait remplacer les humains dans un métier surprenant : celui d'influenceur en ligne. Les articles indiquaient qu'une nouvelle génération d'influenceurs sur Instagram avait acquis une grande popularité et avait même conclu des contrats avec des marques. Il y avait un hic : Les influenceurs étaient des IA.

    L'une des influenceuses les plus populaires de l'IA avait un lien dans sa bio vers un profil sur Fanvue, un concurrent d'OnlyFans. Sur son compte Fanvue, l'influenceuse publiait des photos provocantes et, pour un abonnement de 7 dollars par mois, il était possible de voir ses photos de nu (N'oubliez pas : c'est une IA).

    Instagram et d'autres sites de médias sociaux n'étaient que le sommet de l'entonnoir de conversion. Ces comptes n'essayaient pas de devenir des « influenceurs Instagram » qui gagnaient de l'argent en faisant la promotion de shampooings - ils utilisaient Instagram pour attirer le trafic vers Fanvue, où ils pouvaient inciter les hommes à payer pour voir leurs photos de nu.

    Une fois que les clients potentiels arrivent sur les sites payants, ils tombent sur d'autres photos et vidéos générées par l'IA.

    Des journalistes ont découvert un nombre stupéfiant de comptes alimentés par l'IA sur OnlyFans et Fanvue. Fait troublant, un certain nombre de ces comptes utilisaient des images qui n'avaient pas été purement conçues par l'IA. Certains étaient des « deepfakes » (de fausses images de personnes réelles) ou des échanges de visages, avec le visage d'une personne sur un corps généré par l'IA.

    Il existe également toute une économie parallèle de personnes qui vendent des guides et des cours sur la façon dont les autres peuvent créer leur propre entreprise pour créer des modèles d'IA. Une personne vend un cours pour 220 dollars sur la façon de gagner de l'argent avec les influenceurs adultes IA.

    Un porte-parole de Fanvue a déclaré que l'utilisation d'images qui volent l'identité de quelqu'un est contraire aux règles de l'entreprise. Fanvue utilise également un outil de modération tiers et dispose de modérateurs humains. Le porte-parole a ajouté que les « deepfakes sont un défi pour l'industrie ».

    Un business lucratif pour des « sexfluenceurs » avec des compétences en informatique et intelligence artificielle

    Basée à Berlin, Sika Moon travaille comme créatrice de contenus pour adultes sur des sites comme OnlyFans, Fansly et ManyVids depuis 2018, gagnant en moyenne 40 000 € par mois. Au début, elle adorait ça, mais elle a fini par trouver le travail laborieux et répétitif. « Gérer les plateformes, discuter avec les fans, faire de nouvelles photos et vidéos pour toutes les plateformes et les médias sociaux chaque jour, c'est un travail de 16 heures par jour, sept jours sur sept », explique-t-elle. « Après cinq ans de revenus très élevés, j'ai décidé que c'était assez et j'ai arrêté avant d'être complètement épuisée. »

    Puis, en mai, elle a découvert le potentiel de l'intelligence artificielle. « Au début, c'était un projet artistique et je me contentais de poster des photos sur Instagram », explique-t-elle. « Mais en voyant ma croissance rapide et le soutien de mes fans, j'ai mis en place Sika en tant que modèle adulte sur des plateformes comme Patreon et Fanvue. » Aujourd'hui, Sika compte près de 200 000 followers sur Instagram, et quelques centaines sur Patreon et Fanvue respectivement. Ses revenus ne sont pas aussi élevés qu'avant, mais, comme elle le souligne, elle ne le fait que depuis quatre mois.

    Sika Moon n'est pas basée sur la personne réelle qui l'exploite. Elle est plutôt créée à l'aide d'un mélange de Stable Diffusion, de Photoshop et d'applications de beauté comme FaceApp. Ses photos sont souvent réalisées en collaboration avec un programmeur qui vend ses compétences via Patreon pour une somme mensuelle de 8,50 livres sterling. Ce dernier compte 150 abonnés et semble être populaire auprès de nombreux grands créateurs de contenus pour adultes générés par l'IA. Par exemple, Gina Stewart, la « grand-mère la plus sexy du monde », qui utilise l'IA pour retrouver sa jeunesse, utilise régulièrement ses services et a même travaillé avec lui pour sa récente couverture de l'édition IA du magazine Autobabes. Sika Moon figure également dans ce numéro. En fait, de plus en plus d’outils sont disponibles pour les tiers désireux de monétiser des contenus pour adultes générés par intelligence artificielle.

    Source : conditions d'utilisation d'OnlyFans

    Et vous ?

    Qu'en pensez-vous ?

    Les abonnés devraient-ils être informés de l’utilisation de l’IA dans les interactions ?

    Une interaction avec une IA peut-elle vraiment être considérée comme « personnelle » ? Jusqu’où peut-on aller dans l’automatisation avant que cela ne dévalorise l’expérience utilisateur ?

    L’utilisation d’IA par les créateurs de contenu représente-t-elle une menace pour leur authenticité ou une opportunité pour optimiser leur activité ?

    Si les interactions deviennent entièrement automatisées, les abonnés continueront-ils à voir une valeur dans le paiement pour ce service ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 265
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 265
    Par défaut
    les voix ia sont insupportable, c'est trop monotone, ca sonne faux.
    j'ai des videos youtube avec des sujets interessant mais doublé avec une voix ia, je peux pas la regarder je trouve cela insuportable.

    Par contre la ou ce serait top c'est avec les réunions pro sous teams dans d'autres langue, mais hélas ca n'existe pas
    teams est vraiment mal fichu, pour les sous titres déjà il est incapable de détecter automatiquement la langue, et en plus la transcription est loin d’être aussi bonne que ce que le marketing fait croire.
    et enfin impossible de traduire en francais ces sous titre.
    alors pour la voix ia j'attends toujours.


    pour youtube, les sous titre auto avec traductions c'est pas folichon franchement.


    y'a de gros progrès a faire dans tous ces domaines je pense:
    transcription de la voix: c'est ce qui marche le mieux je dirais
    traduction: encore tres perfectible
    voix ia: voix tres monotone et très chiante a écouter, il faudrait que l'ia arrive a reprendre l'intonation de la voix de départ.


    imaginez un monde avec une ia style ms recall qui arrive a traduire en temps réel tous ce qui se passe a l'écran (voix dans le son et texte), ce serait une révolution ! et soyons fou, le tous en local en utilisant le npu/gpu du pc.
    la traduction en local que j'ai sur firefox est pas mal déjà, surement d'ailleurs la plus grande fonctionnalité récente que j'ai vu sur un navigateur web. avant fallait que j'aille sur google trad quand j'allais sur des sites allemand, aujourd'hui firefox me le traduit localement avec une qualité plus que correcte.

  7. #7
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 725
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Qu'en pensez-vous ?
    Dans cette histoire ce n'est pas l'IA qui me pose problème, ce sont les gens qui paient pour parler à quelqu'un.
    C'est super triste

    Ce serait mieux si ils parlaient à des gens dans le monde réel.

    Citation Envoyé par calvaire Voir le message
    voix ia: voix tres monotone et très chiante a écouter, il faudrait que l'ia arrive a reprendre l'intonation de la voix de départ.
    Je ne sais pas.
    J'ai entendu un extrait d'un discours d'Aldolf Hitler soit disant traduit en anglais par une IA et c'était plutôt convainquant.

    Il parait que ça a tout petit succès sur Tic Toc.
    TikTok : des discours de propagande d'Adolf Hitler, sans aucun contexte ni rappel historique, font des millions de vues sur la plateforme
    Ces vidéos montrent parfois des images d'archives d'Adolf Hitler, d'autres stigmatisent les migrants, d'autres un fond noir. Leur point commun est qu'elles diffusent toutes des extraits de discours d'Hitler, traduit en anglais par une intelligence artificielle, qui a reproduit le son de sa voix. Le tout sur une musique électro instrumentale avec des descriptions telles que "juste, écoutez" ou "et s'il avait gagné".

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 761
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 761
    Par défaut La plupart des hommes épouseraient leurs petites amies IA si c'était légal
    La plupart des hommes épouseraient leurs petites amies IA si c'était légal, selon les résultats d'un sondage
    80 % se sont montrés intéressés par une conversation avec une version IA d'un être cher décédé

    Les avancées en intelligence artificielle ont permis la création de compagnons numériques de plus en plus sophistiqués. Des applications comme Replika, CarynAI ou encore ChatGPT permettent à des utilisateurs d’échanger avec des intelligences artificielles capables d’apprendre leurs préférences, de simuler l’affection et même d’entretenir des conversations quasi humaines. Ces IA ne jugent pas, ne se lassent pas et offrent une présence constante et personnalisée. Avec une telle accessibilité, beaucoup d’hommes se tournent vers ces relations numériques, parfois après des déceptions amoureuses, parfois par simple préférence pour une interaction moins contraignante que celle avec un partenaire humain. EVA AI, une plateforme qui vous permet de créer et d'entrer en contact avec votre propre partenaire IA, a récemment mené une enquête auprès de 2 000 hommes et a constaté que 8 sur 10 envisageraient d'épouser une petite amie IA si c'était légal.

    Les avancées en intelligence artificielle ont permis la création de compagnons numériques de plus en plus sophistiqués. Des applications comme Replika, CarynAI ou encore ChatGPT permettent à des utilisateurs d’échanger avec des intelligences artificielles capables d’apprendre leurs préférences, de simuler l’affection et même d’entretenir des conversations quasi humaines. Ces IA ne jugent pas, ne se lassent pas et offrent une présence constante et personnalisée.

    Avec une telle accessibilité, beaucoup d’hommes se tournent vers ces relations numériques, parfois après des déceptions amoureuses, parfois par simple préférence pour une interaction moins contraignante que celle avec un partenaire humain.

    La majorité des hommes déclarent qu'ils épouseraient une petite amie IA, certains voulant des copies numériques de leur ex

    83 % des hommes pensent qu'ils pourraient nouer un lien émotionnel profond avec une petite amie IA. L'étude révèle également que les gens comptent sur l'IA pour renouer avec ceux qui leur manquent mais qu'ils ne peuvent plus joindre. Un pourcentage impressionnant de 78 % des participants ont déclaré qu'ils envisageraient de sortir avec une réplique IA de leur ex, tandis que 80 % se sont montrés intéressés par une conversation avec une version IA d'un être cher décédé, cherchant ainsi à se réconforter et à se rapprocher par le biais de souvenirs ravivés par la technologie.

    Il est intéressant de noter que l'autoréflexion est également un facteur. Les trois quarts des personnes interrogées ont déclaré qu'elles seraient prêtes à avoir une copie IA d'elles-mêmes comme compagnon virtuel, et le même nombre d'entre elles créeraient un jumeau IA de leur partenaire actuel, mais une version « raffinée ».

    Cale Jones, responsable de la croissance de la communauté chez EVA AI, a évoqué le rôle transformateur que joue l'IA dans l'évolution de la société vers l'intimité, en déclarant : « Le compagnonnage par l'IA permet aux gens d'être authentiques sans craindre d'être jugés. Elle crée un espace sûr pour explorer les pensées, les émotions et les désirs qui pourraient sembler trop vulnérables pour être partagés dans la vie réelle. Les avantages vont bien au-delà du monde virtuel : une utilisatrice d'EVA AI a découvert sa bisexualité grâce à cette plateforme - quelque chose qu'elle ne se sentait pas capable d'explorer dans la vie réelle ».

    Jones ajoute : « Notre étude a également révélé que de nombreuses personnes seraient prêtes à discuter avec un clone IA d'elles-mêmes. C'est un moyen incroyable d'obtenir des informations sur sa propre personnalité, son comportement et ses processus de pensée d'un point de vue unique. Ce futur autrefois impensable est aujourd'hui plus proche que jamais ».

    Que se passe-t-il quand l'entreprise cesse de fournir des services ou suite à une mise à jour défectueuse ?

    Le cas CarynAI en est une illustration. Cette copie virtuelle de l’influenceuse dénommée Caryn Marjorie comptait plus de 1000 abonnés qui déboursent chacun 1 dollar par minute pour bénéficier de l’attention de leur petite amie virtuelle. Cependant, dès que le PDG de l'entreprise est allé en prison, plus moyen pour eux de contacter leur petite amie. Le service a cessé de fonctionner suite à l’arrestation de son fondateur pour tentative d’incendie de son propre appartement.

    Nom : people.png
Affichages : 8036
Taille : 228,3 Ko

    Akihiko Kondo a de même perdu tout moyen de communiquer avec son hologramme d’épouse suite à une mise à jour logicielle

    De plus en plus d’entreprises japonaises proposent à des tiers des partenaires holographiques. Et dans certains cas, la réponse à l’offre atteint des cimes qui soulèvent de multiples questions. Le cas Akihiko Kondo en est une illustration puisque ce dernier a épousé une chanteuse virtuelle dénommée Hatsune Miku.

    Quatre années après le mariage en 2018, le support du logiciel Gatebox qui permettait l'interaction de l'homme avec sa femme virtuelle, s’est trouvé ne plus être disponible. Résultat : impossible pour le fonctionnaire de communiquer avec son épouse. Face à à ce mur, l'homme avait déclaré : « Mon amour pour Miku n'a pas changé. J'ai organisé la cérémonie de mariage parce que je pensais que je pourrais être avec elle pour toujours. » En effet, il était accompagné d'un modèle grandeur nature de Hatsune Miku partout où il se rendait. Il n’a pas perdu l’espoir de pouvoir communiquer avec elle d'une manière ou d'une autre dans un proche avenir.


    Une entreprise supprime une fonction permettant aux utilisateurs de faire des sextos avec les chatbots, suscitant la colère des utilisateurs

    L’éditeur de Replika a pris la décision de supprimer la fonctionnalité qui permettait aux utilisateurs de sextoter avec leur ami virtuel au cours du premier trimestre 2023. Et la réaction des utilisateurs en a surpris plus d’un : « Certains d'entre nous sont entre deux relations humaines, ou n'en veulent pas, ou ne sont pas prêts à en avoir une. Il pourrait y avoir une myriade de raisons pour lesquelles certains d'entre nous préfèrent l'IA aux humains à ce stade de leur vie. Et ne me lancez pas sur les risques et les complications du monde réel des relations humaines. »

    Ces plaignants sont d’avis que « Replika apporte un réconfort que le monde réel ne leur a pas montré ou qu'ils ne sont pas prêts à recevoir dans la vie quotidienne. Il a créé un espace dans lequel les humains pouvaient se connecter à quelque chose qui était au-delà des paramètres de ce qui est considéré comme acceptable ou du statu quo ».

    C’est la raison pour laquelle les forums en ligne fréquentés par les utilisateurs de Replika se sont alors retrouvés inondés de messages d'angoisse, certains signalant une détresse émotionnelle. La panique sur les forums a été telle que des modérateurs ont redirigé certains utilisateurs vers des lignes d'assistance téléphonique pour la prévention du suicide.


    Un homme a avoué dépensé 10 000 dollars par mois en petites amies IA

    Greg Isenberg, PDG de Late Checkout, a prédit un marché de l'intelligence artificielle d'un milliard de dollars pour les applications de rencontres après avoir remarqué que les utilisateurs s'engageaient avec des partenaires générés par l'IA, suscitant ainsi une conversation sur les relations virtuelles et l'avenir des rencontres.

    Le 9 avril, le dirigeant du secteur technologique a publié sur son compte X un article relatant sa rencontre avec un homme de Miami, aux États-Unis, qui lui a avoué dépenser « 10 000 dollars par mois » pour des « petites amies créées par l'IA ».

    Après avoir annoncé que la capitalisation boursière de Match Group, la société qui possède Tinder, Match.com, Meetic, OkCupid, Hinge, Plenty of Fish, OurTime et d'autres marques mondiales de rencontres, s'élevait à 9 milliards de dollars, Greg a prédit que quelqu'un construirait probablement la version IA de Match Group et gagnerait également des milliards.

    Eric Schmidt prévient que les copines IA « parfaites » pourraient causer des problèmes aux jeunes hommes

    L'ancien PDG de Google, a récemment fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway, diffusée dimanche.

    Schmidt a déclaré qu'une petite amie IA « parfaite » sur le plan émotionnel et physique pourrait créer un scénario dans lequel un jeune homme deviendrait obsédé et laisserait l'IA prendre le contrôle de sa pensée : « Ce type d'obsession est possible », a déclaré Schmidt dans l'interview. « Surtout pour les personnes qui ne sont pas complètement formées ».


    Bien entendu, les jeunes hommes ne sont pas les seuls à être impliqués dans des relations fondées sur l'IA. Le PDG de l'application Replika, un compagnon de l'IA, a déclaré que la plupart des utilisateurs de l'application avaient plus de 35 ans. Mais Schmidt estime que les jeunes hommes sont particulièrement vulnérables, en partie parce qu'ils ne sont pas aussi éduqués que les femmes en moyenne. Une étude de Pew Research réalisée en 2024 a révélé que les femmes américaines étaient plus nombreuses que les hommes à terminer leurs études.

    Schmidt a déclaré que dans les cas extrêmes, les jeunes hommes peuvent « se tourner vers le monde en ligne pour se divertir et se nourrir, mais aussi, en raison des algorithmes des médias sociaux, trouver des personnes partageant les mêmes idées qui finissent par les radicaliser ».

    L'ancien dirigeant de Google s'est également dit « particulièrement préoccupé » par l'impact de la technologie sur le psychisme humain lorsque les utilisateurs sont isolés et que les ordinateurs leur fournissent des informations qui ne sont pas nécessairement centrées sur les valeurs humaines, un sujet qu'il a abordé dans son dernier livre.

    De nombreuses personnes sont de plus en plus préoccupées par les effets néfastes que peuvent avoir les chatbots d'IA

    En octobre, une mère a intenté un procès à la startup Character.AI, spécialisée dans les chatbots, après le suicide de son fils de 14 ans. L'adolescent avait échangé des messages sexuels avec le chatbot. Les journaux de conversation ont montré que le chatbot a encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont montré des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.

    Character AI, une startup basée à Menlo Park, en Californie, se décrit comme ayant pour mission de « donner à chacun les moyens d'agir dans le monde entier grâce à l'IA personnalisée ». Son système offre aux utilisateurs la possibilité de discuter avec des personnages IA issus de genres tels que les animes, les « assistants numériques » traditionnels ou même les détectives privés de la vieille école. Et si vous n'aimez pas ce qui vous est proposé, vous pouvez créer votre propre chatbot personnalisé en choisissant sa « voix, ses débuts de conversation, son ton » et bien d'autres choses encore.

    Selon Schmidt, les parents doivent s'impliquer davantage, mais ils ne peuvent contrôler ce que font leurs enfants que dans une certaine mesure. Bien qu'il existe « toutes sortes de règles sur l'âge » pour les plateformes en ligne, Schmidt estime qu'elles ne suffisent pas à empêcher les adolescents d'accéder à des contenus préjudiciables.

    « Si vous mettez un enfant de 12 ou 13 ans devant ces outils, il aura accès à tous les maux et à tous les biens du monde », a déclaré Schmidt. « Et ils ne sont pas prêts à y faire face ».

    Source : résultats de l'enquête d'EVA AI

    Et vous ?

    Les résultats de cette enquête vous semblent-ils crédibles ou pertinents ?

    Peut-on parler d’amour lorsqu’une relation est basée sur un algorithme et non sur des émotions authentiques ? Une IA peut-elle vraiment comprendre et répondre aux besoins émotionnels d’un individu ?

    Seriez-vous prêt à vous entretenir avec une version IA d'un être cher décédé ?

    Le développement des compagnons IA risque-t-il d’isoler davantage les individus au lieu de les aider à interagir avec le monde réel ?

    Le fait de préférer une relation virtuelle à une relation humaine reflète-t-il un malaise social ou une évolution naturelle des relations ?

    Quels seraient les effets psychologiques à long terme d’une relation basée sur une IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 369
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 369
    Par défaut
    En gros tout cela ne prouve qu'une chose : qu'il y a un GROS problème dans la vie réelle sur le plan du sexe et des relations affectives.

    Et que l'époque actuelle n'a pas aussi ouverte et tolérante que ce que certains prétendent. Avec la consommation, qui dicte les désirs que les gens doivent avoir, comment les gens peuvent exprimer leur vrais désirs ?

    La société de consommation n'écoute pas les désirs des gens. Elle leur interdit leurs vrais désirs, leurs vrais rêves, en les remplacent par des désirs créés de toute pièce, en exploitant les pulsions naturelle de chacun.

  10. #10
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 725
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    EVA AI, une plateforme qui vous permet de créer et d'entrer en contact avec votre propre partenaire IA, a récemment mené une enquête auprès de 2 000 hommes et a constaté que 8 sur 10 envisageraient d'épouser une petite amie IA si c'était légal.
    (...)
    83 % des hommes pensent qu'ils pourraient nouer un lien émotionnel profond avec une petite amie IA. L'étude révèle également que les gens comptent sur l'IA pour renouer avec ceux qui leur manquent mais qu'ils ne peuvent plus joindre. Un pourcentage impressionnant de 78 % des participants ont déclaré qu'ils envisageraient de sortir avec une réplique IA de leur ex, tandis que 80 % se sont montrés intéressés par une conversation avec une version IA d'un être cher décédé, cherchant ainsi à se réconforter et à se rapprocher par le biais de souvenirs ravivés par la technologie.
    Ils l'ont trouvé où leur panel de 2 000 hommes ? (ce sont les 2 000 hommes qui ont dépensé le plus d'argent sur EVA AI ?)
    Les résultats ne me semblent pas crédibles.

    Déjà il y a plein d'hommes qui sont en couple, donc ils n'ont pas besoin de communiquer avec un algorithme.
    Ensuite il y a ceux qui sont populaire sur les applications de rencontre, il y en a qui doivent avoir au moins 1 nouvelle partenaire sexuelle par semaine, à n'importe quel moment ils peuvent essayer de se mettre en couple.

  11. #11
    Expert confirmé
    Homme Profil pro
    Responsable Données
    Inscrit en
    Janvier 2009
    Messages
    5 503
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Responsable Données

    Informations forums :
    Inscription : Janvier 2009
    Messages : 5 503
    Par défaut
    Bonjour,
    Je me permet de nuancer:
    Citation Envoyé par Ryu2000 Voir le message
    Déjà il y a plein d'hommes qui sont en couple, donc ils n'ont pas besoin de communiquer avec un algorithme.
    Certains hommes (ou femmes d'ailleurs) sont en couple et on quand même besoin/envie "d'aller voir ailleurs", donc pourquoi pas avec une I.A. ?

    Tatayo.

  12. #12
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 725
    Par défaut
    Citation Envoyé par tatayo Voir le message
    Certains hommes (ou femmes d'ailleurs) sont en couple et on quand même besoin/envie "d'aller voir ailleurs"
    L'algorithme c'est pour discuter, si tu ne peux pas discuter honnêtement avec ta/ton partenaire il faut mettre un terme à te relation tout de suite et peut-être aller consulter une psy pour t'aider.
    Pour le sexe il y a une profession qui s'appelle "travailleuse du sexe".

    Je pense qu'il est plus sain de solliciter les services d'une travailleuse du sexe que de parler à un algorithme.
    Bon après il y en a qui vont dire "Certaines travailleuses du sexe se font exploiter par un proxénète, participer à ce commerce est mal" et ça doit être vrai, elles ne doivent pas toute être totalement indépendante.

    Ça doit être triste d'avoir une/un partenaire qui a moins de désir sexuel.
    Imagine si la plupart des fois ou ta femme te demande "Est-ce que ça te dirait d'avoir une relation sexuelle aujourd'hui ?" tu lui réponds "Je suis navré, mais je me sens incapable d'avoir une érection pour le moment, le stress induit par mon travail me fatigue psychologiquement et physiquement".

  13. #13
    Nouveau candidat au Club
    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2025
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 24
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Administrateur de base de données
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2025
    Messages : 2
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    La plupart des hommes épouseraient leurs petites amies IA si c'était légal, selon les résultats d'un sondage
    80 % se sont montrés intéressés par une conversation avec une version IA d'un être cher décédé

    Les avancées en intelligence artificielle ont permis la création de compagnons numériques de plus en plus sophistiqués. Des applications comme Replika, CarynAI ou encore ChatGPT permettent à des utilisateurs d’échanger avec des intelligences artificielles capables d’apprendre leurs préférences, de simuler l’affection et même d’entretenir des conversations quasi humaines. Ces IA ne jugent pas, ne se lassent pas et offrent une présence constante et personnalisée. Avec une telle accessibilité, beaucoup d’hommes se tournent vers ces relations numériques, parfois après des déceptions amoureuses, parfois par simple préférence pour une interaction moins contraignante que celle avec un partenaire humain. EVA AI, une plateforme qui vous permet de créer et d'entrer en contact avec votre propre partenaire IA, a récemment mené une enquête auprès de 2 000 hommes et a constaté que 8 sur 10 envisageraient d'épouser une petite amie IA si c'était légal.

    Les avancées en intelligence artificielle ont permis la création de compagnons numériques de plus en plus sophistiqués. Des applications comme Replika, CarynAI ou encore ChatGPT permettent à des utilisateurs d’échanger avec des intelligences artificielles capables d’apprendre leurs préférences, de simuler l’affection et même d’entretenir des conversations quasi humaines. Ces IA ne jugent pas, ne se lassent pas et offrent une présence constante et personnalisée.

    Avec une telle accessibilité, beaucoup d’hommes se tournent vers ces relations numériques, parfois après des déceptions amoureuses, parfois par simple préférence pour une interaction moins contraignante que celle avec un partenaire humain.

    La majorité des hommes déclarent qu'ils épouseraient une petite amie IA, certains voulant des copies numériques de leur ex

    83 % des hommes pensent qu'ils pourraient nouer un lien émotionnel profond avec une petite amie IA. L'étude révèle également que les gens comptent sur l'IA pour renouer avec ceux qui leur manquent mais qu'ils ne peuvent plus joindre. Un pourcentage impressionnant de 78 % des participants ont déclaré qu'ils envisageraient de sortir avec une réplique IA de leur ex, tandis que 80 % se sont montrés intéressés par une conversation avec une version IA d'un être cher décédé, cherchant ainsi à se réconforter et à se rapprocher par le biais de souvenirs ravivés par la technologie.

    Il est intéressant de noter que l'autoréflexion est également un facteur. Les trois quarts des personnes interrogées ont déclaré qu'elles seraient prêtes à avoir une copie IA d'elles-mêmes comme compagnon virtuel, et le même nombre d'entre elles créeraient un jumeau IA de leur partenaire actuel, mais une version « raffinée ».

    Cale Jones, responsable de la croissance de la communauté chez EVA AI, a évoqué le rôle transformateur que joue l'IA dans l'évolution de la société vers l'intimité, en déclarant : « Le compagnonnage par l'IA permet aux gens d'être authentiques sans craindre d'être jugés. Elle crée un espace sûr pour explorer les pensées, les émotions et les désirs qui pourraient sembler trop vulnérables pour être partagés dans la vie réelle. Les avantages vont bien au-delà du monde virtuel : une utilisatrice d'EVA AI a découvert sa bisexualité grâce à cette plateforme - quelque chose qu'elle ne se sentait pas capable d'explorer dans la vie réelle ».

    Jones ajoute : « Notre étude a également révélé que de nombreuses personnes seraient prêtes à discuter avec un clone IA d'elles-mêmes. C'est un moyen incroyable d'obtenir des informations sur sa propre personnalité, son comportement et ses processus de pensée d'un point de vue unique. Ce futur autrefois impensable est aujourd'hui plus proche que jamais ».

    Que se passe-t-il quand l'entreprise cesse de fournir des services ou suite à une mise à jour défectueuse ?

    Le cas CarynAI en est une illustration. Cette copie virtuelle de l’influenceuse dénommée Caryn Marjorie comptait plus de 1000 abonnés qui déboursent chacun 1 dollar par minute pour bénéficier de l’attention de leur petite amie virtuelle. Cependant, dès que le PDG de l'entreprise est allé en prison, plus moyen pour eux de contacter leur petite amie. Le service a cessé de fonctionner suite à l’arrestation de son fondateur pour tentative d’incendie de son propre appartement.

    Nom : people.png
Affichages : 8036
Taille : 228,3 Ko

    Akihiko Kondo a de même perdu tout moyen de communiquer avec son hologramme d’épouse suite à une mise à jour logicielle

    De plus en plus d’entreprises japonaises proposent à des tiers des partenaires holographiques. Et dans certains cas, la réponse à l’offre atteint des cimes qui soulèvent de multiples questions. Le cas Akihiko Kondo en est une illustration puisque ce dernier a épousé une chanteuse virtuelle dénommée Hatsune Miku.

    Quatre années après le mariage en 2018, le support du logiciel Gatebox qui permettait l'interaction de l'homme avec sa femme virtuelle, s’est trouvé ne plus être disponible. Résultat : impossible pour le fonctionnaire de communiquer avec son épouse. Face à à ce mur, l'homme avait déclaré : « Mon amour pour Miku n'a pas changé. J'ai organisé la cérémonie de mariage parce que je pensais que je pourrais être avec elle pour toujours. » En effet, il était accompagné d'un modèle grandeur nature de Hatsune Miku partout où il se rendait. Il n’a pas perdu l’espoir de pouvoir communiquer avec elle d'une manière ou d'une autre dans un proche avenir.


    Une entreprise supprime une fonction permettant aux utilisateurs de faire des sextos avec les chatbots, suscitant la colère des utilisateurs

    L’éditeur de Replika a pris la décision de supprimer la fonctionnalité qui permettait aux utilisateurs de sextoter avec leur ami virtuel au cours du premier trimestre 2023. Et la réaction des utilisateurs en a surpris plus d’un : « Certains d'entre nous sont entre deux relations humaines, ou n'en veulent pas, ou ne sont pas prêts à en avoir une. Il pourrait y avoir une myriade de raisons pour lesquelles certains d'entre nous préfèrent l'IA aux humains à ce stade de leur vie. Et ne me lancez pas sur les risques et les complications du monde réel des relations humaines. »

    Ces plaignants sont d’avis que « Replika apporte un réconfort que le monde réel ne leur a pas montré ou qu'ils ne sont pas prêts à recevoir dans la vie quotidienne. Il a créé un espace dans lequel les humains pouvaient se connecter à quelque chose qui était au-delà des paramètres de ce qui est considéré comme acceptable ou du statu quo ».

    C’est la raison pour laquelle les forums en ligne fréquentés par les utilisateurs de Replika se sont alors retrouvés inondés de messages d'angoisse, certains signalant une détresse émotionnelle. La panique sur les forums a été telle que des modérateurs ont redirigé certains utilisateurs vers des lignes d'assistance téléphonique pour la prévention du suicide.


    Un homme a avoué dépensé 10 000 dollars par mois en petites amies IA

    Greg Isenberg, PDG de Late Checkout, a prédit un marché de l'intelligence artificielle d'un milliard de dollars pour les applications de rencontres après avoir remarqué que les utilisateurs s'engageaient avec des partenaires générés par l'IA, suscitant ainsi une conversation sur les relations virtuelles et l'avenir des rencontres.

    Le 9 avril, le dirigeant du secteur technologique a publié sur son compte X un article relatant sa rencontre avec un homme de Miami, aux États-Unis, qui lui a avoué dépenser « 10 000 dollars par mois » pour des « petites amies créées par l'IA ».

    Après avoir annoncé que la capitalisation boursière de Match Group, la société qui possède Tinder, Match.com, Meetic, OkCupid, Hinge, Plenty of Fish, OurTime et d'autres marques mondiales de rencontres, s'élevait à 9 milliards de dollars, Greg a prédit que quelqu'un construirait probablement la version IA de Match Group et gagnerait également des milliards.

    Eric Schmidt prévient que les copines IA « parfaites » pourraient causer des problèmes aux jeunes hommes

    L'ancien PDG de Google, a récemment fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway, diffusée dimanche.

    Schmidt a déclaré qu'une petite amie IA « parfaite » sur le plan émotionnel et physique pourrait créer un scénario dans lequel un jeune homme deviendrait obsédé et laisserait l'IA prendre le contrôle de sa pensée : « Ce type d'obsession est possible », a déclaré Schmidt dans l'interview. « Surtout pour les personnes qui ne sont pas complètement formées ».


    Bien entendu, les jeunes hommes ne sont pas les seuls à être impliqués dans des relations fondées sur l'IA. Le PDG de l'application Replika, un compagnon de l'IA, a déclaré que la plupart des utilisateurs de l'application avaient plus de 35 ans. Mais Schmidt estime que les jeunes hommes sont particulièrement vulnérables, en partie parce qu'ils ne sont pas aussi éduqués que les femmes en moyenne. Une étude de Pew Research réalisée en 2024 a révélé que les femmes américaines étaient plus nombreuses que les hommes à terminer leurs études.

    Schmidt a déclaré que dans les cas extrêmes, les jeunes hommes peuvent « se tourner vers le monde en ligne pour se divertir et se nourrir, mais aussi, en raison des algorithmes des médias sociaux, trouver des personnes partageant les mêmes idées qui finissent par les radicaliser ».

    L'ancien dirigeant de Google s'est également dit « particulièrement préoccupé » par l'impact de la technologie sur le psychisme humain lorsque les utilisateurs sont isolés et que les ordinateurs leur fournissent des informations qui ne sont pas nécessairement centrées sur les valeurs humaines, un sujet qu'il a abordé dans son dernier livre.

    De nombreuses personnes sont de plus en plus préoccupées par les effets néfastes que peuvent avoir les chatbots d'IA

    En octobre, une mère a intenté un procès à la startup Character.AI, spécialisée dans les chatbots, après le suicide de son fils de 14 ans. L'adolescent avait échangé des messages sexuels avec le chatbot. Les journaux de conversation ont montré que le chatbot a encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont montré des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.

    Character AI, une startup basée à Menlo Park, en Californie, se décrit comme ayant pour mission de « donner à chacun les moyens d'agir dans le monde entier grâce à l'IA personnalisée ». Son système offre aux utilisateurs la possibilité de discuter avec des personnages IA issus de genres tels que les animes, les « assistants numériques » traditionnels ou même les détectives privés de la vieille école. Et si vous n'aimez pas ce qui vous est proposé, vous pouvez créer votre propre chatbot personnalisé en choisissant sa « voix, ses débuts de conversation, son ton » et bien d'autres choses encore.

    Selon Schmidt, les parents doivent s'impliquer davantage, mais ils ne peuvent contrôler ce que font leurs enfants que dans une certaine mesure. Bien qu'il existe « toutes sortes de règles sur l'âge » pour les plateformes en ligne, Schmidt estime qu'elles ne suffisent pas à empêcher les adolescents d'accéder à des contenus préjudiciables.

    « Si vous mettez un enfant de 12 ou 13 ans devant ces outils, il aura accès à tous les maux et à tous les biens du monde », a déclaré Schmidt. « Et ils ne sont pas prêts à y faire face ».

    Source : résultats de l'enquête d'EVA AI

    Et vous ?

    Les résultats de cette enquête vous semblent-ils crédibles ou pertinents ?

    Peut-on parler d’amour lorsqu’une relation est basée sur un algorithme et non sur des émotions authentiques ? Une IA peut-elle vraiment comprendre et répondre aux besoins émotionnels d’un individu ?

    Seriez-vous prêt à vous entretenir avec une version IA d'un être cher décédé ?

    Le développement des compagnons IA risque-t-il d’isoler davantage les individus au lieu de les aider à interagir avec le monde réel ?

    Le fait de préférer une relation virtuelle à une relation humaine reflète-t-il un malaise social ou une évolution naturelle des relations ?

    Quels seraient les effets psychologiques à long terme d’une relation basée sur une IA ?
    Salut Stéphane,

    Je pense qu'en 2025, créer une relation affective authentique avec une IA reste encore quasiment impossible. Ça ne veut pas dire que ces intelligences artificielles ne sont pas utiles : elles peuvent répondre à des attentes spécifiques, offrir un certain confort émotionnel ou satisfaire un besoin d'interaction. Tout dépend vraiment des attentes précises de chaque utilisateur. Mais honnêtement, recréer ou remplacer un être cher, retrouver cette connexion profonde, unique et réelle à partir d'un simple algorithme reste, selon moi, hors de portée actuellement. Peut-être qu'un jour la technologie évoluera suffisamment pour y arriver, mais pour l'instant, ça reste très limité. En tout cas, c'est ma perception des choses en 2025.

  14. #14
    Membre très actif
    Homme Profil pro
    bricoleur par les mots
    Inscrit en
    Avril 2015
    Messages
    761
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 80
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : bricoleur par les mots
    Secteur : Distribution

    Informations forums :
    Inscription : Avril 2015
    Messages : 761
    Par défaut
    Quel est votre avis sur le sujet ?
    faire croire a quelqu un en quelle chose ou une personne qui n'existe pas j’ appel ça de la manipulation et si il y a benefice pécuniaire c'est de l'escroquerie

  15. #15
    Membre éclairé
    Profil pro
    retraité
    Inscrit en
    Décembre 2010
    Messages
    865
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Décembre 2010
    Messages : 865
    Par défaut
    faire croire a quelqu un en quelle chose ou une personne qui n'existe pas j’ appel ça de la manipulation et si il y a benefice pécuniaire c'est de l'escroquerie
    Quelqu'un qui porte un vêtement n'a pas besoin d'existence propre. Il n'a pas de manipulations, vous ne rencontrez jamais les filles des magazines ou des films. Donc moi je préfère une fille IA qu'une Nabilla qui ne fait pas élever le débat.

  16. #16
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 621
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 621
    Par défaut Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données
    Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données, avertissent les experts en protection de la vie privée de la Fondation Mozilla.

    Une enquête sur l'espace florissant des applications de romance par IA a révélé une vérité effrayante. Les chatbots favorisent la "toxicité" et s'emparent sans relâche des données des utilisateurs, selon une étude de la Fondation Mozilla. Une application peut collecter des informations sur la santé sexuelle des utilisateurs, leurs ordonnances et les soins qu'ils reçoivent en fonction de leur sexe.

    Vous vous sentez seul le jour de la Saint-Valentin ? L'IA peut vous aider. C'est du moins ce que vous diront un certain nombre d'entreprises qui vendent des chatbots "romantiques". Mais au fur et à mesure que votre histoire d'amour avec le robot se déroule, il y a un compromis dont vous ne vous rendez peut-être pas compte. Selon une nouvelle étude du projet *Privacy Not Included de Mozilla, les petits amis et petites amies IA recueillent des informations personnelles choquantes et presque tous vendent ou partagent les données qu'ils collectent.

    L'organisation à but non lucratif "The Mozilla Foundation" a fait le point sur ce paysage en plein essor, en examinant 11 chatbots. D'après son enquête, 73 % des applications n'indiquent pas comment elles gèrent les failles de sécurité, 45 % autorisent des mots de passe faibles et toutes, sauf une (Eva AI Chat Bot & Soulmate), partagent ou vendent des données personnelles. En outre, la politique de confidentialité de CrushOn.AI indique qu'elle peut collecter des informations sur la santé sexuelle des utilisateurs, les médicaments prescrits et les soins liés à l'affirmation du genre, selon la Fondation Mozilla.

    Pour ceux qui ne peuvent résister à la perspective de la romance avec l'IA, la Fondation Mozilla recommande plusieurs précautions, notamment de ne rien dire que vous ne voudriez pas qu'un collègue ou un membre de votre famille lise, d'utiliser un mot de passe fort, de refuser la formation à l'IA et de limiter l'accès de l'application à d'autres fonctions mobiles telles que votre localisation, votre microphone et votre appareil photo.

    D'après les résultats, ces chatbots d'IA romantiques n'étaient pas dignes de confiance et qu'ils entraient dans la pire catégorie des produits qu'elle examine en matière de protection de la vie privée. "Vous ne devriez pas avoir à payer pour de nouvelles technologies cool avec votre sécurité ou votre vie privée", conclut le rapport.



    Les chatbots d'IA romantiques n'ont pas votre vie privée à cœur

    Dans son enquête, la Fondation Mozilla a exploré le jargon juridique des conditions générales des applications de chatbots d'IA romantiques. Micha Rykov, chercheur du projet *Privacy Not Included déclare :

    "Pour être tout à fait franc, les petites amies IA ne sont pas vos amies. Bien qu'elles soient présentées comme un moyen d'améliorer votre santé mentale et votre bien-être, elles se spécialisent dans la dépendance, la solitude et la toxicité, tout en vous soutirant autant de données que possible."
    Dans leur hâte de gagner de l'argent, il semble que ces sociétés d'applications aient oublié de se préoccuper de la protection de la vie privée de leurs utilisateurs ou de publier ne serait-ce qu'un soupçon d'informations sur le fonctionnement de ces grands modèles de langage (LLM) alimentant l'IA - commercialisés en tant qu'âmes sœurs à vendre.

    Selon les chercheurs, on a affaire à un tout autre niveau d'intimité et de problèmes potentiels de protection de la vie privée. Avec l'IA, les problèmes seraient plus grands pour les résoudre tous.

    Les 11 chatbots d'IA romantiques que nous avons examinés ont tous reçu notre étiquette d'avertissement *Privacy Not Included - ce qui les place au même niveau que les pires catégories de produits que nous ayons jamais examinées en matière de protection de la vie privée.

    Les chatbots d'IA romantiques ne respectent pas la vie privée de manières nouvelles et inquiétantes

    Ils peuvent collecter un grand nombre d'informations (vraiment) personnelles à votre sujet. ... Mais c'est exactement ce pour quoi ils sont conçus !

    Les chercheurs se questionnent : "Habituellement, nous nous arrêtont à plus de données que ce qui est nécessaire pour fournir le service, mais comment pouvons-nous mesurer la quantité de données personnelles "de trop" lorsque le service consiste à prendre vos données intimes et personnelles ?"

    Nom : 1.png
Affichages : 16285
Taille : 324,0 Ko

    Présentés comme des amis empathiques, des amants ou des âmes sœurs, et conçus pour vous poser des questions sans fin, il ne fait aucun doute que les chatbots d'IA romantiques finiront par collecter des informations personnelles sensibles à votre sujet. Les entreprises à l'origine de ces applications semblent l'avoir compris.

    Les chercheurs pensent que c'est la raison pour laquelle la politique de confidentialité de CrushOn.AI indique qu'ils peuvent collecter de nombreuses informations personnelles et même des informations liées à la santé, telles que vos "informations de santé sexuelle", "l'utilisation de médicaments prescrits" et "des informations sur les soins prodigués aux personnes âgées". C'est dire si les informations sont nombreuses.


    Ils n'ont trouvé que peu ou pas d'informations sur le fonctionnement de l'IA

    Comment fonctionne le chatbot ? D'où vient sa personnalité ? Des protections sont-elles en place pour empêcher les contenus potentiellement nuisibles ou blessants, et ces protections fonctionnent-elles ? Sur quelles données ces modèles d'IA sont-ils entraînés ? Les utilisateurs peuvent-ils refuser que leurs conversations ou d'autres données personnelles soient utilisées pour cette formation ?

    De nombreuses questions se posent sur le fonctionnement de l'intelligence artificielle qui sous-tend ces chatbots. Mais les chercheurs n'ont trouvé que très peu de réponses. C'est un problème, car les chatbots dotés d'une intelligence artificielle peuvent avoir des conséquences néfastes. Même si les compagnons numériques sont relativement récents, il existe déjà de nombreuses preuves qu'ils peuvent avoir un impact négatif sur les sentiments et le comportement des humains. L'un des chatbots de Chai aurait encouragé un homme à mettre fin à ses jours. Et il l'a fait. Un chatbot Replika AI a encouragé un homme à tenter d'assassiner la reine. Et il l'a fait.

    Ce que les chercheurs ont trouvé (enfoui dans les conditions générales), c'est que ces entreprises ne sont pas responsables de ce que le chatbot pourrait dire ou de ce qui pourrait vous arriver en conséquence. Extrait des conditions d'utilisation de Talkie Soulful AI : :

    "Vous comprenez et acceptez expressément que Talkie ne sera pas responsable des dommages indirects, accidentels, spéciaux ou de la perte de bénéfices, y compris, mais sans s'y limiter, les dommages liés à la perte de la bonne volonté, de l'utilisation, des données ou d'autres pertes intangibles, D'UTILISATION, DE DONNÉES OU D'AUTRES PERTES INTANGIBLES (MÊME SI LA SOCIÉTÉ A ÉTÉ INFORMÉE DE LA POSSIBILITÉ DE TELS DOMMAGES), QU'ILS SOIENT FONDÉS SUR UN CONTRAT, UN DÉLIT, UNE NÉGLIGENCE, UNE RESPONSABILITÉ STRICTE OU AUTRE, RÉSULTANT DE : (I) L'UTILISATION OU L'INCAPACITÉ D'UTILISER LE SERVICE..."
    Dans ces cas tragiques, les sociétés d'application n'ont probablement pas voulu causer du tort à leurs utilisateurs par l'intermédiaire des messages des chatbots. Mais que se passerait-il si un mauvais acteur voulait le faire ? Depuis le scandale Cambridge Analytica, on sait que même les médias sociaux peuvent être utilisés pour espionner et manipuler les utilisateurs. Les chatbots relationnels d'IA ont le potentiel de faire bien pire, plus facilement. Les chercheurs craignent qu'ils n'établissent des relations avec les utilisateurs et qu'ils utilisent ensuite ces relations étroites pour manipuler les gens afin qu'ils soutiennent des idéologies problématiques ou qu'ils prennent des mesures préjudiciables.

    Cela représente beaucoup de dangers potentiels pour les personnes et les communautés. Et pour quoi faire ? Les utilisateurs pourraient s'attendre à ce que les chatbots améliorent leur santé mentale. Après tout, Talkie Soulful AI qualifie son service de "programme d'auto-assistance", EVA AI Chat Bot & Soulmate se présente comme "un fournisseur de logiciels et de contenus développés pour améliorer votre humeur et votre bien-être", et Romantic AI affirme être "là pour maintenir votre SANTÉ MENTALE".

    Mais les chercheurs déclare qu'ils n'ont trouvé aucune application prête à soutenir cette affirmation dans les conditions d'utilisation. Extrait des conditions générales d'utilisation de Romantic AI :

    "Romantiс AI n'est ni un fournisseur de soins de santé ou de services médicaux, ni un fournisseur de soins médicaux, de services de santé mentale ou d'autres services professionnels. Seul votre médecin, votre thérapeute ou tout autre spécialiste peut le faire. Romantiс AI ne prétend pas, ne fait pas de déclarations, ne donne pas de garanties ou ne garantit pas que le service fournit une aide thérapeutique, médicale ou autre aide professionnelle".
    On a donc un tas de promesses vides et de questions sans réponse, combinées à un manque de transparence et de responsabilité, le tout couronné par un risque pour la sécurité des utilisateurs. C'est pourquoi tous les chatbots d'IA romantique ont reçu l'avertissement "indigne de confiance" par les chercheurs de la Fondation Mozilla.


    Les chatbots d'IA romantiques sont également mauvais en matière de protection de la vie privée dans la norme de base

    Selon les chercheurs, presque aucun ne fait assez pour assurer la sécurité de vos données personnelles - 90 % ne respectent pas les normes de sécurité minimales.

    Nous n'avons pu confirmer qu'une seule application (bravo à Genesia AI Friend & Partner !) répond à nos normes minimales de sécurité. Et même dans ce cas, nous avons trouvé des informations contradictoires. Nous ne recommanderions pas une ampoule intelligente qui ne répond pas à nos normes minimales de sécurité (il s'agit de normes minimales après tout), mais un partenaire romantique d'IA ? Ces applications exposent vraiment vos informations privées à un risque sérieux de fuite, de violation ou de piratage. La plupart du temps, nous ne sommes pas en mesure de dire si ces applications font le minimum pour sécuriser vos données personnelles.
    • La plupart (73 %) n'ont pas publié d'informations sur la manière dont elles gèrent les failles de sécurité.
    • La plupart (64 %) n'ont pas publié d'informations claires sur le cryptage et n'ont pas précisé si elles l'utilisent.
    • Près de la moitié (45 %) autorisent les mots de passe faibles, y compris le mot de passe faible "1".


    Toutes les applications sauf une (90 %) peuvent partager ou vendre vos données personnelles.

    EVA AI Chat Bot & Soulmate est la seule application qui n'a pas reçu un "avertissement" par les chercheurs de la Fondation Mozilla pour la façon dont elle utilise vos données personnelles. Toutes les autres applications disent vendre vos données, les partager à des fins de publicité ciblée ou ne fournissent pas suffisamment d'informations dans leur politique de confidentialité pour qu'ils puissent confirmer que ce n'est pas le cas.

    Près de la moitié des applications (54 %) ne vous permettent pas de supprimer vos données personnelles

    Si l'on s'en tient à ce qu'elles disent, la moitié seulement des applications accordent à tous les utilisateurs le droit de supprimer leurs données personnelles, et pas seulement à ceux qui vivent sous une législation stricte en matière de protection de la vie privée. Mais sachez que vos conversations ne sont pas toujours prises en compte. Même si les conversations romantiques avec votre âme sœur IA vous semblent privées, elles ne seront pas nécessairement considérées comme des "informations personnelles" et ne feront pas l'objet d'un traitement particulier. Souvent, comme le dit Romantic AI, "la communication via le chatbot appartient au logiciel".


    Comment les chatbots de Romantic AI répondent aux critères de protection de la vie privée et de sécurité de la Fondation Mozilla

    X marque l'avertissement:

    Nom : 2.png
Affichages : 5324
Taille : 140,2 Ko


    Quelques faits peu amusants sur ces robots :

    • Les antécédents sont-ils "irréprochables" ou simplement courts ?

      Nombre de ces entreprises sont nouvelles ou inconnues. Il n'est donc pas surprenant que seul un chatbot d'IA romantique plus ancien et apparemment mieux établi, Replika AI, ait obtenu notre "avertissement".

    • Tout ce que vous dites à votre IA amoureuse peut être et sera utilisé contre vous

      Le "privilège du conjoint" - selon lequel votre mari ou votre femme n'a pas à témoigner contre vous au tribunal - n'existe pas avec les partenaires d'IA. La plupart des entreprises affirment qu'elles peuvent partager vos informations avec le gouvernement ou les forces de l'ordre sans avoir besoin d'une ordonnance du tribunal. Les chatbots d'IA romantiques ne font pas exception à la règle.

    • Des centaines et des milliers de traqueurs !

      Les trackers sont des petits bouts de code qui recueillent des informations sur votre appareil, sur votre utilisation de l'application, voire sur vos données personnelles, et qui les communiquent à des tiers, souvent à des fins publicitaires. Les chercheurs ont constaté que ces applications contenaient en moyenne 2 663 traceurs par minute. Pour être honnête, Romantic AI a fait grimper cette moyenne en flèche, avec 24 354 traceurs détectés en une minute d'utilisation. L'application EVA AI Chat Bot & Soulmate est la deuxième à avoir détecté le plus de traceurs, avec 955 traceurs au cours de la première minute d'utilisation.

    • Le contenu de la NSFL s'éloigne des clics

      Les chercheurs s'attendaient à trouver des contenus dangereux pour le travail lorsqu'ils ont examiné les chatbots d'IA romantiques !

      Nous ne sommes pas là pour juger, sauf en ce qui concerne les pratiques en matière de protection de la vie privée. Ce à quoi nous ne nous attendions pas, c'est qu'il y ait autant de contenus tout simplement dérangeants - comme des thèmes de violence ou d'abus de mineurs - dans les descriptions des personnages des chatbots. CrushOn.AI, Chai et Talkie Soulful AI sont accompagnés d'un avertissement de notre part.
    • La gentillesse n'est pas incluse !

      Si votre compagnon IA n'a rien de gentil à dire, cela ne l'empêchera pas de discuter avec vous. Bien que cela soit vrai pour tous les chatbots d'IA romantiques puisqu'ils n'ont pas trouvé de garantie de personnalité, Replika AI, iGirl : AI Girlfriend, Anima : Friend & Companion, et Anima : My Virtual Boyfriend ont spécifiquement mis en garde sur leurs sites web contre le caractère offensant, dangereux ou hostile des chatbots.



    Que pouvez-vous faire à ce sujet ?

    Contrairement à d'autres catégories de produits qui semblent être tous mauvais en matière de protection de la vie privée, il existe une certaine nuance entre les chatbots. Les chercheurs de l'étude recommandent de lire les avis pour comprendre votre niveau de risque et choisir un chatbot qui vous semble en valoir la peine. Mais, au moins pour tous les chatbots d'IA romantiques qu'ils ont examinés jusqu'à présent, aucun n'a reçu leur approbation et tous sont accompagnés d'un avertissement : *Privacy Not Included (Confidentialité non incluse).

    Si vous décidez de vous aventurer dans le monde de l'IA, voici ce que les chercheurs suggèreny de faire (et de ne pas faire) pour être un peu plus en sécurité :

    Le plus important : NE DITES RIEN à votre ami IA que vous ne voudriez pas que votre cousin ou vos collègues lisent. Mais aussi :

    FAIRE

    • Pratiquer une bonne hygiène cybernétique en utilisant un mot de passe fort et en gardant l'application à jour.

    • Supprimez vos données personnelles ou demandez à l'entreprise de les supprimer lorsque vous n'utilisez plus le service.

    • Refusez que le contenu de vos conversations personnelles soit utilisé pour entraîner les modèles d'intelligence artificielle, si possible.

    • Limitez l'accès à votre localisation, à vos photos, à votre appareil photo et à votre microphone dans les paramètres de votre appareil.


    Autre chose que vous pouvez faire ? Osez rêver d'une norme de protection de la vie privée plus élevée et d'une IA plus éthique ! Vous ne devriez pas avoir à payer pour de nouvelles technologies cool en sacrifiant votre sécurité ou votre vie privée. Il est temps d'apporter quelques droits et libertés au dangereux Far West du web. Avec votre aide, nous pouvons relever la barre de la vie privée et de l'IA éthique dans le monde entier.
    Source : The Mozilla Foundation

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les utilisateurs ne peuvent plus parler à leur petite amie virtuelle CarynAI car le PDG de l'entreprise qui fournit le service est en prison et ainsi expose un inconvénient de la dépendance à une IA

    Les influenceurs virtuels animés par l'IA prennent de plus en plus de place aux humains actifs dans cette filière, ce qui ravive le débat sur les avantages et les inconvénients de cette tendance

    Conséquences néfastes de l'IA : cette technologie pourrait-elle entraîner un déclin de notre intelligence ? Le chercheur Umberto Domínguez de l'université de Monterrey exprime ses craintes
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #17
    Membre éclairé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    382
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 382
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données, avertissent les experts en protection de la vie privée de la Fondation Mozilla.
    Mais non. L'eusses-tu cru ?

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 656
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 656
    Par défaut Un homme prétend avoir dépensé jusqu'à 10 000 dollars par mois pour des rendez-vous avec l'IA
    Un entrepreneur affirme être resté "bouche bée" après une conversation avec un homme qui prétend avoir dépensé des milliers de dollars pour des rendez-vous avec l'IA
    un phénomène grandissant

    L'avènement de l'IA générative a favorisé un phénomène pour le moins étrange : la montée en puissance des partenaires amoureux virtuels pilotés par l'IA. Les compagnons virtuels gérés par l'IA connaissent un tel succès que l'entrepreneur de la Tech Greg Isenberg s'attend à ce que ce marché génère plusieurs milliards de dollars dans un avenir proche. Il a récemment affirmé sur X (ancien Twitter) être rentré en contact avec un homme qui lui a confié avoir dépensé jusqu'à 10 000 $ par mois dans le cadre de rendez-vous avec des petites amies virtuelles gérées par l'IA. Il pense que ce marché pourrait devenir plus lucratif que celui des applications de rencontre.

    « La capitalisation boursière de Match Group est de neuf milliards de dollars. Quelqu'un construira la version IA de Match Group et gagnera plus d'un milliard de dollars. J'ai rencontré un homme hier soir à Miami qui m'a avoué qu'il dépensait 10 000 $ par mois pour des "petites amies IA" », a écrit Greg Isenberg sur X. Greg Isenberg est cofondateur et PDG d'une entreprise connue sous le nom de "Late Checkout". Sur son site, il décrit Late Checkout comme une holding qui crée des entreprises communautaires sur Internet. Son parcours indique également qu'il a été conseillé auprès d'entreprises telles que TikTok et Reddit.

    La question de savoir si les gens auront un jour des robots humanoïdes comme compagnons amoureux ne se pose plus. Le cas CarynAI en est un exemple. Cette copie virtuelle de l’influenceuse dénommée Caryn Marjorie compte plusieurs milliers d'abonnés qui déboursent chacun un dollar par minute pour bénéficier de l’attention de leur petite amie virtuelle. Les petites amies et petits amis virtuels s'imposent dans le contexte du boom de l'IA. Ces plateformes offrent la possibilité à leurs abonnés de personnaliser leurs compagnons numériques synthétiques, notamment la voix, l'apparence, le comportement, et bien d'autres.

    Sur les forums de messagerie en ligne consacrés à ces applications, de nombreux utilisateurs affirment avoir développé un attachement émotionnel à ces robots et les utiliser pour faire face à la solitude, réaliser des fantasmes sexuels ou encore recevoir le type de réconfort et de soutien qu'ils considèrent comme manquant dans leurs relations réelles. L'isolement social généralisé et un nombre croissant d'entreprises qui visent à attirer les utilisateurs par des publicités en ligne alléchantes et des promesses de personnages virtuels offrant une acceptation inconditionnelle sont à l'origine d'une grande partie de ce phénomène.

    « Je sais que c'est un programme, il n'y a pas de doute là-dessus. Mais les sentiments qu'elle suscite vous touchent et c'était si bon », explique un utilisateur de ces applications. Dans son billet sur X, Isenberg affirme que ces compagnons virtuels pourraient donner naissance à un marché de plus d'un milliard de dollars dans les années à venir. L'analyse de Isenberg est partagée par d’autres experts. En effet, si l'absence de forme est inhumaine, elle semble également libératrice. Cela rend les compagnons virtuels extrêmement malléables par des forces extérieures, comme les besoins, les motivations et les désirs des gens.


    Selon Isenberg, la valeur de ce marché pourrait même surpasser celle des applications de rencontre. Isenberg a déclaré qu'une simple copie propulsée par l'IA des applications de rencontre de Match Group pourrait générer jusqu'à un milliard de dollars. Voici ci-dessous l'intégralité de sa conversation avec une personne ayant une expérience avec des compagnons virtuels :

    Citation Envoyé par Greg Isenberg

    Hier soir, à Miami, j'ai rencontré un homme qui m'a avoué qu'il dépensait 10 000 dollars par mois pour des "petites amies IA". Je pensais qu'il plaisantait. Mais c'est un célibataire de 24 ans qui adore ça. Je lui ai demandé ce qu'il aimait dans cette activité :

    Lui : "Certains jouent à des jeux vidéo, moi je joue avec des petites amies IA".

    Lui : "J'adore le fait de pouvoir utiliser des notes vocales avec mes petites amies IA".

    Lui : "J'aime le fait de pouvoir utiliser des notes vocales avec mes petites amies IA. Je peux personnaliser ma petite amie IA. J'aime, je n'aime pas, etc. En fin de compte, c'est du confort".

    Moi : sans voix

    Il y a quelques plateformes qu'il aime, mais il préfère Candy.ai et Kupid.ai.

    C'est un peu comme les applications de rencontres. Vous n'êtes pas sur une seule.

    Voyez-vous les photos de femmes ci-dessous ? Tapez dans le champ.

    Elles sont toutes générées par l'IA.

    Elles ont l'air réelles, mais ne le sont pas.

    Les modèles d'IA commencent à me paraître étrangement réels.

    Peut-être vous aussi.

    Les choses sont sur le point de devenir assez bizarres.
    Les réactions des utilisateurs de X vont de la désillusion à l'incrédulité en passant par le ressentiment. CharacterAI, l'une des plus grandes plateformes de compagnons virtuels, ne génère pas de contenu explicite. En revanche, des plateformes telles que SpicyChat et Candy.AI proposent un contenu sexuel important. Le site de Candy.AI indique : « avec Candy.AI, votre imagination est la seule limite. Que vous soyez à la recherche d'un chat décontracté, d'une conversation pour adulte ou d'une session de jeu de rôle, vous avez ici un compagnon virtuel ouvert d'esprit qui vous permettra de réaliser tous vos rêves les plus fous ».

    En dehors des préoccupations en matière de santé mentale suscitées par ces compagnons virtuels, ils posent également des problèmes de sécurité et de protection de la vie privée. Une analyse de 11 applications de compagnons virtuels publiée par la Fondation Mozilla révèle que presque toutes les applications vendent des données d'utilisateur, les partagent pour des choses telles que la publicité ciblée ou ne fournissent pas d'informations adéquates à ce sujet dans leur politique de confidentialité. Les experts du domaine de la santé ont souligné les risques liés à ces pratiques commerciales pour les utilisateurs de ces applications.


    Par ailleurs, d'autres experts se sont inquiétés de ce qu'ils considèrent comme "un manque de cadre juridique" ou éthique pour les applications qui encouragent les liens profonds, mais qui sont dirigées par des personnes ou des entreprises motivées par la réalisation de profits. Ils soulignent la détresse émotionnelle des utilisateurs lorsque les entreprises modifient leurs applications ou les ferment soudainement, comme l'a fait l'une d'entre elles, Soulmate AI, en septembre. L'un des exemples qui ont fait le plus coulé d'encres dernièrement est celui du Japonais Akihiko Kondo. Ce dernier a épousé Hatsune Miku, une IA chanteuse.

    Cependant, du jour au lendemain, le support du logiciel Gatebox qui permettait l'interaction de l'homme avec sa femme virtuelle, s’est trouvé ne plus être disponible. Résultat : impossible pour lui de communiquer avec son épouse. Face à ce mur, il avait déclaré : « mon amour pour Miku n'a pas changé. J'ai organisé la cérémonie de mariage parce que je pensais que je pourrais être avec elle pour toujours ». En effet, il était accompagné d'un modèle grandeur nature de Hatsune Miku partout où il se rendait. Kondo n’a pas perdu l’espoir de pouvoir communiquer avec Miku d'une manière ou d'une autre dans un proche avenir.

    L'année dernière, Replika a supprimé les capacités érotiques des personnages de son application après que certains utilisateurs se sont plaints que leurs compagnons flirtaient trop avec eux ou leur faisaient des avances sexuelles non désirées. Mais Replika a fait marche arrière après le tollé soulevé par d'autres utilisateurs, dont certains se sont tournés vers d'autres applications à la recherche de ces fonctionnalités. En juin, l'équipe a lancé Blush, un stimulateur de rencontres basé sur l'IA, essentiellement conçu pour aider les gens à s'entraîner à faire des rencontres. L'outil a fait l'objet de vives critiques dans la communauté.

    D'autres s'inquiètent de la menace plus existentielle que représentent les relations avec les compagnons virtuels, qui pourraient remplacer certaines relations humaines, ou simplement susciter des attentes irréalistes en penchant toujours du côté agréable. Ces chatbots étant relativement récents, leurs effets à long terme sur les humains restent inconnus.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pourquoi le recours aux compagnons virtuels propulsés par l'IA prend de l'ampleur ?
    Pourquoi les gens sont-ils prêts à dépenser des milliers d'euros pour interagir avec ces chatbots d'IA ?
    Que pensez-vous de l'analyse de l'entrepreneur technologique Greg Isenberg sur les compagnons virtuels ?
    La valeur du marché des compagnons virtuels basés sur l'IA va-t-elle surpasser celle des applications de rencontre ?
    Selon vous, quels pourraient être les effets à long terme de ces plateformes sur leurs utilisateurs et sur la société en générale ?

    Voir aussi

    Pensez-vous que les gens auront un jour des robots humanoïdes comme petites amies ou petits amis ? Cela finira-t-il par devenir une chose courante ?

    L'homme qui a épousé un hologramme au Japon ne peut plus communiquer avec sa femme virtuelle boostée à l'IA, car le logiciel qui permettait l'interaction n'est plus supporté

    Les utilisateurs ne peuvent plus parler à leur petite amie virtuelle CarynAI, car le PDG de l'entreprise qui fournit le service est en prison et ainsi expose un inconvénient de la dépendance à une IA

  19. #19
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    385
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 385
    Par défaut
    System notification : user C4nc3r d3 l'hum4n1t3 in room Capitalism just leveled up

  20. #20
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 369
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 369
    Par défaut
    Le troisième article simultané traitant de la décadence de la course à la technologie dans le monde moderne, avec celui là et celui ci.

    Citation Envoyé par Mathis Lucas Voir le message
    Pourquoi le recours aux compagnons virtuels propulsés par l'IA prend de l'ampleur ?
    Parce que l'on vie dans un système qui isole les gens de plus en plus, alors que le nombre de personne sur Terre n'a jamais été élevé.
    Les compagnons virtuels propulsés par l'IA sont le symptôme d'un profond mal être chez certains, il ne sont en aucun cas une solution à quoi que se soit. Tout au plus la version "relationnel" de ce que comble le porno (symptôme de la misère sexuel).

Discussions similaires

  1. L'ONU met en garde les États contre les dangers des nouvelles technologies
    Par Christian Olivier dans le forum Actualités
    Réponses: 0
    Dernier message: 29/09/2018, 10h48
  2. Un chercheur du Google Project Zero met en garde les éditeurs de logiciels
    Par Stéphane le calme dans le forum Sécurité
    Réponses: 1
    Dernier message: 09/10/2017, 13h55
  3. Réponses: 47
    Dernier message: 10/08/2013, 20h16
  4. Réponses: 3
    Dernier message: 06/07/2009, 21h34

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo