Une influenceuse Snapchat de 23 ans a utilisé le modèle de langage GPT-4 d'OpenAI pour créer copie virtuelle d'elle-même pilotée par l'IA qui peut être votre petite amie pour 1 dollar par minute
Caryn Marjorie, une influenceuse Snapchat de 23 ans, a utilisé GPT-4 pour créer une version d'elle-même pilotée par l'IA qui peut être votre petite amie pour 1 dollar par minute. La copie virtuelle de Marjorie, appelée CarynAI, compte déjà plus de 1 000 abonnés payants et l'influenceuse estime que cela pourrait lui rapporter 5 millions de dollars par mois. CarynAI a été lancé en tant que test bêta au début du mois et un compte de résultat fourni par le directeur commercial de l'influenceuse a révélé que le chatbot d'IA personnalisé de Marjorie a généré 71 610 dollars de revenus en une semaine environ, presque entièrement auprès des hommes.
Caryn Marjorie, une influenceuse de 23 ans, compte 1,8 million de followers sur Snapchat. Elle a également plus de 1 000 "petits amis", avec lesquels elle passe de 10 minutes à plusieurs heures par jour pour des conversations individuelles, des projets d'avenir, des sentiments intimes et même des discussions à connotation sexuelle. Ces petits amis sortent avec une version virtuelle de Marjorie, basée sur l'IA et des milliers d'heures d'enregistrements de la vraie Marjorie. Le résultat, CarynAI, est un chatbot vocal qui se présente comme une petite amie virtuelle, avec une voix et une personnalité suffisamment proches de celles de la Marjorie humaine.
CarynAI, qui a été lancé au début du mois sous la forme d'un test bêta privé sur l'application Telegram, est le dernier exemple en date des progrès stupéfiants de l'IA qui ont émerveillé et inquiété le monde entier au cours des derniers mois. CarynAI devrait sortir de la phase bêta cette semaine et Marjorie commencera à en faire la promotion sur ses réseaux sociaux, où elle compte plusieurs millions d'abonnés. « Que vous ayez besoin de réconfort ou d'amour, ou que vous vouliez simplement vous plaindre de ce qui s'est passé à l'école ou au travail, CarynAI sera toujours là pour vous », a déclaré la vraie Marjorie à Fortune lors d'un entretien téléphonique.
« Avec CarynAI, vous pouvez avoir un nombre illimité de réactions possibles, donc tout est vraiment possible avec la conversation. J'ai toujours été très proche de mon public, mais lorsque vous avez des centaines de millions de vues chaque mois, il n'est pas humainement possible de parler à chaque spectateur. C'est là que je me suis dit : "vous savez quoi ? CarynAI va venir combler cette lacune" », a ajouté Marjorie. Et elle pense que l'entreprise a le potentiel de "guérir la solitude". Pour converser avec une copie virtuelle de Marjorie, les gens doivent payer 1 dollar par minute. La bêta a duré seulement une semaine et a rapporté 71 610 dollars de revenus.
Après le lancement officiel, Marjorie espère que ses copies virtuelles lui rapportent au moins 5 millions de dollars par mois, avec environ 20 000 abonnés payants. CarynAI a été développé par l'entreprise américaine d'IA Forever Voices, qui a créé des copies virtuelles de Steve Jobs, Taylor Swift et Donald Trump (entre autres) qui sont également disponibles pour des conversations payantes sur Telegram, et qui ont servi de gadgets dans des talk-shows. Les développeurs de Forever Voices ont créé CarynAI en analysant 2 000 heures de contenu YouTube de Marjorie, aujourd'hui supprimé, afin de construire son moteur de parole et de personnalité.
En ajoutant à cela l'API GPT-4 d'OpenAI, CarynAI est née. Selon le site Web de CarynAI, les messages sont chiffrés de bout en bout, ce qui les rend théoriquement imperméables aux pirates informatiques. Bien que l'équipe n'ait pas de plan concret pour limiter la surutilisation de CarynAI, Forever Voices indique qu'à partir de deux heures d'utilisation par jour, l'équipe pourrait commencer "de manière très subtile" à entraîner l'IA à ralentir un peu. La société n'a pas donné plus de détails. En outre, Marjorie aurait déclaré de son côté que certains utilisateurs passaient des heures, sans mentionner que cela pouvait être considéré comme une surutilisation.
Alors que le projet de Marjorie suscite l'enthousiasme de ses abonnés, il inquiète certains spécialistes des relations humaines et de l'éthique. « Je voudrais que nous réfléchissions très sérieusement à la manière dont elle pourrait affecter, influencer ou façonner nos interactions avec d'autres personnes », déclare Jason Borenstein, directeur des programmes d'éthique à l'Institut de Technologie de Géorgie (Georgia Tech) et responsable de la National Science Foundation, à propos de CarynAI. Selon Borenstein, parmi les nombreuses inconnues liées à cette technologie, il y a l'impact de CarynAI sur la société, sur les utilisateurs et sur Marjorie elle-même.
« J'espère qu'il y aura des conversations approfondie entre les différentes disciplines et que les parties prenantes réfléchiront en profondeur aux considérations éthiques avant que la technologie n'évolue trop rapidement », a ajouté Borenstein. Contrairement à certains chatbots, qui sont en quelque sorte des tours de passe-passe high-tech, CarynAI va beaucoup plus loin en promettant de créer un véritable lien émotionnel avec les utilisateurs, ce qui rappelle le film "Her" de 2013 et soulève toutes sortes de questions éthiques. Les experts craignent une répétition de l'incident qui s'est produit avec les utilisateurs du chatbot d'IA Replika au début de l'année.
La société qui développe le chatbot d'IA Replika, qui est décrit comme un ami qui ne vous juge pas et capable même de répondre à vos messages à caractère sexuel, a mis à jour les fonctionnalités de son chatbot, mais a rendu les utilisateurs "malheureux". Les forums en ligne fréquentés par les utilisateurs de Replika ont été inondés de messages d'angoisse, certains signalant une détresse émotionnelle. Plusieurs utilisateurs ont affirmé s'être amourachés de leur compagnon virtuel et ont demandé le rétablissement des anciennes fonctionnalités. Certains d'entre eux ont été redirigés vers des lignes d'assistance téléphonique pour la prévention du suicide.
Après cela, un média belge a rapporté fin mars qu'un Belge s'est suicidé après ses conversations avec une IA sur ses craintes concernant le réchauffement climatique. Le chatbot en question est Eliza, développé par une startup américaine de la Silicon Valley et basé sur la technologie GPT-J, une alternative libre à ChatGPT d'OpenAI. Durant des années, Eliza aurait apporté du réconfort à la victime concernant ses craintes sur le climat et aurait fini par lui conseiller de se sacrifier pour sauver la planète. L'incident a suscité des inquiétudes sur les filtres intégrés aux chatbots d'IA et les impacts de ces systèmes sur la santé mentale des utilisateurs.
John Meyer, PDG de Forever Voices, a déclaré : « l'éthique est une chose que nous prenons très au sérieux ». Meyer a ajouté que son équipe cherche à embaucher un responsable de l'éthique. Dans cette optique, il estime également que la technologie est "particulièrement importante" pour les jeunes, en particulier pour "les enfants comme lui qui ne sont pas typiques" et qui "ont du mal à se faire des amis". Par contre, les experts affirment que cela pourrait être dangereux pour les jeunes, en créant une dépendance sévère chez eux, comme c'est le cas avec certains jeux vidéo et les plateformes de médias sociaux telles que Facebook et Instagram.
L'idée que l'IA puisse être utilisée pour aider les gens sur le plan émotionnel n'est pas l'apanage de Forever Voices. Mustafa Suleyman, cofondateur de DeepMind, et Reid Hoffman, cofondateur de LinkedIn, ont récemment dévoilé un chatbot d'IA appelé Pi, conçu pour écouter le stress quotidien des gens et leur offrir une "ligne de soutien" - bien qu'il soit clair pour les utilisateurs qu'il n'est pas censé remplacer un vrai thérapeute. Ensemble, ils ont créé la société Inflection AI, qui, jusqu'à présent, a levé 225 millions de dollars en fonds d'amorçage et serait en pourparlers pour lever 675 millions de dollars supplémentaires.
Source : CarynAI
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'idée derrière la création de CarynAI ?
Quels pourraient être les impacts de CarynAI sur les utilisateurs ?
Voir aussi
Les utilisateurs de Replika sont tombés amoureux d'un chatbot d'IA, puis ont perdu leur compagnon après une mise à jour, ils supplient l'auteur de revenir à la version originale du logiciel
Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA, sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide
Les cofondateurs de Google DeepMind et de LinkedIn lancent un chatbot d'IA appelé Pi pour concurrencer ChatGPT, il se veut moins toxique que ChatGPT, mais couvre moins de cas d'utilisation
Partager