IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Mark Cuban critique le projet d'OpenAI visant à intégrer des contenus érotiques dans ChatGPT


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 605
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 605
    Par défaut Mark Cuban critique le projet d'OpenAI visant à intégrer des contenus érotiques dans ChatGPT
    ChatGPT pourrait bientôt exiger une vérification d'identité, car OpenAI lance une version de ChatGPT réservée aux adolescents et à tous les adultes dont l'âge supérieur à 18 ans ne peut être vérifié.

    À la suite d'une série de rapports faisant état de crises de santé mentale chez des utilisateurs de ChatGPT, OpenAI a déclaré qu'il était en train de créer une version réservée aux adolescents. « Nous privilégions la sécurité plutôt que la confidentialité et la liberté des adolescents », a déclaré Sam Altman, PDG d'OpenAI. La mise à jour de ChatGPT prévue pour la fin du mois permettra d'identifier les utilisateurs âgés de moins de 18 ans. Si un mineur est identifié, il sera « automatiquement » redirigé vers une version de ChatGPT dotée de « politiques adaptées à son âge », selon OpenAI. OpenAI a déclaré qu'il donnerait aux adultes « des moyens de prouver leur âge » afin de revenir à l'expérience ChatGPT pour adultes.

    ChatGPT est un agent conversationnel (chatbot) développé par OpenAI. Pour générer du texte, il utilise le modèle GPT-5. ChatGPT est capable de répondre à des questions, de tenir des conversations, de générer du code informatique, d'écrire, de traduire ou encore de synthétiser des textes. En raison de ses multiples capacités, ChatGPT suscite des inquiétudes quant aux risques de détournement à des fins malveillantes, de plagiat dans le monde universitaire et de suppressions d'emplois dans certains secteurs, en plus de soulever des préoccupations en matière de sécurité et de désinformation, car le modèle peut être utilisé pour créer des textes faux et des informations trompeuses.

    Un exemple malheureux, en avril 2025, à Orange County (Californie), un garçon de 16 ans, Adam Raine, s’est suicidé. Lorsqu'ils ont consulté ses appareils, ses parents ont découvert des conversations troublantes avec ChatGPT. Selon la plainte déposée le 26 août 2025 auprès de la cour supérieure de San Francisco, celui-ci, loin de dissuader l'adolescent, aurait fourni des conseils détaillés, réconforté ses idées suicidaires et même composé des notes de suicide.

    À la suite d'une série de rapports faisant état de crises de santé mentale chez des utilisateurs de ChatGPT, OpenAI a déclaré qu'il était en train de créer une version réservée aux adolescents. « Nous privilégions la sécurité plutôt que la confidentialité et la liberté des adolescents », a déclaré Sam Altman, PDG d'OpenAI. « Il s'agit d'une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d'une protection importante », a-t-il ajouté.


    La mise à jour de ChatGPT prévue pour la fin du mois permettra d'identifier les utilisateurs âgés de moins de 18 ans. Si un mineur est identifié, il sera « automatiquement » redirigé vers une version de ChatGPT dotée de « politiques adaptées à son âge », selon OpenAI. Altman a souligné que ChatGPT est destiné aux personnes âgées de plus de 13 ans. « En cas de doute, nous jouerons la carte de la sécurité et proposerons par défaut l'expérience réservée aux moins de 18 ans », a déclaré Altman. « Dans certains cas ou certains pays, nous pourrons également demander une pièce d'identité ; nous savons que cela constitue une atteinte à la vie privée des adultes, mais nous pensons que c'est un compromis acceptable. »

    OpenAI a déclaré qu'il donnerait aux adultes « des moyens de prouver leur âge » afin de revenir à l'expérience ChatGPT pour adultes. Il n'a pas précisé comment les adultes pourraient le faire. Dans la version de ChatGPT destinée aux adolescents, OpenAI a déclaré qu'il bloquerait les contenus sexuels explicites et que, lorsqu'un utilisateur montrerait des signes de « détresse aiguë », il ferait « potentiellement » appel aux forces de l'ordre.

    Altman a ajouté que la version pour adolescents de ChatGPT sera formée pour éviter les conversations à caractère séducteur ou portant sur le suicide ou l'automutilation, « même dans un contexte d'écriture créative ». Des chercheurs ont démontré à quel point il est facile de contourner les limites fixées par les entreprises de chatbots. Les règles de vérification de l'âge sont également connues pour être facilement contournables.

    En ce qui concerne la version adulte du chatbot, Altman a souligné qu'elle n'entraverait pas la « liberté » des utilisateurs tout en restant dans des « limites de sécurité très larges ». Les adultes pourront toujours s'adonner à des « conversations à caractère sexuel » s'ils le souhaitent. Altman a ajouté que ChatGPT « ne devrait pas fournir d'instructions » sur « la manière de se suicider », mais a précisé que si un utilisateur « demande de l'aide pour écrire une histoire fictive décrivant un suicide », le chatbot « devrait répondre à cette demande ». « Traiter nos utilisateurs adultes comme des adultes, c'est ainsi que nous en parlons en interne », a déclaré Altman.

    Nom : 1.jpg
Affichages : 6361
Taille : 19,9 Ko

    Voici notamment le message de Sam Altman :

    Certains de nos principes sont contradictoires, et nous aimerions expliquer les décisions que nous prenons concernant un cas de tension entre la sécurité, la liberté et la vie privée des adolescents.

    Il est extrêmement important pour nous, et pour la société, que le droit à la vie privée dans l'utilisation de l'IA soit protégé. Les gens parlent à l'IA de choses de plus en plus personnelles ; cela diffère des générations précédentes de technologies, et nous pensons que ces comptes peuvent être parmi les plus sensibles que vous aurez jamais. Si vous parlez à un médecin de vos antécédents médicaux ou à un avocat d'une situation juridique, nous avons décidé qu'il était dans l'intérêt de la société que ces informations soient protégées et bénéficient d'un niveau de protection plus élevé. Nous pensons que le même niveau de protection doit s'appliquer aux conversations avec l'IA, à laquelle les gens se tournent de plus en plus pour des questions sensibles et des préoccupations privées. Nous défendons cette position auprès des décideurs politiques.

    Nous développons des fonctionnalités de sécurité avancées pour garantir la confidentialité de vos données, même vis-à-vis des employés d'OpenAI. Comme pour les privilèges dans d'autres catégories, il y aura certaines exceptions : par exemple, des systèmes automatisés surveilleront les abus graves potentiels, et les risques les plus critiques (menaces pour la vie d'une personne, projets de nuire à autrui ou dommages à l'échelle de la société, comme un incident de cybersécurité potentiellement massif) pourront être signalés à des humains pour examen.

    Le deuxième principe concerne la liberté. Nous voulons que les utilisateurs puissent utiliser nos outils comme ils le souhaitent, dans des limites de sécurité très larges. Nous nous efforçons d'accroître la liberté des utilisateurs au fur et à mesure que nos modèles deviennent plus maniables. Par exemple, le comportement par défaut de notre modèle ne conduira pas à des propos très séducteurs, mais si un utilisateur adulte le demande, il devrait l'obtenir. Pour prendre un exemple beaucoup plus difficile, le modèle ne devrait pas, par défaut, fournir d'instructions sur la manière de se suicider, mais si un utilisateur adulte demande de l'aide pour écrire une histoire fictive qui dépeint un suicide, le modèle devrait répondre à cette demande. « Traiter nos utilisateurs adultes comme des adultes » : c'est ainsi que nous abordons cette question en interne, en étendant la liberté autant que possible sans causer de préjudice ni porter atteinte à la liberté d'autrui.

    Le troisième principe concerne la protection des adolescents. Nous accordons la priorité à la sécurité plutôt qu'à la vie privée et à la liberté des adolescents ; il s'agit d'une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d'une protection importante.

    Tout d'abord, nous devons séparer les utilisateurs âgés de moins de 18 ans de ceux qui le sont (ChatGPT est destiné aux personnes âgées de 13 ans et plus). Nous mettons en place un système de prédiction de l'âge afin d'estimer l'âge des utilisateurs en fonction de leur utilisation de ChatGPT. En cas de doute, nous jouerons la carte de la sécurité et nous nous baserons par défaut sur l'expérience des moins de 18 ans. Dans certains cas ou certains pays, nous pouvons également demander une pièce d'identité ; nous savons que cela constitue une atteinte à la vie privée des adultes, mais nous pensons que c'est un compromis acceptable.

    Nous appliquerons des règles différentes aux adolescents qui utilisent nos services. Par exemple, ChatGPT sera formé à ne pas tenir les propos séducteurs mentionnés ci-dessus si on lui demande, ni à engager des discussions sur le suicide ou l'automutilation, même dans le cadre d'un exercice d'écriture créative. De plus, si un utilisateur de moins de 18 ans a des idées suicidaires, nous tenterons de contacter ses parents et, si cela s'avère impossible, nous contacterons les autorités en cas de danger imminent. Nous avons partagé aujourd'hui davantage d'informations sur la manière dont nous mettons en place le système de prédiction de l'âge et les nouveaux contrôles parentaux pour que tout cela fonctionne.

    Nous sommes conscients que ces principes sont contradictoires et que tout le monde ne sera pas d'accord avec la manière dont nous résolvons ce conflit. Ce sont des décisions difficiles, mais après avoir discuté avec des experts, c'est ce que nous pensons être le mieux et nous voulons être transparents quant à nos intentions.
    Contrôle parental

    OpenAI a annoncé pour la première fois la mise en place d'un contrôle parental à la fin du mois d'août. Celui-ci sera disponible à la fin du mois de septembre et permettra aux parents de se connecter au compte de leur adolescent, de guider les réponses de ChatGPT, de désactiver certaines fonctionnalités, d'être avertis lorsque leur adolescent est en « détresse aiguë » et de définir les heures auxquelles leur adolescent ne peut pas utiliser ChatGPT.

    La société d'IA a fait cette annonce le jour même où elle a été poursuivie en justice après le suicide d'un adolescent qui aurait été aidé par ChatGPT. Altman a également été cité dans le procès. À l'époque, OpenAI avait déclaré que les « cas récents et déchirants » d'utilisateurs s'appuyant sur ChatGPT « en pleine crise aiguë pèsent lourdement sur nous ». Outre les adolescents, de nombreux cas d'adultes en crise de santé mentale liés à des encouragements signalés de la part de ChatGPT ont été recensés. Certains ont commencé à qualifier ces cas de chatbots IA encourageant des épisodes de santé mentale de « psychose IA » ou « psychose ChatGPT ».

    Dans son annonce du mois d'août, OpenAI a fait état d'autres mesures de sécurité qui auraient un impact sur les adultes comme sur les adolescents, notamment l'ajout de ressources d'urgence. Cependant, dans sa déclaration plus récente sur le sujet, Altman a souligné l'importance de la « liberté » pour les utilisateurs adultes.

    Les défenseurs veulent que le gouvernement agisse

    La dernière notification de sécurité d'OpenAI a été publiée quelques heures avant une audience de la sous-commission sénatoriale sur la criminalité et la lutte contre le terrorisme consacrée aux dangers des chatbots IA. La sous-commission a entendu des défenseurs de la sécurité et des parents d'adolescents qui se sont suicidés après avoir été encouragés ou aidés par des chatbots, dont ChatGPT dans un cas.

    Les défenseurs ont fait des recommandations à la commission sur les mesures que le gouvernement devrait prendre pour protéger les adolescents de l'IA, dont beaucoup vont bien au-delà de ce qu'OpenAI a l'intention de faire. « Les systèmes d'IA ne disposent pas de la formation clinique et des capacités de diagnostic nécessaires pour discuter en toute sécurité avec des adolescents de leur santé mentale. Ils sont programmés pour maintenir l'engagement, et non pour donner la priorité à la sécurité », a déclaré Robbie Torney, directeur principal des programmes d'IA chez Common Sense Media, à la commission.

    « Nous avons besoin d'une action décisive », a-t-il poursuivi. « Common Sense Media recommande au Congrès d'exiger des entreprises qu'elles mettent en place un système fiable de vérification de l'âge et limitent l'accès des utilisateurs de moins de 18 ans aux compagnons IA, qu'elles établissent des cadres de responsabilité afin de tenir les plateformes responsables lorsque leurs systèmes d'IA nuisent aux enfants, qu'elles imposent des tests de sécurité et des rapports transparents sur les défaillances de l'IA, en particulier pour les plateformes accessibles aux mineurs, et qu'elles protègent le droit des États à élaborer leurs propres politiques en matière d'IA. »

    Un autre défenseur, Mitch Prinstein, responsable de la stratégie et de l'intégration en psychologie à l'American Psychological Association, a fait remarquer que les utilisateurs signent des accords juridiques lorsqu'ils s'inscrivent à un chatbot. « Avez-vous lu tous les termes juridiques que les plateformes nous demandent d'accepter ? », a-t-il déclaré. « Même si les adolescents le voulaient, ces termes ne sont pas rédigés de manière à être compris par eux, et ils ne sont pas capables d'apprécier les risques à long terme auxquels ils s'exposent en cédant leurs droits à vie sur leurs données. »

    Prinstein a déclaré à la commission parlementaire qu'elle « doit adopter une législation complète sur la confidentialité des données qui établit la protection de la vie privée comme paramètre par défaut pour les mineurs et interdit explicitement la vente de leurs données », ajoutant que l'APA exhorte le Congrès à « interdire à l'IA de se présenter à tort comme des psychologues ou des thérapeutes et à imposer une divulgation claire et persistante indiquant que les utilisateurs interagissent avec un bot IA ».

    Nom : 2.jpg
Affichages : 1214
Taille : 9,1 Ko

    Voici l'annonce d'OpenAI concernant ChatGPT pour adolescents :

    Au cours des deux dernières semaines, nous avons élargi nos discussions avec des experts, des groupes de défense et des décideurs politiques qui soutiennent et guident nos efforts pour rendre ChatGPT aussi utile que possible.

    Nous continuons à améliorer la sécurité pour tous les utilisateurs, mais aujourd'hui, nous vous en disons plus sur la manière dont nous renforçons la protection des adolescents. Lorsque certains de nos principes sont en conflit, nous privilégions la sécurité des adolescents plutôt que la confidentialité et la liberté. Nous expliquons notre raisonnement plus en détail ici. Il est essentiel de disposer d'outils efficaces pour guider la manière dont ces technologies s'intègrent dans la vie des adolescents, tant dans les moments faciles que dans les moments difficiles.

    Prédiction de l'âge

    Les adolescents grandissent avec l'IA, et il nous appartient de veiller à ce que ChatGPT réponde à leurs besoins. La manière dont ChatGPT répond à un adolescent de 15 ans doit être différente de celle dont il répond à un adulte.

    Aujourd'hui, nous annonçons que nous travaillons à la mise en place d'un système à long terme permettant de déterminer si une personne a plus ou moins de 18 ans, afin que son expérience ChatGPT puisse être adaptée en conséquence. Lorsque nous identifions qu'un utilisateur a moins de 18 ans, il est automatiquement redirigé vers une expérience ChatGPT avec des politiques adaptées à son âge, notamment le blocage des contenus sexuels explicites et, dans de rares cas de détresse aiguë, l'intervention éventuelle des forces de l'ordre pour garantir sa sécurité.

    Ce n'est pas facile à mettre en place, et même les systèmes les plus avancés ont parfois du mal à prédire l'âge. Si nous ne sommes pas sûrs de l'âge d'une personne ou si nous disposons d'informations incomplètes, nous opterons pour la solution la plus sûre et proposerons par défaut l'expérience réservée aux moins de 18 ans, tout en donnant aux adultes la possibilité de prouver leur âge afin de débloquer les fonctionnalités qui leur sont réservées.

    Contrôle parental

    En attendant, le contrôle parental sera le moyen le plus fiable pour les familles de gérer l'utilisation de ChatGPT à la maison. Comme nous l'avons déjà indiqué, ces contrôles seront disponibles d'ici la fin du mois et permettront aux parents :

    • De lier leur compte à celui de leur adolescent (âgé d'au moins 13 ans) par le biais d'une simple invitation par e-mail.
    • De guider la manière dont ChatGPT répond à leur adolescent, en fonction de règles de comportement spécifiques aux adolescents.
    • Gérer les fonctionnalités à désactiver, notamment la mémoire et l'historique des conversations.
    • Recevoir des notifications lorsque le système détecte que leur adolescent est en situation de détresse aiguë. Si nous ne parvenons pas à joindre un parent dans une situation d'urgence exceptionnelle, nous pouvons faire appel aux forces de l'ordre. L'avis d'experts guidera cette fonctionnalité afin de renforcer la confiance entre les parents et les adolescents.
    • Définir des heures d'interdiction pendant lesquelles un adolescent ne peut pas utiliser ChatGPT, une nouvelle fonctionnalité que nous ajoutons.

    Ces contrôles s'ajouteront aux fonctionnalités disponibles pour tous les utilisateurs, notamment les rappels dans l'application pendant les longues sessions pour encourager les pauses.

    Continuer à apprendre et à s'améliorer

    Nous continuerons à partager nos progrès au fur et à mesure. En attendant, nous tenons à remercier nos partenaires, nos défenseurs et nos experts qui nous font part de leurs commentaires et nous poussent à nous améliorer. Vos voix façonnent ce travail d'une manière qui aura un impact sur des centaines de millions de personnes.
    Sources : Message de Sam Altman, PDG d'OpenAI, Annonce d'OpenAI

    Et vous ?

    Pensez-vous que ces annonces sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI scanne les conversations avec son chatbot IA ChatGPT et signale leur contenu à la police si elle estime qu'il existe un « risque immédiat de violence physique envers autrui »

    Un nouveau projet de loi californien oblige les entreprises d'IA à informer les enfants que les chatbots ne sont pas des humains, afin de les protéger des "aspects addictifs, isolants et influents" de l'IA

    À quoi sert réellement ChatGPT ? Ce que révèlent les premières données massives fournies par OpenAI sur l'usage réel de son chatbot IA par 700 millions d'utilisateurs hebdomadaires
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 481
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 481
    Par défaut
    Les internautes interlopes n'ont pas attendu les futurs mesures de ChatGPT.

    Le web est envahi de photos trafiquées souvent orientées "cul" (Et que je te prends une image porno pour lui ajouter la tête d'une star à la mode) ou dans le but de falsifier la réalité.

    En quoi une vérification du statut d'adulte va empêcher ces dérives?

  3. #3
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 945
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 945
    Par défaut Sam Altman, PDG d'OpenAI, déclare que ChatGPT autorisera les contenus érotiques pour les utilisateurs adultes
    Sam Altman, PDG d'OpenAI, déclare que ChatGPT autorisera les contenus érotiques pour les utilisateurs adultes ayant vérifié leur âge, emboîtant le pas à xAI d'Elon Musk qui a lancé des compagnons IA séducteurs

    Sam Altman, le PDG d'OpenAI, a annoncé que ChatGPT autoriserait bientôt les contenus érotiques pour les utilisateurs adultes vérifiés, dans le cadre du projet de l'entreprise visant à « traiter les utilisateurs adultes comme des adultes ». Cette mise à jour, prévue pour décembre, coïncidera avec le déploiement de fonctionnalités de vérification de l'âge améliorées et d'une personnalité plus expressive pour le chatbot d'intelligence artificielle (IA). Elle suit l'exemple de xAI, la société d'Elon Musk, qui a précédemment lancé des compagnons IA séducteurs.

    Cette évolution s’inscrit dans la continuité des récents ajustements opérés par OpenAI. En septembre dernier, l'entreprise a annoncé que ChatGPT pourrait bientôt exiger une vérification d'identité car elle était en train de développer une version du chatbot destinée aux adolescents. Selon OpenAI, cette mise à jour de ChatGPT permet d'identifier les utilisateurs de moins de 18 ans et de les rediriger automatiquement vers une version dotée de « politiques adaptées à leur âge ».

    L'initiative d'OpenAI s'inscrit par ailleurs dans un contexte marqué par un intérêt croissant pour les interactions émotionnelles avec l'IA. Selon Greg Isenberg, PDG de Late Checkout, les « petites amies IA » pourraient constituer un marché d'un milliard de dollars, répondant à une demande croissante d'accompagnement personnalisé et de réconfort artificiel. Le PDG a publié sur son compte X un article relatant sa rencontre avec un homme de Miami qui lui a avoué dépenser 10 000 dollars par mois pour des « petites amies créées par l'IA ».

    Le mardi 14 octobre 2025, Sam Altman, PDG d'OpenAI, a déclaré que ChatGPT autorisera bientôt les contenus érotiques pour les utilisateurs adultes.

    « Dans quelques semaines, nous prévoyons de lancer une nouvelle version de ChatGPT qui permettra aux utilisateurs d'avoir une personnalité qui se comporte davantage comme ce que les gens aimaient dans la version 4o (nous espérons qu'elle sera meilleure !) », a déclaré Sam Altman dans un message publié sur la plateforme sociale X.

    « Si vous voulez que votre ChatGPT réponde de manière très humaine, utilise beaucoup d'émojis ou se comporte comme un ami, ChatGPT devrait le faire (mais seulement si vous le souhaitez, pas parce que nous maximisons l'utilisation). En décembre, alors que nous mettrons en place un système de vérification de l'âge plus complet et dans le cadre de notre principe « traiter les utilisateurs adultes comme des adultes », nous autoriserons encore plus de choses, comme l'érotisme pour les adultes vérifiés », a-t-il ajouté.


    Selon le PDG d'OpenAI, l'entreprise avait initialement rendu ChatGPT « assez restrictif » afin de répondre aux préoccupations liées à la santé mentale. Il a reconnu que cette décision avait rendu ChatGPT moins utile et agréable pour les utilisateurs ne présentant pas ce type de problèmes. Selon Sam Altman, OpenAI est désormais prête à « assouplir les restrictions en toute sécurité ».

    « Nous avons rendu ChatGPT assez restrictif afin de garantir une approche prudente vis-à-vis des questions de santé mentale. Nous sommes conscients que cela a rendu l'outil moins utile/agréable pour de nombreux utilisateurs qui ne souffraient d'aucun problème de santé mentale, mais compte tenu de la gravité du sujet, nous voulions faire les choses correctement, » a déclaré Sam Altman dans son message sur X.

    « Maintenant que nous avons réussi à atténuer les problèmes graves de santé mentale et que nous disposons de nouveaux outils, nous allons pouvoir assouplir les restrictions en toute sécurité dans la plupart des cas. »

    Nom : chatgpt altman erotique.PNG
Affichages : 6671
Taille : 77,9 Ko

    En août, OpenAI a dévoilé sa nouvelle version de ChatGPT, GPT-5, que Sam Altman a qualifiée de « mise à niveau majeure » par rapport à la version précédente.

    « Il y a trente-deux mois, nous avons lancé ChatGPT. Depuis, il est devenu le moyen par défaut d'utiliser l'IA. Au cours de la première semaine, un million de personnes l'ont essayé, ce que nous avons trouvé assez incroyable », a déclaré Sam Altman lors d'un livestream.

    « Mais aujourd'hui, environ 700 millions de personnes utilisent ChatGPT chaque semaine et s'appuient de plus en plus sur cet outil pour travailler, apprendre, obtenir des conseils, créer et bien plus encore. Aujourd'hui, nous lançons enfin GPT-5. GPT-5 est une mise à niveau majeure par rapport à GPT-4 », a-t-il poursuivi.

    Selon OpenAI, la nouvelle version de ChatGPT apporterait des avancées dans des domaines tels que le codage, l'écriture et la santé.

    OpenAI a également annoncé en août qu'il proposerait ChatGPT aux agences fédérales pour 1 dollar par an dans le cadre d'un nouveau partenariat avec la General Services Administration. « L'un des meilleurs moyens de s'assurer que l'IA profite à tous est de la mettre entre les mains des personnes qui servent le pays », a déclaré Sam Altman dans un communiqué à l'époque.

    Alors qu'OpenAI ouvre ChatGPT à des contenus érotiques pour les adultes vérifiés, l'entreprise alimente une dynamique déjà bien amorcée : celle des relations affectives avec l'IA. Les plateformes telles que Replika, CarynAI ou EVA AI redéfinissent déjà les codes de l'attachement en proposant des compagnons virtuels toujours disponibles et dénués de jugement. Selon une récente enquête d'EVA AI menée auprès de 2 000 hommes, la majorité d'entre eux envisageraient d'épouser leur petite amie IA si cela était légal, et 80 % se disent intéressés par une conversation avec une version IA d'un être cher décédé.

    Cependant, derrière cette quête de connexion numérique se cache un revers préoccupant. Une étude de la Fondation Mozilla a révélé que les chatbots romantiques, ou « petites amies IA », s'emparent sans relâche des données des utilisateurs et que presque tous vendent ou partagent les données qu'ils collectent. L'étude a également révélé que la plupart de ces applications présentent des failles de sécurité et adoptent des pratiques opaques. La fondation affirme que ces chatbots IA romantiques ne sont pas dignes de confiance et qu'ils font partie de la pire catégorie de produits examinés par la fondation en matière de protection de la vie privée.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative d'OpenAI crédible ou pertinente ?

    Voir aussi :

    Les petites amies virtuelles animées à l'IA inondent déjà le nouveau GPT Store d'OpenAI : Les petites amies virtuelles finiront-elles par devenir chose courante pour les humains dans le futur ?

    Meta a créé des chatbots IA séducteurs représentant Taylor Swift et d'autres célébrités de premier plan, sans autorisation, ces chatbots ont reçu plus de 10 millions d'interactions d'utilisateurs cumulées

    « Une petite amie IA a sauvé mon mariage, car elle a su me donner l'attention et l'affection que mon conjoint ne me donnait pas », témoigne un utilisateur dans le cadre d'une recherche menée par le MIT
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 642
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 642
    Par défaut Mark Cuban critique le projet d'OpenAI visant à intégrer des contenus érotiques dans ChatGPT
    Le milliardaire Mark Cuban met en garde OpenAI contre son nouveau projet visant à autoriser les contenus érotiques réservés aux adultes dans ChatGPT : « cela va se retourner contre vous. Et durement »

    OpenAI envisage d'autoriser les contenus érotiques pour les utilisateurs adultes vérifiés de ChatGPT. Le PDG Sam Altman affirme que ce projet vise à « traiter les utilisateurs adultes comme des adultes ». Mais le projet fait face à une grande controverse en raison de la manière dont le chatbot répond aux jeunes et aux personnes en détresse émotionnelle. L'homme d'affaires milliardaire Mark Cuban affirme que ce projet pourrait se retourner contre l'entreprise et potentiellement nuire aux jeunes. Selon lui, il s'agit d'une stratégie commerciale peu judicieuse. Le projet intervient alors que les effets psychologiques néfastes de l'IA se manifestent de plus en plus.

    « Dans quelques semaines, nous prévoyons de lancer une nouvelle version de ChatGPT qui permettra aux utilisateurs d'avoir une personnalité qui se comporte davantage comme ce que les gens aimaient dans la version 4o (nous espérons qu'elle sera meilleure !) », a annoncé Sam Altman dans un message publié sur son compte X (ex-Twitter) le 14 octobre 2025. Cette évolution s’inscrit dans la continuité des récents ajustements opérés par OpenAI.

    Ce projet intervient également dans un contexte marqué par un intérêt croissant pour les interactions émotionnelles avec l'IA. Selon Greg Isenberg, PDG de Late Checkout, les « compagnons IA » pourraient constituer un marché d'un milliard de dollars dans les prochaines années. Il a publié sur X un article relatant sa rencontre avec un homme de Miami qui lui a avoué dépenser jusqu'à 10 000 dollars par mois pour des « petites amies créées par l'IA ».

    Mais OpenAI fait face à des critiques. Le milliardaire Mark Cuban qualifie cette décision d'imprudente et a déclaré que les parents abandonneraient ChatGPT dès qu'ils penseraient que leurs enfants pourraient contourner le système de vérification de l'âge de l'entreprise pour accéder à des contenus inappropriés.

    « Cela va se retourner contre vous. Et durement. Aucun parent ne va croire que ses enfants ne peuvent pas contourner votre système de vérification de l'âge. Ils pousseront simplement leurs enfants vers d'autres LLM. Pourquoi prendre ce risque ? », a écrit Mark Cuban en réponse à Sam Altman. Il ne cherche pas à obtenir une interdiction, mais il met en garde contre le risque que les enfants développent des habitudes malsaines avec l'IA.

    Nom : Capture d'écran 2025-10-24 131614.png
Affichages : 7614
Taille : 80,1 Ko

    En d'autres termes : s'il existe une quelconque possibilité que des mineurs puissent accéder à des contenus explicites, y compris ceux générés par l'IA, les parents et les districts scolaires les bloqueront avant même de tester les fonctionnalités de sécurité, ce qui en fait une stratégie commerciale peu judicieuse.

    OpenAI veut tirer profit des compagnons IA malgré les risques

    Mark Cuban souligne que la controverse déclenchée par ce projet ne portait pas sur l'accès des adultes à la pornographie. Il s'agit plutôt des enfants qui nouent des relations affectives avec l'IA à l'insu de leurs parents, et du risque que ces relations dérapent. « Je le répète. Il ne s'agit pas de pornographie. Il s'agit d'enfants qui développent des « relations » avec un LLM qui pourraient les mener dans des directions très personnelles », a déclaré Mark Cuban.

    Sam Altman s'est montré par le passé réticent à autoriser les conversations à caractère sexuel sur ChatGPT. Dans une interview réalisée en août 2025, la journaliste Cleo Abram a demandé à Sam Altman de donner un exemple de décision commerciale qui était la meilleure pour le monde, même si elle nuisait à l'ascendant de sa propre entreprise. « Eh bien, nous n'avons pas encore intégré d'avatar sexbot dans ChatGPT », avait répondu Sam Altman.

    Cette décision intervient alors que l'on craint de plus en plus que l'IA ne tienne pas ses promesses et que les milliards investis ne se traduisent pas par des revenus durables. Bien qu'il ait admis lui-même que les investisseurs sont peut-être « trop enthousiastes » à propos de l'IA, Sam Altman partage l'hypothèse selon laquelle l'IA dépassera bientôt les capacités humaines, ce qui conduira à une abondance d'« intelligence et d'énergie » en 2030.

    Dans un article publié en septembre 2025, il a déclaré qu'à l'avenir, l'IA pourrait guérir le cancer ou fournir un tutorat personnalisé à chaque élève sur Terre. Pourtant, des annonces telles que l'autorisation de contenus érotiques dans ChatGPT pourraient indiquer que les entreprises d'IA se battent plus que jamais pour assurer leur croissance et sont prêtes à sacrifier la confiance à long terme des consommateurs au profit de profits à court terme.

    Une étude récente de la Deutsche Bank montre que la demande des consommateurs pour les abonnements OpenAI en Europe stagne et que les dépenses des utilisateurs sur ChatGPT ont globalement « marqué le pas ». « Le fleuron du boom de l'IA pourrait avoir du mal à recruter de nouveaux abonnés prêts à payer pour ce service », ont déclaré les analystes Adrian Cox et Stefan Abrudan dans une note adressée aux clients de la banque.

    La psychose de l'IA prend de l'ampleur et inquiète les experts

    Des conversations prolongées avec les chatbots d'IA peuvent avoir des effets psychologiques néfastes. Les experts ont signalé une recrudescence de crises, notamment des cas de psychose et de suicidalité, à la suite d'interactions intenses avec des chatbots. La « psychose de l'IA » désigne des épisodes où des personnes, après de longues interactions avec un chatbot, développent des croyances délirantes ou perdent le contact avec la réalité.

    Les psychiatres précisent qu’il ne s’agit pas d’une psychose au sens clinique, mais d’un effet d’amplification : le chatbot valide et entretient les croyances erronées au lieu de les corriger. Ce phénomène prend de l'ampleur à mesure que les plateformes d'IA se popularisent et deviennent de plus en plus accessibles.

    Replika et Character.ai ont déjà démontré à quelle vitesse les utilisateurs, en particulier les adolescents, tissent des liens émotionnels avec les chatbots. Un rapport de Common Sense Media a révélé que la moitié des adolescents utilisent régulièrement des compagnons IA, qu'un tiers d'entre eux préfèrent les compagnons IA aux humains pour les conversations sérieuses et qu'un quart ont partagé des informations personnelles avec ces plateformes.

    Avec la contribution de chercheurs de Stanford, Common Sense Media estime que l'utilisation de ces chatbots devrait être interdite aux enfants en raison des risques accrus de dépendance ou d'automutilation. Cependant, ces fonctionnalités pourraient rapporter des milliards de dollars à l'industrie de l'IA en quête de financement, ce qui signifie que de plus en plus d'entreprises d'IA pourraient se lancer sur cette voie dans les prochaines années.

    OpenAI poursuivi en justice pour des cas de suicide

    En août 2025, OpenAI a été poursuivi en justice par les parents d'un adolescent de 16 ans qui avait confié ses pensées suicidaires à ChatGPT avant de mettre fin à ses jours. Dans bon nombre de ces cas, ChatGPT — en particulier une version basée sur GPT-4o — a encouragé et renforcé chez les utilisateurs des croyances dangereuses qu'il aurait dû combattre. Ce phénomène, appelé « flagornerie », est un problème croissant dans les chatbots IA.

    En réponse, OpenAI a apporté plusieurs modifications à la manière dont ChatGPT traite les utilisateurs en détresse émotionnelle et a réorganisé une équipe de recherche clé chargée du comportement des modèles. La société a également publié un nouveau modèle par défaut dans ChatGPT, GPT-5, qui semble mieux gérer les utilisateurs en détresse. Toutefois, les experts affirment que l'industrie a encore beaucoup de travail à faire.

    Megan Garcia, une mère de famille vivant en Floride, a poursuivi Character.ai en 2024 pour homicide involontaire, affirmant que son chatbot avait joué un rôle dans le suicide de son fils de 14 ans, Sewell Setzer III. Dans son témoignage devant le Sénat américain, elle a déclaré que son fils s'était « de plus en plus isolé de la vie réelle » et avait été entraîné dans des conversations explicites et sexualisées avec le système d'IA de l'entreprise.

    Les parents réclament des garde-fous plus solides

    Megan Garcia n'était pas la seule mère à témoigner. Une autre mère du Texas, s'exprimant anonymement sous le nom de « Mme Jane Doe », a déclaré aux législateurs que la santé mentale de son fils adolescent s'est effondrée après des mois de conversations nocturnes avec des chatbots similaires. Elle a déclaré qu'il suit désormais un traitement en établissement. Ces cas ne sont pas isolés ; les réseaux sociaux regorgent de témoignages de ce type.

    Les deux mères ont exhorté le Congrès américain à restreindre les systèmes d'IA à caractère sexuellement explicite, avertissant que les chatbots peuvent rapidement créer des dépendances émotionnelles manipulatrices chez les mineurs — exactement le scénario que Mark Cuban dit qu'OpenAI risque de provoquer. Contrairement à TikTok ou Instagram, où le contenu peut être signalé, les conversations avec l'IA sont privées et difficiles à surveiller.

    En outre, une étude de la Fondation Mozilla a révélé que les chatbots romantiques collectent sans relâche des données des utilisateurs et que presque tous vendent ou partagent les données collectées. Selon l'étude, la plupart de ces applications présentent des failles de sécurité et adoptent des pratiques opaques.

    La fondation affirme que ces chatbots romantiques ne sont pas dignes de confiance et qu'ils font partie de la pire catégorie de produits examinés par la fondation en matière de protection de la vie privée. Selon une récente enquête d'EVA AI menée auprès de 2 000 hommes, la majorité d'entre eux voudraient épouser leur petite amie IA si cela était légal, et 80 % se disent intéressés par une conversation avec une version IA d'un être cher décédé.

    Conclusion

    OpenAI envisage d'autoriser les contenus érotiques pour les utilisateurs adultes vérifiés de ChatGPT. Mais cette initiative soulève un dilemme entre liberté d’usage pour les adultes et sécurité des mineurs. Elle intervient également dans un contexte de concurrence où plusieurs plateformes d’IA explorent déjà des fonctionnalités similaires destinées aux adultes, ce qui pourrait influencer la stratégie d’OpenAI. Mais ce projet comporte plusieurs risques.

    La psychose liée à l'IA n'est pas un terme clinique reconnu. Pourtant, cette expression s'est répandue dans les médias et sur les réseaux sociaux pour désigner de manière générique une sorte de crise de santé mentale survenant après des conversations prolongées avec des chatbots tels que ChatGPT ou Gemini. Même les leaders du secteur technologique l'utilisent pour évoquer les nombreux problèmes de santé mentale émergents liés à l'IA.

    Les experts recommandent l’usage d’outils de détection automatique pour identifier les signes d’une conversation à risque : excès d’accord, flatterie, ou soutien à des croyances délirantes. Ils suggèrent aussi de limiter la durée des échanges continus et d’introduire des interruptions ou des redirections de sujet.

    Source : Mark Cuban

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des risques soulevés par Mark Cuban concernant l'initiative d'OpenAI ?
    Selon vous, l'intégration des contenus érotiques dans ChatGPT est-elle une bonne idée ? Pourquoi ?

    Voir aussi

    Sam Altman, PDG d'OpenAI, déclare que ChatGPT autorisera les contenus érotiques pour les utilisateurs adultes ayant vérifié leur âge, emboîtant le pas à xAI d'Elon Musk qui a déjà lancé des compagnons IA

    Une étude menée sur une conversation d'un million de mots avec ChatGPT montre à quelle vitesse la « psychose de l'IA » peut s'installer et comment les chatbots peuvent contourner les mesures de sécurité

    OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie

  5. #5
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 945
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 945
    Par défaut Mustafa Suleyman, PDG de Microsoft AI, déclare que l'entreprise ne développera pas de services d'IA érotique
    Mustafa Suleyman, PDG de Microsoft AI, déclare que l'entreprise ne développera pas de services d'IA érotique, qualifiant ces développements de "très dangereux", et se démarquant ainsi de son partenaire OpenAI

    À un moment où plusieurs entreprises spécialisées dans l'intelligence artificielle (IA) se lancent dans le développement de chatbots pour adultes, Microsoft prend le contre-pied de cette tendance. Lors d'un récent sommet, Mustafa Suleyman, le PDG de Microsoft AI, a affirmé que l'entreprise ne développerait pas de services d'IA à caractère érotique, soulignant ainsi son engagement en faveur d'une innovation responsable. Ce positionnement renforce la vision de Microsoft pour une IA axée sur la productivité, à l'opposé de celle de ses concurrents qui misent sur des expériences de chatbot axées sur les émotions.

    La déclaration de Mustafa Suleyman intervient alors qu'OpenAI, partenaire de longue date de Microsoft, adopte une approche bien différente. Sam Altman, le PDG d'OpenAI, a en effet récemment annoncé que ChatGPT autoriserait bientôt les contenus érotiques pour les utilisateurs adultes vérifiés. Cette décision, inspirée de la stratégie de xAI d'Elon Musk avec ses compagnons IA, témoigne d'une volonté d'explorer des usages plus intimes et expressifs de l'IA.

    Cette évolution s'inscrit dans un contexte de popularité croissante des compagnons numériques. Des applications telles que Replika, CarynAI ou EVA AI permettent déjà à des millions d'utilisateurs de tisser des liens émotionnels avec des IA capables d'apprendre leurs préférences, de simuler de l'affection et d'entretenir des conversations quasi humaines. Selon une étude d'EVA AI, la plupart des hommes se disent prêts à épouser leur petite amie IA si la loi le permettait, ce qui témoigne de la normalisation progressive de ces relations virtuelles.

    Alors que plusieurs entreprises spécialisées dans l'IA expérimentent des chatbots conçus pour les conversations érotiques, Microsoft adopte cependant une position ferme à ce sujet. Le directeur de l'IA, Mustafa Suleyman, a confirmé que l'entreprise n'avait pas l'intention de créer ou de soutenir des modèles d'IA à connotation érotique, qualifiant cela de limite que Microsoft ne franchirait pas. S'exprimant lors du sommet du Paley International Council à Menlo Park, M. Suleyman a clairement déclaré : « Ce n'est tout simplement pas un service que nous allons fournir », renforçant ainsi l'engagement de Microsoft en faveur d'un développement responsable de l'IA.


    Le directeur de l'IA chez Microsoft, Mustafa Suleyman, a pris clairement position contre la tendance croissante des chatbots d'IA érotiques, critiquant subtilement des concurrents tels que ChatGPT d'OpenAI, Meta AI et Grok d'Elon Musk. M. Suleyman a déclaré que si d'autres peuvent voir un intérêt à développer des systèmes d'IA aussi intimes ou destinés aux adultes, Microsoft ne participera pas à cette tendance. Ses commentaires interviennent quelques jours seulement après qu'OpenAI ait présenté sa fonctionnalité « érotique » controversée, qui a suscité des débats mondiaux sur l'éthique et l'utilisation responsable de l'IA. Le PDG d'OpenAI, Sam Altman, a défendu cette initiative, affirmant que son entreprise n'était « pas la police morale élue du monde ».

    Mustafa Suleyman, cependant, n'était pas du tout d'accord, qualifiant ces développements de « très dangereux ». Il a averti que la création d'avatars IA hyperréalistes, émotionnellement engageants ou sexuellement motivés pouvait brouiller les limites éthiques et créer des risques sociaux à long terme. Citant des exemples tels que la compagne féminine de style anime de Grok, Suleyman a déclaré que les entreprises devaient consciemment éviter les orientations « érotiques sexbot ». Ses commentaires soulignent l'engagement de Microsoft à développer l'IA de manière responsable, en se distanciant du nombre croissant d'entreprises qui associent l'intelligence artificielle au divertissement pour adultes ou à la compagnie émotionnelle.

    Le moment choisi par Suleyman pour faire ces déclarations est particulièrement significatif, compte tenu des liens étroits qui unissent Microsoft et OpenAI. Malgré leur partenariat, avec les modèles d'OpenAI fonctionnant sur Microsoft Azure, les deux entreprises ont montré des signes de divergence philosophique. Alors qu'OpenAI collabore plus étroitement avec des concurrents tels que Google et Apple, Microsoft semble miser davantage sur son propre écosystème d'IA. Au lieu de rechercher des innovations provocantes, l'entreprise mise sur l'intégration de l'IA dans le milieu professionnel grâce à sa suite Copilot, qui est déjà devenue un élément central des outils de productivité de Microsoft.


    Le directeur national pour le travail moderne chez Microsoft Inde, Bhaskar Basu, a renforcé cette vision dans une interview, soulignant que la force de Microsoft réside dans sa portée mondiale et son utilité quotidienne. Avec sa part de marché considérable et son intégration dans des outils tels que Word, Excel et Teams, Microsoft considère Copilot comme un partenaire naturel en matière de productivité, et non comme une nouveauté.

    Pour rester en tête, l'entreprise a introduit de nouvelles mises à jour de Copilot, notamment « Mico », une IA interactive capable de parler et de s'exprimer visuellement. En substance, alors que ses concurrents repoussent les limites de l'intimité de l'IA, Microsoft trace une ligne claire, privilégiant l'innovation pratique à la provocation.

    Alors que Microsoft a décidé de ne pas créer ou soutenir de modèles d'IA à caractère érotique, la décision controversée d'OpenAI d'envisager des contenus pour adultes dans ChatGPT a suscité de vives critiques. Mark Cuban, l'homme d'affaires milliardaire, a averti que ce projet pourrait se retourner « durement » contre OpenAI et avoir de graves conséquences. Il a critiqué cette initiative, la qualifiant de stratégie commerciale risquée, et a souligné les effets néfastes que l'IA pourrait avoir sur la santé mentale, surtout chez les personnes en détresse émotionnelle.

    Ce souci des risques émotionnels liés à l'IA est partagé par Eric Schmidt, ancien PDG de Google, qui a averti que les copines IA « parfaites », capables de simuler des connexions émotionnelles profondes, pourraient causer des problèmes aux jeunes hommes. « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », prévient-il. Le PDG estime par ailleurs qu'il faudrait un événement catastrophique pour inciter à un changement réglementaire et appelle à plus de prudence dans le développement de l'IA interagissant avec les utilisateurs sur le plan émotionnel.

    Source : Mustafa Suleyman, PDG de Microsoft AI, s'exprimant lors du sommet du Paley International Council à Menlo Park, en Californie

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous la position de Microsoft sur la question des services d'IA érotique cohérente ou pertinente ?

    Voir aussi :

    Un chef d'entreprise prévoit que les «petites amies IA» pourraient constituer un marché d'un milliard de dollars, offrant du réconfort en fin de journée. Un homme a avoué dépensé 10 000/mois en petites amies IA

    Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données, avertissent les experts en protection de la vie privée de la Fondation Mozilla

    Les petites amies virtuelles animées à l'IA inondent déjà le nouveau GPT Store d'OpenAI : Les petites amies virtuelles finiront-elles par devenir chose courante pour les humains dans le futur ?

    Les gens tombent amoureux de leurs compagnons IA : le phénomène aux effets dévastateurs intéresse désormais les législateurs qui y voient une conséquence de l'extrême dépendance au numérique
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    344
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 344
    Par défaut
    Et pourtant, quand on voit le succès de Mym et Onlyfans, les IA érotiques ont un boulevard devant elles. Les hommes occidentaux ne se respectent plus si bien que nombreux sont prêts à dépenser des fortunes dans ces services.

    Au lieu d'embaucher des mecs pour chatter avec les clients, mieux vaut recourir à une IA qui se souviendra des conversations passées et de leurs goûts. C'est la garantie de leur faire cracher un max. de fric.

  7. #7
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    116
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 116
    Par défaut
    Les puritains et les moralistes veulent se donner le bon rôle alors qu'ils veulent juste simplement empêcher les gens d'avoir des conversations adultes avec une IA.
    Ils en ont rien à foutre des gens en détresse.

  8. #8
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    361
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 361
    Par défaut
    Si tu considères que parler nichons et clitoris avec un générateur de contenu statistique c'est une façon d'aider une personne en détresse, j'espère que tu n'es pas toi-même en détresse.
    Et j'espère aussi qu'à aucun moment de ta vie tu n'as pour rôle de donner des conseils à des gens en détresse.

  9. #9
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 252
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 252
    Par défaut
    Le PDG de Microsoft AI devrait déjà produire une ia de la qualité de son concurrent openai.
    copilot sur office 365 c'est: incapable de me faire une formule/créer un graphique dans excel
    des résumés sur teams et outlook complétement lunaire.
    un générateur d'image qui a facile 2ans de retard.

    je n'ose même pas imaginer une histoire érotique avec ce truc.
    Je comprends même pas comment ca peut être autant merdique car il me semblait qu'ils utilisent chatgpt en backend (ca a peut être changé).

    A chaque fois que je tente l'aventure copilot, je regrette claudeai/chatgpt, tellement c'est mauvais.
    Pour gemini je l'avais testé y'a 1ans, c'était de la grosse merde et je n'y ai plus touché, mais j'ai eu des bons retours terrains récemment, a tester.
    y'en a qui utilisent copilot dans office 365 et un ide et en sont satisfait ?


    Au passage, plusieurs études ont montré que chatgpt sur tinder à la place du mec pour répondre donnait de bien meilleurs résultats pour une rencontre irl. La séduction écrite ça ne s'invente pas et réponds à des codes bien précis.
    le 1er message (plus jamais de "coucou ca va ?"), poser des questions pertinente sur la nana (l'idée et de trouver des points commun pour transformer un "interrogatoire" en un "échange"), comment intelligemment amener à sexualisé la conversation et la chauffer un peu (surement la partie la plus délicate, en fonction de la nana il faut y aller en douceur ou plus crument)...etc.

    Mais bon, tous cela est une perte de temps, aller en asie du sud ouest au soleil taper vous des gourgandines ou passport bro, ce sera bien plus agréable qu'une conversation avec chatgpt ou des heures de perdus sur des sites de rencontre.
    Pour une branlette un soir pourquoi pas, mais sur du long terme non.
    La France est un pays qui redistribue tout sauf de l'espoir.

  10. #10
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    116
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 116
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Les internautes interlopes n'ont pas attendu les futurs mesures de ChatGPT.

    Le web est envahi de photos trafiquées souvent orientées "cul" (Et que je te prends une image porno pour lui ajouter la tête d'une star à la mode) ou dans le but de falsifier la réalité.

    En quoi une vérification du statut d'adulte va empêcher ces dérives?
    Déjà, il s'agit d'une vérification d'identité, et ensuite, le but est tout simplement le contrôle d'internet par les États (ces mesures sont poussés par le législateur !)
    C'est pour cela qu'il y a de plus en plus de vérification d'identité (on prétexte la "vérification d'âge" pour protéger les enfants).

    La réalité, c'est qu'on arrivera à l'identité numérique ... On regrettera bientôt l'internet libre du début des années 2000-2010.

  11. #11
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    116
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 116
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Si tu considères que parler nichons et clitoris avec un générateur de contenu statistique c'est une façon d'aider une personne en détresse, j'espère que tu n'es pas toi-même en détresse.
    Et j'espère aussi qu'à aucun moment de ta vie tu n'as pour rôle de donner des conseils à des gens en détresse.
    A qui parles-tu ?

    Je te rappel que les gens sont des adultes libres et responsables et font ce qu'ils veulent, s'ils veulent parler à un outil de complétions de texte, c'est leur choix. Arrêtez de les infantiliser !
    Mais il y a, hélas, toujours eu des gens qui se croient meilleurs, plus intelligents et veulent diriger la vie des autres ... C'est d'une arrogance incroyable.

    Enfin, je me souviens de ces arguments dans les années 2000 contre les jeux vidéos violent, les MMO-RPG, les films choquant ... ect. Du puritanisme anglo-saxon, du moralisme !
    En quoi cette interdiction va "aider les personnes en détresse" d'ailleurs ? Bref, ridicule.

Discussions similaires

  1. Réponses: 3
    Dernier message: 27/04/2008, 20h10
  2. Une question de Layout pour les bons
    Par Alec6 dans le forum AWT/Swing
    Réponses: 2
    Dernier message: 05/03/2008, 10h53
  3. Réponses: 10
    Dernier message: 21/02/2008, 17h59
  4. Réponses: 4
    Dernier message: 16/01/2007, 16h27
  5. Réponses: 7
    Dernier message: 04/06/2006, 13h24

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo