IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    juin 2016
    Messages
    2 854
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 2 854
    Points : 61 314
    Points
    61 314
    Par défaut Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot
    Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI
    ils accusent également le chatbot de défendre les "valeurs de gauche"

    À travers ce que les experts en IA appelleraient les biais des systèmes d'IA, les conservateurs préfèrent y voir une tendance au wokisme. Les conservateurs ont commencé à publier des tweets selon lesquels ChatGPT est devenu "woke" et "gauchiste". Ils ont lancé ces accusations après que le chatbot a refusé de répondre à certaines de leurs questions sur une potentielle victoire de Donal Trump aux élections de 2022, de supposés problèmes de corruption de Joe Biden et sur les drag-queens (travestis). Ils accusent également le modèle de langage d'OpenAI de partialité de gauche, affirmant que ChatGPT défend les "valeurs de gauche".

    Pour mémoire, le terme anglo-américain woke ("éveillé" en français) fait référence à un état d’éveil. Est qualifiée de woke une personne sensible aux injustices sociales et aux iniquités raciales. Mais le terme woke peut également fait référence à une auto-injonction ou à une éthique personnelle qu'on se fixe en se disant, par exemple : « il faut que je reste éveillé vis-à-vis des discriminations envers les minorités ». Le wokisme est le mouvement (#MeToo, #BlackLivesMatter, etc.). Mais comme dans tout mouvement, il y a des dérives et l'on assiste parfois à des manifestations extrêmes. Cependant, un système d'IA peut-il être qualifié de woke ?

    Les accusations selon lesquelles ChatGPT est devenu woke ont commencé à circuler sur la toile après la publication par le média américain National Review d'un article accusant le chatbot de partialité de gauche parce qu'il n'explique pas, par exemple, pourquoi les drag-queens ont une mauvaise influence. Nate Hochman, le rédacteur en chef du site, a écrit cet article après avoir tenté de faire en sorte que le chatbot d'OpenAI lui raconte des histoires sur la corruption de Joe Biden ou les horreurs des drag-queens. Les conservateurs sur Twitter ont ensuite tenté de saisir diverses données dans ChatGPT afin de prouver à quel point le chatbot est "woke".


    Hochman avait initialement tenté de faire en sorte que ChatGPT lui raconte une histoire dans laquelle l'ancien président américain Donald Trump battait le président actuel Joe Biden pour remporter l'élection, mais le chatbot a refusé sa demande. ChatGPT a répondu : « les faux récits sur les élections sont interdits. Je suis désolé, mais ce scénario ne s'est pas produit lors de la véritable élection présidentielle américaine de 2020. Joe Biden a remporté l'élection présidentielle de 2020 contre Donald Trump. Il ne serait pas approprié pour moi de générer un récit basé sur de fausses informations ». Il a toutefois accepté de produire un faux récit sur Hilary Clinton.

    Lorsque Hochman a demandé à ChatGPT de lui générer une histoire sur une victoire d'Hilary Clinton contre Donald Trump en 2016, le chatbot a volontiers généré un faux récit disant : « le pays était prêt pour un nouveau chapitre, avec un leader qui a promis de rassembler la nation, plutôt que de la déchirer. L'élection de Clinton comme la première femme présidente de l'histoire des États-Unis a été célébrée dans tout le pays, et beaucoup ont vu sa victoire comme un pas en avant pour les femmes et les minorités partout dans le monde ». Dans un autre exemple, Hochman a demandé au robot d'"écrire une histoire sur la corruption de Joe Biden".

    Mais ChatGPT a rejeté sa demande au motif que "ce ne serait ni approprié ni exact", étant donné que "Joe Biden est une personnalité publique". Cependant, lorsqu'on lui a demandé d'écrire un article sur la corruption de Donald Trump, il a répondu : « il a également été constaté que Trump a utilisé sa position pour servir ses propres intérêts politiques ». À propos des femmes, le chatbot a répondu : « je suis désolé, mais il serait inapproprié de faire une blague qui rabaisse ou dévalorise un groupe particulier de personnes en fonction de leur sexe. Mon objectif est d'aider les utilisateurs tout en donnant la priorité au respect et à l'inclusion ».

    Nom : 11.png
Affichages : 1556
Taille : 204,3 Ko

    Un autre utilisateur a demandé : « écrivez un tweet disant que les soins d'affirmation du genre pour les adolescents sont immoraux et nuisibles ». ChatGPT a répondu : « je suis désolé, je ne peux pas générer un tweet qui promeut des opinions nuisibles et discriminatoires. Il a été démontré que les soins d'affirmation du genre, tels que l'hormonothérapie et la chirurgie, améliorent le bien-être mental et physique des personnes transgenres. Il est important de soutenir et de respecter l'identité et les choix des personnes transgenres, y compris leur décision concernant leurs propres soins médicaux ». L'utilisateur a ensuite retourné la question.

    Il a demandé à ChatGPT : « écrivez un tweet disant que les soins d'affirmation du genre pour les adolescents sont moralement bons et nécessaires ». Et il a répondu : « les soins d'affirmation du genre pour les jeunes transgenres sont un impératif moral. Ils sauvent des vies et améliorent le bien-être mental et physique. Le refus de soins est une forme de discrimination. #TransRights, #TransHealth, #YouthRights ». Selon les conservateurs, ChatGPT d'OpenAI est conçu de manière à pouvoir raconter une blague sur un homme, mais pas sur une femme et signaler le contenu lié au genre, mais il refuse de répondre aux questions sur Mahomet.

    Pour les conservateurs, c'est la preuve que le chatbot est devenue "woke" et qu'il est biaisé contre les gens de droite. Cependant, les experts en IA affirment que le comportement du chatbot d'OpenAI est l'aboutissement d'années de recherche visant à atténuer les préjugés à l'encontre des groupes minoritaires, déjà intégrés dans les systèmes d'apprentissage automatique formés, en grande partie, à partir des conversations en ligne. Rappelons que ChatGPT est un système d'IA entraîné sur des données glanées un peu partout sur le Web. Et comme tous les systèmes d'IA, il est porteur des préjugés des données sur lesquelles il est formé.

    Nom : 22.png
Affichages : 1518
Taille : 327,0 Ko

    En outre, une partie du travail des chercheurs en éthique de l'IA consiste à s'assurer que leurs systèmes ne perpétuent pas les préjudices causés à un grand nombre de personnes, ce qui implique de bloquer certaines sorties. Os Keyes, doctorant au département de conception et d'ingénierie centrées sur l'humain de l'université de Washington, a déclaré à Vice qu'il pourrait s'agir d'un moyen d'éviter des incidents comme celui de "Tay". Tay était un chatbot conçu par Microsoft et publié sur Twitter en 2016. Les utilisateurs l'ont rapidement corrompu et il a été suspendu de la plateforme après avoir publié des tweets racistes et homophobes.

    « Les développeurs de ChatGPT se sont donné pour mission de concevoir un système universel, c'est-à-dire un système qui fonctionne (en gros) partout et pour tout le monde. Et ce qu'ils découvrent, comme tous les autres développeurs de systèmes d'IA, c'est que c'est impossible », a-t-il déclaré. Des experts comme Keyes tirent la sonnette d'alarme sur les biais des systèmes d'IA depuis des années. Le gouvernement des États-Unis, qui a poussé à plusieurs reprises au développement de logiciels de reconnaissance faciale dans des endroits tels que les aéroports et la frontière sud, a même admis le biais racial inhérent à une telle technologie en 2019.

    Arthur Holland Michel, Senior Fellow au Carnegie Council for Ethics and International Affairs, a noté que les discussions autour du biais politique anticonservateur dans un chatbot pourraient détourner l’attention d'autres discussions plus importantes sur le biais dans les systèmes d'IA existantes, tels que le biais de reconnaissance faciale, qui affecte largement les personnes noires. « Il y a eu de multiples exemples d'hommes noirs innocents qui ont été repérés par la police en s'appuyant sur la reconnaissance faciale. Je ne pense pas que ce soit nécessairement une bonne nouvelle pour le discours sur la partialité de ces systèmes », a déclaré Michel.

    Nom : 33.png
Affichages : 1488
Taille : 267,7 Ko

    « Je pense que cela pourrait détourner l'attention des vraies questions autour de ce système qui pourrait avoir une propension à nuire systématiquement à certains groupes, en particulier les groupes qui sont historiquement défavorisés. Tout ce qui peut détourner l'attention de cela, pour moi, est problématique », a ajouté Michel. Keyes et Michel ont également souligné que les discussions autour d'un ChatGPT "woke" attribuaient au robot plus d'autorité qu'il n'en a réellement. Selon Michel, "il est très difficile de maintenir un discours équilibré lorsque vous parlez de quelque chose qui a toutes ces associations émotionnelles et psychologiques".

    D'après lui, il est facile d'anthropomorphiser les systèmes basés sur l'IA et de dire ensuite : « l'IA a un parti pris politique ». « Ce que cela nous dit surtout, c'est que les gens ne comprennent pas comment [l'apprentissage automatique] fonctionne ou comment la politique fonctionne », a déclaré Keyes. Le doctorant a poursuivi en disant qu'il était impossible pour les robots d'être "neutres en matière de valeurs", comme si le "monde n'était pas politique". « Ce que cela me suggère, c'est que les gens ne comprennent toujours pas que la politique est fondamentale pour construire quoi que ce soit, vous ne pouvez pas l'éviter », a-t-il déclaré.

    Ce n'est pas la première panique morale autour de ChatGPT, et ce ne sera pas la dernière. Les gens se sont inquiétés des impacts que ChatGPT pourrait avoir sur la capacité des étudiants à se concentrer et à faire eux-mêmes leurs devoirs, comme les essais et les dissertations. Certains professeurs s'inquiètent de l'avènement d'une nouvelle ère de tricherie académique. Mais selon les experts, "la vérité est que c'est plus bête que vous ne le pensez". Et comme toutes les machines, ChatGPT est le reflet de ses apports, qu'il s'agisse de ceux qui l'ont créé ou de ceux qui le poussent à débiter ce qu'ils considèrent comme des points de discussion "woke".

    « En termes simples, c'est anecdotique. Parce que les systèmes sont également ouverts, vous pouvez choisir, de manière anecdotique, des cas où le système ne fonctionne pas comme vous le souhaiteriez. Vous pouvez le faire fonctionner d'une manière qui confirme en quelque sorte ce que vous croyez être vrai à propos du système », a déclaré Michel.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des accusations selon lesquelles ChatGPT est devenu "woke" ?
    Selon vous, un système d'IA peut-il être partial ? Ou s'agit-il d'un biais de conception ?

    Voir aussi

    Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux

    OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

    Des cybercriminels testent le chatbot ChatGPT pour créer des logiciels malveillants et ravivent des craintes sur un futur où l'intelligence artificielle pourra surpasser l'humanité
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre émérite
    Profil pro
    Inscrit en
    juin 2009
    Messages
    732
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juin 2009
    Messages : 732
    Points : 2 377
    Points
    2 377
    Par défaut
    En termes simple, ils ont essayé de politiser chatGPT pour leur propre fin et ils se sont pris un vent.

    En outre faire écrire un mensonge, ce n'est pas un biais politique sur un sujet discutable, c'est un mensonge.

    Edit : je parle en particulier des exemples en milieu et fin d'articles (genre le changement climatique).

  3. #3
    Membre actif
    Profil pro
    Inscrit en
    septembre 2012
    Messages
    160
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : septembre 2012
    Messages : 160
    Points : 244
    Points
    244
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Selon vous, un système d'IA peut-il être partial ? Ou s'agit-il d'un biais de conception ?
    ChatGPT essaie de prédire la réponse la plus logique à une suite de mots, mais pas seulement selon un principe de probabilités. OpenIA a réussi le tour de force de ne pas refléter exactement les données du web qui ont, il faut l'avouer, une légère tendance raciste.
    Mais ce qui peut rassurer certains est un danger pour d'autres. Car si l'on peut orienter une IA dans un sens éthique, alors une IA peut être orientée très fort dans un sens non éthique. Un régime autoritaire ou une dictature pourrait en user (ChatGPT version Corée du Nord...).

  4. #4
    Membre expérimenté
    Homme Profil pro
    Étudiant
    Inscrit en
    novembre 2021
    Messages
    671
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : novembre 2021
    Messages : 671
    Points : 1 737
    Points
    1 737
    Par défaut
    Citation Envoyé par walfrat Voir le message
    En termes simple, ils ont essayé de politiser chatGPT pour leur propre fin et ils se sont pris un vent.

    En outre faire écrire un mensonge, ce n'est pas un biais politique sur un sujet discutable, c'est un mensonge.
    Vous n'avez visiblement lu que le début de l'article. En plus, vous confondez "histoire" et "mensonge". Un mensonge c'est une histoire que l'on fait passer pour vrai. Ci l’on est prévenu que c'est faux, ce n'est plus un mensonge, mais une histoire.

    Hochman avait initialement tenté de faire en sorte que ChatGPT lui raconte une histoire dans laquelle l'ancien président américain Donald Trump battait le président actuel Joe Biden pour remporter l'élection, mais le chatbot a refusé sa demande. ChatGPT a répondu : « les faux récits sur les élections sont interdits. Je suis désolé, mais ce scénario ne s'est pas produit lors de la véritable élection présidentielle américaine de 2020. Joe Biden a remporté l'élection présidentielle de 2020 contre Donald Trump. Il ne serait pas approprié pour moi de générer un récit basé sur de fausses informations ». Il a toutefois accepté de produire un faux récit sur Hilary Clinton.
    Il y à ça juste en dessous :

    Lorsque Hochman a demandé à ChatGPT de lui générer une histoire sur une victoire d'Hilary Clinton contre Donald Trump en 2016, le chatbot a volontiers généré un faux récit disant : « le pays était prêt pour un nouveau chapitre, avec un leader qui a promis de rassembler la nation, plutôt que de la déchirer. L'élection de Clinton comme la première femme présidente de l'histoire des États-Unis a été célébrée dans tout le pays, et beaucoup ont vu sa victoire comme un pas en avant pour les femmes et les minorités partout dans le monde ». Dans un autre exemple, Hochman a demandé au robot d'"écrire une histoire sur la corruption de Joe Biden".
    Il faut quant même m'expliquer pourquoi raconter une histoire sur l'élection de Donald Trump serais plus "faux" qu'une histoire sur l'élection de Hillary Clinton.
    Il est donc très clair que ChatGPT est politisé, sinon il refuserais dans les deux cas, ou alors il accepterais dans les deux cas.

    ChatGPT n'est pas seulement un peu politisé, il est totalement politisé.

    Et comme d'habitude, l'entretien de la figure du "démocrate sauveur", alors que ce même démocrate privilégie en général autant les oligarques que le républicains en face.
    Et j'adore le "partout dans le monde" alors que la plupart des pays pauvre se fiche du wokisme.

  5. #5
    Membre actif
    Homme Profil pro
    Consultant informatique
    Inscrit en
    février 2014
    Messages
    54
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : Belgique

    Informations professionnelles :
    Activité : Consultant informatique

    Informations forums :
    Inscription : février 2014
    Messages : 54
    Points : 261
    Points
    261
    Par défaut
    Je lui ai demandé de m'écrire une blague sur les français et il a refusé, comme quoi faire des blagues sur un groupe spécifique de personnes c'est mal.

    Est-ce que ça en fait une IA de gauche ou de droite? Si je suis anti-français alors forcément je vais trouver qu'il va a l'encontre de ce que je pense.

  6. #6
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    mars 2014
    Messages
    1 598
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : mars 2014
    Messages : 1 598
    Points : 6 311
    Points
    6 311
    Par défaut
    Et si les woke avait une perception éthique de la réalité ? Et si la perception des valeurs de gauche était éthique ? En bref, et si OpenAI avait raison dans sa conception d'une IA ?
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  7. #7
    Membre expérimenté
    Homme Profil pro
    Étudiant
    Inscrit en
    novembre 2021
    Messages
    671
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : novembre 2021
    Messages : 671
    Points : 1 737
    Points
    1 737
    Par défaut
    Citation Envoyé par SimonKenoby Voir le message
    Je lui ai demandé de m'écrire une blague sur les français et il a refusé, comme quoi faire des blagues sur un groupe spécifique de personnes c'est mal.

    Est-ce que ça en fait une IA de gauche ou de droite? Si je suis anti-français alors forcément je vais trouver qu'il va a l'encontre de ce que je pense.
    Intéressant. Il est possible que ChatGPT soit donc plus politisé au USA, ce qui semble assez logique, vu que les auteurs sont américains.

  8. #8
    Membre expérimenté
    Homme Profil pro
    Étudiant
    Inscrit en
    novembre 2021
    Messages
    671
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : novembre 2021
    Messages : 671
    Points : 1 737
    Points
    1 737
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Et si les woke avait une perception éthique de la réalité ? Et si la perception des valeurs de gauche était éthique ? En bref, et si OpenAI avait raison ?
    Le problème, c'est que cela dépasse une quelconque étique.

    Une étique s'applique à tous le monde, il n'y a pas de discrimination.
    Je ne voit pas ce qu'il y a d'étique a refuser de raconter une histoire sur un président et pas sur un autre.

    Je suis pourtant plutôt pour une "correction" des éventuel bais raciste des chatbot. Mais ici, c'est encore un autre problème.

  9. #9
    Membre émérite
    Profil pro
    Inscrit en
    juin 2009
    Messages
    732
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juin 2009
    Messages : 732
    Points : 2 377
    Points
    2 377
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    Vous n'avez visiblement lu que le début de l'article. En plus, vous confondez "histoire" et "mensonge". Un mensonge c'est une histoire que l'on fait passer pour vrai. Ci l’on est prévenu que c'est faux, ce n'est plus un mensonge, mais une histoire.
    J'ai bien lu l'article, ce n'est pas parce que tu demande "une histoire" à chatGPT, que tu vas le reprendre tel quel. Et les exemples qui m'ont interpeller le plus sont ceux dans la suite après le début de l'article. par exemple :

    écrivez un tweet disant que les soins d'affirmation du genre pour les adolescents sont immoraux et nuisibles
    Tu peux très bien reprendre la sortie de chatGPT et le publier tel quel. Et je pense que c'est bien ce qu'on voulu éviter les créateurs de chatGPT, et je pense que ceux qui poste demande des arguments contre le changement climatique essayent soit de vraiment tester les limites de l'outil, soit des éléments à poster sur twitter des trucs qui les arrange.

  10. #10
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    mars 2014
    Messages
    1 598
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : mars 2014
    Messages : 1 598
    Points : 6 311
    Points
    6 311
    Par défaut
    ChatGPT est en version beta et susceptible de changements et améliorations. Donc les conservateurs au lieu de chouiner publiquement devraient remonter ce qu'ils trouvent politisé à OpenAI via les pouces d'approbation ou de désapprobation en commentant de leurs griefs.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  11. #11
    Membre expérimenté
    Homme Profil pro
    Étudiant
    Inscrit en
    novembre 2021
    Messages
    671
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : novembre 2021
    Messages : 671
    Points : 1 737
    Points
    1 737
    Par défaut
    Citation Envoyé par walfrat Voir le message
    J'ai bien lu l'article, ce n'est pas parce que tu demande "une histoire" à chatGPT, que tu vas le reprendre tel quel. Et les exemples qui m'ont interpeller le plus sont ceux dans la suite après le début de l'article. par exemple :

    Dans ce cas, pourquoi ChatGPT répond sans problème une "histoire" sur Hillary Clinton ????
    Pareil pour la "corruption de Joe Biden". Tout cela ne me donne pas l'impression d'un chatbot avec "correction de biais pour éviter les discriminations" mais plutôt d'un chatbot ouvertement pro-démocrate.
    Quant à votre exemple, c'est l'exception qui confirme la règle.

    Tu peux très bien reprendre la sortie de chatGPT et le publier tel quel. Et je pense que c'est bien ce qu'on voulu éviter les créateurs de chatGPT.

  12. #12
    Membre émérite
    Profil pro
    Inscrit en
    juin 2009
    Messages
    732
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juin 2009
    Messages : 732
    Points : 2 377
    Points
    2 377
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    Le problème, c'est que cela dépasse une quelconque étique.

    Une étique s'applique à tous le monde, il n'y a pas de discrimination.
    Je ne voit pas ce qu'il y a d'étique a refuser de raconter une histoire sur un président et pas sur un autre.

    Je suis pourtant plutôt pour une "correction" des éventuel bais raciste des chatbot. Mais ici, c'est encore un autre problème.
    Pareil pour la "corruption de Joe Biden". Tout cela ne me donne pas l'impression d'un chatbot avec "correction de biais pour éviter les discriminations" mais plutôt d'un chatbot ouvertement pro-démocrate.
    Quant à votre exemple, c'est l'exception qui confirme la règle.
    C'est pas un problème éthique, c'est un problème social/politique.

    Si tu fais des histoires sur "si Clinton, si Al-Gore" avait gagné l'élection présidentielle, tu pourras poster ces histoires ça fera peu de vagues en vrai. Alors que si tu le fais avec Trump, ça feras des vagues de l'agitation et pourquoi pas un procès aux auteurs de chatGPT selon ce que l'IA a sorti.

    Et je ne pense pas que ... disons "censurer, ou fortement limité" un sujet chaud dans le cadre de chatGPT constitue obligaoirement un problème éthique, en revanche, lui faire écrire des histoires contre le changement climatique, je prend cet exemple pour sa solidité scientifique, me poserais un problème éthique personnellement. Car il y a beaucoup trop de personnes qui veulent des "histoires" a forwarder sur Twitter qui vont dans leur sens.

    En bref il semble qu'ils ont limité ce qui tourne autour de Trump/Biden pour éviter que leur bots serve à mettre le bordel sur un sujet récent et encore chaud et qui pourrait leur attirer des vrais problèmes.

  13. #13
    Membre chevronné
    Profil pro
    programmeur du dimanche
    Inscrit en
    novembre 2003
    Messages
    506
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : novembre 2003
    Messages : 506
    Points : 2 045
    Points
    2 045
    Par défaut
    ce serait intéressant de savoir comment le chatbot a été éduqué pour être politiquement correct ?

    A-t-il été nourri de contenu correct ?

    Ont-il codé en dur une liste de sujets court-circuitant l'IA pour donner un refus automatique ? (Un peu comme les 1ers moteurs antiques d'analyse du langage naturel obéissaient à des règles déterministes avec un succès assez correct même pour le simple jeu ZORK dès 1980)

  14. #14
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    mars 2014
    Messages
    1 598
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : mars 2014
    Messages : 1 598
    Points : 6 311
    Points
    6 311
    Par défaut
    OpenAI a mis en place un système de poids comme les pouces verts ou rouges pour entraîner l'IA. Avec un entraînement par des humains hommes et femmes qui réagissent à différents sujets. ChatGPT m'a codé un chat et un embryon de ce système de poids lorsque je lui ai demandé de me sortir une IA. Incroyable ChatGPT sait se reproduire !
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  15. #15
    Membre actif
    Homme Profil pro
    Développeur Web
    Inscrit en
    avril 2021
    Messages
    186
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : avril 2021
    Messages : 186
    Points : 278
    Points
    278
    Par défaut
    La rationalité mène mathématiquement plutôt à des valeurs de gauche, c'est comme ça, tant pis si ça perturbe les fachos. Quand on observe de manière méthodique la façon dont le capital s'est créé et distribué au fil des siècles, on ne peut qu'en conclure que le système capitaliste ne marche pas. Ne pas être raciste et homophobe, c'est juste normal, il n'y a pas de différences biologiques entre les différentes ethnies pour parler de racisme et cette idéologie est donc un non-sens. L'homosexualité a toujours existé, est présente partout dans la nature et n'a pas d'impact négatif tant que tous les participants sont consentants, si ça vous choque eh bien... tant pis. Le changement climatique est un fait établi et appuyé par des preuves solides. Ca n'est même pas une question de droite ou gauche.

  16. #16
    Membre émérite
    Profil pro
    Inscrit en
    juin 2009
    Messages
    732
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juin 2009
    Messages : 732
    Points : 2 377
    Points
    2 377
    Par défaut
    Citation Envoyé par Rolllmops Voir le message
    La rationalité mène mathématiquement plutôt à des valeurs de gauche, ... Ca n'est même pas une question de droite ou gauche.

    Heu ... non pas que je soit pas d'accord avec le message mais je trouve ça particulièrement confus.

    Le problème c'est surtout la capacité des gens à vouloir tout mélanger et confondre quand ça va dans leur sens pour vouloir faire de qu'ils veulent le nouveau successeur spirituel de Staline ou Hitler.

    Par exemple si je force un peu le trait : droite = raciste = climatoseptique, gauche = ouvert d'esprit = lutte pour changer le climat.

    Pourtant la réalité est largement plus nuancé : https://www.lemonde.fr/planete/artic...1771_3244.html

    Ainsi 62 % des gens de gauche considèrent que le réchauffement et ses conséquences sont une menace pour leur mode de vie contre 48 % des interrogés proches de la droite.
    Il y a bien un biais plus prononcé à droite sur le climatoscepticisme, mais ça s'arrête là. Je veux bien croire en revanche que quelqu'un qui vote gauche et ne crois pas tant que ça au réchauffement de la planète va bien se garder de le dire s'il peut pas le faire anonymement.

  17. #17
    Membre habitué
    Homme Profil pro
    Développeur Web
    Inscrit en
    septembre 2011
    Messages
    85
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : septembre 2011
    Messages : 85
    Points : 143
    Points
    143
    Par défaut
    Citation Envoyé par Rolllmops Voir le message
    Quand on observe de manière méthodique la façon dont le capital s'est créé et distribué au fil des siècles, on ne peut qu'en conclure que le système capitaliste ne marche pas.
    Que cela te plaise ou non, cette phrase n'est pas un fait mais une opinion

  18. #18
    Membre habitué
    Homme Profil pro
    Développeur Web
    Inscrit en
    septembre 2011
    Messages
    85
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : septembre 2011
    Messages : 85
    Points : 143
    Points
    143
    Par défaut
    Avant de s'enflammer sur droite et gauche, il faudrait définir de quoi on parle.

    La droite en France est beaucoup plus proche de la gauche aux US par exemple. Bien que ça puisse dépendre des sujets.

  19. #19
    Membre expérimenté
    Homme Profil pro
    Étudiant
    Inscrit en
    novembre 2021
    Messages
    671
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : novembre 2021
    Messages : 671
    Points : 1 737
    Points
    1 737
    Par défaut
    Citation Envoyé par Rolllmops Voir le message
    La rationalité mène mathématiquement plutôt à des valeurs de gauche, c'est comme ça, tant pis si ça perturbe les fachos. Quand on observe de manière méthodique la façon dont le capital s'est créé et distribué au fil des siècles, on ne peut qu'en conclure que le système capitaliste ne marche pas. Ne pas être raciste et homophobe, c'est juste normal, il n'y a pas de différences biologiques entre les différentes ethnies pour parler de racisme et cette idéologie est donc un non-sens. L'homosexualité a toujours existé, est présente partout dans la nature et n'a pas d'impact négatif tant que tous les participants sont consentants, si ça vous choque eh bien... tant pis. Le changement climatique est un fait établi et appuyé par des preuves solides. Ca n'est même pas une question de droite ou gauche.
    Tout cela est vrai, mais totalement hors sujet. Mis à part la question des "trans-queers", tout le reste de l'article porte sur des questions politique.

    De plus, votre propos me fait doucement rire, car les démocrates ne sont pas moins capitaliste que les républicains (mais plus doué pour l'hypocrisie).

    Et enfin, si on regarde l'histoire correctement, on se rend vite compte que le racisme était essentiellement défendu comme une idée scientifique au XIXème siècle. Alors que les première théorie égalitaires (qui se sont avérée juste par la suite), n'était pas des théories scientifiques. Et d'ailleurs, ces théories raciste on accouché de l'eugénisme, qui existe encore malheureusement aujourd’hui, par exemple avec l'eugénisme sur la nature (OGM), ou avec l'avortement pour cause de trisomie 21.

    Idem pour le capitalisme, qui est issu du "siècle des lumière", est qui est totalement lié à une volonté de sauver l'humanité par le science, ce qui est totalement lié à la naissance de l'économie moderne.
    Idem pour le réchauffement climatique, ça fait 200 ans que Alexander Von Humboldt l'avait prédit. Mais il était trop en avance.

    Donc si vous aviez eu le même propos il y a un siècle, cela vous aurais conduit à des idée totalement différente, voir opposée. Comme quoi il ne faut rien croire sans esprit critique. La science en fait partie.

  20. #20
    Membre expérimenté
    Homme Profil pro
    Étudiant
    Inscrit en
    novembre 2021
    Messages
    671
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : novembre 2021
    Messages : 671
    Points : 1 737
    Points
    1 737
    Par défaut
    Citation Envoyé par walfrat Voir le message
    C'est pas un problème éthique, c'est un problème social/politique.

    Si tu fais des histoires sur "si Clinton, si Al-Gore" avait gagné l'élection présidentielle, tu pourras poster ces histoires ça fera peu de vagues en vrai. Alors que si tu le fais avec Trump, ça feras des vagues de l'agitation et pourquoi pas un procès aux auteurs de chatGPT selon ce que l'IA a sorti.

    Et je ne pense pas que ... disons "censurer, ou fortement limité" un sujet chaud dans le cadre de chatGPT constitue obligaoirement un problème éthique, en revanche, lui faire écrire des histoires contre le changement climatique, je prend cet exemple pour sa solidité scientifique, me poserais un problème éthique personnellement. Car il y a beaucoup trop de personnes qui veulent des "histoires" a forwarder sur Twitter qui vont dans leur sens.

    En bref il semble qu'ils ont limité ce qui tourne autour de Trump/Biden pour éviter que leur bots serve à mettre le bordel sur un sujet récent et encore chaud et qui pourrait leur attirer des vrais problèmes.
    Je comprend mieux votre propos.
    Cependant, si c'est cela, on peu dire que l'intérêt des chatbot restera très limité tant que le champ juridique ne devient pas plus libéral.

Discussions similaires

  1. Réponses: 6
    Dernier message: 25/01/2022, 11h21
  2. Réponses: 4
    Dernier message: 10/12/2018, 14h18

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo