IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

ChatGPT est une ânerie : qualifier les imprécisions d'ânerie est plus juste que d'hallucinations


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 144
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 144
    Points : 80 104
    Points
    80 104
    Par défaut ChatGPT est une ânerie : qualifier les imprécisions d'ânerie est plus juste que d'hallucinations
    Recherche : Pourquoi ChatGPT est une ânerie ? Car qualifier les imprécisions des chatbots d'hallucinations alimente un battage médiatique démesuré, « âneries » serait plus juste qu' « hallucinations ».

    Une nouvelle recherche s'oppose à l'idée que lorsque ChatGPT et les LLM produisent de fausses affirmations, on les qualifie d'hallucinations. Selon les auteurs, il est plus juste de qualifier les imprécisions des chatbots d' "âneries" que d'hallucinations.

    ChatGPT est un chatbot et un assistant virtuel développé par OpenAI et lancé le 30 novembre 2022. Basé sur de grands modèles de langage (LLM), il permet aux utilisateurs d'affiner et d'orienter une conversation vers une longueur, un format, un style, un niveau de détail et un langage souhaités. Les invites et les réponses successives de l'utilisateur sont prises en compte à chaque étape de la conversation en tant que contexte.

    Les grands modèles de langage (LLM), des programmes qui utilisent des quantités de textes disponibles et des calculs de probabilité afin de créer des écrits apparemment produits par des humains, sont devenus de plus en plus sophistiqués et convaincants au cours des dernières années. Au point que certains commentateurs suggèrent qu'on pourrait maintenant être proches de la création d'une intelligence artificielle générale.

    Outre les inquiétudes concernant la montée de Skynet et l'utilisation de LLM tels que ChatGPT pour remplacer le travail qui pourrait et devrait être effectué par des humains, une ligne d'enquête concerne ce que ces programmes sont exactement en train de faire : en particulier, il y a une question sur la nature et la signification du texte produit, et sur son lien avec la vérité. Les applications de ces systèmes ont été entachées d'inexactitudes persistantes dans leurs résultats, souvent appelées "hallucinations de l'IA".

    Selon une nouvelle étude, ces faussetés et l'activité globale des grands modèles de langage sont mieux comprises comme des âneries dans le sens exploré par Frankfurt (On Bullshit, Princeton, 2005) : les modèles sont d'une manière importante indifférents à la vérité de leurs sorties. La recherche distingue deux façons dont les modèles peuvent être considérés comme des "raconteurs d'âneries". Elle soutient également qu'ils répondent clairement à au moins l'une de ces définitions. Ainsi, décrire les fausses déclarations de l'IA comme des âneries est à la fois une manière plus utile et plus précise de prédire et de discuter du comportement de ces systèmes.

    Nom : 1.jpg
Affichages : 23194
Taille : 30,2 Ko

    Pourquoi ChatGPT est une ânerie ?

    Les investisseurs, les décideurs politiques et les membres du grand public prennent des décisions sur la manière de traiter ces machines et de réagir à leur égard en se fondant non pas sur une compréhension technique approfondie de leur fonctionnement, mais sur la manière souvent métaphorique dont leurs capacités et leurs fonctions sont communiquées. Qualifier leurs erreurs d'hallucinations n'est pas anodin : cela prête à confusion, car les machines perçoivent mal, d'une certaine manière, mais essaient néanmoins de transmettre quelque chose qu'elles croient ou qu'elles ont perçu.

    Selon la recherche, il s'agit là d'une mauvaise métaphore. Les machines n'essaient pas de communiquer quelque chose qu'elles croient ou perçoivent. Leur inexactitude n'est pas due à une perception erronée ou à une hallucination. Elles n'essaient pas du tout de transmettre des informations. La recherche s'oppose à l'idée que lorsque ChatGPT et ses semblables produisent de fausses affirmations, ils mentent ou même hallucinent.

    Elle défend la position selon laquelle l'activité à laquelle les LLM se livrent est le "bullshitting", au sens de Frankfurt (l'art de dire des âneries). Étant donné que ces programmes ne peuvent pas se préoccuper de la vérité et qu'ils sont conçus pour produire des textes qui semblent conformes à la vérité sans se préoccuper de la vérité, il semble approprié de qualifier leurs résultats d' "âneries".

    Les auteurs déclarent :

    Nous pensons que cela vaut la peine d'y prêter attention. Les descriptions des nouvelles technologies, y compris les descriptions métaphoriques, guident les décideurs politiques et le public dans leur compréhension des nouvelles technologies ; elles informent également les applications des nouvelles technologies. Elles nous disent à quoi sert la technologie et ce que l'on peut en attendre. Actuellement, les fausses déclarations de ChatGPT et d'autres grands modèles de langage sont décrites comme des hallucinations, ce qui donne aux décideurs politiques et au public l'idée que ces systèmes déforment le monde et décrivent ce qu'ils voient. Nous soutenons qu'il s'agit d'une métaphore inadaptée qui désinforme le public, les décideurs politiques et les autres parties intéressées.
    Dans un premier temps, la recherche décrit le fonctionnement de ChatGPT et des LLM similaires. Ensuite, elle examine le point de vue selon lequel, lorsqu'ils commettent des erreurs factuelles, ils mentent ou ont des hallucinations, c'est-à-dire qu'ils profèrent délibérément des faussetés ou qu'ils les profèrent de manière irréprochable sur la base d'informations d'entrée trompeuses.

    Mais aucune de ces façons de penser n'est exacte, dans la mesure où le mensonge et l'hallucination requièrent une certaine préoccupation quant à la véracité de leurs déclarations, alors que les LLM ne sont tout simplement pas conçus pour représenter fidèlement la façon dont le monde est, mais plutôt pour donner l'impression que c'est ce qu'ils font. Cela est très proche d'au moins une des façons dont Francfurt parle de l'ânerie.

    La recherche établit une distinction entre deux types d'âneries, que les auteurs appellent âneries "dures" et âneries "douces". Les premières nécessitant une tentative active de tromper le lecteur ou l'auditeur quant à la nature de l'entreprise, et les secondes ne nécessitant qu'un manque de souci de la vérité.

    Au minimum, les résultats des LLM tels que ChatGPT sont des âneries douces : c'est-à-dire des discours ou des textes produits sans se soucier de la vérité, sans intention de tromper l'auditoire sur l'attitude de l'auteur à l'égard de la vérité. Mais elle suggère également, de manière plus controversée, que ChatGPT peut en effet produire des âneries "dures" : si on considère qu'il a des intentions (par exemple, en vertu de la manière dont il est conçu), alors le fait qu'il soit conçu pour donner l'impression de se préoccuper de la vérité le qualifie comme tentant d'induire le public en erreur sur ses objectifs, ses buts ou son agenda.

    Les auteurs commentent :

    Ainsi, sous réserve que le type particulier d'âneries produites par ChatGPT dépende de certaines conceptions de l'esprit ou du sens, nous concluons qu'il est approprié de parler des textes générés par ChatGPT comme d'âneries, et nous soulignons pourquoi il est important que, plutôt que de considérer ses affirmations fausses comme des mensonges ou des hallucinations, nous disions que ChatGPT raconte des âneries.

    Conclusion

    Qualifier les inexactitudes des chatbots d'hallucinations alimente le battage médiatique exagéré sur leurs capacités parmi les pom-pom girls de la technologie, et pourrait susciter une consternation inutile au sein du grand public. Cette erreur suggère également des solutions aux problèmes d'inexactitude qui pourraient ne pas fonctionner, et pourrait conduire à des efforts malavisés d'alignement de l'IA parmi les spécialistes. Elle peut également conduire à une mauvaise attitude à l'égard de la machine lorsqu'elle obtient des résultats corrects : les inexactitudes montrent qu'elle raconte des âneries, même lorsqu'elle a raison. Appeler ces inexactitu d'"âneries" plutôt qu'"hallucinations" n'est pas seulement plus précis, c'est aussi une bonne communication scientifique et technologique dans un domaine qui en a cruellement besoin.

    Source : "ChatGPT is bullshit"

    Et vous ?

    Pensez-vous que cette recherche est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'hallucination est inévitable et serait une limitation innée des grands modèles de langage en intelligence artificielle, selon une étude sur la possibilité d'éliminer les hallucinations des LLM

    Les grands modèles de langage confabulent, ils n'hallucinent pas, d'après Beren Millidge, responsable de la recherche IA chez Conjecture

    LLM par taux d'hallucinations : GPT-4 est le modèle de langage IA qui hallucine le moins, d'après une évaluation de Vectara qui suggère que les LLM de Google sont les moins fiables
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Futur Membre du Club
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Janvier 2016
    Messages
    9
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 58
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : Bâtiment

    Informations forums :
    Inscription : Janvier 2016
    Messages : 9
    Points : 5
    Points
    5
    Par défaut Anneries et phrases toutes faites
    Je suis d'accord avec cette vision des choses c'est vrai que dire qu'elle Hélène hallucine c'est c'est une façon commode de faire passer de la daube pour un mirage. À ce moment-là un étudiant peut très bien se retrancher derrière cette même excuse lorsqu'il a une réponse fausse voire complètement débile et dire je suis désolé mais j'ai halluciné. Toutefois ce n'est pas complètement non plus inintéressant de dire que peut-être nous aussi nous avons des phrases toutes faites et des biais cognitifs, qui nous pousse à l'économie d'un raisonnement et à donner une réponse rapide à une question complexe. C'est pour ça que je me suis rendu compte qu'avoir des phrases courtes et de commencer des discussions comme si nous vivions une situation complexe en temps réel donner des meilleurs résultats avec les intelligences artificielles ou plutôt les LLM car peut-on vraiment appeler les LLM des intelligences artificielles j'en doute je regardais Yann lecun sur une vidéo de YouTube où il était très clair pour lui que les LLM sont très bons pour faire certaines choses mais encore faut-il qu'il soit bien utilisé et malgré tout ils ont leur limite. En ce qui me concerne j'ai l'impression que les gros LLM sont des calèche avec 5000 chevaux attachés devant sur des chemins de terre. Et que finalement ils vont encore mieux avoir un cavalier avec un seul cheval pour faire le trajet Paris - Marseille en toute sécurité et avec plus de rapidité et de légèreté donc à mon avis les tiny LLM on de l'avenir actuellement si c'est milliards de paramètres que peuvent traiter les LLM sont un avantage on peut aussi estimer que c'est un inconvénient et cela les mène sinon à des hallucinations au moins à des confusions et pire à des âneries. Je pense que je suis un petit peu comme tout le monde on pensait avec des LLM à voir découvert une solution à beaucoup de nos problèmes sans trop se fatiguer mais je crains malheureusement qu'il va falloir beaucoup de frustration avant d'arriver à quelque chose de valable. Mais bon je ne suis pas non plus un spécialiste en intelligence artificielle et je dois dire que j'en suis même loin on va dire que c'est du ressenti au niveau de l'usage qui génère chez moi pas mal de frustration et je ne suis pas sûr que les bien faits suffisent à régler ses frustrations.

  3. #3
    Nouveau Candidat au Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Juin 2024
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 22
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Juin 2024
    Messages : 1
    Points : 0
    Points
    0
    Par défaut Baratin
    Vous semblez partir immédiatement sur le mot "ânerie" comme si c'était une traduction élémentaire et littérale, mais absolument pas. Évidemment une traduction littérale serait aussi débile que le mot anglais de base. Mais bref, la traduction aussi est un sujet de discussion à part entière. (vous auriez pu vous aider de l'IA tiens...)
    En l'occurrence, du "Baratin" est exactement le sens qu'on recherche.

  4. #4
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    2 698
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 2 698
    Points : 5 307
    Points
    5 307
    Par défaut
    Je n'ai personnellement jamais entendu le terme "Hallucination" pour qualifier les informations erronées remontées par Chat GPT.

    Pour moi c'est une qualification donnée par une personne ignorant ce qu'est réellement Chat GPT.
    C'est d'ailleurs bizarre d'avoir ce terme là dans un forum dédié au développement.
    Car un développeur est sensé savoir, au moins dans les grandes lignes, comment fonctionne cet outil.

    Mais bon, hallucinations ou bêtises, le résultat est le même, et le débat est inutile.
    Chat GPT est un outil, et comme tous les outils, il faut prendre le temps d'appendre à l'utiliser correctement.
    Si une personne utilise Chat GPT, il faut qu'elle aie conscience que ses réponses ne sont pas toujours fiables.

  5. #5
    Membre averti
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    110
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 110
    Points : 402
    Points
    402
    Par défaut
    Je n'ai personnellement jamais entendu le terme "Hallucination" pour qualifier les informations erronées remontées par Chat GPT.
    Ce terme revient régulièrement dans les news et dans celles de developpez.com aussi.

  6. #6
    Expert éminent sénior

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 807
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 807
    Points : 19 019
    Points
    19 019
    Par défaut
    Citation Envoyé par popo Voir le message
    Je n'ai personnellement jamais entendu le terme "Hallucination" pour qualifier les informations erronées remontées par Chat GPT.
    C'est bien le terme utilisé dans un tas d'articles, de news, et de sujets de recherche, à savoir "hallucinate", exemple ici : L'hallucination est inévitable et serait une limitation innée des grands modèles de langage en intelligence artificielle, selon une étude sur la possibilité d'éliminer les hallucinations des LLM.

    Donc le sujet de recherche présenté ci dessus c'est que il ne faudrait pas dire "hallucinate", ce qui serait trompeur, mais "bullshit", autrement dit "connerie" mais c'est un "gros mot", traduction polie par exemple : ânerie, bêtise, stupidité,...
    Je pense que c'est pas faux, par exemple "L'IA de Google conseille aux utilisateurs de mettre de la colle sur les pizzas pour empêcher le fromage de glisser" c'est plutôt une grosse connerie qu'une "hallucination", et aller penser qu'on peut faire un logiciel prétendument "intelligent" mais qui en vrai s'est formé en lisant des commentaires sur Reddit, donc à 99% un ramassis de conneries, ça aussi c'est une grosse connerie. Quand on met de la merde dans une IA il en sort quoi, de la merde, c'est simple. C'est comme l'IA juridique qui est venue se former en lisant des romans policier, résultat : les avocats qui ont utilisé une IA pour faire leur plaidoirie en générant un ramassis de conneries (ah non pardon, des "hallucinations"), sont passés pour des débiles voir des escrocs.
    Ne prenez pas la vie au sérieux, vous n'en sortirez pas vivant ...

  7. #7
    Expert éminent sénior

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 807
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 807
    Points : 19 019
    Points
    19 019
    Par défaut
    Citation Envoyé par Aztonio Voir le message
    Vous semblez partir immédiatement sur le mot "ânerie" comme si c'était une traduction élémentaire et littérale, mais absolument pas. Évidemment une traduction littérale serait aussi débile que le mot anglais de base. Mais bref, la traduction aussi est un sujet de discussion à part entière. (vous auriez pu vous aider de l'IA tiens...)
    En l'occurrence, du "Baratin" est exactement le sens qu'on recherche.
    C'est pas mal Baratin, mais en fait non : "Baratin : Discours abondant (d'abord pour tromper, séduire). Arrête ton baratin !"
    La bonne traduction de "Bullshit" c'est plutôt ça : "Connerie : Imbécillité, absurdité."
    Ça c'est pas du "baratin" : L'IA de Google conseille aux utilisateurs de mettre de la colle sur les pizzas pour empêcher le fromage de glisser c'est du "Bullshit", donc une grosse connerie.
    Ne prenez pas la vie au sérieux, vous n'en sortirez pas vivant ...

Discussions similaires

  1. Réponses: 0
    Dernier message: 02/02/2024, 15h41
  2. Réponses: 2
    Dernier message: 04/05/2023, 10h07
  3. Est-ce qu'une jointure avec JOIN est plus rapide que via le WHERE ?
    Par clavier12AZQSWX dans le forum PostgreSQL
    Réponses: 7
    Dernier message: 13/01/2014, 16h31
  4. Réponses: 4
    Dernier message: 16/04/2013, 16h43
  5. Réponses: 2
    Dernier message: 07/03/2012, 17h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo