IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Google admet ne pas savoir pourquoi son IA apprend des choses inattendues


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 262
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 262
    Par défaut Google admet ne pas savoir pourquoi son IA apprend des choses inattendues
    Google admet ne pas savoir pourquoi son IA apprend des choses inattendues : « nous ne comprenons pas non plus parfaitement le fonctionnement de l'esprit humain »

    L'IA de Google fournit parfois des informations douteuses ou erronées avec des conséquences potentiellement graves. Gemini a déjà conseillé à un utilisateur de mettre de la colle sur sa pizza pour faire adhérer le fromage à la pâte et à un autre de manger trois cailloux par jour. Dans ces cas, il s'est avéré que l'IA de Google traite le site Web satirique « The Onion » comme une véritable source. Aujourd'hui, Google affirme qu'il ne sait pas pourquoi son IA apprend des choses inattendues ou se comporte d'une manière ou d'une autre. Le PDG Sundar Pichai a ajouté que l'IA de Google a accompli des tâches pour lesquelles elle n'a pas été programmée.

    L'IA générative s'appuie sur les grands modèles de langage (LLM) pour répondre aux questions des utilisateurs et accomplir les tâches. Quant aux grands modèles de langage, ils sont entraînés sur d'immenses volumes de données glanées sur Internet. Ces données comprennent des livres, des articles de presse, des pages Web, des dépôts de code source et des conversations en ligne. Leur entraînement utilise des techniques d'apprentissage non supervisé.

    Pourtant, les grands modèles de langage restent d'énormes boîtes noires. Leur fonctionnement interne demeure largement incompris, même par leurs concepteurs. Dans le cadre de leur entraînement, les modèles d'IA apprennent à prédire le mot suivant dans une séquence en analysant d'immenses volumes de texte. Cependant, une fois ces modèles entraînés, il est extrêmement difficile de déterminer comment ils parviennent à une réponse spécifique.

    Leurs décisions résultent de calculs internes opaques : on observe les entrées et les sorties, mais le processus intermédiaire reste obscur. Chez Google, par exemple, les dirigeants ont reconnu et expliqué qu'il est normal de ne pas comprendre tous les processus par lesquels un modèle arrive à un résultat.

    Une explication pour laquelle ils ont utilisé un exemple, puisque l'IA de l'entreprise s'est adapté après avoir été interrogé dans la langue du Bangladesh « qu'il n'était pas entraîné à connaître ». Un journaliste de CBS a interviewé le PDG de Google Sundar Pichai, sur ce sujet. « Vous ne comprenez pas complètement comment cela fonctionne, et pourtant vous l'avez mis à la disposition de la société ? », a demandé le journaliste avec un air très inquiet.

    Sundar Pichai a déclaré: « ce n'est pas grave, je ne pense pas non plus que nous comprenions parfaitement le fonctionnement de l'esprit humain ». Même son de cloche chez OpenAI et d'autres entreprises de premier plan qui développent l'IA générative. Anthropic, une startup dans laquelle Google investit, a, quant à lui, mené une étude pour essayer de comprendre pourquoi les grands modèles de langage apprennent des choses inattendues.

    Les découvertes d'Anthropic sur le fonctionnement de son IA Claude

    Selon les chercheurs d'Anthropic, connaître « le mode de pensée » des modèles comme Claude nous permettrait de mieux comprendre leurs capacités et nous aiderait à nous assurer qu'ils font ce que nous voulons qu'ils fassent. Anthropic a analysé dix comportements différents dans Claude et a obtenu des résultats intéressants. L'un d'entre eux est l'utilisation de différentes langues : « Claude a-t-il une partie qui parle français et une autre qui parle chinois ? ».


    Ils ont déjà obtenu une réponse à la question, car ils ont constaté que Claude utilise des composants indépendants de toute langue pour répondre à une question ou résoudre un problème, puis choisissait une langue spécifique lorsqu'il répondait. Ils ont demandé à Claude « quel est le contraire de petit ? » en anglais, en français et en chinois. Ils ont constaté que Claude utilise d'abord les composants indépendamment de la langue pour donner une réponse.

    Il s'agit d'une déduction qu'il a faite avant de répondre dans une langue particulière. Cela suggère que l'IA utilise des éléments dans une langue, puis les apprend et les applique dans d'autres. Cette méthode a également été utilisée pour résoudre des problèmes mathématiques simples et il a été constaté que Claude développe ses propres stratégies et qu'elle est donc différente de celles que le modèle avait observées dans ses données d'apprentissage.

    L'étude cherche à révéler le fonctionnement interne des IA : « ces résultats ne sont pas seulement intéressants d'un point de vue scientifique, mais représentent également un pas important vers notre objectif de comprendre les systèmes d'IA et de s'assurer qu'ils sont fiables », explique l'entreprise.

    Autres découvertes surprenantes de l'équipe d'Anthropic sur Claude

    Le rapport de l'étude a été publié le mois dernier. Les chercheurs y ont relaté les différentes observations qu'ils ont faites. Dans un cas où ils ont utilisé Claude pour écrire des poèmes, ils ont constaté que l'IA elle-même se projette toujours dans l'avenir et choisit le mot à la fin de la ligne suivante, sans se contenter d'improviser : « nous avons cherché à démontrer que le modèle n'était pas prévoyant, et nous avons découvert qu'il l'était », ont-ils conclu.

    L'équipe a donné un autre exemple : « dans une réponse à un exemple de jailbreak, nous avons constaté que le modèle a reconnu qu'on lui avait demandé des informations dangereuses bien avant qu'il ne soit capable d'orienter la conversation ». Les chercheurs d'Anthropic ont expliqué :

    Citation Envoyé par Anthropic

    Il faut actuellement de nombreuses heures d'efforts humains pour comprendre les circuits que nous voyons, même dans des indications ne comportant que des dizaines de mots. Pour atteindre les milliers de mots qui soutiennent les chaînes de pensée complexes utilisées par les modèles modernes, nous devrons améliorer à la fois la méthode et (peut-être avec l'aide de l'IA) la façon dont nous donnons un sens à ce que nous voyons avec cette méthode.
    Parce que nous en savons si peu sur les modèles de langage, toute nouvelle information constitue un grand pas en avant. « Une compréhension approfondie du fonctionnement de ces modèles sous le capot nous permettrait de concevoir et d'entraîner des modèles bien meilleurs et plus robustes », selon Eden Biran, qui étudie les grands modèles de langage à l'université de Tel-Aviv. Anthropic s'est appuyé sur une méthode appelée « traçage des circuits ».

    Anthropic définit le traçage des circuits (Circuit tracing) comme une technique permettant de découvrir les mécanismes qui sous-tendent les comportements des grands modèles de langage. « Trouver des circuits dans un grand modèle de pointe tel que Claude est une prouesse technique non triviale. Cela montre que les circuits peuvent être mis à l'échelle et qu'ils pourraient constituer un bon moyen d'interpréter les modèles de langage », a déclaré Eden Biran.

    Il existe encore de nombreuses zones d'ombre à éclaircir

    L'équipe d'Anthropic s'est dite surprise par « certains contournements contre-intuitifs » que les grands modèles de langage semblent utiliser pour compléter des phrases, résoudre des problèmes mathématiques simples, supprimer des hallucinations, et bien d'autres choses encore. Cependant, Joshua Batson, chercheur d'Anthropic, affirme qu'il y a encore de sérieuses limites. Selon lui, l'étude du fonctionnement interne des modèles n'en est qu'à ses débuts.

    « Il est faux de croire que nous avons trouvé toutes les composantes du modèle ou que nous avons une vue d'ensemble. Certaines choses sont nettes, mais d'autres ne le sont pas encore ; une distorsion du microscope », dit-il. Et il faut plusieurs heures à un chercheur humain pour retracer les réponses à des questions, même très courtes. De plus, les grands peuvent faire plusieurs choses différentes, et Anthropic n'en a étudié que 10 jusqu'à présent.

    Joshua Batson précise également que cette approche ne permet pas de répondre à certaines grandes questions. Le traçage des circuits peut être utilisé pour observer les structures à l'intérieur d'un grand modèle de langage, mais il ne vous dira pas comment ou pourquoi ces structures se sont formées au cours de l'apprentissage du modèle. « C'est une question profonde que nous n'abordons pas du tout dans ce travail », a déclaré le chercheur.

    Toutefois Joshua Batson considère qu'il s'agit du début d'une nouvelle ère dans laquelle il est enfin possible de trouver des preuves réelles du fonctionnement de ces modèles. « Nous ne sommes plus obligés de nous demander : est-ce qu'ils pensent ? Raisonnent-ils ? Est-ce qu'ils mémorisent ? Ce ne sont que des analogies. Mais si nous pouvons littéralement voir étape par étape ce que fait un modèle, peut-être n'aurons-nous plus besoin d'analogies ».

    Conclusion

    Les grands modèles de langage, avec leurs vastes bases de connaissances et leur capacité à générer des textes cohérents et pertinents sur le plan contextuel, ont eu un impact considérable sur la recherche, l'industrie et la société. Cependant, l'un des défis majeurs auxquels ils sont confrontés est le problème de « l'hallucination », où les grands modèles de langage génèrent des informations plausibles, mais factuellement incorrectes ou absurdes.

    Les efforts de Google en matière d'IA ont rencontré d'innombrables problèmes. Par exemple, le déploiement de la fonctionnalité « AI Overviews » de Google Search a été un véritable fiasco. L'IA de Google a notamment conseillé aux internautes de mettre de la colle non toxique sur leurs pizzas et de manger trois cailloux par jour. Dans un autre scénario, l'IA de Google s'est trompée de nouveau et a recommandé des champions vénéneux à un utilisateur.

    Ce problème a suscité des préoccupations croissantes en matière de fiabilité et de sécurité dans la mesure où les grands modèles de langage sont largement utilisés, ce qui a donné lieu à une littérature de plus en plus abondante pour tenter de le classer, de le comprendre et de l'atténuer.

    Bien sûr, ces problèmes ne concernent pas uniquement l'IA de Google. Les grands modèles de langages des concurrents de Google sont également concernés. Une étude d'OpenAI a révélé que même ses meilleurs modèles donnent de mauvaises réponses dans une très large proportion. Certains chercheurs pensent que le problème de l'hallucination des modèles pourrait s'avérer insoluble. Il s'agit de l'une des plus grandes limites de l'IA.

    Source : Anthropic (1, 2)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Google affirme que le fonctionnement interne de son IA reste un mystère. Qu'en pensez-vous ?
    Anthropic propose le traçage des circuits pour comprendre le fonctionnement interne des IA. Que pensez-vous de cette approche ?

    Voir aussi

    OpenAI et le défi des « hallucinations » : une étude d'OpenAI révèle que même ses meilleurs modèles donnent de mauvaises réponses dans une très large proportion, la concurrence ne se porte pas forcément mieux

    Pourquoi les grands modèles de langage IA inventent-ils des informations ? Anthropic tente une approche pour analyser le contexte dans lequel Claude « hallucine »

    L'IA de Google pourrait bien vous tuer : elle confond le champignon toxique "Ange destructeur" avec une espèce comestible appelée "champignon de Paris", la pertinence de la fonctionnalité est remise en cause

  2. #2
    Membre très actif
    Avatar de la.lune
    Homme Profil pro
    Directeur Technique
    Inscrit en
    Décembre 2010
    Messages
    547
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Comores

    Informations professionnelles :
    Activité : Directeur Technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2010
    Messages : 547
    Par défaut C’est normal car le début
    Je ne trouve rien d’étonnant car c’est le début les gens fête le succès des grands modèles de langage IA mais les problèmes et les difficultés vont pousser les gens à vouloir maîtriser ces grands modèles.

    C’est comme au debut de la programmation après la création des compilateurs. Les gens à cette époque voyaient que c’était le grand succès d’écrire du code dans language de programmation simple à comprendre et qu’un autre programme (compilateur) puisse traduire ça en langage machine(PROGRAMME final). Donc : code -> programme -> PROGRAMME

    Je vous invite à imaginer cette époque qui aurait directement pensé au déboggueur ou un IDE? Personne. Un simple éditeur de texte et des lignes de commandes pour compiler. Imaginez le nombre d’erreurs sur ces codes? Et pourtant le compilateur à cet époque était un grand succès. C’est après la découverte de récurrentes failles de code qu’on a pensé à d’autres programmes pour maîtriser LE PROGRAMME. On a créé les déboggueurs , les outils de Teste unitaire, les IDE , la coloration des éditeurs de texte, les outils d’intégration continue, d’analyse du qualité de code … tout ça des programmes écrits pour maîtriser LE PROGRAMME. La chaîne est longue car ça commence par : programme->code->programme-> programme->code teste->programme-> LE PROGRAMME … avec possibilité d’ajouter encore des programmes autours.

    Mais jusqu’à présent personne ne peut prétendre écrire du code sans bogue que dans des rare cas d’utilisation de méthodes formelles. On sait tous que même si ça marche des années le bogue peut apparaître dans le futur et personne ne peut le prévoir. Si c’est le cas pour ce qu’on maîtrise instruction par instruction avec tous les outils connu, il peut y avoir des failles et que peut on dire d’une chose qu’on ne sait même pas qui lui a appris mais il apprend de partout et on veut qu’il réagisse sans qu’on lui dise exactement comment mais on lui laisse agir tout seul??!.

    Donc maintenant il va falloir commencer à mettre en place ce que j’appelle les plus grands modèles de langage IA capables de maîtriser les grands modèles de langage IA et c’est ainsi va le monde, ce sont les problèmes qui enfantent les solutions. Ne pas maîtriser ce que font exactement les grands modèles de langage IA c’est normal jusqu’à jour où il y aura d’autres modèles matures et plus forts capables de les maîtriser. Et non pas les humains car les capacités dépassent les capacités de l’humain.

  3. #3
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    276
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 276
    Par défaut
    Non un bug n'a rien à voir avec l'incompréhension des ingénieurs de google.
    Un bug, on sait pourquoi il apparaît et on peut en théorie le prévoir contrairement à ce que tu dis. Ça peut être compliqué mais c'est toujours faisable. Pourquoi ? Parce qu'un programme a toujours le même fonctionnement. C'est la base du fonctionnement d'un processeur. Sans ça on ne pourrait ni avoir de logiciels stables, ni faire de débugage.

    Ce que les créateurs de LLM ne comprennent pas est d'une toute autre nature. Ils ont réussi l'exploit, à partir d'une machine dont le comportement est fixe et prévisible, de créer des outils dont le comportement est statistique ce qui implique une part d'aléatoire, leur défit étant que les statistiques tendent vers ce que qu'attend la personne qui a généré le prompt, donc de réussir au mieux à s’adapter à n'importe quel contexte. Et pour arriver à cet objectif, ils utilisent des quantités de données tellement énormes et des algo tellement complexes qu'ils sont incapables de dire si l'élément X a eu une influence sur la donnée produite Y. Donc pour eux, pas de débugage possible.

    Je ne connais que de vagues concepts sur le fonctionnement des IA, si je raconte n'importe quoi n'hésitez pas à me corriger.




    Un journaliste de CBS a interviewé le PDG de Google Sundar Pichai, sur ce sujet. « Vous ne comprenez pas complètement comment cela fonctionne, et pourtant vous l'avez mis à la disposition de la société ? », a demandé le journaliste avec un air très inquiet.

    Sundar Pichai a déclaré: « ce n'est pas grave, je ne pense pas non plus que nous comprenions parfaitement le fonctionnement de l'esprit humain ».
    Le petit sophisme qui nous ferait presque penser inconsciemment qu'ils sont en train de reconstruire un cerveau avec des processeurs, il est mignon ce p'tit.

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 086
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 086
    Par défaut
    Ce problème d'incompréhension n'est pas le propre de Google!

    Le 100% des experts en IA le savent depuis toujours: Un système IA prend de manière inattendue et non-prévisible des décisions totalement illogiques, on a même inventé un terme pour nommé ces erreurs: Les hallucinations de l'IA!


    Mais toutes les GAFAM se sont empressées de cacher ce problème sous le tapis: C'était trop tentant de se faire un maximum de fric avec l'IA même si c'est une bombe à retardement... Imaginez ce qui se passera le jour où une IA gérant une centrale nucléaire prendra les mauvaises décisions...

  5. #5
    Membre très actif
    Avatar de la.lune
    Homme Profil pro
    Directeur Technique
    Inscrit en
    Décembre 2010
    Messages
    547
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Comores

    Informations professionnelles :
    Activité : Directeur Technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2010
    Messages : 547
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Non un bug n'a rien à voir avec l'incompréhension des ingénieurs de google.
    Un bug, on sait pourquoi il apparaît et on peut en théorie le prévoir contrairement à ce que tu dis.
    Déjà ce que je fais comme comparaison n’est pas une similarité intégrale des technologies mais une comparaison entre le début de toute nouvelle technologie qui réalise un succès puis après on essaye de trouver les solutions aux problèmes.

    La deuxième chose il y a une similarité du point philosophique car c’est autour du programme informatique avant on définissait intégralement tout ce que le programme va faire , et tout ce qu’il peut recevoir comme instructions (entrées) pour rendre un service au demandeur et maintenant on apprend la machine à pouvoir recevoir n’importe quelle instruction sans lui fixer les possibilités et on lui apprend à pouvoir répondre sans connaître préalablement l’instruction tout ça pour rendre un service au demandeur. Mais ça reste une machine sans conscience ni morale ethnique

  6. #6
    Expert confirmé

    Homme Profil pro
    pdg
    Inscrit en
    Juin 2003
    Messages
    5 756
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : pdg

    Informations forums :
    Inscription : Juin 2003
    Messages : 5 756
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Non un bug n'a rien à voir avec l'incompréhension des ingénieurs de google.
    Un bug, on sait pourquoi il apparaît et on peut en théorie le prévoir contrairement à ce que tu dis. Ça peut être compliqué mais c'est toujours faisable. Pourquoi ? Parce qu'un programme a toujours le même fonctionnement. C'est la base du fonctionnement d'un processeur. Sans ça on ne pourrait ni avoir de logiciels stables, ni faire de débugage.

    Ce que les créateurs de LLM ne comprennent pas est d'une toute autre nature. Ils ont réussi l'exploit, à partir d'une machine dont le comportement est fixe et prévisible, de créer des outils dont le comportement est statistique ce qui implique une part d'aléatoire
    Faut pas mélanger système déterministe et prédictibilité. Dès les débuts théoriques de l'informatique - avant même la création des premiers ordinateurs - il a été démontré que le problème de l'arrêt est indécidable.

    La démonstration de l'absence de bugs est loin d'être toujours faisable. Cela impose même de passer par un formalisme bien défini (méthodes formelles) qui n'est pas compatible avec les langages classiqu. Et avant de coder il y a toute la difficulté de formuler des spécifications de façon précise et non ambiguë. C'est toujours un sujet de recherche aujourd'hui.

  7. #7
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 304
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 304
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Ce problème d'incompréhension n'est pas le propre de Google!Mais toutes les GAFAM se sont empressées de cacher ce problème sous le tapis: C'était trop tentant de se faire un maximum de fric avec l'IA même si c'est une bombe à retardement... Imaginez ce qui se passera le jour où une IA gérant une centrale nucléaire prendra les mauvaises décisions...
    Oui enfin, si cela arrive, ce sera plus de la faute de personne assez irresponsable pour utiliser l'IA dans des conditions inadaptés.
    C'est comme si l'on utilisaient un TGV pour une ligne de tram, il y aura vite des accidents grave. Pourtant, on ne va pas rendre responsable Alstom... Idem pour un camion qui circule sur une route trop étroite ou dangereuse.

    Le seul cas où je suis d'accord, c'est si une entreprise incite consciemment une entreprise à utiliser une IA pour une utilisation inadapté. Là on peu dire qu'il y a une complicité.

Discussions similaires

  1. Réponses: 8
    Dernier message: 05/11/2010, 21h29
  2. Réponses: 12
    Dernier message: 08/07/2010, 08h50
  3. Réponses: 36
    Dernier message: 30/03/2010, 16h43
  4. Réponses: 11
    Dernier message: 25/10/2007, 17h09
  5. Réponses: 11
    Dernier message: 17/07/2007, 20h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo