IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les limites et perspectives des benchmarks pour évaluer les performances de l'IA par rapport aux performances


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 356
    Points
    66 356
    Par défaut Les limites et perspectives des benchmarks pour évaluer les performances de l'IA par rapport aux performances
    Les limites et perspectives des benchmarks pour évaluer les performances de l'IA par rapport aux performances humaines.

    Les dernières années ont été marquées par des progrès incessants dans les capacités de l'IA, mais notre capacité à évaluer ces capacités n'a jamais été aussi mauvaise. L'un des principaux responsables ? Les benchmarks. Douwe Kiela,Tristan Thrush, Kawin Ethayarajh, Amanpreet Singh ont publié un article "Plotting Progress in AI" concernant les benchmarks utilisés pour évaluer l'IA. Dans leurs études, ils constatent les limites et les problèmes de ces benchmarks. Voici un extrait de leur article.

    Nous avons identifié ce problème dès 2021 et avons soutenu que les benchmarks devraient être aussi dynamiques que les modèles qu'ils évaluent. Pour rendre cela possible, nous avons introduit une plateforme appelée Dynabench pour créer des benchmarks vivants et en constante évolution. Dans le cadre de la publication, nous avons créé une figure qui montre la rapidité avec laquelle les benchmarks d'IA "saturent", c'est-à-dire que les systèmes de pointe commencent à surpasser les performances humaines dans une variété de tâches.
    De nouveaux graphiques pour une nouvelle ère

    Mais aujourd'hui, ce graphique est désespérément dépassé. Compte tenu de la rapidité avec laquelle l'IA a progressé au cours des dernières années, les ensembles de données semblent presque préhistoriques. Il est grand temps de mettre à jour les diagrammes, avec de nouveaux ensembles de données. Les progrès récents ont surtout été réalisés grâce aux modèles de langage, et nous allons donc nous pencher sur des critères d'évaluation de modèles de langage bien connus en particulier :

    Nom : 1.png
Affichages : 92576
Taille : 52,2 Ko

    Lorsque GLUE a été introduit, il a été saturé en l'espace d'un an. La même chose s'est produite encore plus rapidement pour SuperGLUE, qui était censé le remplacer en tant qu'alternative plus durable. Cela a déclenché une réaction dans le domaine : des benchmarks beaucoup plus difficiles ont été créés. Dans le même temps, grâce à la démonstration de l'apprentissage en contexte de GPT-3 (et à l'augmentation du nombre de paramètres), les modèles ont commencé à être évalués dans des contextes de zéro ou de quelques essais. Cela conduit à des courbes comparativement moins raides, quoique légèrement.

    Néanmoins, nous constatons qu'avec les progrès récents, les repères s'approchent à nouveau rapidement de la saturation. Les ensembles de données très difficiles comme HellaSwag sont désormais pratiquement résolus. Seul BigBench-Hard, un sous-ensemble difficile de BigBench, présente encore des performances relativement inférieures à ses chiffres de base initiaux lorsqu'il est comparé aux performances humaines.

    Zoom arrière

    En superposant les nouveaux chiffres aux anciens, nous pouvons observer que le taux de changement entre l'introduction d'un benchmark et sa résolution est encore très différent de ce qu'il était avant la révolution de l'IA :

    Nom : 2.png
Affichages : 1470
Taille : 94,8 Ko

    Comment ces chiffres ont-ils été calculés ?
    Pour chaque critère de référence, nous avons pris comme "point de départ" la ligne de base la plus performante indiquée dans l'article sur le critère, que nous avons fixée à -1. Le chiffre de la performance humaine est fixé à 0. En somme, pour chaque résultat X, nous l'évaluons comme (X-Humain)/Abs(Point de départ-Humain). La recherche de résultats a été grandement facilitée par Paperswithcode.
    L'état de l'analyse comparative

    Il existe aujourd'hui un large consensus sur le fait que l'IA est freinée par une évaluation comparative appropriée. Il s'agit notamment de procéder à une évaluation humaine rigoureuse et à un "red teaming" des modèles afin d'en révéler les faiblesses et d'y remédier. On assiste également à une poussée vers un étalonnage plus holistique, comme dans le HELM de Stanford (et comme le préconisait à l'origine Dynaboard). Le déploiement de modèles au fil du temps est essentiellement un processus d'analyse comparative dynamique et contradictoire à l'échelle de la communauté, dans lequel de nouvelles analyses comparatives sont créées sur la base des modes de défaillance de l'état actuel de la technique, ce qui permet d'améliorer sans cesse les capacités des systèmes.

    Dynabench appartient désormais à MLCommons (Meta en a transféré la propriété en 2022), le consortium d'ingénierie ouverte dont la mission est de bénéficier à la société en accélérant l'innovation dans le domaine de l'IA. La plateforme est toujours en activité : en plus des tâches originales, elle a accueilli des défis tels que Flores, DataPerf et BabyLM. Les ensembles de données contradictoires dynamiques introduits par la plateforme sont loin d'être résolus et, plus important encore, la philosophie de l'évaluation contradictoire et holistique inaugurée par Dynabench, Dynaboard et GEM est en train de se généraliser.


    Ce n'est que le commencement

    L'évaluation n'est jamais un sujet facile. Un exemple récent est la grande différence dans le classement des modèles de langage sur différents tableaux de bord censés rendre compte de la même chose. De minuscules changements dans de simples mesures d'évaluation peuvent conduire à des résultats très différents. Il n'existe pas de cadre normalisé convenu et nous en sommes réduits à utiliser des modèles linguistiques pour évaluer d'autres modèles linguistiques. Des entreprises innovantes, comme Patronus, cherchent à améliorer leur travail dans ce domaine.

    L'IA n'en est qu'à ses débuts. Les modèles linguistiques sont une excellente technologie de première génération, mais ils présentent encore des lacunes très importantes. Certains d'entre eux sont confirmés par les critères d'évaluation, mais la communauté des chercheurs ne sait même pas comment évaluer de nombreux aspects des modèles de langage en premier lieu.

    Chez Contextual AI, ils résolvent activement les principales limitations pour les entreprises qui cherchent à proposer à leurs clients des produits alimentés par des LLM à grande échelle, notamment les attributions, les hallucinations, l'obsolescence des données et la protection de la vie privée. Après les jeux de tests statiques, le benchmarking dynamique, le red teaming, les classements ELO et les outils de psychologie du développement, il reste encore beaucoup de travail à faire pour évaluer correctement les LLM, en particulier lorsqu'il s'agit d'évaluer la qualité de l'information.

    Source : Contextual AI

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Plus de la moitié des déploiements d'Azure et de Google Cloud ont échoué aux CIS benchmarks, un ensemble de pratique pour mieux sécuriser le Cloud selon une étude de Qualys

    DeepMind affirme que son IA AlphaCode peut rivaliser avec un programmeur humain moyen, mais les experts estiment qu'AlphaCode est plus un outil d'aide qu'un potentiel remplaçant des codeurs humains

    Il suffirait de cinq heures pour qu'un modèle d'IA conçoive un processeur fonctionnel. Les chercheurs affirmant que c'est 1 000 fois plus rapide que ce qu'il faut aux humains
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre expérimenté

    Homme Profil pro
    Retraite
    Inscrit en
    Octobre 2005
    Messages
    479
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 72
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraite
    Secteur : Industrie

    Informations forums :
    Inscription : Octobre 2005
    Messages : 479
    Points : 1 348
    Points
    1 348
    Billets dans le blog
    1
    Par défaut
    Bonjour, expérience personnel avec IA:

    Très simple d'utilisation, mon seul bon point.

    Étant de la vielle école , je n'ai plus ni moins demander de générer un terminal en langage codé. Résultats, pleins d'erreur et impossible de compiler le programme.


    Les idées émises par l'IA étaient intéressantes, par contre quand cela devenait un peu plus compliqué, il évinçait les réponses d'une manière fort polie, mais ????, je ne me suis pas laissé aller à ses réponses, je l'ai aidé, mais les résultats fournis sont incompatibles avec le langage réel. Il inventait du code, mais le code était faux.

    Je reste avec un gentil doux regard sur l'IA, mais je pense que l'on le met à toutes les sauces et que l'on invente beaucoup de chimère, quant aux algorithmes entrés, me rappelle une belle histoire.

    J'étais en Israël il y a plus de 40 ans , mon oncle était fier de me montrer son ordinateur couplé avec des contacteurs électromécanique et des points de relevés divers qu'il lui permettait de contrôler l'hygrométrie et comment la nourriture était absorbé, et plein de chose propre à un élevage (pas en batterie, car cet élevage servait à la reproduction)...

    Tout ça pour en venir que dans les années 2015... 2023 on voit surgir de l'IA qui fait la même chose AH AH AH, mais de qui se moque-t-on de plus, il a été révélé que des personnes jouaient les petites mains pour répondre à des questions .... bref je vous passe les détails

    L'IA qui fait papa maman Alfred et les bonnes sœurs ce n'est pas pour demain.

    @bientôt

  3. #3
    Membre éclairé
    Avatar de richard
    Homme Profil pro
    Inscrit en
    Avril 2002
    Messages
    474
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations forums :
    Inscription : Avril 2002
    Messages : 474
    Points : 772
    Points
    772
    Par défaut
    Je suis assez d'accord avec le commentaire précédent. J'ai demandé à ChatGPT 3.5 de générer un programme assez trivial de remplacement de caractères avec des regex (je précise que je ne suis pas développeur professionnel mais "para programmeur" et que mon métier m'amène à manipuler beaucoup de texte). Comme j'utilise Pharo comme langage principal je lui ai demandé en smalltalk, résultat ? Catastrophique ! Rien ne compilait, pire certains éléments de syntaxe étaient purement et simplement inventés, rappelons que la syntaxe de smalltalk tient sur une carte postale (ce n'est pas une image, c'est vrai).

    Après énormément de tentatives avec des aides nouvelles à chaque fois mais toujours le même résultat j'ai décidé de changer de langage et j'ai proposé à l'I.A de le faire en Python que je connais également. Résulat : l'interpréteur m'a insulté à partir de la troisième ligne. Après une dizaine de tentatives, j'ai jeté l'éponge.

    Donc, l'I.A comme AGL autonome, ou outil "NoCode", je demande à voir. Je retourne à Pharo dans l'intervalle...
    "Software is getting slower more rapidly than hardware becomes faster." Niklaus Wirth
    https://pharo.org/web
    https://faust.grame.fr/

  4. #4
    Membre régulier
    Homme Profil pro
    Développeur Back-End
    Inscrit en
    Août 2021
    Messages
    41
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur Back-End
    Secteur : Industrie

    Informations forums :
    Inscription : Août 2021
    Messages : 41
    Points : 93
    Points
    93
    Par défaut
    Cela donnent l'impression qu'ils ont fabriqué un truc qui fabrique des bidules qui par un heureux hasard peuvent être utile !

  5. #5
    Membre expérimenté

    Homme Profil pro
    Retraite
    Inscrit en
    Octobre 2005
    Messages
    479
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 72
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraite
    Secteur : Industrie

    Informations forums :
    Inscription : Octobre 2005
    Messages : 479
    Points : 1 348
    Points
    1 348
    Billets dans le blog
    1
    Par défaut
    Citation Envoyé par eddy72 Voir le message
    Cela donnent l'impression qu'ils ont fabriqué un truc qui fabrique des bidules qui par un heureux hasard peuvent être utile !
    je dirais qu'un algorithme bien fourni et traitant des images peuvent aider à la décision, mais je n'appelle pas cela de l'intelligence, je me rappelle avoir fait 3 programme en C sur AS400 1995 qui émulait plus de 2500 programmes, mais il y a un mais , il y avait des règles et des limitations , et l'on était obligé de rentrer un script qui lui était encapsulé, IBM m'avait proposé de le prendre , ... bref je n'ai jamais pensé que c'était de l'intelligence artificielle. Juste un algorithme. FIGÉ.

Discussions similaires

  1. Des benchmarks pour l'étude de qualité logicielle
    Par Om yassoufa dans le forum Langages de programmation
    Réponses: 0
    Dernier message: 23/10/2015, 17h42
  2. Réponses: 5
    Dernier message: 06/10/2011, 12h56
  3. [PHP 5.0] Limitation du nombre des arguments pour faire tourner un script externe
    Par steph_arrow dans le forum Langage
    Réponses: 2
    Dernier message: 11/04/2011, 15h51
  4. Réponses: 2
    Dernier message: 03/01/2011, 15h49
  5. Réponses: 4
    Dernier message: 07/03/2006, 21h33

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo