IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La bulle de l'IA repose sur l'ignorance d'un fait scientifique : le langage n'est pas synonyme d'intelligence


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 688
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 688
    Par défaut La bulle de l'IA repose sur l'ignorance d'un fait scientifique : le langage n'est pas synonyme d'intelligence
    « Un plafond mathématique cantonne l’IA générative à une créativité de niveau amateur », selon une étude qui précise que les productions de l'IA ne sont que des recombinaisons prévisibles de motifs existants

    L'IA générative est loin du niveau que le sensationnalisme médiatique lui prête. C'est ce qu'indique une nouvelle étude qui brise le mythe selon lequel les systèmes d'IA tels que ChatGPT pourraient bientôt remplacer les humains les plus créatifs de la société. Selon l'étude, les grands modèles de langage (LLM) existants ont une limite mathématique intégrée à leur capacité créative, ce qui signifie qu'ils ne pourront jamais rivaliser avec l'originalité ou l'ingéniosité des individus les plus créatifs. Cette étude fait écho aux propos de Yann LeCun, pionnier de l'apprentissage profond, qui avait déclaré : les LLM n'atteindront pas l'intelligence humaine.

    Le battage médiatique affirme que l’IA est sur le point d’égaler ou de dépasser l’humain. Cette idée est propagée par des acteurs tels que Sam Altman, PDG d'OpenAI, Elon Musk, PDG de xAI, etc. D'après eux, l'IA pourrait bientôt remplacer des artistes ou des acteurs, et serait capable d’une créativité comparable à celle des meilleurs créateurs. Ils laissent entendre que l’IA approche d’une intelligence artificielle générale (AGI) capable de tout faire.

    Mais une nouvelle étude théorique publiée dans le Journal of Creative Behaviour remet en question cette idée. Menée par le professeur David H Cropley de l'Université d'Australie du Sud, l'étude soutient que les modèles d'IA tels que ChatGPT sont mathématiquement limités à une créativité de niveau amateur.

    « Si l'IA peut imiter un comportement créatif, parfois de manière assez convaincante, sa capacité créative réelle est limitée au niveau d'un être humain moyen et ne peut jamais atteindre les normes professionnelles ou expertes selon les principes de conception actuels », a-t-il déclaré. L'étude remet en question les hypothèses largement répandues sur les pouvoirs créatifs de l'IA et apporte de la clarté dans le battage médiatique et les malentendus.

    Évaluation des « capacités créatives » de l'IA générative

    Le professeur David Cropley a lancé cette étude dans le but d'apporter des éclaircissements au débat actuel sur la capacité réelle de l'IA à être créative. Il a appliqué la définition standard de la créativité, qui requiert à la fois originalité et efficacité, au fonctionnement des grands modèles linguistiques. David Cropley a expliqué que cette approche permet de déterminer si la conception des systèmes d'IA limite naturellement leurs capacités créatives.

    Nom : Capture d'écran 2025-11-26 163410.png
Affichages : 15494
Taille : 141,1 Ko

    L'efficacité fait référence à l'utilité, à la pertinence ou à l'adéquation du produit par rapport à l'usage auquel il est destiné. L'originalité évoque le caractère novateur, inhabituel ou surprenant du produit. Dans la créativité humaine de haut niveau, ces deux traits coexistent : un chef-d'œuvre est à la fois unique et parfaitement exécuté.

    Les grands modèles de langage fonctionnent en prédisant le mot ou « token » (jeton) suivant sur la base des modèles appris à partir de leurs données d'entraînement. Le professeur note que cette méthode prévisible et statistique permet une évaluation mathématique de la créativité des systèmes d'IA actuels. Son analyse montre que si l'IA peut produire des résultats qui semblent créatifs, son originalité est limitée par les modèles qu'elle a appris.

    Elle révèle également que la créativité de l'IA ne peut donc pas dépasser le niveau moyen des humains. Dans l'étude, David Cropley cite des tests antérieurs montrant que les récits et les idées générés par l'IA se classent généralement entre le 40e et le 50e centile par rapport au travail humain. Cela confirme la conclusion selon laquelle « l'IA ne peut pas atteindre les normes expertes ou professionnelles avec les méthodes de conception actuelles ».

    David Cropley note que la plupart des gens ont un niveau de créativité moyen, ce qui explique pourquoi les résultats de l'IA peuvent sembler impressionnants pour le grand public. Toutefois, les professionnels de l'écriture, du design ou de l'art remarquent rapidement que le contenu généré par l'IA est répétitif et stéréotypé.

    Selon l'étude, une créativité de très haut niveau implique de produire des idées à la fois uniques et très efficaces, ce que l'IA ne peut pas réaliser, car elle s'appuie sur des données existantes. Le professeur David Cropley explique que l'IA générative peut aider à accomplir des tâches routinières, mais qu'elle ne peut pas remplacer les créateurs qualifiés ni produire à elle seule des œuvres révolutionnaires. L'étude reconnaît néanmoins quelques limites.

    Limite mathématique de la créativité des modèles d'IA

    L'étude a révélé un compromis fondamental inhérent à l'architecture des grands modèles de langage. Pour qu'une réponse de l'IA soit efficace, le modèle doit sélectionner des mots qui ont une forte probabilité de correspondre au contexte. Si la consigne est « Le chat était assis sur le... », le mot « tapis » est une complétion très efficace, car il est logique et grammaticalement correct. Le terme « tapis » est la fin la plus probable statistiquement.

    Cependant, David Cropley estime que c'est aussi la complétion la moins originale. Elle est tout à fait prévisible. À l'inverse, le professeur explique que si le modèle sélectionnait un mot avec une très faible probabilité d'augmenter la nouveauté, l'efficacité diminuerait. À titre d'exemple, compléter la phrase par « clé à molette rouge » ou « nuage grondant » serait très inattendu et donc novateur, mais cela serait probablement absurde et inefficace.

    David Cropley a déterminé que dans le système fermé d'un grand modèle de langage, la nouveauté et l'efficacité fonctionnent comme des variables inversement proportionnelles. À mesure que le système s'efforce d'être plus efficace en choisissant des mots probables, il devient automatiquement moins novateur.

    En exprimant cette relation à l'aide d'une formule mathématique, l'auteur de l'étude a identifié une limite supérieure spécifique pour la créativité de l'IA. Dans le cadre de l'étude, le professeur a modélisé la créativité comme « le produit de l'efficacité et de la nouveauté ». Comme ces deux facteurs s'opposent dans un système probabiliste, « le score de créativité maximal possible » est mathématiquement plafonné à 0,25 sur une échelle de zéro à un.

    L'IA n'atteint pas automatiquement ce score. Ce pic ne se produit que lorsque l'efficacité et la nouveauté sont équilibrées à des niveaux modérés. Cette conclusion indique que les grands modèles de langage sont structurellement incapables de maximiser simultanément ces deux variables, ce qui les empêche d'atteindre les scores élevés possibles pour les créateurs humains qui peuvent combiner une nouveauté extrême avec une efficacité extrême.

    Comparaison avec la créativité humaine

    Pour contextualiser cette conclusion, le chercheur a comparé la limite de 0,25 aux données établies concernant les performances créatives humaines. Il a aligné ce score sur le modèle des « quatre C » de la créativité, qui classe l'expression créative en niveaux allant de « mini-c » (interprétatif) à « Big-C » (légendaire). Cette comparaison a révélé que les systèmes d'IA actuels peinent encore à faire mieux que le niveau amateur des humains.


    Plus précisément, l'expérience du professeur David Cropley a révélé que la limite de 0,25 fixée pour l'IA générative correspond à la frontière entre la créativité « little-c », qui représente les efforts quotidiens des amateurs, et la créativité « Pro-c », qui représente l'expertise de niveau professionnel.

    L'étude du professeur David Cropley est le premier calcul formel de la créativité de l'IA basé sur les mécanismes internes des grands modèles de langage. Il rappelle que malheureusement, de nombreuses personnes comprennent mal le sens du mot « créativité ». Elles pensent notamment qu'il signifie « l'acte de donner naissance à quelque chose » ou « générer », alors qu'il s'agit en réalité de créer quelque chose de nouveau, d'original et d'efficace.

    « En général, 60 % des gens ont un niveau de créativité inférieur à la moyenne, il est donc inévitable qu'une partie importante de la société pense que les LLM comme ChatGPT sont créatifs, alors qu'ils ne le sont pas. Les personnes très créatives reconnaîtront les faiblesses des systèmes d'IA générative. Un écrivain, un artiste ou un designer talentueux peut parfois produire quelque chose de vraiment original et efficace », a souligné David Cropley.

    « Un LLM n'y parviendra jamais. Il produira toujours quelque chose de moyen, et si les industries s'appuient trop sur lui, elles se retrouveront avec un travail stéréotypé et répétitif ». Selon le professeur, ces conclusions sont encourageantes pour tous ceux qui accordent de l'importance à l'innovation humaine. « Cette recherche montre que le monde a toujours besoin d'êtres humains créatifs, peut-être plus que jamais », a déclaré David Cropley.

    Les limites de cette étude théorique

    L'étude souffre de quelques limites reconnues par l'auteur. David Cropley utilise des hypothèses mathématiques simplifiées et se concentre sur des paramètres d'IA standard. Le modèle utilise une approximation linéaire pour définir la créativité comme l'inverse de l'efficacité. L'étude suppose également un mode de fonctionnement standard pour les grands modèles de langage, connu sous le nom de décodage glouton ou d'échantillonnage simple.

    L'étude ne mesure pas non plus dans quelle mesure l'édition humaine ou les prompts avancés peuvent améliorer les résultats finaux. Elle se concentre sur la production autonome du système plutôt que sur son potentiel en tant qu'outil collaboratif. L'analyse reste donc incomplète. Par exemple, de futures études pourraient explorer si l'ajustement des paramètres de l'IA ou l'utilisation d'architectures différentes pourraient élargir son potentiel créatif.

    Conclusion

    L'auteur de l'étude a conclu en expliquant que pour que les systèmes d'IA atteignent un niveau de créativité équivalent à celui d'un expert, il faudrait « un système d'un genre entièrement nouveau », capable de générer des idées au-delà des modèles statistiques appris. Tant qu'un tel changement de paradigme ne se produira pas en informatique, les preuves indiquent que les êtres humains restent la seule source de créativité de haut niveau.

    Yann LeCun, chercheur en IA et considéré comme l'un des inventeurs de l'apprentissage profond, a déclaré que les grands modèles de langage n'atteindront pas l'intelligence humaine. Selon lui, ces systèmes ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. Il estime que ces systèmes ne peuvent même pas reproduire l'intelligence d'un chat.

    Source : rapport de l'étude

    Et vous ?

    Que pensez-vous des conclusions de cette étude ? Sont-elles pertinentes ?
    Êtes-vous d'avis que l'IA générative fait preuve d'une créativité de niveau amateur ? Pourquoi ?
    L'étude propose d'explorer d'autres architectures pour espérer atteindre une créativité de niveau expert. Qu'en pensez-vous ?

    Voir aussi

    Yann LeCun, l'un des meilleurs chercheurs en IA de Meta et l'un des plus grands scientifiques mondiaux dans ce domaine, quitte l'entreprise, estimant que les grands modèles de langage (LLM) sont une impasse

    Le responsable de la division IA de Meta est d'avis que les grands modèles de langage n'atteindront pas l'intelligence humaine, il travaille sur d'autres pistes susceptibles de déboucher sur cet objectif

    Les LLM IA auront toujours des hallucinations, et nous devons nous en accommoder, car les hallucinations découlent de la structure mathématique et logique fondamentale des LLM, selon une étude

  2. #2
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 326
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 326
    Par défaut
    Salut à tous.

    Tout ce que je constate avec les IA que j'ai utilisés, ce ne sont que des perroquets qui ne font que répéter ce qu'ils trouvent sur le net. Dans la majorité des cas, l'IA va répondre aux questions posées et va nous faire gagner du temps dans nos recherches. Oui, mais nous n'allons pas nous contenter d'une réponse basique mais celle d'une expertise allant bien au delà de ce que les humains peuvent faire actuellement. L'IA va jouer différents rôles comme celui de confident, mais aussi d'un guide pour notre développement personnel. Pourquoi ? Parce que la société d'aujourd'hui ne sait pas répondre à nos attentes et nous cherchons tous des réponses pour évoluer.

    Je ne crois en aucune façon que l'IA pourra atteindre un jour le niveau d'une conscience, même celle d'une fourmi. Pour cela, il faudrait que l'IA puisse comprendre et ressentir le monde dans laquelle elle va évoluer. Comment lui faire comprendre cette notion de haut et de bas, alors que pour nous humains, nous ressentons l'apesanteur, mais pas ces machines qui sont déconnectés de la vrai vie.

    Pour aller au delà des apparences, il faut comprendre la problématique pour tenter de la résoudre en ayant une parfaite connaissance des conditions de son fonctionnement, ce qui est très loin d'être le cas des IA actuellement. Je pense que dans l'avenir, les IA n'auront jamais la capacité créative qui est le propre du vivant. Pourquoi ? Je pense que cela est dû à notre ressenti, et non à notre intelligence, à notre capacité de survie, au désire d'améliorer notre condition en évoluant. Comment une IA pourrait elle évoluée ? Je me pose la même question pour le genre humain. Est-ce l'acquisition de la sagesse ? Je ne sais pas répondre à cette question parce qu'elle ne se résume pas qu'au désir humain.

    Comme l'IA sera à l'image de ce que nous voulons être, il faudrait savoir ce que nous voulons vraiment !

  3. #3
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 420
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 420
    Billets dans le blog
    3
    Par défaut
    Je n'ai fait aucun calcul, mais mon impression de la manière dont fonctionne les réseaux de neurones est qu'il sont limités par l'enveloppe convexe de ce qu'ils apprennent. Si les données d'apprentissages forment un nuage de points dans lequel se trouve des trous, je pense que l'IA est capable de faire preuve de créativité dans le sens où elle peut atteindre ces trous en combinant des éléments existants de ce qu'elle a appris. Mais je ne pense pas qu'elle puisse sortir de ce nuage.

    C'est une impression, il faudrait formaliser avec rigueur pour creuser et confirmer, mais c'est pourquoi je pense qu'elle est capable de faire preuve de créativité mais à l'intérieur d'une limite qui s'impose à l'IA de par son apprentissage.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  4. #4
    r0d
    r0d est déconnecté
    Membre expérimenté

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Août 2004
    Messages
    4 337
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Août 2004
    Messages : 4 337
    Billets dans le blog
    2
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Je n'ai fait aucun calcul, mais mon impression de la manière dont fonctionne les réseaux de neurones est qu'il sont limités par l'enveloppe convexe de ce qu'ils apprennent. Si les données d'apprentissages forment un nuage de points dans lequel se trouve des trous, je pense que l'IA est capable de faire preuve de créativité dans le sens où elle peut atteindre ces trous en combinant des éléments existants de ce qu'elle a appris. Mais je ne pense pas qu'elle puisse sortir de ce nuage.

    C'est une impression, il faudrait formaliser avec rigueur pour creuser et confirmer, mais c'est pourquoi je pense qu'elle est capable de faire preuve de créativité mais à l'intérieur d'une limite qui s'impose à l'IA de par son apprentissage.
    Ça me semble être une bonne vision effectivement. Et somme toute fort logique au vu du fonctionnement des IAs génératives. Tu as juste oublié de préciser que ton analyse ne concerne que les IA génératives. D'autres types d'IA sont capables de créativité. Je pense par exemple à Stockfish, Leela (moteurs d'échecs) ou AlphaGo (moteur de go) qui sont capables de trouver des coups non seulement qui n'ont jamais été joués, mais surtout qui sont en dehors des théories admises (donc en dehors du nuage de points). Mais leur fonctionnement est très différent des IAs génératives.
    « [...] en ce qui concerne la doctrine selon laquelle les trois angles d'un triangle sont égaux à deux angles d'un carré, si elle avait été contraire au droit de dominer de quelqu'un, ou à l'intérêt de ceux qui dominent, je ne doute pas qu'elle eût été, sinon débattue, en tout cas éliminée en brûlant tous les livres de géométrie [...] »
    Thomas Hobbes, Léviathan, Chapitre 11

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 688
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 688
    Par défaut La bulle de l'IA repose sur l'ignorance d'un fait scientifique : le langage n'est pas synonyme d'intelligence
    « Large language mistake » : des recherches de pointe montrent que le langage n'est pas synonyme d'intelligence. Toute la bulle de l'IA repose sur le fait d'ignorer cette notion scientifique

    Une nouvelle étude remet en question l'intelligence apparente des grands modèles de langage (LLM). Elle rappelle que malgré toute la complexité supposée de l'IA générative, il s'agit en réalité, à la base, de modèles de langage. Mais les acteurs de l’industrie de l’IA confondent la capacité à produire du langage fluide avec la présence d’une véritable intelligence. Selon les chercheurs, le langage n’est qu’un outil de communication chez l’humain, et non la structure principale de la pensée. Penser n’est pas parler : la cognition humaine implique également des perceptions et des raisonnements non verbaux, des dimensions auxquelles les modèles de langage n’ont pas accès.

    « Le développement de la superintelligence est désormais à portée de main », selon Mark Zuckerberg, PDG de Meta. Dario Amodei, PDG d'Anthropic, prédit : « une IA puissante pourrait voir le jour dès 2026 et sera plus intelligente qu'un lauréat du prix Nobel dans la plupart des domaines pertinents ». Dario Amodei promet le doublement de la durée de vie humaine, voire une « vitesse d'échappement » permettant d'échapper à la mort elle-même.

    Sam Altman, PDG d'OpenAI, va plus loin : « nous sommes désormais convaincus de savoir comment construire une AGI et bientôt, une IA superintelligent pourrait accélérer massivement les découvertes scientifiques et l'innovation bien au-delà de ce que nous sommes capables de faire par nous-mêmes ».

    Devrions-nous les croire ? Les scientifiques n'en sont pas si sûrs. Ces déclarations tonitruantes tombent à l'eau lorsque nous regardons ce que la science sait de l'intelligence humaine et que nous nous examinons les systèmes d'IA que ces entreprises ont produits jusqu'à présent. Selon les scientifiques, l'IA générative, basée sur les grands modèles de langage (LLM), excelle dans la production du langage, mais cela ne signifie pas qu'elle est intelligente.


    La caractéristique commune à tous les chatbots tels que ChatGPT, c'est qu'ils sont tous principalement des LLM. Fondamentalement, ils reposent sur la collecte d'une quantité extraordinaire de données linguistiques (dont une grande partie est codifiée sur Internet), la recherche de corrélations entre les mots (plus précisément des sous-mots appelés « tokens » (jeton)) et la prédiction de la réponse qui devrait suivre un prompt particulier donné en entrée.

    Le problème est que, selon les neurosciences actuelles, la pensée humaine est largement indépendante du langage humain, et nous avons peu de raisons de croire que de grands modèles de langage toujours plus sophistiqués permettront de créer une forme d'intelligence qui égalera ou surpassera la nôtre.

    L'industrie de l'IA a une fausse perception de l'intelligence humaine

    Selon les experts, les humains utilisent le langage pour communiquer les résultats de leur capacité à raisonner, à former des abstractions et à faire des généralisations, ou ce que nous pourrions appeler leur intelligence. Ils utilisent le langage pour penser, mais cela ne rend pas le langage identique à la pensée. Comprendre cette distinction est essentiel pour séparer les faits scientifiques de la science-fiction spéculative des PDG enthousiastes à propos de l'IA.

    La théorie selon laquelle l'industrie est sur le point de créer quelque chose d'aussi intelligent que les humains, voire une superintelligence qui éclipsera nos capacités cognitives, est gravement erronée sur le plan scientifique. Les LLM ne sont que des outils qui imitent la fonction communicative du langage, et non le processus cognitif distinct et séparé de la pensée et du raisonnement, quel que soit le nombre de centres de données que l'industrie construit.

    Cette conclusion signifie que « la course effrénée vers des centres de données toujours plus gros et des modèles de langage toujours grands et sophistiqués ne conduira pas l'industrie vers une superintelligence ». Pour espérer y arriver, les acteurs de la course à l'IA doivent changer de paradigme et explorer de nouvelles architectures. Selon un récent article, un plafond mathématique cantonne l'IA générative à une créativité de niveau amateur amateur.

    Les modèles d'IA actuels ne font que prédire la suite la plus probable de mots à partir de milliards d’exemples. Ils excellent dans l’imitation du style humain, mais fonctionnent sans expérience directe, sans perception sensorielle et sans compréhension intrinsèque. Ils manipulent des symboles sans relier ces symboles à une réalité vécue. De ce fait, même s’ils paraissent « intelligents », ils n’ont ni intentions, ni conscience, ni véritable modèle du monde.

    Yann LeCun : « les LLM n'atteindront pas l'intelligence humaine »

    « La cognition humaine s'améliore grâce au langage », mais elle n'est ni créée ni définie par celui-ci. Voici un exemple illustratif : même privé de sa capacité à parler, un humain peut toujours penser, raisonner, former des croyances, tomber amoureux et évoluer dans le monde ; l'éventail de ses expériences et de ses réflexions reste vaste. Cependant, si vous retirez le langage d'un grand modèle de langage, « il ne vous reste littéralement plus rien ».

    Certains membres de la communauté des chercheurs en IA partagent cet avis. Yann LeCun, lauréat du prix Turing pour ses recherches en IA et sceptique des modèles de langage, a déclaré que les grands modèles de langage n'atteindront pas l'intelligence humaine. Selon lui, ces systèmes ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante, ainsi que la compréhension du monde physique.

    Il estime que ces systèmes ne peuvent même pas reproduire l'intelligence d'un chat. Yann LeCun a récemment quitté son poste chez Meta et a fondé une startup d'IA pour développer ce qu'il appelle des « modèles mondiaux » : des systèmes qui comprennent le monde physique, ont une mémoire persistante, peuvent raisonner et planifier des séquences d'actions complexes. Selon lui, il pourrait s'agir d'une voie vers une superintelligence ou l'AGI.

    L’idée selon laquelle augmenter la taille des modèles suffirait à atteindre la superintelligence est scientifiquement infondée. Cette confusion a alimenté une bulle d’attentes exagérées autour de l'IA. En surestimant ce que ces systèmes peuvent faire, certains risques émergent : déléguer à ces outils des tâches critiques pour lesquelles ils ne sont pas adaptés, ou croire qu’ils comprennent alors qu’ils ne font que reproduire des corrélations linguistiques.

    Récemment, un groupe d'éminents scientifiques et leaders d'opinion dans le domaine de l'IA, dont Yoshua Bengio (également lauréat du prix Turing), l'ancien PDG de Google Eric Schmidt et Gary Marcus, célèbre sceptique de l'IA, se sont mis d'accord sur une définition pratique de l'AGI.

    Plutôt que de traiter l'intelligence comme une « capacité monolithique », ils proposent d'adopter un modèle de cognition humaine et artificielle qui reflète « une architecture complexe composée de nombreuses capacités distinctes ». Est-ce un progrès ? Selon certains observateurs, cela pourrait être considéré comme une avancée s'il éloigne l'industrie de la quête absurde de données d'entraînement supplémentaires à introduire dans les racks de serveurs.

    Mais certains problèmes subsistent. Pouvons-nous vraiment agréger les capacités cognitives individuelles et considérer que le résultat obtenu correspond à l'intelligence générale ? Comment définir les pondérations à leur attribuer, ainsi que les capacités à inclure et à exclure ?

    La bulle des investissements dans l'IA a dépassé un seuil raisonnable

    Les investisseurs s'inquiètent de plus en plus des actions liées à l'IA et du risque de bulle spéculative. Ils sont surtout préoccupés par le rythme effréné et par l’ampleur du financement consacré aux investissements liés à l’IA. Selon une enquête mondiale menée par Bank of America auprès des gestionnaires de fonds entre le 7 et le 13 novembre 2025, les investisseurs ont averti que les entreprises « surinvestissent » pour la première fois en deux décennies.

    L'enquête, menée auprès de 202 panélistes gérant 550 milliards de dollars d'actifs sous gestion, a révélé que 20 % des gestionnaires de fonds estiment désormais que les entreprises déploient leurs capitaux de manière trop agressive, un sentiment qui n'avait pas été observé depuis août 2005. Selon Bank of America Research, ce changement radical est explicitement lié à « l'ampleur et au financement du boom des dépenses d'investissement dans l'IA ».

    La forte augmentation des investissements destinés à développer les infrastructures d'IA a été un thème dominant dans la hausse record des actions technologiques américaines cette année. En octobre 2025, le fabricant de puces Nvidia est devenu la première entreprise au monde à atteindre une valeur de 5 000 milliards de dollars. Mais les inquiétudes croissantes quant à la viabilité de ces dépenses ont depuis provoqué un recul à Wall Street.

    L'indice boursier Nasdaq Composite, fortement orienté vers les technologies, a reculé de 1 % le 18 novembre 2025 à la mi-journée à New York et a perdu plus de 5 % ce mois-ci. Les conclusions de l'enquête de Bank of America sont particulièrement pertinentes à la veille de la publication des résultats financiers de Nvidia. Le cours de son action a chuté le 17 novembre après qu'il a été révélé que Peter Thiel a vendu toute sa participation dans l'entreprise.

    Conclusion

    En somme, l'IA générative est loin du niveau que le sensationnalisme médiatique lui prête. Pour que les systèmes d'IA atteignent un niveau de créativité équivalent à celui d'un expert, il faudrait « un système d'un genre entièrement nouveau », capable de générer des idées au-delà des modèles statistiques appris. Tant que ce changement de paradigme ne se produira pas en informatique, les humains restent la seule source de créativité de haut niveau.

    En 2024, trois scientifiques ont publié dans la revue Nature un article intitulé : « Language is primarily a tool for communication rather than thought » (Le langage est avant tout un outil de communication plutôt qu'un outil de réflexion). Co-écrit par Evelina Fedorenko (MIT), Steven T. Piantadosi (UC Berkeley) et Edward A.F. Gibson (MIT), l'article est un résumé de plusieurs décennies de recherche scientifique sur la relation entre le langage et la pensée.

    L'article poursuit deux objectifs : premièrement, démolir l'idée selon laquelle le langage est à l'origine de notre capacité à penser et à raisonner, et deuxièmement, renforcer l'idée que le langage a évolué pour devenir un outil culturel que nous utilisons pour partager nos pensées les uns avec les autres.

    Source : rapport d'étude

    Et vous ?

    Quel est votre avis sur le sujet ?
    Considérez-vous les grands modèles de langage comme des systèmes intelligents ? Pourquoi ?
    Yann LeCun affirme que ces systèmes ne peuvent même pas reproduire l'intelligence d'un chat. Qu'en pensez-vous ?
    L'industrie de l'IA est-elle en mesure d'atteindre un jour une forme d'intelligence artificielle générale ? Pourquoi ?

    Voir aussi

    « Un plafond mathématique cantonne l'IA générative à une créativité de niveau amateur », selon une étude qui précise que les productions de l'IA ne sont que des recombinaisons prévisibles de motifs existants

    Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM, il propose une piste pour créer une IA de niveau humain

    Le responsable de la division IA de Meta est d'avis que les grands modèles de langage n'atteindront pas l'intelligence humaine, il travaille sur d'autres pistes susceptibles de déboucher sur cet objectif

  6. #6
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 420
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 420
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par r0d Voir le message
    Tu as juste oublié de préciser que ton analyse ne concerne que les IA génératives. D'autres types d'IA sont capables de créativité. Je pense par exemple à Stockfish, Leela (moteurs d'échecs) ou AlphaGo (moteur de go) qui sont capables de trouver des coups non seulement qui n'ont jamais été joués, mais surtout qui sont en dehors des théories admises (donc en dehors du nuage de points). Mais leur fonctionnement est très différent des IAs génératives.
    Je parle des réseaux de neurones. Pas d'autres technos, mais j'inclus tous les réseaux de neurones. AlphaGo par exemple s'appuie sur un réseau de neurone mais il utilise aussi du parcours d'arbre, ce qui peut le faire sortir de ce qu'il a juste appris.

    Citation Envoyé par Mathis Lucas Voir le message
    Récemment, un groupe d'éminents scientifiques et leaders d'opinion dans le domaine de l'IA, dont Yoshua Bengio (également lauréat du prix Turing), l'ancien PDG de Google Eric Schmidt et Gary Marcus, célèbre sceptique de l'IA, se sont mis d'accord sur une définition pratique de l'AGI.

    Plutôt que de traiter l'intelligence comme une « capacité monolithique », ils proposent d'adopter un modèle de cognition humaine et artificielle qui reflète « une architecture complexe composée de nombreuses capacités distinctes ». Est-ce un progrès ? Selon certains observateurs, cela pourrait être considéré comme une avancée s'il éloigne l'industrie de la quête absurde de données d'entraînement supplémentaires à introduire dans les racks de serveurs.
    Ils ne se sont pas vraiment mis d'accord. Ils ont juste ressorti les hypothèses de base sur lesquelles s'appuie tout le champs de l'IA depuis ses débuts : qu'en produisant des agents artificiels bons dans X domaines il suffira de les combiner pour avoir une intelligence générale. Ce que je pense être fondamentalement erroné. Les domaines et tâches évoluant avec le temps, il serait naïf de considérer une intelligence générale comme étant la composition de certaines tâches typiques d'aujourd'hui. Cela revient encore et toujours à changer de définition régulièrement. Sinon, elle devrait avoir une infinité d'agents spécialisés pour couvrir l'infinité des tâches possibles, ce qui n'est pas faisable.

    C'est là toute la différence avec le vrai sous-domaine de l'IA générale, qui existe depuis longtemps, sur lequel presque personne ne bosse réellement (et les rares qui quittent le bateau pour travailler dessus on n'en entend plus parler), et qui vise pour le coup une intelligence indépendante de toute tâche spécifique.

    Pour résumer, ces gens se donnent juste une définition qui les arrange car c'est sur ce type de système qu'ils bossent et qu'ils vendent. L'IA générale est juste un buzzword vendeur pour eux, pas un objectif intellectuel.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  7. #7
    Membre averti
    Homme Profil pro
    Créateur de services
    Inscrit en
    Mai 2023
    Messages
    83
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Alpes Maritimes (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Créateur de services

    Informations forums :
    Inscription : Mai 2023
    Messages : 83
    Par défaut
    La différence entre les systèmes experts, qui existent depuis bien des années, et l'IA, c'est le coup de pub sur ChatGPT qui a été fait à son lancement. Il était impossible de parler d'un sujet d'informatique, voire technique, sans que quelqu'un cite cette IA.
    Bon système statistique, une IA est loin d'égaler notre cervelle composée de 100 milliards de neurones.
    Pour rigoler, combien faudrait-il de puces, d'eau et d'énergie pour égaler notre maudite cervelle ?

  8. #8
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 326
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 326
    Par défaut
    Citation Envoyé par pascalbaudry
    Pour rigoler, combien faudrait-il de puces, d'eau et d'énergie pour égaler notre maudite cervelle ?
    Aucune, car une IA est incapable de créer quoi que ce soi, à l'inverse de l'humain qui a créer l'IA.

    Si une IA répète ce que l'on sait déjà, à part nous faire gagner du temps, elle est totalement inutile pour l'évolution de l'homme.

Discussions similaires

  1. Limiter les résultats d'une requête à \today\' - n jours
    Par Eddy Duflos dans le forum Langage SQL
    Réponses: 2
    Dernier message: 19/10/2005, 09h46
  2. [SQL] Limiter la saisie dans une table
    Par dolphi dans le forum PHP & Base de données
    Réponses: 7
    Dernier message: 16/09/2005, 12h43
  3. limiter le redimensionnement d'une fenetre
    Par gaut dans le forum Windows
    Réponses: 3
    Dernier message: 20/12/2004, 12h56
  4. Réponses: 4
    Dernier message: 14/12/2004, 15h34
  5. [SQL Server] Limiter le resultat d'une requête
    Par obiwan dans le forum MS SQL Server
    Réponses: 4
    Dernier message: 02/06/2004, 12h25

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo