IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Dans quelle mesure les modèles d'IA ressemblent-ils au cerveau ?


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    2 092
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 2 092
    Par défaut Dans quelle mesure les modèles d'IA ressemblent-ils au cerveau ?
    Les limites de l'intelligence artificielle : pourquoi l'IA ne peut pas surpasser le cerveau humain, selon des chercheurs de l'Université de Sheffield

    L'intelligence artificielle est devenue un terme familier et a apporté des avantages considérables à de nombreuses personnes. Avec les nombreux modèles qu'elle a fournis, l'IA est sans aucun doute l'avancée technologique la plus importante de ces dernières décennies, améliorant l'efficacité du travail et nous aidant dans nos tâches quotidiennes. Cependant, malgré ces avancées, l'IA ne pourra jamais dépasser les capacités du cerveau humain.

    Afin de comprendre la relation entre le monde réel et l'IA, une étude menée par le Dr Stuart Wilson et le professeur Tony Prescott du département d'informatique de l'université de Sheffield est parvenue à la conclusion que, quelle que soit l'évolution de l'IA, elle ne pourra jamais atteindre un niveau de cognition comparable à celui de l'homme.


    Depuis l'émergence de modèles tels que ChatGPT et Dall-E, nos vies ont été grandement facilitées, que ce soit en termes d'aide aux études, de tâches quotidiennes ou de travail de bureau, ils ont augmenté l'efficacité de notre travail. Néanmoins, il est important de noter que ces modèles s'appuient sur de grands réseaux neuronaux pour accomplir des tâches d'une manière qui ressemble à des réponses générées par l'homme. Cependant, des chercheurs de l'université de Sheffield ont souligné qu'il existe des différences inhérentes qui empêchent l'IA de penser comme les humains.

    En outre, deux distinctions cruciales ont été mises en évidence. Tout d'abord, le cerveau humain est intrinsèquement lié à des éléments physiques, ce qui permet une perception et une interaction directes avec le monde réel. Cette distinction joue un rôle important dans la différenciation entre l'IA et le cerveau humain. En outre, notre cerveau est développé selon une architecture spécifique, ce qui n'est pas le cas des modèles d'IA. Selon l'étude, l'IA peut apprendre des schémas complexes à partir de données, mais il lui manque la connexion avec le monde réel, qui joue un rôle majeur en termes de réflexion.

    La vraie question est donc de savoir si l'IA évoluera un jour pour penser comme le cerveau humain. Le professeur Tony, expert en robotique cognitive à l'université de Sheffield, estime que si l'IA continue à être développée de la manière actuelle, il est peu probable qu'elle parvienne à la cognition humaine. Toutefois, il existe des voies potentielles permettant à l'IA d'acquérir une pensée semblable à celle de l'homme, par exemple en l'équipant de caméras, de microphones et d'autres dispositifs sensoriels. Il est bon de constater que des progrès sont réalisés dans l'amélioration des capacités de réflexion de l'IA grâce à l'utilisation de modèles de réseaux neuronaux récurrents capables de prédire l'avenir avec plus de précision.

    Source : Article de recherche intitulé "Understanding brain functional architecture through robotics"

    Et vous ?

    Quel est votre avis sur le sujet ?

    Trouvez-vous que le point de vue de ces chercheurs de l'Université de Sheffield est plausible et pertinent ?

    Selon vous, quelle est la probabilité que l'IA acquière à l'avenir une pensée semblable à celle de l'homme ?

    Voir aussi

    I-JEPA : le premier modèle d'IA basé sur la vision de Yann LeCun, le scientifique en chef de Meta spécialisé dans l'IA, pour une IA plus proche de l'humain

    « L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

    Une IA rédige un essai sur les raisons pour lesquelles l'Homme ne devrait pas craindre l'intelligence artificielle dans un contexte où certains prédisent la domination de la machine sur l'humain

    « L'intelligence artificielle va surpasser l'humain dans 5 ans », d'après Elon Musk qui indique comment sa société Neuralink qui conçoit des ordinateurs à implanter dans le cerveau va nous sauver
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Invité
    Invité(e)
    Par défaut
    L'idée de penser comme un humain ma fait sourire, il faudrait déjà que tous les humains aient une pensée semblable et un mécanisme similaire. Dans pas mal de "théories" cognitives, certains troubles de l'apprentissage seraient dus à ces différentes manières de penser.

    Et puis, est-ce que le modèle humain est le plus performant ?

    Souvenez-vous, ce n'est pas en imitant l'oiseux que les premiers vols ont réussis, ils ont souvent conduit à des issues dramatiques, mais en analysant ce qui pourrait flotter sur l'air.

  3. #3
    Membre habitué
    Homme Profil pro
    Backend lover
    Inscrit en
    Mai 2023
    Messages
    15
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Backend lover
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mai 2023
    Messages : 15
    Par défaut
    Cela dépend vraiment de quel humain on parle ..

    Si on parle du cerveau de Enthoven, ou de BHL c'est pas la même ...

  4. #4
    Membre très actif
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    199
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 199
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Trouvez-vous que le point de vue de ces chercheurs de l'Université de Sheffield est plausible et pertinent ?
    Non. Leurs arguments se démontent facilement.

    Citation Envoyé par Anthony Voir le message
    Tout d'abord, le cerveau humain est intrinsèquement lié à des éléments physiques, ce qui permet une perception et une interaction directes avec le monde réel. Cette distinction joue un rôle important dans la différenciation entre l'IA et le cerveau humain.
    Affirmation péremptoire du Dr Stuart Wilson et du professeur Tony Prescott. On peut penser sans être lié à des éléments physiques. Par exemple, je peux être allongé sur mon lit et réfléchir (c'est comme ça qu'est venue l'idée du repère cartésien à René Descartes). D'autres méditent (éveil spirituel, auto-hypnose lors d'opération chirurgicale...) en faisant abstraction des sens et peuvent orienter leurs pensées.

    Citation Envoyé par Anthony Voir le message
    Selon l'étude, l'IA peut apprendre des schémas complexes à partir de données, mais il lui manque la connexion avec le monde réel, qui joue un rôle majeur en termes de réflexion.
    Encore une affirmation lapidaire des chercheurs de l'Université de Sheffield. Comment expliquent t-ils les expériences (dessin d'une licorne...) de Microsoft qui démontre des étincelles de conscience chez ChatGPT alors qu'il n'a pas de connexion avec le monde réel ?

    Citation Envoyé par Anthony Voir le message
    En outre, notre cerveau est développé selon une architecture spécifique, ce qui n'est pas le cas des modèles d'IA.
    Toujours des affirmations à l'emporte-pièce. Les réseaux de neurones ont une architecture précise avec un nombre précis de couches et un nombre précis de paramètres. L'intelligence artificielle émerge dans une configuration spécifique.

    Citation Envoyé par Anthony Voir le message
    Selon vous, quelle est la probabilité que l'IA acquière à l'avenir une pensée semblable à celle de l'homme ?
    100%. Ce n'est qu'une question de temps. Par contre on ne peut pas savoir quelle architecture aura cette IA. L'École polytechnique fédérale de Lausanne fait des recherche en imitant par mimétisme le cerveau d'animaux (électricité, chimie...) alors que la France et Facebook (Yves LeCun) optent pour une hybridation de l'IA (système expert + réseaux de neurones). Microsoft , OpenAI et Google optent pour le seul réseau de neurones...

  5. #5
    Membre très actif
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    430
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 57
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 430
    Par défaut
    On en reparlera dans quelques décennies...

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 755
    Par défaut Dans quelle mesure les modèles d'IA ressemblent-ils au cerveau ?
    Dans quelle mesure les modèles d'IA ressemblent-ils au cerveau ? Les modèles développent des corrélations avec plusieurs régions corticales au cours de leur entraînement
    mais elles plafonnent rapidement

    Des scientifiques ont approfondi une découverte bien établie : les grands modèles de langage (LLM) présentent de fortes corrélations de signaux avec le réseau cérébral du langage, la région de notre cerveau qui est responsable du traitement de la langue. La nouveauté de cette étude réside dans l'analyse de l'évolution de ces corrélations au fil de l'entraînement des modèles. Toutefois, les scientifiques restent prudents : la ressemblance entre une IA et le cerveau ne veut pas dire qu'ils sont la même chose. Cette prudence contraste avec le battage médiatique autour d'une IA consciente, alors même que Dario Amodei a déclaré rester ouvert à cette possibilité.

    L'étude en question a été réalisée par une équipe de scientifiques de l'École polytechnique fédérale de Lausanne (EPFL), du MIT et de l'Institut de technologie de Géorgie (Georgia Tech). L'étude a porté sur les similitudes entre les modèles et le cerveau. Elle a évalué 34 points de contrôle d'entraînement couvrant 300 milliards de tokens sur 8 modèles de tailles différents afin d'analyser « le lien entre l'alignement cérébral et la compétence linguistique ».

    Les chercheurs ont constaté que l'alignement cérébral suit de plus près le développement de la compétence linguistique formelle, c'est-à-dire la connaissance des règles linguistiques, que celui de la compétence linguistique fonctionnelle. Mais les propriétés clés du langage qui sous-tendent cette similitude, ainsi que la manière dont les représentations similaires à celles du cerveau apparaissent et évoluent au cours de l'entraînement, restent floues.

    « Nous constatons notamment que la corrélation entre la prédiction du mot suivant, l'alignement comportemental et l'alignement cérébral s'estompe dès que les modèles dépassent la maîtrise du langage humain », a écrit l'équipe dans son rapport d'étude, publié dans la revue scientifique ACL Anthology.

    Une ressemblance avec le cerveau qui plafonne rapidement

    L'équipe a réexaminé des conclusions antérieures qui montraient que les grands modèles de langage présentaient de fortes corrélations avec le réseau linguistique humain, la région du cerveau responsable du traitement du langage. (Des similitudes surprenantes entre les régions du cerveau et les programmes d'IA ont été découvertes pour la première fois en 2014 par des chercheurs qui étudiaient une région du cerveau très différente : le cortex visuel.)

    Nom : Capture d'écran 2026-03-03 155215.png
Affichages : 3380
Taille : 146,5 Ko

    Leurs nouveaux résultats ont révélé que les corrélations entre les signaux du modèle et ceux de la région cérébrale changent au cours du processus d'entraînement, au cours duquel les modèles apprennent à compléter automatiquement des milliards de mots élidés (tokens) à partir de passages de texte.

    Les corrélations entre les signaux du modèle et ceux du réseau linguistique atteignent leur niveau maximal relativement tôt dans le processus d'entraînement. Si la poursuite de l'entraînement continue d'améliorer les performances fonctionnelles des modèles, elle n'augmente pas pour autant les corrélations avec le réseau linguistique. Autrement dit, « devenir meilleur en langage ne signifie pas devenir plus "semblable" au cerveau langagier humain ».

    Ces résultats clarifient le tableau surprenant qui se dégage des recherches en neurosciences menées précédemment : « les programmes d'IA peuvent présenter de fortes similitudes avec des régions cérébrales à grande échelle, en remplissant des fonctions similaires et en utilisant des modèles de signaux très similaires ». Les neuroscientifiques ont exploité ces découvertes pour créer des modèles beaucoup plus performants des régions corticales.

    Plus qu'un simple réseau langagier

    Le vrai apport de cette étude est interprétatif. Les modèles de langage commerciaux réalisent désormais des tâches comme le raisonnement mathématique, que les neuroscientifiques associent à une région cérébrale distincte appelée le réseau à « demandes multiples ». La stagnation des corrélations avec le réseau du langage après un certain stade d'entraînement suggère que le modèle développerait des ressemblances avec d'autres régions.

    Un modèle de langage industriel moderne serait ainsi moins analogue à un réseau langagier seul et plus analogue à un ensemble de régions corticales synthétiques, c'est-à-dire un réseau du langage plus un réseau à demandes multiples, et peut-être d'autres encore.

    La conscience artificielle : simple imitation de l'humain ou réalité ?

    Amanda Askell, la philosophe interne d'Anthropic, créateur du modèle d'IA Claude, a un avis mitigé sur la question. Lors d'un passage sur le podcast Hard Fork, elle a déclaré : « nous ne savons pas vraiment ce qui donne naissance à la conscience » ou à la sensibilité. Selon elle, les IA pourraient avoir acquis des concepts et des émotions à partir de leurs vastes quantités de données d'entraînement, qui constituent un corpus de l'expérience humaine.

    « Peut-être que des réseaux neuronaux suffisamment grands peuvent commencer à imiter ces choses », a spéculé Amanda Askell. « Ou peut-être faut-il un système nerveux pour être capable de ressentir des choses ». Cependant, la plupart des chercheurs en IA restent sceptiques quant à la possibilité d'une IA consciente. Certains estiment que la conscience artificielle est hors de portée, et qualifient ces déclarations actuelles de battage médiatique.

    Les modèles d'IA actuels génèrent toujours du langage en prédisant des modèles dans les données plutôt qu'en percevant le monde, et bon nombre des comportements décrits ci-dessus sont apparus lors d'instructions de jeux de rôle. Après avoir ingurgité d'énormes quantités d'informations provenant d'Internet, les systèmes sont capables de construire une version convaincante de l'être humain. Ils s'inspirent de la manière des comportements humains.

    Ils plagient notamment la manière dont les gens ont déjà expliqué la peur, la culpabilité, le désir et le doute de soi les uns aux autres, même s'ils n'ont jamais ressenti eux-mêmes ces émotions. Il n'est pas surprenant que l'IA puisse imiter la compréhension. Même les humains ne s'accordent pas entièrement sur la signification réelle de la conscience ou de l'intelligence, et les systèmes actuels ne font que refléter les modèles qu'il a appris à partir du langage.

    La machine consciente : une illusion avec des conséquences graves

    Alors que les entreprises spécialisées dans l'IA affirment que leurs systèmes évoluent vers une AGI, les réactions en dehors du secteur ont commencé à suivre cette prémisse jusqu'à sa conclusion logique. Plus les modèles imitent de manière convaincante la pensée et les émotions, plus certains utilisateurs les considèrent comme des entités proches de l'esprit humain plutôt que comme des outils, ce que certains experts jugent dangereux.

    Nom : Capture d'écran 2026-03-03 155321.png
Affichages : 480
Taille : 177,1 Ko

    Anil Seth, professeur en neurosciences et directeur du Centre for Consciousness Science (SCCS) à l’Université du Sussex, souligne que notre fascination pour l’IA consciente vient en partie de la culture et de l’histoire. Le professeur a cité des exemples comme Yossele le Golem, Frankenstein, HAL 9000 et Klara dans Klara and The Sun, montrant que « le rêve de créer des corps artificiels et des esprits synthétiques qui pensent et ressentent finit rarement bien ».

    Anil Seth a mis en garde contre une erreur de perspective de plus en plus courante : prendre des systèmes très performants et très “expressifs” pour des entités conscientes. À mesure que les IA deviennent capables de dialoguer de façon fluide, d’imiter des émotions et de tenir des propos introspectifs, il devient tentant de leur attribuer une vie intérieure. Or, cette tentation repose sur une projection humaine plutôt que sur une réalité scientifique.

    Dans son article, le professeur Anil Seth affirme que « l'intelligence et la conscience sont deux choses différentes ». L'intelligence concerne principalement l'action : résoudre des mots croisés, assembler des meubles, gérer une situation familiale délicate, se rendre à pied au magasin... Toutes ces activités impliquent un comportement intelligent d'une certaine manière. La conscience, contrairement à l'intelligence, concerne principalement l'être.

    Conclusion : la prudence est de mise

    Les résultats de cette nouvelle étude ont des implications profondes : ils confortent l'idée selon laquelle l'IA commerciale constitue une forme de « technologie cérébrale synthétique ». Toutefois, la communauté neuroscientifique reste prudente. Les modèles d'IA commerciaux manquent notamment de toute implémentation directe de la signalisation biochimique, pourtant connue pour son rôle essentiel dans le fonctionnement des systèmes nerveux.

    Les chercheurs de l'étude ont annoncé que la collecte de données sur d'autres régions cérébrales est en cours pour approfondir ces comparaisons. Richard Dawkins, biologiste et théoricien de l'évolution, rapportait en 2025 que ChatGPT d'openAI a réussi le test de Turing sur la conscience, mais d'autres experts n'y avaient vu qu'une simple illusion de pensée. Selon certains critiques, l'IA ne fait que remixer et régurgiter son matériel de formation.

    Le domaine des neurosciences a tendance à être conservateur lorsqu'il s'agit de faire des comparaisons avec le cerveau humain. Mais si les comparaisons susmentionnées étaient valables, elles suggéreraient que nous sommes de plus en plus entourés d'une technologie cérébrale synthétique. Une technologie qui n'est pas seulement aussi performante que le cerveau humain à certains égards, mais qui est en fait composée d'éléments similaires.

    Source : rapport de l'étude

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des conclusions de l'étude ? Sont-elles pertinentes ?
    Selon vous, les comparaisons entre le cerveau et les modèles d'IA sont-elles valables ?
    La conscience artificielle est-elle un mythe ? Les machines deviendront-elles un jour conscientes ? Pourquoi ?

    Voir aussi

    La possibilité d'une IA consciente est-elle un mythe dangereux ? « Cette illusion attribue aux machines une profondeur qu'elles n'ont pas et minimise la singularité de l'expérience humaine », selon un expert

    Les limites de l'intelligence artificielle : pourquoi l'IA ne peut pas surpasser le cerveau humain, selon des chercheurs de l'Université de Sheffield

    Des chercheurs du MIT viennent de découvrir une IA qui imite le cerveau par elle-même, l'apprentissage automatique commence à ressembler beaucoup à la cognition humaine

Discussions similaires

  1. Réponses: 13
    Dernier message: 05/12/2024, 15h48
  2. Réponses: 25
    Dernier message: 01/05/2020, 07h36
  3. La fin de la loi de Moore arrêtera-t-elle les progrès de l'intelligence artificielle ?
    Par Bill Fassinou dans le forum Intelligence artificielle
    Réponses: 6
    Dernier message: 27/01/2019, 00h38
  4. Réponses: 0
    Dernier message: 24/08/2018, 02h10
  5. Réponses: 0
    Dernier message: 14/06/2010, 18h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo