Discussion :

Le but du quantique est de faire des calculs qui sont impossibles à effectuer avec nos machines d'aujourd'hui. Donc cela ne fera pas disparaître l'IA, mais la rendra peut-être plus rentable en étant plus économe que d'aligner des GPU toujours plus gourmands
Je sais que des embryons d'IA quantique se développent par-ci, par-là, en version Alpha ou prototype et ne tournant pas puisque nous n'avons pas l'ordi capable de le faire.
Le but de mon propos était de rendre l'IA assez performante pour se passer d'êtres humains pour la plupart des jobs poussant à une réaction indispensable de la part du politique dans une décision d'appliquer le revenu universel dans le monde entier grâce au produit de la machine. Futur encore hypothétique tant sur le plan technique, que sur le plan du modèle de société car cela remettrait en cause beaucoup de nos principes établis. (et je ne serai sans doute plus là pour le voir)
Nos députés ont eu une occasion en or de mettre ça en place dans un passé que nous ne pouvons pas avoir oublié.
Précisément au même moment, ils ont appuyé une ânerie à la place.
Les automates n'ont pas de bug, Kate Walker. Juste des coquetteries de fonctionnement. (Oscar)
Omanah https://store.steampowered.com/app/3662180/Omanah/

Mais c'est bien le sens de mon propos.

Dernière modification par Invité ; 17/12/2025 à 17h04.
Il y en aurait bien une autre qui serait la démocratie, mais ça n'a pas l'air de se dessiner ...

Évidemment, mais je pense être encore moins là pour voir la planète en Démocratie que l'IA quantique arrivant certainement avant... et c'est hors sujet.
Il y a des armées où il y plus d'officiers que d'hommes du rang.
Semble-t-il, la France ressemble un peu à ça.
Si on a un rameur sur un aviron, avec en face dix contrôleurs, le jour où le rameur ne fournit pas assez on a tendance à ajouter un contrôleur de plus, pour faire des reproches au rameur.
Quand j'entends une astuce comme ça j'ai tendance à oublier où je l'ai entendue, parfois c'est dommage.
Ça peut m'amener à raconter l'histoire à quelqu'un qui me l'a apprise, j'ai l'air fin tiens.
@ Gluups : cette compétition d'avirons, je la connais depuis le siècle dernier, avec comme compétiteur IBM, Bull et une société de service.
La suite, on la connait. Le plus drôle dans l'histoire est que ce genre de contexte existe réellement.
Enfin drôle ... Sauf pour le rameur.
Si tu as un gars qui connaît bien son boulot, qui sait combien de temps il lui faut, mais qu'on lui invente des contraintes sorties de nulle part, qu'au bout du compte les tests sont faits dans les couleurs demandées mais qu'on a manqué de temps pour développer l'import des données, je ne vois pas trop quelle impression ça peut laisser qu'un immense gâchis.
Ça donne pile ce qui m'a été décrit pendant ma formation : des données écrites avec une jolie police, pile à l'endroit demandé, mais qui ne correspondent à rien.
D'avoir rué dans les brancards au début donne la conscience tranquille, au bout du compte c'est bien le client qui décide.
***
Après il y a une variante, j'ai peur de me tromper sur qui a pris ça comme photo de profil.
Les 4 Dalton rament, Averel assis en sens inverse pour être tourné vers l'avant, avec ses rames qui cognent celles de ses "coéquipiers". Comme il est assis à l'arrière, il n'y a que Lucky Luke à le voir, et lui ça ne lui pose pas de problème.
En perspective une bonne raison de lui dire de se taire.
En fait ce n'est pas exactement le même sujet, au départ on parlait de la hiérarchie qui bloque le travail, là c'est plutôt une conception folklorique de l'esprit d'équipe.
Si je peux me permettre une morale à cette histoire, l'autorité ne permet pas de résoudre les problèmes, quand elle n'est pas de sa dépendance, sans mettre un peu d'intelligence dans sa résolution. Je veux souligner le coté bourrin que l'on retrouve souvent en entreprise, et surtout en politique, du genre yakafokon. Sans analyse du problème, il est difficile de trouver une solution adaptée.
Absolument.
C'est une analyse qui vient de l'agriculture, et si on considère l'actualité, tout le monde gagnerait à ce qu'elle y soit appliquée.
Pour revenir à l'article, mon avis est qu'ils mélangent plusieurs choses.
D'une part, la capacité à atteindre une IAG avec du LLM évolué. C'est comme parler de faire une grande roue une fois qu'on a son axe, en se disant qu'il faut juste encore quelques barres. C'est juste grotesque.
D'autre part, la capacité à atteindre l'AGI en composant plusieurs capacités. C'est la conception de base sur laquelle s'appuie le domaine de l'IA en majorité, et qui pour moi est peine perdue, car il faudrait composer avec une infinité de capacités pour que ce soit vraiment général. Et donc oui on arrive à des limites physique et autres. C'est comme croire qu'on va pouvoir avoir une IAG en mettant plein d'experts différents ensembles : passé un seuil, il faut forcément mettre du management en plus pour organiser tout ça, et on atteint déjà des entreprises bien compliquées comme ça qui pourtant n'ont rien de général. Penser qu'on pourrait suivre le même modèle de manière artificielle et faire émerger une IAG n'a pas de sens.
Ce que je n'ai pas entendu en revanche, et pour moi c'est là que l'article tombe, c'est qu'une IAG n'est juste rien de tout ça. Il s'agit d'une capacité générale dès sa conception. Pas d'un amalgame de capacités spécifiques. Une capacité générale qui fait émerger des capacités spécifiques en tant que de besoin. Et cela me semble tout à fait possible. Ça n'a juste rien à voir avec une combinaison d'éléments spécialisés. C'est un seul élément mais malléable au runtime pour s'adapter à la situation. Qui peut acquérir une capacité, quitte à devenir moins bon sur d'autres apprises auparavant car désormais moins utiles. C'est là qu'il devient possible d'avoir quelque chose de générale sans atteindre des limites phyisiques : l'IA doit pouvoir faire des choix et compromis pour identifier les capacités pertinentes à acquérir sur la base des ressources à sa disposition.
Donc je suis d'accord que l'IAG telle que pensée par beaucoup comme une aggrégation de spécialistes ne tient pas la route, mais pas que l'IAG n'est pas possible. C'est juste qu'ils ne voient pas où leur conception tombe à l'eau.
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
Andrej Karpathy, cofondateur d'OpenAI, n'est pas d'accord avec l'idée que les ingénieurs logiciels devraient cesser complètement de coder, ce qui contraste avec la vision du PDG de Nvidia, Jensen Huang
Andrej Karpathy s'est opposé à l'idée selon laquelle les ingénieurs logiciels devraient cesser complètement de coder, ce qui contraste fortement avec la vision d'avenir défendue par Jensen Huang, PDG de Nvidia. Karpathy a admis qu'il ne s'était « jamais senti aussi dépassé en tant que programmeur », mais s'est abstenu d'approuver la position radicale de Huang. Alors que Huang souhaite que les ingénieurs de Nvidia consacrent « zéro pour cent de leur temps à la syntaxe » et « cent pour cent de leur temps à la découverte de problèmes », l'expérience de Karpathy raconte une autre histoire.
L’intelligence artificielle menace-t-elle les postes de développeurs informatiques humains dans les années à venir ? Le chatbot ChatGPT d’OpenAI a par exemple réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. C’est un accomplissement parmi d’autres à mettre sur le compte de cette technologie qui ravive le débat sur la possible disparition du métier de développeur du fait de sa montée en puissance. Le PDG de Nvidia va dans le même sens dans une déclaration de 2024 : « Apprendre à programmer sera inutile à l’avenir. »
Pourtant, Andrej Karpathy s'est opposé à l'idée selon laquelle les ingénieurs logiciels devraient cesser complètement de coder, ce qui contraste fortement avec la vision d'avenir défendue par Jensen Huang, PDG de Nvidia. Andrej Karpathy, né le 23 octobre 1986, est membre fondateur du groupe de recherche sur l'intelligence artificielle OpenAI, où il est chercheur scientifique de 2015 à 2017. En juin 2017, il devient le directeur de l'IA de Tesla. Après avoir pris un congé sabbatique de plusieurs mois chez Tesla, il annonce qu'il quitte l'entreprise en juillet 2022. En février 2023, Karpathy annonce qu'il revient chez OpenAI, et il quitte à nouveau l'entreprise un an plus tard, courant février 2024. Quelques mois plus tard, en juillet, il annonce développer "Eureka Labs", un nouveau type d’école autour de l’IA.
Dans un récent article publié sur X, Karpathy a admis qu'il ne s'était « jamais senti aussi dépassé en tant que programmeur », mais s'est abstenu d'approuver la position radicale de Huang. Alors que Huang souhaite que les ingénieurs de Nvidia consacrent « zéro pour cent de leur temps à la syntaxe » et « cent pour cent de leur temps à la découverte de problèmes », l'expérience de Karpathy raconte une autre histoire. Lors de la création de son dernier projet, Nanochat, il a tout écrit à la main, car les agents IA « ne fonctionnaient tout simplement pas assez bien et n'étaient d'aucune utilité ». Le désaccord met en évidence un fossé grandissant dans la Silicon Valley quant à la mesure dans laquelle les ingénieurs devraient réellement s'appuyer sur les outils de codage IA.
Huang s'est exprimé ouvertement sur son cadre « Purpose vs Task » (objectif vs tâche), affirmant que le codage n'est qu'une tâche, tandis que la découverte et la résolution de problèmes constituent le véritable objectif d'un ingénieur. Chez Nvidia, tous les ingénieurs utilisent l'assistant de codage IA Cursor « toute la journée ». Dans un podcast, Huang a déclaré : « Rien ne me ferait plus plaisir que si aucun de nos ingénieurs ne codait du tout. »
Mais Karpathy considère que la transition est beaucoup plus compliquée. Il a décrit la nécessité de construire un modèle mental pour « des entités fondamentalement stochastiques, faillibles, incompréhensibles et changeantes qui se mêlent soudainement à ce qui était autrefois une bonne vieille ingénierie ». Son message ressemblait davantage à un avertissement qu'à un soutien : « Retroussez vos manches pour ne pas prendre de retard. »
Michael Truell, PDG de Cursor, l'outil même que Huang défend, a également fait part de ses inquiétudes. Il a déclaré que les développeurs qui font aveuglément confiance à l'IA pour écrire du code « construisent sur des bases instables ». Son analogie : construire une maison sans comprendre la plomberie. « À mesure que vous ajoutez un étage, les choses commencent à s'effondrer. »
Les promesses en matière de productivité ne se sont pas non plus concrétisées. Une étude a révélé que les assistants IA réduisaient en fait la productivité des développeurs expérimentés de 19 %, alors que les participants s'attendaient à une augmentation de 20 %. Un autre rapport a montré que la programmation affichait des économies « insignifiantes » malgré le fait qu'elle ait été l'un des premiers domaines à adopter l'IA générative.
Je ne me suis jamais senti aussi dépassé en tant que programmeur. La profession est en pleine mutation, car les contributions des programmeurs sont de plus en plus rares et espacées. J'ai le sentiment que je pourrais être 10 fois plus performant si je savais simplement assembler correctement tout ce qui est devenu disponible au cours de la dernière année, et le fait de ne pas réussir à tirer parti de cette avancée me semble clairement être un problème de compétences. Il y a une nouvelle couche d'abstraction programmable à maîtriser (en plus des couches habituelles ci-dessous) qui implique des agents, des sous-agents, leurs instructions génératives, leurs contextes, leur mémoire, leurs modes, leurs autorisations, leurs outils, leurs plugins, leurs compétences, leurs hooks, MCP, LSP, commandes slash, workflows, intégrations EDI, et la nécessité de construire un modèle mental global pour les forces et les pièges d'entités fondamentalement stochastiques, faillibles, incompréhensibles et changeantes, soudainement mêlées à ce qui était autrefois une bonne vieille ingénierie. Il est clair qu'un outil étranger puissant a été distribué, mais il n'est accompagné d'aucun manuel et chacun doit comprendre comment le tenir et le faire fonctionner, tandis que le séisme de magnitude 9 qui en résulte secoue la profession. Retroussez vos manches pour ne pas prendre de retard.Pourtant, le PDG de Google, Sundar Pichai, et le PDG d'Anthropic, Dario Amodei, ont vanté des chiffres impressionnants : l'IA écrit 30 % et 90 % du code dans leurs entreprises respectives. En effet, les agents de codage tels que Claude Code, GitHub Copilot et Cursor permettent aux utilisateurs de générer du code à partir de simples instructions en langage naturel. Cependant, malgré le battage médiatique, aucun de ces outils n'a, jusqu'à présent, été crédité comme créateur d'un logiciel prêt à l'emploi. Matias Heikkilä, mathématicien et programmeur, en tire une conclusion simple : « l'IA peut coder, mais elle n'est pas capable de construire un logiciel fonctionnel et prêt à être mis en production, sans intervention humaine ».I've never felt this much behind as a programmer. The profession is being dramatically refactored as the bits contributed by the programmer are increasingly sparse and between. I have a sense that I could be 10X more powerful if I just properly string together what has become…
— Andrej Karpathy (@karpathy) December 26, 2025
Même Boris Cherny, créateur du Claude Code d'Anthropic, reconnaît cet écart. Il a déclaré que le « vibe coding » fonctionne pour les « codes jetables et les prototypes », mais échoue lorsque les développeurs ont besoin d'un « code maintenable » où ils doivent « réfléchir à chaque ligne ». L'expérience de Karpathy suggère également que l'écart entre l'IA prête à être présentée et le code prêt à être produit reste plus important que ne le laisse entendre le battage médiatique.
Et vous ?
Pensez-vous que cette déclaration est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'avenir du développement logiciel sera-t-il fait de «vibe coding» au lieu d'une connaissance technique ? Accepter un code écrit par l'IA sans en comprendre le fonctionnement devient de plus en plus populaire
Le cofondateur d'OpenAI et inventeur du vibe-coding, Andrej Karpathy, affirme qu'il faudra une décennie avant que les agents IA ne fonctionnent réellement, et que l'AGI est encore à une décennie
« L'IA Cursor m'a dit que je devais apprendre à coder au lieu de lui demander de générer du code », rapporte un programmeur. Quand l'IA remet elle-même en question la culture du « vibe coding »
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Le PDG de Google DeepMind, Demis Hassabis, vient de lancer une « bombe » au PDG d'OpenAI, Sam Altman : la voie empruntée par ChatGPT vers la superintelligence AGI pourrait être une impasse
Demis Hassabis vient d'annoncer au monde de l'IA que la voie vers la superintelligence empruntée par ChatGPT pourrait être une impasse. Le PDG de Google DeepMind affirme que les grands modèles de langage (LLM), la technologie à la base des produits phares d'OpenAI, ne peuvent pas aboutir à de véritables percées scientifiques car ils ne disposent pas de ce qu'il appelle « un modèle de monde ». C'est une critique directe de la stratégie de développement de Sam Altman. Alors qu'OpenAI a misé des milliards pour rendre les LLM plus grands et plus rapides, Hassabis affirme que cette approche se heurte à un obstacle fondamental.
Les systèmes d'IA actuels se heurtent à des limites majeures dans l'automatisation du travail. Pour certains, cela est lié à leur incapacité à apprendre en continu comme le font les humains. Yann LeCun, responsable de l'IA chez Meta, a déclaré que les grands modèles de langage (LLM) actuels n'atteindront pas l'intelligence humaine et ne conduiront pas l'intelligence artificielle générale (AGI). Leur incapacité à construire un contexte, apprendre à partir de retours d'information ou s'améliorer au fil du temps comme le font les employés humains remettent en causes les discours enthousiastes selon lesquels l'AGI arrivera à la fin de la décennie, voire plus tôt.
En effet, d’un côté, des figures comme Sam Altman, Elon Musk ou Mark Zuckerberg annoncent une AGI d’ici quelques années, en s’appuyant sur la puissance croissante des modèles et des investissements massifs. De l’autre, des voix plus techniques comme Dwarkesh Patel, Satya Nadella ou Yann LeCun rappellent une réalité plus brute : « Les modèles actuels, aussi impressionnants soient-ils, n’apprennent pas comme les humains. Ils ne comprennent pas, n’apprennent pas par expérience, ne généralisent pas bien. Et tant qu’ils n’auront pas surmonté ce goulot d’étranglement de l’apprentissage continu, l’AGI restera un objectif, pas un fait ».
Récemment, Demis Hassabis a lancé un avertissement similaire. Demis Hassabis, né le 27 juillet 1976, est un chercheur et entrepreneur britannique spécialisé dans l'intelligence artificielle (IA). Il est PDG et cofondateur de Google DeepMind et d'Isomorphic Labs, ainsi que conseiller du gouvernement britannique en matière d'IA. En 2024, Hassabis et John M. Jumper ont reçu conjointement le prix Nobel de chimie pour leurs contributions à la recherche en IA dans le domaine de la prédiction de la structure des protéines.
Demis Hassabis vient d'annoncer au monde de l'IA que la voie vers la superintelligence empruntée par ChatGPT pourrait être une impasse. Le PDG de Google DeepMind, dans un podcast « The Tech Download », affirme que les grands modèles de langage (LLM), la technologie à la base des produits phares d'OpenAI, ne peuvent pas aboutir à de véritables percées scientifiques car ils ne disposent pas de ce qu'il appelle « un modèle de monde ».
C'est une critique directe de la stratégie de développement de Sam Altman. Alors qu'OpenAI a misé des milliards pour rendre les LLM plus grands et plus rapides, Hassabis affirme que cette approche se heurte à un obstacle fondamental. « Les grands modèles de langage actuels sont phénoménaux en matière de reconnaissance de formes », a-t-il expliqué dans « The Tech Download ». « Mais ils ne comprennent pas vraiment la causalité. Ils ne savent pas vraiment pourquoi A mène à B. Ils se contentent de prédire le prochain token en se basant sur des corrélations statistiques. »
Selon Hassabis, une véritable invention scientifique nécessite quelque chose de plus profond : la capacité à mener des expériences de pensée, à simuler la physique avec précision et à raisonner à partir des principes fondamentaux. Cela nécessite un modèle de monde, c'est-à-dire un moteur de simulation interne qui comprend le fonctionnement réel de la réalité, et pas seulement la façon dont les mots s'enchaînent généralement.
DeepMind est déjà en train de le construire. Son système Genie 3, lancé en août dernier, génère des environnements 3D interactifs à partir de texte. SIMA 2 forme des agents IA à l'intérieur de ces mondes simulés. Les premières recherches montrent que ces approches hybrides surpassent les LLM purs de 20 à 30 % dans les tâches de raisonnement. Plus important encore, elles n'hallucinent pas la physique de base comme le fait parfois ChatGPT.
Pourquoi l'attaque de Demis Hassabis contre OpenAI a un impact différent aujourd'hui ?
Le timing fait que cela dépasse le cadre d'un débat académique. Le lancement de Gemini 3.0 par Google en novembre a déclenché ce qu'Altman a appelé un « code rouge » au sein d'OpenAI, un recentrage d'urgence après que ChatGPT a commencé à perdre du terrain. Hassabis a essentiellement confirmé en janvier que Google avait provoqué cette panique. Parallèlement, Llama 4 de Meta a connu un échec retentissant en avril, accusé d'avoir truqué les benchmarks. OpenAI n'a pas proposé de modèle révolutionnaire depuis GPT-4.
Le discours de l'industrie est en train de passer de « la taille résout tout » à « nous avons peut-être besoin d'une architecture complètement différente ». Hassabis estime que l'AGI est encore à 5-10 ans et nécessite ce qu'il appelle « deux avancées de l'ampleur d'AlphaGo ». Il précise clairement que l'une d'entre elles ne consiste pas seulement à créer des modèles de langage plus grands. Il s'agit d'enseigner à l'IA comment le monde fonctionne réellement, ce que le programme actuel d'OpenAI ne prévoit pas.
En outre, cette déclaration intervient après qu'il a mis en garde contre le caractère non viable des valorisations actuelles des start-ups spécialisées dans l'IA, nombreuses étant celles qui lèvent des milliards avant même de lancer leurs produits. Selon lui, cette tendance au financement spéculatif révèle les failles du modèle de valorisation actuel et laisse présager une potentielle correction du marché.
Cependant, il avait déclaré que la mise à l'échelle des systèmes actuels devait être poussée au maximum, la qualifiant de voie critique vers l'intelligence artificielle générale (AGI). « Nous devons pousser au maximum l'évolutivité des systèmes actuels, car au minimum, elle constituera un élément clé du système AGI final. Elle pourrait même représenter l'intégralité du système AGI », a déclaré Demis Hassabis.
Les dernières déclarations d'Hassabis semblent montrer un changement d'avis. Il reste à prouver que les modèles de monde tiendront cette promesse, mais Hassabis a rendu son pari public et positionne Google comme l'entreprise qui a été la première à voir cette limite.
Et vous ?
Pensez-vous que cette déclaration est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Trois ans après avoir été pris au dépourvu par ChatGPT, Gemini est-il en train de gagner ? Des benchmarks et des chercheurs suggèrent que Gemini a ce qu'il faut pour détrôner OpenAI et tous ses concurrents
Alors que les progrès des LLM ralentissent, les entreprises d'IA investissent massivement dans les « modèles de monde » capables de comprendre les environnements humains et simuler la réalité au-delà du texte
L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI) : Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Il n’y a absolument rien qui puisse être qualifié de bombe, car il a été démontré depuis longtemps que les modèles de langage basés sur les Transformers ne peuvent pas atteindre l’AGI.
Et il est tout aussi évident qu'ils sont au courant chez OpenAI.
Partager