La bulle de l'IA est 17 fois plus importante que celle de la bulle Internet et quatre fois plus importante que celle des subprimes,
selon un analyste
Un analyste de MacroStrategy Partnership affirme que la bulle de l’intelligence artificielle serait dix-sept fois plus grosse que celle de la frénésie Internet du début des années 2000 et quatre fois plus importante que la bulle des subprimes. Selon lui, non seulement l’ampleur des investissements dans l’IA excède largement celle des bulles technologiques antérieures, mais les conditions de financement et d’optimisme exacerbées pourraient préparer le terrain à un effondrement sévère. Derrière cette provocation, une question essentielle : la révolution de l’IA repose-t-elle sur des bases solides, ou sur un mirage financier alimenté par la peur de « rater le train » ?
L’idée que nous serions au cœur d’une « bulle de l’IA » n’est pas nouvelle : même Sam Altman, PDG d'OpenAI, s'est joint au concert. Il reconnaît que certaines personnes vont perdre « des sommes colossales » lorsque la bulle de l'IA éclatera.
Jeff Bezos a fait une remarque similaire au début du mois. Selon le fondateur d'Amazon.com, les bulles se produisent lorsque les cours boursiers sont « déconnectés » du cœur de l'activité d'une entreprise et deviennent surévalués par rapport à ce qui est produit. Les valorisations augmentent alors bien au-delà de la valeur réelle de ces entreprises. Lors du célèbre krach des dot-com au début des années 2000, les entreprises basées sur Internet ont attiré des investissements, même si elles ne réalisaient pas de bénéfices et n'avaient pas de plans d'affaires viables. Lorsque la réalité s'est imposée, le marché s'est effondré, entraînant des pertes importantes pour les investisseurs et la faillite de nombreuses start-ups.
Bezos a expliqué que pendant une période de boom, toutes les expériences ou idées finissent par être financées, car les investisseurs « ont du mal » à distinguer les bonnes idées des idées médiocres dans l'effervescence générale.
Bezos a toutefois ajouté que les bulles industrielles sont « loin d'être aussi néfastes », car la technologie sous-jacente développée dans le cadre de celles-ci peut profiter à la société, même lorsque la bulle éclate. Il a donné l'exemple de la bulle biotechnologique et pharmaceutique des années 1990, qui a abouti à la création de médicaments vitaux, même si certaines entreprises ont fait faillite.
« Lorsque la poussière retombe et que l'on voit qui sont les gagnants, les sociétés bénéficient de ces inventions », a déclaré Bezos. « C'est ce qui va se passer ici aussi. C'est une réalité, les avantages de l'IA pour la société vont être gigantesques. »
La bulle de l'IA serait désormais 17 fois plus importante que la tristement célèbre bulle Internet
Selon une nouvelle évaluation réalisée par Julien Garran, analyste de recherche chez MacroStrategy Partnership, la bulle de l'IA est désormais 17 fois plus importante que la tristement célèbre bulle Internet, une première dans l'histoire des actions technologiques liée à l'engouement des investisseurs pour Internet. Pire encore, Garran estime que l'IA représente aujourd'hui plus de quatre fois la richesse piégée dans la bulle des subprimes de 2008, qui a entraîné des années de crise prolongée à travers le monde.
Dans le cas de la bulle Internet, selon le macroéconomiste David Henderson, une catastrophe économique majeure a été évitée car l'impact de la ruée vers le marché boursier sur la croissance du PIB américain a été minime. Malheureusement, ce n'est pas le cas des investissements dans l'IA, qui représentent désormais une part importante de notre croissance économique après des années d'engouement effréné.
Avant la crise financière de 2008, les investisseurs optimistes ont alimenté un marché immobilier voué à l'échec, créé par les banques pour transformer les prêts hypothécaires à haut risque en source de liquidités. À l'instar de ces prêts hypothécaires toxiques, l'IA n'a démontré que très peu de valeur à long terme, du moins à ce stade de son développement, note Garran.
Le problème avec l'IA, a-t-il déclaré, est qu'il est « impossible de créer une application ayant une valeur commerciale, car elle est soit générique [comme dans les jeux vidéo], ce qui ne se vend pas, soit issue du domaine public [comme dans les devoirs], soit soumise au droit d'auteur ».
Il ajoute que c'est également un produit difficile à commercialiser efficacement, comme le montre clairement une start-up spécialisée dans l'IA à New York, dont les publicités dans le métro sont recouvertes de graffitis hostiles. Parallèlement, selon Garran, le coût des systèmes d'IA augmente de manière exponentielle, tandis que les gains en termes de capacités diminuent rapidement.
Il est vain de tenter de prédire ce qui finira par faire éclater la bulle de l'IA, mais une chose est claire : nous avons déjà atteint un point de non-retour.
« Pour savoir si nous avons atteint une limite, nous devons observer les développeurs de LLM », explique l'analyste. « S'ils lancent un modèle qui coûte 10 fois plus cher, qui utilise probablement 20 fois plus de puissance de calcul que le précédent, et qui n'est pas beaucoup plus performant que ce qui existe déjà, alors nous avons atteint une limite. »
Sans l'IA, Garran prévient que l'économie ralentit déjà considérablement et que ce n'est qu'une question de temps avant que la croissance explosive du secteur technologique ne commence à s'inverser, comme cela s'est produit lors de la bulle Internet.
Comprendre l'un des éléments permettant de parler de bulle : les déficits wickselliens
Le « déficit wicksellien » vient du travail de Knut Wicksell, un économiste suédois du XIXᵉ siècle, considéré comme un précurseur de la macroéconomie moderne. Wicksell a développé la notion de taux d’intérêt naturel, qu’il définit comme le taux d’intérêt « d’équilibre » d’une économie — celui qui équilibre l’épargne et l’investissement, sans générer d’inflation ni de récession.
Selon Wicksell, il existe deux taux d’intérêt dans une économie :
- le taux d’intérêt du marché (celui fixé par les banques centrales ou le crédit) ;
- le taux d’intérêt naturel (celui qui reflète la rentabilité réelle des investissements productifs).
Quand ces deux taux sont égaux, l’économie est stable. Mais quand le taux du marché est inférieur au taux naturel, le crédit devient trop bon marché : les entreprises et les investisseurs empruntent massivement pour financer des projets parfois non rentables.
Ce déséquilibre crée un « déficit wicksellien », c’est-à-dire un écart entre le coût de l’argent et le rendement réel attendu. Cet écart favorise la mauvaise allocation du capital — typique des périodes de bulle.
Les analystes qui parlent de « bulle IA » disent en substance : « Nous vivons un déficit wicksellien massif. Le coût de l’argent reste inférieur à la rentabilité espérée, ce qui pousse à surinvestir dans des projets IA qui ne produiront jamais les rendements anticipés. »
C’est un concept technique, mais il décrit très bien la dynamique psychologique et monétaire d’une bulle : trop d’argent facile, trop de promesses, et pas assez de valeur réelle pour tout justifier.
L'analyse de Garran
Wicksell avait compris que le capital était alloué efficacement lorsque le coût de la dette pour l'emprunteur moyen était supérieur de 2 points de pourcentage au PIB nominal. Ce n'est que maintenant que cette situation est positive, après une décennie d'assouplissement quantitatif de la Fed qui a fait baisser les écarts de rendement des obligations d'entreprises.
Garran calcule ensuite le déficit wicksellien, qui, pour être clair, inclut non seulement les dépenses en intelligence artificielle, mais aussi l'immobilier résidentiel et commercial, les NFT et le capital-risque. C'est ainsi que l'on obtient ce graphique sur la mauvaise allocation des ressources : il comporte beaucoup de variables, mais considérez-le comme la partie mal allouée du produit intérieur brut alimentée par des taux d'intérêt artificiellement bas.
Mais Garran s'en est également pris aux grands modèles linguistiques eux-mêmes. Il met par exemple en avant une étude montrant que le taux d'achèvement des tâches dans une entreprise de logiciels variait de 1,5 % à 34 %, et que même pour les tâches achevées à 34 %, ce niveau d'achèvement ne pouvait être atteint de manière constante. Un autre graphique, précédemment diffusé par l'économiste Torsten Slok d'Apollo sur la base des données du département du Commerce, montrait que le taux d'adoption de l'IA dans les grandes entreprises était désormais en baisse. Il a également présenté certains de ses tests en conditions réelles, comme demander à un créateur d'images de créer un échiquier un coup avant que les blancs ne gagnent, ce qu'il n'a pas réussi à faire.
Selon lui, les LLM ont déjà atteint leurs limites en termes d'évolutivité. « Nous ne savons pas exactement quand les LLM pourraient atteindre un rendement décroissant, car nous ne disposons pas d'une mesure de la complexité statistique du langage. Pour savoir si nous avons atteint une limite, nous devons observer les développeurs de LLM. S'ils lancent un modèle qui coûte 10 fois plus cher, qui utilise probablement 20 fois plus de puissance de calcul que le précédent, et qui n'est pas beaucoup mieux que ce qui existe déjà, alors nous avons atteint une limite », explique-t-il
Et c'est exactement ce qui s'est passé : ChatGPT-3 a coûté 50 millions de dollars, ChatGPT-4 a coûté 500 millions de dollars et ChatGPT-5, qui a coûté 5 milliards de dollars, a été retardé et, une fois sorti, n'était pas nettement meilleur que la version précédente. Il est également facile pour les concurrents de rattraper leur retard.
« En résumé, il est impossible de créer une application ayant une valeur commerciale, car soit elle est générique (jeux, etc.) et ne se vendra pas, soit elle reprend des éléments du domaine public (devoirs), soit elle est soumise au droit d'auteur. Il est difficile de faire de la publicité efficace, les LLM coûtent exponentiellement plus cher à former à chaque génération, avec un gain de précision qui diminue rapidement. Il n'y a pas de fossé autour d'un modèle, donc le pouvoir de fixation des prix est faible. Et les personnes qui utilisent le plus les LLM les utilisent pour accéder à des ressources informatiques qui coûtent plus cher au développeur que leurs abonnements mensuels », explique-t-il.
D'après lui, non seulement une économie déjà au point mort va entrer en récession à mesure que les effets de richesse et les centres de données atteignent un plateau, mais elle va s'inverser, comme cela s'est produit lors de la bulle Internet en 2001.
« Le danger n'est pas seulement que cela nous pousse dans une zone 4 de déflation sur notre horloge d'investissement, mais aussi que cela rende difficile pour la Fed et l'administration Trump de stimuler l'économie pour en sortir. Cela signifie un effort de relance beaucoup plus long, un peu comme ce que nous avons vu au début des années 1990, après la crise des caisses d'épargne, et probablement aussi des mesures spéciales, car l'administration Trump cherche à dévaluer le dollar américain afin de ramener des emplois sur le territoire national », explique-t-il.
Les voix sceptiques : « ce n’est pas une bulle, mais une transformation »
Certaines personnalités influentes mitigent l’idée d’une bulle purement spéculative. Par exemple, l’ancien PDG de Google, Eric Schmidt, a déclaré qu’il ne pensait pas que l’IA soit une bulle, arguant que la demande en matériel, en logiciels et en utilisation justifie un nouveau paradigme industriel.
D’autres soutiennent qu’une grande part des investissements en IA est « réelle » : infrastructures, GPU, datacenters, logiciels d’optimisation, services d’industrialisation. Ces investissements peuvent avoir une utilité persistante même en cas de corrections. Par exemple, même si certains projets ne fonctionnent pas, l’accroissement de capacité de calcul ou l’amélioration des pipelines de données pourrait servir dans d’autres domaines.
De plus, l’émergence d’un cycle de croissance réelle (par exemple, l’IA appliquée en santé, énergie, biotechnologie) pourrait amortir une correction spéculative. Les bulles ne détruisent pas toujours la valeur fondamentale sous-jacente, mais peuvent purifier le marché des excès.
Un travail académique récent (“Examining the Relationship between Scientific Publishing Activity and Hype-Driven Financial Bubbles”) étudie le lien entre l’activité scientifique (publications, citations) et les bulles technologiques, comparant l’ère dot-com et l’ère IA. Les résultats montrent qu’on ne retrouve pas dans l’ère IA exactement les mêmes motifs de « bulles » qu’à la fin des années 1990, et suggèrent que l’IA pourrait être une bulle sans précédent ou ne pas en être une au sens classique.
Sources : vidéo dans le texte, MacroStrategy Partnership, Examining the Relationship between Scientific Publishing Activity and Hype-Driven Financial Bubbles: A Comparison of the Dot-Com and AI Eras
Et vous ?
Trouvez-vous le point de vue de l'analyste de MacroStrategy Partnership crédible ou pertinent ?
L’explosion des investissements en intelligence artificielle relève-t-elle d’une révolution technologique ou d’une fuite en avant spéculative ?
Si la bulle de l’IA éclate, quelles seraient les conséquences concrètes pour l’emploi dans la tech et l’écosystème des start-ups ?
L’IA est-elle condamnée à reproduire le destin des “dot-com” de 2000 — une bulle destructrice suivie d’une renaissance durable ?
Les investisseurs comprennent-ils réellement les modèles économiques des entreprises d’IA, ou misent-ils sur des symboles comme Nvidia et OpenAI sans en lire les chiffres ?
Peut-on encore parler de « bulle » quand les infrastructures construites — datacenters, GPU, réseaux — ont une valeur industrielle réelle ?








Trouvez-vous le point de vue de l'analyste de MacroStrategy Partnership crédible ou pertinent ?
Répondre avec citation


















Partager