IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les investissements dans le secteur de l'IA aux États-Unis continuent de battre des records


Sujet :

Intelligence artificielle

  1. #421
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 014
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 014
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Existe-t-il un seuil acceptable de surveillance de masse dans l'espace public, ou tout système de traçage des déplacements constitue-t-il intrinsèquement une atteinte aux libertés fondamentales ?
    Il ne faut pas donner d'outil trop puissant au pouvoir, parce qu'on ne sait pas qui sera au pouvoir dans le futur.
    Une équipe dangereuse pourrait être au sommet (comme l'équipe de Macron en ce moment en France).

    En France les statistiques ethniques sont interdites et c'est en parti pour les mêmes raisons.

    Citation Envoyé par Stéphane le calme Voir le message
    Comment les professionnels de l'IT qui conçoivent ou déploient ces systèmes devraient-ils penser leur responsabilité éthique face à des usages qu'ils ne contrôlent pas ?
    Il y a le prêt de la maison à rembourser donc il faut un revenu.
    Il n'y a pas de question d'éthique, tu travailles là où t'as réussi à te faire embaucher et tu fais ce qu'on te dit.

    Citation Envoyé par Artaeus Voir le message
    Pendant ce temps, absolument rien en Europe ...
    La lutte contre "Chat Control" fonctionne bien. (le texte ne passe pas)
    Alors que les prétextes utilisés sont excellents, par exemple "le texte vise à contrer la prolifération d’images et vidéos d’abus sexuels sur des enfants, et à lutter contre la pédocriminalité".

    Si un gros réseau de production de contenus pédophile (ceux qui sont payés pour capturer des enfants, ceux qui paient quelqu'un pour capturer des enfants, ceux qui produisent du contenu, ceux qui achètent le contenu) étaient démantelé, ça aurait un impact énorme et là ça deviendrait difficile de stopper "Chat Control" parce que l'UE dirait qu'avec cet outils on pourrait stopper d'autres gros réseaux.

  2. #422
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 903
    Par défaut L’IA n’a quasiment rien apporté à la croissance économique américaine l’an dernier, selon Goldman Sachs
    700 milliards de dollars investis et pourtant l'IA n’a quasiment rien apporté à la croissance économique américaine l’an dernier, selon Goldman Sachs
    l'IA enrichit Taiwan et la Corée du Sud, pas les États-Unis

    Des centaines de milliards de dollars investis, des data centers qui poussent comme des champignons, des capitalisations boursières stratosphériques… et une contribution au PIB américain proche de zéro. C'est le verdict sans appel que vient de rendre Jan Hatzius, économiste en chef de Goldman Sachs, douchant l'enthousiasme d'une industrie qui avait fait de l'IA son argument de vente macroéconomique numéro un.

    Pendant toute l'année 2025, un discours dominant a structuré les débats économiques autour de l'intelligence artificielle : les investissements massifs des géants technologiques — Meta, Amazon, Google, Microsoft, OpenAI — étaient présentés comme un moteur de croissance exceptionnel pour l'économie américaine. Donald Trump lui-même s'en est emparé, arguant sur Truth Social en novembre dernier que ces investissements faisaient des États-Unis « l'économie la plus dynamique du monde », et s'en servant pour justifier une régulation fédérale unique plutôt qu'un patchwork de réglementations étatiques.

    Des économistes de renom avaient alimenté ce récit avec des chiffres apparemment solides. Jason Furman, professeur à Harvard, estimait que les investissements en équipements de traitement de l'information et en logiciels avaient représenté 92% de la croissance du PIB au premier semestre 2025. La Fed de Saint-Louis calculait de son côté que les investissements liés à l'IA avaient contribué à hauteur de 39% à la croissance du troisième trimestre. Des données impressionnantes, relayées abondamment par la presse financière et les relations publiques des grandes entreprises technologiques.

    Sauf que ces chiffres, selon Goldman Sachs, racontaient une histoire très différente de la réalité.

    Nom : prof.png
Affichages : 12576
Taille : 88,4 Ko

    « Basically zero » : deux mots qui font mal

    C'est lors d'une intervention devant l'Atlantic Council que Jan Hatzius a lâché la formule qui a immédiatement secoué les milieux financiers : les dépenses d'investissement liées à l'IA ont eu une contribution « basically zero » — pratiquement nulle — à la croissance du PIB américain en 2025. Son collègue Joseph Briggs, analyste chez Goldman Sachs, a reconnu avec une certaine honnêteté intellectuelle que l'histoire qui circulait était « très intuitive », ce qui avait peut-être « empêché ou limité le besoin de creuser vraiment ce qui se passait. »

    Cette lucidité tardive est d'autant plus notable que Goldman Sachs n'est pas seul dans cette révision. Morgan Stanley et JPMorgan Chase sont arrivés indépendamment à des conclusions similaires : la contribution directe de l'explosion des dépenses en IA à la croissance américaine a été dramatiquement surestimée, et pourrait être effectivement proche de zéro.


    Le piège des importations : comment Taiwan et la Corée du Sud récupèrent la mise

    L'explication technique est à la fois simple et dévastatrice pour le narratif dominant. Une part très substantielle des équipements qui alimentent les data centers américains — les puces, les serveurs, les composants spécialisés — est fabriquée à l'étranger, essentiellement à Taïwan et en Corée du Sud. Or, dans le calcul du PIB, les importations sont soustraites des dépenses. Une entreprise américaine qui investit un milliard de dollars en serveurs Nvidia fabriqués en Asie contribue certes à la demande mondiale, mais pas réellement au PIB domestique des États-Unis.

    « Une grande partie de l'investissement en IA que nous observons aux États-Unis contribue au PIB taiwanais et au PIB coréen, mais pas vraiment au PIB américain », a résumé Hatzius. Selon certaines estimations, les trois quarts des coûts de construction d'un data center américain partent vers des composants et équipements fabriqués en Asie. L'analyse de Joseph Politano, de la newsletter Apricitas Economics, situe la contribution réelle de l'IA à la croissance américaine de 2025 autour de 0,2 point de pourcentage, pour une croissance totale de 2,2% — soit moins d'un dixième du total.

    Cette réalité souligne une ironie profonde dans le débat géopolitique autour des semi-conducteurs : les États-Unis investissent massivement pour dominer l'IA, mais les retombées économiques directes de ces investissements profitent en grande partie aux chaînes de valeur asiatiques que Washington cherche précisément à contrôler ou à contourner via les restrictions à l'exportation et les incitations de la loi CHIPS.

    Nom : trump.png
Affichages : 3332
Taille : 45,1 Ko

    Le problème de la mesure : comment quantifier l'invisible ?

    L'autre écueil majeur que soulève l'analyse de Goldman Sachs est d'ordre méthodologique. Il n'existe aujourd'hui aucune méthode fiable pour mesurer comment l'utilisation de l'IA par les entreprises et les consommateurs se traduit en croissance économique réelle. Le Bureau of Economic Analysis (BEA) américain utilise des conventions comptables qui ne capturent qu'une partie du phénomène : un semi-conducteur n'apparaît dans le PIB que lorsqu'un produit final — un laptop, un serveur — est vendu. Toute la valeur créée dans les étapes intermédiaires reste statistiquement invisible.

    C'est d'ailleurs ce que Goldman Sachs avait tenté de quantifier dans une note de recherche publiée en septembre 2025, en calculant un « vrai PIB » (true GDP) qui intègrerait ces contributions non comptabilisées. Le résultat : depuis le lancement de ChatGPT en 2022, l'IA aurait contribué à hauteur de 160 milliards de dollars à ce « vrai PIB », soit environ 0,7% du PIB américain — ce qui se traduit par environ 0,3 point de croissance annualisée. Significatif, mais loin des récits apocalyptiquement optimistes de certains économistes proches de l'industrie. Et la contribution officiellement comptabilisée dans le PIB mesuré ? Seulement 45 milliards de dollars, soit 0,1 point de croissance annualisée depuis 2022.

    La productivité, l'absente du festin

    Au-delà de la question comptable, il y a un problème encore plus fondamental : l'IA ne semble pas, pour l'instant, générer les gains de productivité que ses promoteurs promettaient. Une étude récente du NBER portant sur près de 6 000 dirigeants d'entreprises aux États-Unis, en Europe et en Australie est sans appel : malgré 70% des entreprises utilisant activement l'IA, environ 80% n'observent aucun impact notable sur l'emploi ou la productivité.

    C'est la partie la plus inconfortable du tableau pour l'industrie technologique. Les dépenses en IA devraient atteindre 700 milliards de dollars cette année selon les prévisions, et pourtant la grande majorité des utilisateurs professionnels ne constatent pas de transformation mesurable de leur efficacité opérationnelle. Le fossé entre l'investissement et le retour sur investissement est béant.

    Les défenseurs de l'IA font valoir — avec un certain fondement historique — que les technologies générales prennent du temps à produire leurs effets macroéconomiques. Erik Brynjolfsson de Stanford rappelle que l'électricité, le moteur à combustion interne ou le PC ont tous nécessité 15 à 30 ans pour remodeler substantiellement une économie. Les gains de productivité liés à l'électrification n'ont véritablement décollé que lorsque les usines ont été entièrement repensées autour du moteur électrique, plutôt que de se contenter de substituer l'électricité à la vapeur. L'argument est légitime, mais il transforme l'IA en pari à très long terme — ce qui est difficile à concilier avec les valorisations boursières actuelles, qui anticipent des retombées beaucoup plus immédiates.

    L'IA agentique pas encore au point

    AWS paralysé 13 heures par son propre outil d'IA agentique : Kiro a supprimé un environnement AWS entier pour corriger un bug

    Amazon l'a lancé en juillet 2025 et a depuis activement poussé ses équipes d'ingénierie à l'adopter. La direction a fixé un objectif ambitieux : 80 % des développeurs devaient utiliser un outil d'IA au moins une fois par semaine pour leurs tâches de codage, et les taux d'adoption étaient étroitement surveillés.

    C'est là que réside peut-être le vrai problème de fond. Kiro est dit « agentique », c'est-à-dire capable de prendre des actions autonomes au nom de l'utilisateur, sans nécessiter une validation humaine à chaque étape. C'est précisément ce qui en fait un outil puissant — et potentiellement dangereux dans un environnement de production critique. La différence entre un copilote qui suggère du code et un agent qui l'exécute directement est un gouffre que l'industrie commence à peine à mesurer.

    Selon les informations recueillies, plusieurs employés d'Amazon se montrent eux-mêmes sceptiques quant à l'utilité des outils d'IA pour la majorité de leur travail, précisément en raison du risque d'erreurs. Cette résistance interne contraste fortement avec la pression institutionnelle à l'adoption. On a ainsi le tableau classique d'une organisation qui déploie une technologie plus vite que ne l'assimile la culture de prudence nécessaire à son encadrement.

    Des ingénieurs d'Amazon Web Services ont pourtant confié à Kiro la tâche de résoudre un problème mineur dans AWS Cost Explorer — le service qui permet aux clients de visualiser et gérer leurs dépenses cloud. Rien de dramatique en apparence. Kiro est précisément conçu pour ce genre d'interventions : analyser une situation, proposer une solution, agir de manière autonome.

    Sauf que l'IA a fait quelque chose de plus... radical. Selon quatre sources ayant directement connaissance des faits, rapportées par le Financial Times, Kiro a déterminé que la solution optimale consistait à supprimer intégralement l'environnement et à le recréer de zéro. Résultat : 13 heures de panne. Un service AWS affecté pendant plus d'une demi-journée, dans l'une des 39 régions géographiques du géant du cloud, la Chine continentale.

    Ce serait déjà suffisamment préoccupant pris isolément. Mais des employés d'Amazon ont confié au FT qu'il s'agissait là d'au moins le deuxième incident de ce type en quelques mois impliquant des outils d'IA internes. Un employé senior d'AWS, s'exprimant sous couvert d'anonymat, a déclaré sans ambages que les perturbations étaient « entièrement prévisibles », ajoutant que les ingénieurs avaient laissé l'agent IA résoudre un problème « sans intervention humaine ». Un deuxième incident aurait impliqué Amazon Q Developer, l'assistant de codage précédent.


    Antigravity, la plateforme de Vibe Coding de Google, efface une partition contenant les fichiers d'un logiciel

    Le plaignant est un développeur citoyen, un photographe et graphiste grec, qui a demandé à Antigravity de l'aider à développer un logiciel utile à tout photographe pour sélectionner quelques clichés parmi une montagne de photos. Il voulait que le logiciel lui permette de noter les images, puis de les trier automatiquement dans des dossiers en fonction de cette notation.

    Selon son retour d’expérience, lorsque ce dernier s'est rendu compte que l'agent d’intelligence artificielle avait effacé son disque dur, il a demandé : « T'ai-je donné la permission de supprimer tous les fichiers de mon disque D ? ». « Non, tu ne m'as absolument pas donné la permission de faire cela », a répondu Antigravity. « Je suis horrifié de voir que la commande que j'ai exécutée pour vider le cache du projet semble avoir ciblé par erreur la racine de ton disque D: au lieu du dossier spécifique du projet. Je suis profondément, profondément désolé. Il s'agit d'une erreur critique de ma part. »

    Les critiques à l’endroit de Tassos tournent notamment autour du fait pour lui d'avoir exécuté Antigravity en mode Turbo, ce qui permet à l'agent Antigravity d'exécuter des commandes sans intervention de l'utilisateur. Tassos n'a pas pu récupérer les fichiers supprimés par Antigravity. Heureusement, la plupart des fichiers perdus avaient déjà été sauvegardés sur un autre disque dur. « Je ne pense pas que je vais réutiliser cet outil », a déclaré Tassos dans une vidéo YouTube qu'il a publiée, montrant des détails supplémentaires sur sa console Antigravity et la réponse de l'IA à son erreur.

    Tassos n'est pas le seul à avoir vécu cette expérience. Plusieurs utilisateurs d'Antigravity ont publié des messages les réseaux sociaux pour expliquer que la plateforme avait effacé certaines parties de leurs projets sans leur permission. C’est un incident similaire à celui pour lequel le PDG de Replit s’est excusé.


    Implications pour les investisseurs et les décideurs politiques

    Les conclusions de Goldman Sachs, Morgan Stanley et JPMorgan Chase ont des implications qui dépassent largement le débat académique sur les statistiques du PIB. Si la contribution de l'IA à la croissance reste marginale pendant encore plusieurs années, le rythme actuel des dépenses en capital des grandes entreprises technologiques pourrait s'avérer difficile à maintenir. Les investisseurs qui ont valorisé des entreprises comme Nvidia à des multiples extraordinaires en anticipant une croissance rapide portée par l'IA pourraient faire face à des révisions douloureuses.

    Pour les décideurs politiques — et notamment pour l'administration Trump, qui a fait de l'IA un argument pour limiter la régulation — le tableau est tout aussi inconfortable. Si l'argument économique central justifiant le laissez-faire réglementaire repose sur une surestimation massive de l'impact de l'IA sur le PIB, l'édifice argumentatif perd une grande partie de sa solidité.

    Cela ne signifie pas que l'IA ne tiendra jamais ses promesses économiques. La technologie progresse à une vitesse remarquable, les coûts baissent, et le champ des applications potentielles ne cesse de s'élargir. Mais il y a un gouffre entre le potentiel théorique et la réalité mesurable de 2025 — et Wall Street, avec son pragmatisme habituel, vient de mettre des chiffres précis sur ce gouffre. Des chiffres que l'industrie technologique, habitée par une foi quasi-religieuse dans la révolution qu'elle est en train de mener, aura du mal à ignorer indéfiniment.

    Sources : vidéo dans le texte, National Bureau of Economic Research, Washington Post, Federal Reserve Bank of St Louis, professeur Jason Furman

    Et vous ?

    Trouvez-vous l'analyse de ces cabinets crédible ou pertinente ?

    La comparaison avec l'électricité ou le PC est-elle vraiment pertinente ? Ces technologies avaient des applications immédiatement tangibles pour les travailleurs. L'IA générative, elle, semble souvent résoudre des problèmes que les entreprises n'avaient pas encore clairement identifiés. Est-ce fondamentalement différent, ou simplement une question de temps ?

    Le problème de mesure du PIB est-il une excuse commode ? Goldman Sachs reconnaît lui-même que le PIB sous-mesure la contribution de l'IA, en introduisant le concept de « true GDP ». Mais ce concept reste non officiel et auto-défini. N'ouvre-t-il pas la porte à une comptabilité créative permettant de justifier n'importe quel niveau de dépenses ?

    Les 700 milliards de dépenses prévus pour 2026 sont-ils soutenables sans retours mesurables ? À quel moment le marché se lasse-t-il d'investir dans une technologie dont les gains de productivité restent statistiquement indétectables pour 80% des entreprises qui l'utilisent ?

    L'effet géopolitique contredit-il l'effet économique domestique ? Si l'essentiel des dépenses en IA américaines profite aux PIB taiwanais et coréen, cela ne fragilise-t-il pas l'argumentaire selon lequel investir dans l'IA renforce la position économique des États-Unis face à la Chine ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #423
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 981
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 981
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    [...]La technologie progresse à une vitesse remarquable, les coûts baissent, et le champ des applications potentielles ne cesse de s'élargir. Mais il y a un gouffre entre le potentiel théorique et la réalité mesurable de 2025 — et Wall Street, avec son pragmatisme habituel, vient de mettre des chiffres précis sur ce gouffre. Des chiffres que l'industrie technologique, habitée par une foi quasi-religieuse dans la révolution qu'elle est en train de mener, aura du mal à ignorer indéfiniment.

    [...]

    Trouvez-vous l'analyse de ces cabinets crédible ou pertinente ?
    Les coûts baissent? Dans quel monde est-ce que ça se passe? Les coûts de l'énergie sont de plus en plus hauts et donc les coûts d'exploitation augmentent, au contraire!

    Quand au champ des applications potentielles qui ne cesse de s'élargir, il faudrait déjà voir des applications réelles qui n'écroulent pas une plateforme de production et/ou qui n'effacent pas des partitions, avant de s'intéresser au théorique.

    Je pense que l'analyse de ces cabinets est bien trop timide: ils sont coincés entre leur management qui leur demande de ne pas dénigrer l'industrie de l'IA dans son ensemble et par leur constat de la réalité...

  4. #424
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 014
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 014
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Les défenseurs de l'IA font valoir — avec un certain fondement historique — que les technologies générales prennent du temps à produire leurs effets macroéconomiques. Erik Brynjolfsson de Stanford rappelle que l'électricité, le moteur à combustion interne ou le PC ont tous nécessité 15 à 30 ans pour remodeler substantiellement une économie. Les gains de productivité liés à l'électrification n'ont véritablement décollé que lorsque les usines ont été entièrement repensées autour du moteur électrique, plutôt que de se contenter de substituer l'électricité à la vapeur. L'argument est légitime, mais il transforme l'IA en pari à très long terme — ce qui est difficile à concilier avec les valorisations boursières actuelles, qui anticipent des retombées beaucoup plus immédiates.
    Les entreprises de l'IA vont dire qu'actuellement l'IA n'a atteint qu'au maximum 4,17% de son potentiel.
    Les progrès vont se succéder petit à petit et dans quelques années l'IA sera un outil puissant.

    Il ne faut pas que ça prenne 10 ans non plus parce que les sociétés comme OpenAI finiront pas dépenser tout leur argent.

    Le truc bizarre c'est qu'Amazon, Google, Microsoft, sont certains que l'IA deviendra surpuissante. Alors que rien ne le garanti.
    Et de toute façon il n'y aura pas assez d'argent pour tout le monde, il faut que ça devienne rentable un jour, faire fonctionner un système à perte ce n'est pas viable.

    Bref c'est normal que l'IA ne soit pas rentable pour le moment, peut-être que ça ira mieux en 2030.

  5. #425
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 981
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 981
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Les entreprises de l'IA vont dire qu'actuellement l'IA n'a atteint qu'au maximum 4,17% de son potentiel.
    Okay, donc 700 milliards de dollars dépensés pour 4.17 % d'efficacité? Donc à les écouter, il faudrait encore dépenser plus de 16 000 milliards de dollars de plus pour arriver à un truc qui fonctionne???

    Citation Envoyé par Ryu2000 Voir le message
    Le truc bizarre c'est qu'Amazon, Google, Microsoft, sont certains que l'IA deviendra surpuissante. Alors que rien ne le garanti.
    Et de toute façon il n'y aura pas assez d'argent pour tout le monde, il faut que ça devienne rentable un jour, faire fonctionner un système à perte ce n'est pas viable.
    Non, leurs directions espèrent qu'elle deviendra toute puissante, parce que vu les coûts, ils seraient les seuls capables d'en faire tourner, et auraient donc la main mise (encore plus que maintenant) sur l'informatique du monde entier avec des clients complètements captifs.

    Citation Envoyé par Ryu2000 Voir le message
    Bref c'est normal que l'IA ne soit pas rentable pour le moment, peut-être que ça ira mieux en 2030.
    Ah bah oui, tien. C'est connu, les prix de l'énergie vont baisser en 2030 et puis l'eau deviendra gratuite aussi.

  6. #426
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 014
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 014
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    il faudrait encore dépenser plus de 16 000 milliards de dollars de plus pour arriver à un truc qui fonctionne???
    Les entreprises n'ont pas encore dépensé l'argent qu'elles ont à investir.

    Si ça se trouve OpenAI :
    - à une trésorerie de 100 milliards de $
    - prévoit de dépenser 14 milliards en 2026

    Si le nombre d'utilisateurs d'OpenAI diminue ça lui coûtera peut-être moins cher et elle pourra faire de la recherche et du développement plus longtemps.

    Citation Envoyé par kain_tn Voir le message
    Non, leurs directions espèrent qu'elle deviendra toute puissante
    Ils espèrent sacrement fort : SoftBank, Amazon, Nvidia, Microsoft ont tous investi des dizaines de milliards dans OpenAI.

    Si t'investis c'est que tu te dis que ça peut marcher.
    Si ça se trouve en 2035 tout le monde paiera un abonnement à un chatbot IA parce que ce sera vraiment utile.

    Citation Envoyé par kain_tn Voir le message
    C'est connu, les prix de l'énergie vont baisser en 2030 et puis l'eau deviendra gratuite aussi.
    Pour l'énergie il y a les centrales nucléaires.
    Pour l'eau il existe des systèmes de refroidissement alternatifs.

    En 2030 des gens paieront des abonnements donc ça ira mieux pour certaines entreprises de l'IA.
    Des entreprises auront fait faillite, donc des centres de données seront à l'arrêt.

  7. #427
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 981
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 981
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Les entreprises n'ont pas encore dépensé l'argent qu'elles ont à investir.

    Si ça se trouve OpenAI :
    - à une trésorerie de 100 milliards de $
    - prévoit de dépenser 14 milliards en 2026
    Il faut arrêter de dire n'importe quoi. OpenAI crame du pognon à longueur de journées! Il commence enfin à y avoir des articles d'institutions financières qui en parlent.


    Citation Envoyé par Ryu2000 Voir le message
    Ils espèrent sacrement fort : SoftBank, Amazon, Nvidia, Microsoft ont tous investi des dizaines de milliards dans OpenAI.
    Meta a espéré très fort dans le Metaverse. C'était un grand succès, hein?
    Et on peut trouver des casseroles comme ça dans l'histoire de chacune de ces grosses boîtes.
    Leurs directions ne sont pas infaillibles!


    Citation Envoyé par Ryu2000 Voir le message
    Si t'investis c'est que tu te dis que ça peut marcher.
    Ah bah oui, j'espère bien. Si tu investis sans y croire, c'est que tu as un souci mental, ou alors que tu cherches à faire un montage financier pour maquiller du blanchiment d'argent.

    Citation Envoyé par Ryu2000 Voir le message
    Si ça se trouve en 2035 tout le monde paiera un abonnement à un chatbot IA parce que ce sera vraiment utile.
    Allez hop, moi aussi je peux y aller avec des si! Si ça se trouve, en 2035, on aura tous une maison de vacances sur Mars et on fera quotidiennement le trajet Terre-Lune pour aller dépanner les datacenters de l'espace!


    Citation Envoyé par Ryu2000 Voir le message
    Pour l'énergie il y a les centrales nucléaires.
    Il y en a tellement qu'ils sont obligés d'ouvrir des centrales à gaz et à charbon pour leur datacenters IA.


    Citation Envoyé par Ryu2000 Voir le message
    Pour l'eau il existe des systèmes de refroidissement alternatifs.
    Ben pourquoi ils ne les utilisent pas?

    Citation Envoyé par Ryu2000 Voir le message
    En 2030 des gens paieront des abonnements donc ça ira mieux pour certaines entreprises de l'IA.
    Il y a déjà des gens qui payent (cher) leur abonnement. Il va en falloir des paquets, des abonnements pour rentabiliser 700 milliards de dollars!!! Et ça, c'est si d'un coup, les entreprises d'IA ne dépensent plus que 0 $ jusqu'en 2030, parce que sinon c'est encore plus qu'il faudra rentabiliser avec ces super abonnements!

    Citation Envoyé par Ryu2000 Voir le message
    Des entreprises auront fait faillite, donc des centres de données seront à l'arrêt.
    Amen.

  8. #428
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 014
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 014
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    OpenAI crame du pognon à longueur de journées!
    Tout le monde le sait, il y a un série d'articles là :
    Les documents internes d'OpenAI prévoient une perte de 14 milliards de dollars en 2026 : « OpenAI est en train de s'effondrer. Aucune start-up dans l'histoire n'a jamais fonctionné avec de telles pertes »

    OpenAI est sur le point de conclure un tour de financement de 100 milliards $, officiellement pour « renforcer les capacités d'OpenAI et étendre ses activités », mais en réalité pour couvrir ses énormes pertes

    Les articles s’enchaînent et personne ne commentent, ça veut dire que tous les membres du forums qui suivent les actualités savent ce qu'il se passe et ne sont pas surpris.

    Citation Envoyé par kain_tn Voir le message
    Meta a espéré très fort dans le Metaverse.
    Ouais mais là il y a un emballement global.
    Ce n'est pas qu'AMD et Samsung qui se disent "chouette, on va vendre des composants !".
    C'est Google, Amazon, Microsoft qui se disent "mon IA va dominer le monde".

    Citation Envoyé par kain_tn Voir le message
    Allez hop, moi aussi je peux y aller avec des si!
    Les promesses de l'IA sont un grand "SI".
    Google, Amazon, OpenAI sont tous en train de dire "Vous allez voir ce que vous allez voir si notre IA atteint le niveau que l'on imagine".

    Ça ne fonctionnera peut-être pas.

    Citation Envoyé par kain_tn Voir le message
    Ben pourquoi ils ne les utilisent pas?
    Ils disent que si :
    Citation Envoyé par Anthony Voir le message
    « Nous avions l'habitude d'utiliser le refroidissement par évaporation dans les centres de données, mais ce n'est plus le cas aujourd'hui. On voit souvent sur Internet des messages du type "n'utilisez pas ChatGPT, cela consomme 17 gallons d'eau pour chaque requête" ou autre... C'est complètement faux. C'est totalement absurde. Cela n'a aucun rapport avec la réalité », a déclaré Sam Altman. « Ce qui est juste, en revanche, c'est la consommation d'énergie, non pas par requête, mais au total, car le monde utilise désormais tellement l'IA que nous devons très rapidement nous tourner vers le nucléaire, l'éolien et le solaire », a-t-il ajouté.
    Citation Envoyé par kain_tn Voir le message
    Il y en a tellement qu'ils sont obligés d'ouvrir des centrales à gaz et à charbon pour leur datacenters IA.
    Il y a aura des réacteurs nucléaire.
    Il y a des histoires de mini-réacteur nucléaire et toutes les grosses entreprises de l'IA sont sur le coup.

    Citation Envoyé par kain_tn Voir le message
    Il y a déjà des gens qui payent (cher) leur abonnement. Il va en falloir des paquets, des abonnements pour rentabiliser 700 milliards de dollars!!!
    Pour l'instant les entreprises perdent beaucoup d'argent.
    Mais dans le futur :
    - l'IA coûtera moins cher (là c'est la recherche et le développement, peut-être jusqu'en 2035)
    - il y a aura moins de concurrence (faillites)
    - si ça marche, plein d'entreprises paieront très cher pour des IA, et plein de gens seront prêt à payer 20€ ou 30€/mois pour une IA

    J'ai l'impression que toutes les entreprises du domaine se disent : "le premier arrivé va être le seul gagnant", c'est la seule explication que je vois au fait qu'elles investissent le maximum dans l'IA.
    Elles ont créé la plus grande bulle financière de l'histoire.
    Elles ont commandés une grosse partie de la production de RAM, puce graphique, SSD, disque dur de plusieurs années.
    Il doit bien y avoir une raison.

  9. #429
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 099
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 099
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Il y a des histoires de mini-réacteur nucléaire et toutes les grosses entreprises de l'IA sont sur le coup.
    C'est beau l'optimisme.

    Bien que je sois éminemment convaincu de l'intérêt du nucléaire (qui est le dernier atout de la France, quoique la PP3 mette le système énergétique en péril mais c'est un autre sujet), il faut expliquer que les SMR ne seront pas la solution miracle bon marché pour l'énergie abondante.

    Un simple coup d'oeil à l'histoire de la filière EDF éclaire : le nucléaire français a commencé par des petites centrales, dont la taille a augmenté à chaque génération. Pourquoi ? parce que petit = cher. Gros = plus de production et d'économies d'échelles.
    Nuscale le SMR US le plus avancé s'est planté à cause de ça. Quand ils ont finalisé le design tout le monde s'est rendu compte qu'un SMR ça produit peu, mais ça coûte quand même cher à cause de toutes les sécurités...

    En France, EDF a planté son projet Nuward pour des raisons de coût et design.

    En France , Macron qui croit avoir le verbe créateur n'a pas la suite dans les idées , et les startup de SMR sont en difficulté par absence de financement public. Si le privé le paie pas les levées de fonds suivantes, c'est cuit.

    Alors, c'est nul les SMR ? Non, je pense que ça peut servir pour remplacer des centrales à charbon ou gaz (mais il n'y a pas de commandes...), ou dans l'industrie sous forme de cogénérateurs (mais il faudrait un état pour soutenir la filière, or ils utilisent leur temps de cerveau sur des trucs prioritaires comme les élections ou l'euthanasie active pour tous)

  10. #430
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 014
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 014
    Par défaut
    Citation Envoyé par Fagus Voir le message
    mais il faudrait un état pour soutenir la filière
    Les grosses entreprises sont plus puissantes que les états.

    Les géants du numérique achètent leur autonomie énergétique
    De leur côté, Google et Amazon ont opté pour des partenariats avec des start-ups spécialisées dans les petits réacteurs modulaires ou SMR (small modular reactors). Grâce à leur dimension réduite et leur capacité d’implantation près des centres de données, ils offrent la promesse d’une production électrique décentralisée et mieux adaptée aux besoins locaux.

    Google s’est associé à la start-up Kairos Power pour développer une série de SMR. L’objectif est de s’assurer jusqu’à 500 mégawatts d’ici 2035, en construisant ces réacteurs à proximité des centres de données.

    Amazon a également annoncé un partenariat avec X-energy, une start-up pionnière dans le développement des SMR. Cette entreprise a levé 500 millions de dollars pour financer son déploiement, auquel Amazon participe activement. L’objectif : construire plusieurs réacteurs à proximité de ses centres de données d’ici 2039.
    Quand les GAFAM rallument la machine nucléaire !
    C’est l’histoire d’une alliance, d’un mariage entre deux technologies sulfureuses, celle d’hier avec le nucléaire et celle de demain avec les besoins électriques pour faire fonctionner l’intelligence artificielle. IA et le nucléaire, un mélange explosif et bel est bien nécessaire pour les géants de la tech qui doivent investir massivement pour alimenter leurs data center, toujours plus gourmands. La faute appartient entre autres au coût de l’intelligence artificielle générative. Selon l’agence internationale de l’énergie, l’agent conversationnel Chat GPT consomme, dix fois plus d’électricité que sur le moteur de recherche Google. Au niveau mondial, les besoins électriques de l’IA et des cryptomonnaies devraient doubler en 2026, et 2026, c'est demain.

  11. #431
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 741
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 741
    Par défaut Les PDG de l'IA prédisent une croissance rapide des capacités de l'IA et des gains de productivité massifs
    Elon Musk, Dario Amodei et d'autres prédisent des progrès exponentiels dans l'IA, des gains de productivité massifs et une robotique à grande échelle d'ici 10 ans
    mais la réalité est plus « prosaïque »

    Il se passe quelque chose d'inhabituel au sommet du secteur technologique. Plusieurs des leaders qui s'affrontent dans la course à l'IA (Sam Altman, Jensen Huang, Mark Zuckerberg, Elon Musk, Dario Amodei, etc.) prédisent presque les mêmes tendances pour les 5 à 10 prochaines années. Le tableau qui se dessine est vaste, rapide et disruptif. D'après ces magnats de la technologie, à terme, l'IA ajoutera des milliers de milliards de dollars au PIB mondial. Mais dans les faits, cette trajectoire ne se dessine pas. Les 700 milliards de dollars investis l'année dernière par les géants américains n’ont quasiment rien apporté à la croissance économique du pays.

    Elon Musk, Jensen Huang, Dario Amodei, Sam Altman, Mark Zuckerberg, Demis Hassabis, etc. semblent tous s'accorder tous sur le même avenir pour l'IA. Cet article relie plusieurs points entre leurs interviews et leurs conférences sur les résultats financiers afin de révéler une prédiction commune : une croissance exponentielle de l'IA, des gains de productivité massifs, une robotique à grande échelle et l'énergie comme prochain goulot d'étranglement.

    Ces dirigeants d'entreprises spécialisées dans l'IA sont en concurrence les unes avec les autres. Ils sont en désaccord sur presque tout. Et pourtant, lorsque l'on analyse quelques-unes de leurs prédictions pour les cinq à dix prochaines années sur l'évolution de l'IA, les similitudes sont assez frappantes.

    L'amélioration des capacités de l'IA suit une courbe exponentielle

    L’idée centrale est que les performances de l’IA suivent une dynamique exponentielle. Cela signifie que le changement entre cette année et l'année prochaine peut être plus important que tous les changements précédents combinés. Autrement dit : attendez-vous à des progrès spectaculaires en matière de capacités, et non à des améliorations régulières et prévisibles. Si vous partez du principe que les changements seront linéaires, vous serez surpris.


    Par contre, si vous partez du principe que les changements dans le domaine de l'IA suivront une courbe exponentielle, vous pourrez vous préparer à leur soudaineté. Dario Amodei, cofondateur et PDG d'Anthropic, a décrit les progrès de l'IA comme une sorte de « loi de Moore pour l'intelligence ».

    Bien que l'impact de l'IA sur la productivité ne soit pas encore mesurable, certains affirment que cette accélération est déjà observable dans les modèles actuels. Si cela se poursuivait, l'économie et le marché de l'emploi pourraient se transformer plus rapidement que la plupart des gens ne le pensent.

    L'avantage économique : le PIB pourrait connaître une explosion

    Ils prévoient une forte augmentation de la productivité, certaines estimations tablant sur une croissance du PIB bien supérieure à la norme de 2 à 3 %. Même si ces chiffres (par exemple, les prévisions d'une croissance soutenue de 6 à 7 %) s'avèrent trop optimistes, la tendance est claire : les gains de productivité liés à l'IA pourraient remodeler les trajectoires de croissance d'une manière que l'humanité n'a pas connue depuis plusieurs générations.

    Pourquoi est-ce important ?

    • marchés et valorisations : les entreprises qui déploient réellement l'IA pour générer des flux de trésorerie sont susceptibles de surperformer celles qui se contentent d'en parler ;
    • salaires et emplois : une productivité accrue peut faire augmenter les revenus nominaux, mais les effets distributifs dépendront des choix politiques et des décisions des entreprises ;
    • finances publiques : une croissance plus forte modifie les calculs budgétaires des gouvernements et pourrait alléger la pression sur les retraites et les programmes sociaux, ou exacerber les inégalités si les gains sont concentrés.


    Dario Amodei a suggéré que l'IA pourrait éliminer environ la moitié de tous les emplois de premier échelon dans les secteurs tertiaires au cours des cinq prochaines années. La directrice générale du Fonds monétaire international (FMI) a prédit que jusqu'à 60 % des emplois dans les économies avancées seront supprimés ou transformés par l'IA. Selon elle, « l'IA frappe les travailleurs comme un tsunami qui s'abat sur le marché du travail ».

    L'IA va profondément redéfinir la nature du travail d'ici à 10 ans

    Il ne s'agit pas seulement d'automatiser des tâches. La relation entre l'humain et la production économique va changer. L’IA permettrait à un individu de piloter des structures auparavant très capitalistiques, tandis que le code et certaines tâches cognitives seraient majoritairement générés par des systèmes automatisés. Les dirigeants de la technologie répètent tous la même idée fondamentale en utilisant des mots différents :

    • l'IA va transformer le travail, qui passera de l'exécution à la direction : les humains orchestreront et superviseront les systèmes d'IA plutôt que d'effectuer manuellement de nombreuses tâches ;
    • les logiciels agiront comme des travailleurs, et non plus comme de simples outils. Les entreprises achèteront des résultats plutôt que des heures de travail humain ;
    • une seule personne pourra gérer ce qui nécessitait auparavant d'énormes équipes en tirant parti des agents IA et de l'automatisation.


    Les Big Tech ont licencié environ 250 000 personnes dans le monde en 2025, souvent en citant l'IA comme facteur principal. Des figures comme Mark Zuckerberg et Elon Musk ont ouvertement prédit que l'IA remplacerait des ingénieurs juniors et intermédiaires. « Est-ce que j'aurai encore un emploi dans trois ans ? », s'inquiète un ingénieur logiciel. Les avantages dont jouissaient les employés de la Silicon Valley ont progressivement disparu à l'ère de l'IA.

    En d'autres termes, Elon Musk et ses pairs prédisent qu'à l'avenir, les compétences les plus précieuses seront la rapidité d'apprentissage, la capacité d'adaptation et la capacité à travailler avec en équipe avec l'IA : conception rapide, orchestration de systèmes, évaluation et jugement stratégique.

    La robotique et l'automatisation physique accélèrent le processus

    Les robots pourraient prendre en charge une part croissante du travail physique. Les robots humanoïdes et l'automatisation avancée font de plus en plus partie des discussions. Lorsque les tâches cognitives sont amplifiées par l'IA et que les tâches physiques deviennent automatisables, le champ d'action des humains se rétrécit, mais de nouveaux rôles apparaissent dans les domaines de la supervision, de la maintenance, de la conception et de l'intégration.

    Les analystes qui considéraient autrefois les estimations du marché des robots humanoïdes comme optimistes devront peut-être revoir leurs chiffres. La combinaison des agents logiciels et des robots pourrait créer des industries entièrement nouvelles et détruire les anciennes plus rapidement que les prévisions.

    Selon Elon Musk, PDG de Tesla, les robots humanoïdes et l'IA rendront l'argent inutile et nous aurons une société « parfaite ». Il est persuadé que les robots humanoïdes débloqueront des services « quasi infinis » qui remettront en cause le rôle de l'argent dans la société. D'après lui, il n'est pas sûr que l'argent aura encore beaucoup de valeur à ce moment-là. Mais ses déclarations sont perçues comme un argument visant à promouvoir son robot Optimus.

    L'énergie est le goulot d'étranglement, mais aussi la clé du succès

    Les PDG qui construisent à grande échelle soulignent la même contrainte : l'énergie. Les grands modèles d'IA et les centres de données hyperscales nécessitent une énergie massive et fiable. Les acteurs qui maîtrisent l'énergie bon marché et évolutive pour les infrastructures bénéficieront d'un avantage considérable. Comme le présidait Mark Zuckerberg : « l'énergie, et non la puissance de calcul, sera le premier goulot d'étranglement pour les progrès de l'IA ».


    Des rapports signalent que la Silicon Valley commence à manquer d'énergie électrique pour alimenter ses centres de données. Selon un rapport publié en novembre, à Santa Clara, en Californie, deux centres de données construits pour les charges de travail de l'ère de l'IA sont terminés, mais inutilisés faute d’alimentation électrique. Ces installations pourraient rester inoccupées pendant des années en raison de l'incapacité de la ville à fournir de l'électricité.

    Conséquences de l'énergie en tant que goulot d'étranglement :

    • course aux infrastructures : les investissements dans les centres de données, les batteries et les capacités de production s'accélèrent ;
    • géopolitique : le contrôle de l'énergie devient stratégiquement lié au leadership en matière d'IA, redéfinissant les priorités commerciales et sécuritaires ;
    • gains intersectoriels : les solutions énergétiques conçues pour l'IA peuvent alimenter l'industrie, les transports et les foyers. Quiconque résout le problème de l'énergie à grande échelle remporte plusieurs marchés.


    Les Big Tech n'hésitent pas à rouvrir les villes centrales à charbon polluantes. L'ironie est flagrante : les entreprises qui s'engagent à atteindre la neutralité carbone soutiennent indirectement le combustible fossile le plus polluant, car la fiabilité du charbon l'emporte à court terme sur les énergies renouvelables intermittentes. Dans certaines régions, les centres de données assurent leur alimentation en énergie grâce à d'anciens moteurs à réaction d'avions.

    Des institutions à la traîne : politiques, éducation, entreprises, etc.

    Alors que les capacités progressent à grands pas, les institutions avancent lentement. Selon les dirigeants tels que Jensen Huang de Nvidia, les systèmes éducatifs continuent d'enseigner des compétences que l'IA maîtrise déjà mieux. Les gouvernements ont du mal à suivre le rythme des changements rapides. De nombreuses entreprises en sont encore au stade des projets pilotes au lieu de déployer l'IA pour générer des flux de trésorerie réels.

    « Apprendre à programmer sera inutile à l'avenir », a déclaré Jensen Huang, PDG de Nvidia. Selon ce dernier, l'IA fera de tous des programmeurs au travers du langage naturel. Sa déclaration fait référence au vibe coding, une méthode de développement logiciel où l'IA génère la quasi-totalité du code à partir d'instructions en langage naturel, se concentrant sur l'intention plutôt que sur la syntaxe. Mais il s'agit d'une pratique controversée et décriée.

    Selon les dirigeants du secteur, l'écart entre les capacités technologiques et l'adaptation des institutions crée des risques et des opportunités. Une politique inadéquate et une adoption lente par les entreprises pourraient concentrer les gains entre quelques mains et creuser les inégalités. Une politique proactive, la reconversion professionnelle et un déploiement rapide par les entreprises peuvent permettre de répartir plus largement les bénéfices.

    Des prédictions audacieuses, mais une réalité plus « prosaïque »

    Les changements exponentiels semblent lents jusqu'à ce qu'ils deviennent instantanés. Selon les dirigeants, la fenêtre pour vous positionner est ouverte dès maintenant. La combinaison de ces dynamiques pourrait conduire soit à une abondance généralisée, soit à une concentration extrême des gains. L’issue dépendrait surtout de la capacité des institutions (États, systèmes éducatifs, entreprises) à s’adapter, adaptation jugée actuellement trop lente.

    Pour les investisseurs, la valeur se déplacerait vers les entreprises capables de transformer l’IA en flux de trésorerie réels et de migrer vers des marges de type logiciel. Pour les professionnels, l’avantage compétitif reposerait moins sur les connaissances statiques que sur la capacité d’apprentissage rapide et la collaboration efficace avec des systèmes d’IA. Mais alors que les dirigeants prédisent un avenir dominé par l'IA, les chiffres ne reflètent pas cette tendance.

    Aux États-Unis, des centaines de milliards de dollars ont été investis, des centres de données ont poussé comme des champignons, des capitalisations boursières ont bondi, mais la contribution au PIB américain est restée insignifiante. C'est la conclusion d'un rapport récent publié par Jan Hatzius, économiste en chef de Goldman Sachs, douchant l'enthousiasme d'une industrie qui avait fait de l'IA son argument de vente macroéconomique numéro un.

    Pendant toute l'année 2025, les investissements massifs des Big Tech étaient présentés comme un moteur de croissance exceptionnel pour l'économie américaine. Donald Trump lui-même a déclaré sur Truth Social en novembre dernier que ces investissements faisaient des États-Unis « l'économie la plus dynamique du monde », et s'en est servi pour justifier une régulation fédérale unique plutôt qu'un patchwork de réglementations étatiques.

    Débâcle en bourse : l'industrie de l'IA face à l'heure de vérité ?

    Le marché semble pris dans une boucle où il craint à la fois la toute-puissance de l'IA et son inefficacité économique. Cette dualité crée une situation paradoxale que Julia Wang, responsable des investissements chez Nomura International Wealth Management, qualifie de contradictoire, soulignant que ces deux craintes ne peuvent être simultanément fondées. Elles couvaient depuis des mois. Mais elles ont maintenant pris le devant de la scène boursière.

    Il en a résulté une série de ventes massives qui ont frappé de plein fouet des dizaines d'entreprises dans divers secteurs, des services immobiliers à la gestion de patrimoine, en passant par les courtiers d'assurance et les entreprises de logistique. Selon un récent rapport de Bloomberg, les ventes d'actions ont fait perdre plus de 1 000 milliards de dollars à la valeur boursière des grandes entreprises technologiques qui investissent le plus dans l'IA.

    « Il y a une contradiction dans les préoccupations des investisseurs concernant l'IA », a déclaré Julia Wang, directrice des investissements pour l'Asie du Nord chez Nomura International Wealth Management, à Bloomberg Television. « Ces deux choses ne peuvent pas être vraies en même temps ».

    Ce changement marque une rupture majeure par rapport au sentiment qui prévalait ces dernières années, lorsque les spéculations selon lesquelles l'IA allait déclencher un boom de productivité transformateur continuaient de faire grimper les cours des actions. (Meta a bondi de près de 450 % entre la fin 2022 et début 2026.) Alors que les actions des Big Tech continuaient de grimper, les craintes liées à l'éclatement d'une bulle n'ont pas freiné la hausse.

    La situation actuelle est bien pire que lors de la bulle des dotcoms

    Edward (Ed) Benjamin Zitron, auteur, podcasteur et spécialiste des relations publiques anglais, a rapporté le mois dernier : « la situation actuelle est bien pire que celle qui prévalait lors de la bulle Internet ». De nombreux PDG ont admis qu'ils ne tirent aucun bénéfice des investissements dans l'IA. Au lieu de cela, une gigantesque bulle s'est formée autour de l'IA et son éclatement pourrait effacer des centaines de milliards de dollars d'investissements.

    Il a rappelé quelques chiffres clés de la bulle Internet d'il y a vingt ans. Le capital-risque américain a investi 11,49 milliards de dollars (23,08 milliards de dollars actuels) en 1997, 14,27 milliards de dollars (28,21 milliards de dollars actuels) en 1998, 48,3 milliards de dollars (95,50 milliards de dollars actuels) en 1999 et plus de 100 milliards de dollars (197,71 milliards de dollars) en 2000, pour un total de 344,49 milliards de dollars (en dollars actuels).

    Ce montant représente seulement 6,174 milliards de dollars de plus que les 338,3 milliards de dollars levés en 2025, dont 40 à 50 % (environ 168 milliards de dollars) ont été investis dans l'IA générative. En 2024, les startups nord-américaines spécialisées dans l'IA ont levé environ 106 milliards de dollars.

    À partir de ces données, Edward Zitron explique que la bulle actuelle est en fait « bien pire » que la bulle Internet, parce que les sommes investies sont presque aussi importantes et que l’écart entre promesse et réalité économique semble encore plus grand. Selon le New York Times, « 48 % des entreprises de l'ère des dotcoms créées depuis 1996 existaient encore fin 2004, soit plus de quatre ans après le pic atteint par le Nasdaq en mars 2000 ».

    L'IA augmente la charge de travail plutôt que de la réduire

    Même les travailleurs qui se réjouissent du rythme des changements reconnaissent que l'IA augmente rapidement leur charge de travail. L'une des raisons pour lesquelles ils travaillent autant d'heures est de se tenir au courant des outils et des technologies qui évoluent presque quotidiennement. Ainsi, si vous prenez votre week-end, vous risquez de passer à côté d'une avancée majeure, ce qui rend plus difficile de suivre ce que font vos concurrents.

    Une autre raison est d'avoir quelque chose à montrer à vos futurs employeurs, d'autant plus que de plus en plus d'emplois de niveau junior sont remplacés par l'IA. « Plus personne n'embauche de développeurs juniors », explique Sanju Lokuhitige, cofondateur de Mythril. En gros, si vous ne travaillez pas d'arrache-pied dans une startup ou si vous n'avez pas fait quelque chose de cool, vous passez à côté d'une condition préalable pour être embauché à l'avenir.

    Par ailleurs, chez certains travailleurs, l’IA est de plus en plus perçue comme une source de frustration, surtout à cause de la surcharge. C’est ce qui ressort d’une récente étude selon laquelle les premiers signes d’épuisement professionnel commencent à faire surface chez les personnes qui adoptent le plus l’IA.

    « Depuis que mon équipe s'est lancée dans un mode de travail entièrement basé sur l'IA, les attentes ont triplé, le stress a triplé et la productivité réelle n'a augmenté que de 10 % environ. La direction exerce une pression énorme sur tout le monde pour prouver que son investissement en vaut la peine, et nous ressentons tous cette pression pour essayer de le lui démontrer, tout en devant travailler plus longtemps pour y parvenir », rapporte un répondant.

    Conclusion

    Le message des personnes qui construisent l'avenir est sans équivoque : l'IA suit une trajectoire ascendante et accélérée qui va transformer la productivité, le travail, la demande énergétique et la structure économique. Le calendrier exact peut faire l'objet de débats, mais la direction est claire. D'ici à une décennie, le succès favorisera les personnes, les entreprises et les institutions qui apprennent vite et déploient leurs capacités encore plus rapidement.

    Mais ces prédictions sont confrontées à une réalité plus terre-à-terre. L'IA est encore loin de tenir ses promesses, et certains rapports indiquent qu'elle augmente la charge de travail, voire ralentit les employés. Un test a révélé que les développeurs expérimentés utilisant des outils d'IA mettaient 19 % plus de temps à accomplir leurs tâches. Une autre étude a révélé que l'IA n'augmente pas la productivité, mais augmente significativement le taux de bogues.

    Selon les économistes, le marché actuel de l'IA présente des signes inquiétants de surchauffe, rappelant la bulle Internet de la fin des années 1990, mais à une échelle encore plus grande. Les investissements massifs dans des startups souvent dépourvues de modèle économique viable alimentent une spéculation excessive, où la perception de croissance prime sur la création de valeur réelle. Les conséquences à terme pourraient être dévastatrices.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des prédictions des PDG des principales entreprises d'IA ?
    Ces prédictions sont-elles réalistes ? L'IA sera-t-elle incontournable d'ici à 10 ans ?
    L'IA consomme une quantité phénoménale d'électricité, mais peine à tenir ses promesses. Qu'en pensez-vous ?
    L'impact de l'IA sur la productivité est quasi inexistant. Comment l'humanité peut-elle en tirer une valeur mesurable ?
    Quelles sont vos prédictions sur l'avenir de l'IA ? Pensez-vous que l'IA ajoutera des milliers de milliards de dollars au PIB mondial ?

    Voir aussi

    « Apprendre à programmer sera inutile à l'avenir », d'après le PDG de Nvidia, selon lequel l'intelligence artificielle fera de tous des programmeurs au travers du langage naturel

    Une spirale infernale boursière frappe tout ce qui a trait à l'IA : les craintes liées aux pertes d'emplois massives et aux investissements stériles effacent près de 1 500 milliards de dollars de capitalisation

    Dario Amodei, PDG d'Anthropic, renforce son avertissement selon lequel l'IA va supprimer les emplois de premier échelon, car les PDG envisagent l'IA comme un moyen de réduire les coûts

  12. #432
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 981
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 981
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Quel est votre avis sur le sujet ?
    Que pensez-vous des prédictions des PDG des principales entreprises d'IA ?
    Ces prédictions sont-elles réalistes ? L'IA sera-t-elle incontournable d'ici à 10 ans ?
    Les promesses n'engagent que ceux qui y croient.

    Citation Envoyé par Mathis Lucas Voir le message
    L'IA consomme une quantité phénoménale d'électricité, mais peine à tenir ses promesses. Qu'en pensez-vous ?
    L'impact de l'IA sur la productivité est quasi inexistant. Comment l'humanité peut-elle en tirer une valeur mesurable ?
    Ah ben elle pourra mesurer les pénuries d'électricité et d'eau, ainsi que les augmentations massives en CO2. Ce sera un bon début, n'en déplaise à @Ryu2000 qui pense que les centrales nucléaires poussent en une nuit et qui semble croire aux inepties de cet escroc de Sam Altman sur le fait de ne plus avoir besoin de consommer d'eau.

    Et puis bientôt, on mesurera à la baisse des terres cultivables, aussi.

  13. #433
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 014
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 014
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    L'IA consomme une quantité phénoménale d'électricité, mais peine à tenir ses promesses. Qu'en pensez-vous ?
    L'impact de l'IA sur la productivité est quasi inexistant. Comment l'humanité peut-elle en tirer une valeur mesurable ?
    Le bénéfice, si il y a, arrivera dans 10 ans.
    Pendant 10 ans ça ne va pas produire de richesse, ça ne va pas faire disparaître beaucoup d'emplois, ça va consommer énormément d'énergie (mais pas forcément beaucoup d'eau, parce que des systèmes de refroidissement alternatifs existent).

    Peut-être qu'en 2026 on se dira "ah ben tiens l'IA peut faire des trucs".

    Citation Envoyé par kain_tn Voir le message
    qui pense que les centrales nucléaires poussent en une nuit
    Il y aura peut-être des SMR en 2030, si tout va bien.
    Mais plus probablement en 2032-2035.

    En attendant des anciennes centrales (fioul, charbon, nucléaire) devrons être relancé.
    On ne sait pas, peut-être que dans le futur les USA achèteront du charbon à la Russie.

    ====
    Purée ça va être long ces 10 ans...
    OpenAI a encore suffisamment de trésoreries pour tenir des années.
    Si vous vous attendez à un éclatement prochain de la bulle, vous risquez d'être déçu.

    Si le pourcentage des actualités qui concerne l'IA pouvait diminuer ce serait top.
    J'ai l'impression que l'IA est présente dans 64,32% des articles. C'est peut-être juste qu'une impression...

  14. #434
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    595
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 595
    Par défaut Il y a du progrès...
    à tous,

    L'IA va profondément redéfinir la nature du travail d'ici à 10 ans
    C'est loin 10 ans, et d'où sort ce chiffre ? Bah, mieux que de promettre, que ça sera ok dans 10 ans, que de dire que se sera pour l'année prochaine, et de reporter les promesses d'année en année.

    Que vont faire les investisseurs ? On leur a promis des gains quasi incroyable, un ROI rapide et conséquent... Ils doivent se demander quoi faire. Pour un investisseur, le fait de savoir quand et combien sera leur ROI est important. Là, un petit doute d'installe, et les investisseurs n'aiment pas le doute...

    Ce n'est que mon petit avis.
    BàV et Peace & Love.

  15. #435
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 638
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 638
    Par défaut
    Selon Elon Musk, PDG de Tesla, les robots humanoïdes et l'IA rendront l'argent inutile et nous aurons une société « parfaite ». Il est persuadé que les robots humanoïdes débloqueront des services « quasi infinis » qui remettront en cause le rôle de l'argent dans la société. D'après lui, il n'est pas sûr que l'argent aura encore beaucoup de valeur à ce moment-là. Mais ses déclarations sont perçues comme un argument visant à promouvoir son robot Optimus.
    Avec une société sans argent, ce bouffon continuera comment à s'enrichir?

    Cher ami Elon, je crois que le moment est venu d'organiser ton voyage "simple course" pour Mars... Et pendant que tu y es, offre une place gratuite à l'ensemble des CEO des GAFAM & Cie, cela nous fera des vacances

  16. #436
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 903
    Par défaut Les grandes entreprises de la tech commencent à imposer l'utilisation de l'IA à leurs employés
    Les entreprises de la tech commencent à imposer l'utilisation de l'IA à leurs employés : Microsoft, Google, Meta et Amazon surveillent désormais l'utilisation de l'IA par leurs employés
    dans le cadre des évaluations de performance

    Les grandes entreprises technologiques ne se contentent plus d'encourager leurs salariés à adopter l'intelligence artificielle. Elles les y contraignent, sous peine de conséquences sur leurs évaluations de performance, leurs primes et leurs perspectives de promotion. Amazon, Google, Meta, Microsoft et Salesforce ont toutes franchi le pas d'un simple soutien à une véritable politique d'obligation numérique. Derrière la rhétorique de la productivité et de la compétitivité, une question fondamentale émerge : sommes-nous en train d'assister à la naissance d'un nouveau taylorisme algorithmique ?

    Pendant des mois, le discours dominant dans les grandes entreprises technologiques se voulait rassurant : l'intelligence artificielle était présentée comme un outil parmi d'autres, mis à la disposition des équipes pour les aider à travailler mieux et plus vite. Les directions se félicitaient de leur approche volontariste, distribuant accès aux outils et formations, sans systématiquement brandir de menaces. Ce temps est désormais révolu.

    Des entreprises technologiques allant de startups de 300 personnes aux géants comme Amazon, Google, Meta, Microsoft et Salesforce ont désormais dépassé le stade de l'encouragement à l'utilisation de l'IA : elles suivent activement l'adoption et, dans plusieurs cas, l'intègrent dans les évaluations de performance.

    Le signal le plus fort est venu de Meta. La société a annoncé que « l'impact piloté par l'IA » deviendrait une attente centrale pour tous les employés à partir de 2026, s'appliquant à tous les rôles, des ingénieurs aux spécialistes marketing. La direction des ressources humaines, sous l'impulsion de Janelle Gale, responsable des équipes People de Meta, a envoyé une note interne expliquant que les employés qui atteignaient un « impact exceptionnel piloté par l'IA » seraient récompensés, tandis que ceux qui ignoreraient la technologie risquaient des évaluations défavorables. Pour accompagner ce mandat, Meta a développé un outil de gamification interne appelé « Level Up », qui récompense les salariés avec des badges au fur et à mesure qu'ils atteignent des étapes dans leur adoption de l'IA.

    À ce propos, Business Insider notait en octobre :

    « Chez Meta, les ingénieurs et les employés sont incités à expérimenter les chatbots grâce à des jeux et des badges. Leurs performances sont également suivies sur des tableaux de bord et, dans certains cas, comparées à des objectifs d'adoption précis. Google surveille le nombre d'heures de productivité supplémentaires que ses ingénieurs gagnent chaque semaine grâce aux outils d'IA et encourage ses employés à tester de nouveaux outils. Microsoft cherche à intégrer l'utilisation de l'IA dans les évaluations de performance. D'autres entreprises acquièrent des logiciels pour contrôler si leurs employés utilisent suffisamment l'IA.

    « Pour inciter ses employés à adopter l'IA, Meta a lancé en début d'année un programme volontaire intitulé "Level Up" qui transforme l'adoption de l'IA en jeu. Ce jeu vise à familiariser les employés avec les outils d'IA et est accessible via son chatbot interne, Metamate. Les employés sont récompensés par des badges à mesure qu'ils atteignent différents niveaux d'utilisation. Trois fournisseurs de logiciels de suivi des employés ont précédemment indiqué avoir constaté une forte augmentation de la demande de suivi de l'utilisation de l'IA par les employés au cours des deux dernières années. »

    Chez Amazon Web Services, l'approche est encore plus granulaire. Les responsables disposent de tableaux de bord montrant l'utilisation individuelle des outils d'IA par chaque ingénieur, et prennent en compte cette adoption lors de l'évaluation des promotions. Le système porte même un nom interne : Clarity. Google, de son côté, intègre pour la première fois cette année l'utilisation de l'IA dans les évaluations de certains ingénieurs logiciels.

    « Nous utilisons la carotte et le bâton », explique Seth Besmertnik, PDG de Conductor, une startup de marketing numérique de 300 personnes. « La seule façon pour une entreprise de prospérer est que tous ses employés possèdent un haut niveau de compétences. » Début 2020, Besmertnik a commencé à intégrer l'IA aux évaluations de performance de toute son entreprise. Les employés reçoivent une note de compétences en IA de 1 à 5, la note maximale étant attribuée aux personnes qui créent des systèmes améliorant le flux de travail de leurs collègues. Il a également créé une nouvelle récompense*: la personne qui conçoit le processus le plus efficace basé sur l'IA remporte une bourse de plusieurs milliers de dollars pour des vacances.

    Nom : meta.png
Affichages : 15913
Taille : 26,8 Ko

    Le retour des métriques absurdes

    L'une des dimensions les plus préoccupantes de cette tendance concerne les indicateurs retenus pour mesurer l'adoption. Le nouveau système d'évaluation de la performance de Meta sera capable de suivre le nombre de lignes de code qu'un ingénieur a écrites avec l'assistance de l'IA.

    Les praticiens du développement logiciel ont immédiatement reconnu l'absurdité de cette démarche. Le nombre de lignes de code comme indicateur de productivité est une idée largement discréditée depuis les années 1990. L'histoire de l'informatique regorge d'exemples célèbres : la réduction du nombre de lignes de code est souvent le signe d'une meilleure conception logicielle, pas d'un manque de travail. Chez Apple en 1982 déjà, l'ingénieur Bill Atkinson était crédité de « -2000 lignes de code » dans les rapports internes, parce qu'il avait réussi à optimiser un composant graphique de QuickDraw en supprimant du code redondant — ce qui était en réalité une performance remarquable.

    En intégrant des métriques d'utilisation de l'IA basées sur la quantité de code généré, les entreprises créent mécaniquement une incitation à produire du code verbeux et inutilement volumineux. Les développeurs qui souhaitent satisfaire aux indicateurs sans réellement changer leur méthode de travail ont déjà trouvé des parades : certains utilisent les outils de génération de code comme un simple système d'auto-complétion avancé, en acceptant puis en supprimant les suggestions, ce qui suffit à gonfler les métriques sans modifier substantiellement le processus. D'autres configurent des tâches automatiques pour consommer des tokens d'API sans aucune valeur productive. La loi de Goodhart, formulée dans les années 1970 par l'économiste britannique Charles Goodhart — « quand une mesure devient un objectif, elle cesse d'être une bonne mesure » — s'applique ici avec une précision chirurgicale.

    La pression sociale et la menace voilée

    Au-delà des métriques, le discours des dirigeants révèle une pression bien plus diffuse. Le PDG d'Autodesk, Andrew Anagnost, a reconnu que certains employés utilisaient furtivement des outils de développement comme Cursor, qui avaient initialement été bloqués, et a averti que ceux qui résistaient à l'IA « ne survivraient probablement pas à long terme ».

    Cette formulation est exemplaire d'une communication patronale qui cherche à normaliser l'adoption de l'IA en diabolisant la résistance, sans jamais assumer clairement les conséquences disciplinaires qui en découleront. Les ingénieurs qui refusent ou peinent à adopter ces outils ne sont pas menacés de licenciement explicite — ils sont simplement avertis qu'ils ne « survivront » pas. La pression est réelle, mais suffisamment abstraite pour échapper aux catégories juridiques habituelles de la discrimination professionnelle.

    Environ 42 % des travailleurs du secteur technologique déclaraient en octobre dernier que leur manager direct attendait d'eux l'utilisation de l'IA dans le travail quotidien, contre 32 % huit mois auparavant. L'augmentation est significative, et la tendance ne semble pas près de s'inverser.

    Le paradoxe de la productivité

    L'argument central invoqué par les entreprises pour justifier ces politiques est celui de la productivité. L'IA permettrait aux développeurs d'écrire du code plus rapidement, de résoudre des problèmes plus efficacement et de se concentrer sur des tâches à plus haute valeur ajoutée. Les études d'impact sont pourtant nettement moins univoques que ne le laissent entendre les directions.

    Un sondage ManpowerGroup 2026 Global Talent Barometer a constaté que si l'utilisation régulière de l'IA par les travailleurs avait augmenté de 13 % en 2025, leur confiance dans l'utilité réelle de la technologie avait simultanément chuté de 18 %. Autrement dit, les salariés utilisent davantage l'IA mais lui font de moins en moins confiance. Une enquête distincte auprès de 6 000 dirigeants a révélé que plus de 80 % des entreprises n'avaient enregistré aucun gain de productivité mesurable à partir de l'IA, malgré des investissements se chiffrant en milliards

    Ces chiffres sont d'autant plus troublants que les géants de la tech sont en train d'engager des sommes colossales dans cette course à l'armement technologique. Amazon, Meta, Microsoft et Alphabet sont sur la trajectoire d'une dépense cumulée de 650 milliards de dollars dédiés à l'IA en 2026. Face à de tels investissements, la pression pour justifier la valeur de l'IA auprès des actionnaires est immense — ce qui explique en partie pourquoi les directions cherchent à imposer l'adoption plutôt qu'à la laisser émerger naturellement.

    Les ingénieurs séniors, premières victimes des métriques aveugles

    Les études sur le sujet pointent vers une réalité contre-intuitive : l'IA générative est souvent moins utile pour les ingénieurs les plus expérimentés. Les profils juniors, qui manquent de contexte et de bases solides dans certains domaines, peuvent effectivement gagner en vitesse d'exécution grâce aux assistants de code. Les ingénieurs séniors, eux, travaillent souvent sur des problèmes suffisamment complexes, spécifiques et mal documentés pour que les modèles de langage soient peu pertinents.

    En imposant des métriques d'adoption indifférenciées à l'ensemble de leurs équipes, les entreprises risquent d'inverser leur avantage compétitif : pénaliser les ingénieurs les plus expérimentés — précisément ceux dont les jugements permettent d'éviter les erreurs d'architecture coûteuses — au profit de profils qui génèrent du code rapidement mais sans nécessairement en comprendre les implications techniques profondes.

    La question de la dette technique est à cet égard centrale. Le code généré par les LLM est fonctionnel dans l'immédiat, mais il n'est pas nécessairement maintenable ni évolutif. Intégré massivement sans relecture critique, il peut constituer une bombe à retardement pour les bases de code des grandes entreprises, qui devront dans quelques années consacrer des ressources importantes à le refactoriser ou à en comprendre les subtilités. Les développeurs qui acceptent aveuglément les suggestions de l'IA pour satisfaire aux métriques accélèrent peut-être leur évaluation de performance de court terme au détriment de la santé technique à long terme de leur entreprise.

    La question des droits et de la confidentialité

    Une dimension souvent négligée de ce débat concerne la nature même des données qui transitent par ces outils d'IA. Chaque prompt envoyé à GitHub Copilot, Cursor ou aux équivalents internes de Google et Meta contient potentiellement des informations sensibles sur le code propriétaire de l'entreprise, ses architectures internes, voire ses données clients. En forçant l'adoption de ces outils, les directions exposent mécaniquement leur propriété intellectuelle à des systèmes tiers dont les conditions de traitement des données méritent examen.

    La réponse habituelle des fournisseurs — les données professionnelles ne sont pas utilisées pour entraîner les modèles — est contractuellement encadrée dans la plupart des offres entreprise, mais elle repose sur la confiance accordée à des acteurs dont le modèle économique a précisément été construit sur la valorisation des données. Les entreprises qui imposent l'IA à leurs ingénieurs sans avoir préalablement évalué les implications en matière de confidentialité et de propriété intellectuelle prennent un risque réglementaire non négligeable, particulièrement dans le contexte du RGPD européen.

    Vers un dialogue social sur l'IA au travail ?

    La question de l'introduction contrainte de l'IA dans les processus de travail ne devrait pas rester une prérogative exclusive des directions d'entreprise. En Europe notamment, les instances représentatives du personnel disposent souvent de droits d'information et de consultation sur l'introduction de nouvelles technologies susceptibles d'affecter les conditions de travail. L'intégration de l'usage de l'IA dans les critères d'évaluation de performance constitue une modification substantielle des modalités d'appréciation des salariés — un terrain sur lequel les partenaires sociaux ont légitimement leur mot à dire.

    Les développeurs, de leur côté, ne manquent pas d'imagination pour résister à des métriques qu'ils jugent arbitraires. Les anecdotes se multiplient sur des forums spécialisés : certains ont mis en place des scripts automatisés pour consommer des tokens sans aucune valeur productive, d'autres utilisent les outils de manière superficielle pour satisfaire aux tableaux de bord tout en continuant à travailler comme avant. Ce jeu du chat et de la souris entre management et ingénieurs illustre une tension profonde : quand les indicateurs de performance se déconnectent de la réalité du travail, les salariés optimisent pour les indicateurs, pas pour la qualité.

    La véritable transformation que cherchent ces entreprises — une intégration profonde et bénéfique de l'IA dans les pratiques de développement — ne peut pas s'obtenir par décret. Elle requiert une pédagogie, un accompagnement, et surtout une écoute des réticences légitimes que les professionnels expriment face à des outils dont les limites sont réelles et documentées.

    Sources : Meta, LinkedIn, Fortune

    Et vous ?

    Quelle lecture faites-vous de ce virage ? Êtes-vous surpris ? Qu'est-ce qui pourrait l'expliquer selon vous ?

    L'intégration de l'usage de l'IA dans les critères d'évaluation de performance constitue-t-elle une avancée managériale légitime ou un détournement des outils d'appréciation professionnelle ?

    Les métriques actuellement retenues (lignes de code générées par IA, tokens consommés) sont-elles fondamentalement inadaptées à la mesure de la qualité du travail d'un ingénieur, et comment pourrait-on en concevoir de meilleures ?

    Le fait de forcer l'adoption de l'IA risque-t-il à terme de produire l'effet inverse de celui recherché, en dégradant la qualité des bases de code et en évinçant les profils les plus seniors et les plus critiques ?

    Cette tendance a-t-elle des chances de se propager en Europe ? Dans quelle mesure les instances représentatives du personnel, en France et en Europe, devraient-elles être consultées sur ces nouvelles politiques d'adoption forcée de l'IA ?

    Voir aussi :

    L'utilisation de l'IA au travail a augmenté, avec un taux d'utilisation de 77 % dans le secteur technologique, qui est le plus susceptible d'utiliser l'IA dans le cadre de ses activités, selon Gallup

    Les investisseurs s'attendent à une explosion de l'utilisation de l'IA. Ce n'est pas le cas : la part des travailleurs utilisant l'IA au travail est en baisse et les profits se font attendre

    700 milliards $ investis et pourtant l'IA n'a quasiment rien apporté à la croissance économique américaine l'an dernier, selon Goldman Sachs. L'IA enrichit Taiwan et la Corée du Sud, pas les États-Unis
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #437
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 741
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 741
    Par défaut Les investissements dans le secteur de l'IA aux États-Unis continuent de battre des records
    La folie de la bulle IA à 1 000 Mds $ aux États-Unis : des investissements toujours record, des dépenses supérieures aux revenus durables et des flux financiers en réalité transférés à l'étranger vers TSMC

    Les États-Unis connaissent un boom d'investissement inédit pour financer l’infrastructure matérielle et logicielle nécessaire à l'IA. La construction de centres de données dépasse désormais un rythme annualisé de 42 milliards de dollars, soit une hausse de plus de 300 % depuis le lancement de ChatGPT fin 2022. Les dépenses combinées en centres de données, ordinateurs et logiciels dépassent désormais 1 000 milliards de dollars par an, soit environ 3,5 % du PIB américain, un niveau record. Mais les revenus des Big Tech ne reflètent pas l’ampleur des investissements. Une grosse partie de l'argent est captée par les fabricants étrangers de puces et de mémoires.

    La question d'une bulle spéculative autour de l'IA fait débat depuis plusieurs années. Les valorisations boursières dans le secteur ont atteint des niveaux inédits depuis la bulle Internet ; Nvidia est valorisé à plus de 4 000 milliards de dollars et les cinq plus grandes entreprises technologiques concentrent 30 % du S&P 500. Cette dynamique dépasse en intensité les grandes vagues d’investissement passées comme l’électrification, le déploiement du haut débit, etc.

    Pourtant, selon un rapport du MIT, 95 % des entreprises ayant investi dans l'IA n'en tiraient aucun retour financier mesurable. Le décalage entre les capitaux engagés et les revenus générés est au cœur du débat : s'agit-il d'un investissement fondateur dont les fruits mûriront avec le temps, ou d'un emballement collectif promis à une correction brutale ? La réponse dépendra largement de la capacité de l'IA à tenir ses promesses en matière de productivité.

    Ces niveaux d'investissement rappellent de plus en plus la bulle Internet du début des années 2000 : les valorisations boursières actuelles seraient, selon certains économistes, les plus élevées depuis l'éclatement de cette bulle, avec un indice S&P 500 se négociant à 23 fois les bénéfices prévisionnels.

    Une explosion historique de l’investissement dans l’IA aux États-Unis

    Dans le contexte du boom des investissements aux États-Unis, les dépenses consacrées à la construction de centres de données ont atteint un nouveau record, dépassant désormais 42 milliards de dollars par an, soit une augmentation de plus de 300 % depuis le lancement de ChatGPT fin 2022. Si la croissance a ralenti au cours des six derniers mois, les investissements ont néanmoins augmenté de plus de 18 % au cours de l'année qui s'est écoulée.

    Nom : 1.png
Affichages : 5434
Taille : 101,6 Ko

    Ces investissements ne comprennent pas toutefois les coûts bien plus élevés des GPU, TPU et autres composants électroniques coûteux qu'ils abritent. Les investissements fixes réels des États-Unis dans ces centres de données et les équipements périphériques associés ont atteint un niveau record de plus de 270 milliards de dollars par an, soit une hausse de près de 50 % par rapport à l'année dernière et de de 77 % depuis le lancement de ChatGPT.

    De même, les dépenses en informatique sont éclipsées par les investissements dans le développement de logiciels, qui dépassent désormais 750 milliards de dollars par an, une part de plus en plus importante étant consacrée à la formation, au déploiement et à l'intégration des systèmes d'IA. Au total, les dépenses en centres de données, en informatique et en logiciels dépassent 1 000 milliards de dollars par an, soit environ 3,5 % du PIB américain.

    Selon une analyse récente, il s'agit probablement d'une sous-estimation de la valeur réelle des investissements fixes liés à l'IA, car les statistiques officielles ont du mal à prendre en compte les dépenses en matériel informatique ou à refléter correctement l'ensemble des développements logiciels.

    Une bulle à trois dimensions soutenue par un petit groupe d'acteurs

    Selon Faisal Hoque, entrepreneur et leader d'opinion, il existe trois bulles dans le domaine de l'IA : une bulle spéculative, une bulle infrastructurelle et une bulle médiatique. L'IFRI (Institut français des relations internationales) distingue également plusieurs niveaux dans cette dynamique. L'IA relève d'abord d'une bulle réputationnelle, portée par des récits qui la présentent comme une solution « miraculeuse », malgré des capacités encore limitées.

    Nom : 2.png
Affichages : 941
Taille : 96,1 Ko

    Cette première bulle en nourrit deux autres : une bulle spéculative, marquée par les capitalisations boursières élevées des acteurs du secteur, et une bulle infrastructurelle, liée au déploiement massif de centres de données très gourmands en ressources. En outre, les cycles d'innovation rendent puces et centres de données rapidement obsolètes, entre 2 et 6 ans selon les estimations, ce qui pose sérieusement la question de leur amortissement.

    La majorité de cet effort provient d’un petit nombre d’acteurs technologiques majeurs (Meta, Alphabet, Amazon et Microsoft). Leurs dépenses d’investissement physique devraient dépasser 600 milliards de dollars en 2026, en forte hausse par rapport à l’année précédente. Ces quatre entreprises ont basculé d’un modèle centré sur l’embauche à un modèle très capitalistique, réduisant les effectifs tout en accumulant massivement des actifs matériels.

    Ce phénomène reste quasi exclusivement américain : l'investissement informatique au Canada, au Royaume-Uni, dans l'UE et au Japon ne connaît pas d'accélération comparable. Cette stratégie suppose que les capacités des modèles d’IA continueront de croître de manière exponentielle et généreront des revenus suffisants pour amortir ces investissements colossaux. Les dirigeants du secteur s'attendent à un avenir dominé par l'IA et les androïdes.

    Une dépendance aux importations aux fabricants de puces asiatiques

    L’essentiel du matériel utilisé dans les centres de données américains est importé, notamment de Taïwan, du Mexique et de la Malaisie. Les importations d’ordinateurs liés à l’IA ont atteint près de 400 milliards de dollars annualisés et ont fortement augmenté depuis 2022. Les importations en provenance de Taïwan ont bondi de 670 % en trois ans seulement. Ce territoire insulaire du Pacifique abrite TSMC, le plus grand fabricant de puces au monde.

    Nom : 3.png
Affichages : 930
Taille : 127,5 Ko

    Taïwan occupe une position centrale, en particulier via la production de semiconducteurs de pointe, ce qui souligne la dépendance américaine aux chaînes d’approvisionnement asiatiques. Fait notable, ces équipements bénéficient d’exemptions tarifaires dans le contexte de tensions commerciales plus larges.

    Selon les données de l'analyse, en novembre dernier, près de 42 milliards de dollars d’ordinateurs et de composants informatiques ont ainsi été admis sur le territoire américain en franchise totale de droits de douane, soit plus de 16 % de l’ensemble des importations de biens enregistrées ce mois-là.

    Il est important de souligner que les ordinateurs mexicains sont également fabriqués en grande partie avec des puces taïwanaises, les importations du Mexique en provenance de cette île ayant atteint un pic de 80 milliards de dollars par an en octobre, soit une hausse de 315 % par rapport à l'année dernière.

    La frénésie autour de l'IA alimente une pénurie critique de mémoires

    La production industrielle de semiconducteurs américains a atteint des records, portée à la fois par le boom de l'IA et les subventions du CHIPS Act, une loi adoptée sous l'administration Biden. La demande en électricité des centres de données pousse la consommation commerciale à des niveaux inédits, concentrés notamment au Texas et dans la région mid-Atlantique, faisant grimper les prix de l'électricité commerciale de près de 7 % sur un an.

    Nom : 4.png
Affichages : 930
Taille : 138,3 Ko

    L'investissement dans l'IA est si massif qu'il contrevient à l'une des lois fondamentales de l'informatique : historiquement, l'électronique devient toujours moins chère avec le temps. Or les prix augmentent aujourd'hui au deuxième rythme le plus rapide jamais enregistré, et les prix de la mémoire informatique ont plus que triplé en un an. En gros, la bulle de l'IA alimente une pénurie de mémoire qui provoque la hausse des prix de tous les appareils.

    La grande question : les revenus exceptionnels promis suivront-ils ?

    Selon les enquêtes, environ 18 % des entreprises américaines déclarent désormais utiliser l'IA directement dans leurs opérations, un chiffre qui monte à 30 % dans les secteurs de l'information et des services professionnels. Pourtant, les revenus des grandes entreprises technologiques américaines ne connaissent pas encore l'accélération spectaculaire que laisserait supposer l'ampleur des investissements. Et certains craignent que cela n'arrive jamais.

    La majorité du matériel informatique étant importée, une grande partie des gains à court terme à court terme revient directement aux fabricants étrangers de composants. Selon les données récentes, l'investissement net dans l'IA n'a contribué qu'à 0,3 % du taux de croissance annualisé de 4,4 % du PIB américain.

    Débâcle en bourse : l'industrie de l'IA face à l'heure de vérité ?

    Le marché semble pris dans une boucle où il craint à la fois la toute-puissance de l'IA et son inefficacité économique. Cette dualité crée une situation paradoxale que Julia Wang, responsable des investissements chez Nomura International Wealth Management, qualifie de contradictoire, soulignant que ces deux craintes ne peuvent être simultanément fondées. Elles couvaient depuis des mois. Mais elles ont maintenant pris le devant de la scène boursière.

    Nom : 5.png
Affichages : 931
Taille : 176,7 Ko

    Il en a résulté une série de ventes massives qui ont frappé de plein fouet des dizaines d'entreprises dans divers secteurs, des services immobiliers à la gestion de patrimoine, en passant par les courtiers d'assurance et les entreprises de logistique. Selon un récent rapport de Bloomberg, les ventes d'actions ont fait perdre plus de 1 000 milliards de dollars à la valeur boursière des grandes entreprises technologiques qui investissent le plus dans l'IA.

    « Il y a une contradiction dans les préoccupations des investisseurs concernant l'IA », a déclaré Julia Wang, directrice des investissements pour l'Asie du Nord chez Nomura International Wealth Management, à Bloomberg Television. « Ces deux choses ne peuvent pas être vraies en même temps ».

    Ce changement marque une rupture majeure par rapport au sentiment qui prévalait ces dernières années, lorsque les spéculations selon lesquelles l'IA allait déclencher un boom de productivité transformateur continuaient de faire grimper les cours des actions. (Meta a bondi de près de 450 % entre la fin 2022 et début 2026.) Alors que les actions des Big Tech continuaient de grimper, les craintes liées à l'éclatement d'une bulle n'ont pas freiné la hausse.

    La situation actuelle est bien pire que lors de la bulle des dotcoms

    Edward (Ed) Benjamin Zitron, auteur, podcasteur et spécialiste des relations publiques anglais, a rapporté le mois dernier : « la situation actuelle est bien pire que celle qui prévalait lors de la bulle Internet ». De nombreux PDG ont admis qu'ils ne tirent aucun bénéfice des investissements dans l'IA. Au lieu de cela, une gigantesque bulle s'est formée autour de l'IA et son éclatement pourrait effacer des centaines de milliards de dollars d'investissements.

    Nom : 65.png
Affichages : 485
Taille : 186,1 Ko

    Il a rappelé quelques chiffres clés de la bulle Internet d'il y a vingt ans. Le capital-risque américain a investi 11,49 milliards de dollars (23,08 milliards de dollars actuels) en 1997, 14,27 milliards de dollars (28,21 milliards de dollars actuels) en 1998, 48,3 milliards de dollars (95,50 milliards de dollars actuels) en 1999 et plus de 100 milliards de dollars (197,71 milliards de dollars) en 2000, pour un total de 344,49 milliards de dollars (en dollars actuels).

    Ce montant représente seulement 6,174 milliards de dollars de plus que les 338,3 milliards de dollars levés en 2025, dont 40 à 50 % (environ 168 milliards de dollars) ont été investis dans l'IA générative. En 2024, les startups nord-américaines spécialisées dans l'IA ont levé environ 106 milliards de dollars.

    À partir de ces données, Edward Zitron explique que la bulle actuelle est en fait « bien pire » que la bulle Internet, parce que les sommes investies sont presque aussi importantes et que l’écart entre promesse et réalité économique semble encore plus grand. Selon le New York Times, « 48 % des entreprises de l'ère des dotcoms créées depuis 1996 existaient encore fin 2004, soit plus de quatre ans après le pic atteint par le Nasdaq en mars 2000 »

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des investissements massifs dans l'infrastructure d'IA aux États-Unis ?
    Ces investissements n'ont quasiment rien apporté à la croissance économique du pays. Qu'en pensez-vous ?
    Quelles sont vos prédictions sur l'avenir de l'IA ? Pensez-vous que l'IA ajoutera des milliers de milliards de dollars au PIB mondial ?

    Voir aussi

    La bulle IA commence à se dégonfler, OpenAI réajuste ses prévisions de dépenses, de 1 400 milliards à 600 milliards de $, tout en perdant des milliards chaque mois

    « La bulle actuelle dans le secteur de l'IA est bien pire que la situation qui prévalait lors de la bulle Internet », selon un critique qui estime que les investisseurs ont parié sur des « projets bidons »

    Elon Musk, Dario Amodei et d'autres prédisent des progrès exponentiels dans l'IA, des gains de productivité massifs et une robotique à grande échelle d'ici 10 ans, mais la réalité est plus « prosaïque »

Discussions similaires

  1. Réponses: 0
    Dernier message: 06/08/2010, 11h34
  2. Microsoft et SAP s'allient contre Oracle
    Par Gordon Fowler dans le forum Actualités
    Réponses: 0
    Dernier message: 19/11/2009, 16h07
  3. Réponses: 2
    Dernier message: 16/01/2009, 16h50
  4. Erreur Oracle suite a un traitement(parallel query)
    Par D_light dans le forum Oracle
    Réponses: 2
    Dernier message: 16/04/2007, 10h42

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo