IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les investissements dans le secteur de l'IA aux États-Unis continuent de battre des records


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    588
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 588
    Par défaut
    « À son tour, cette situation pourrait provoquer un effondrement de l'économie dans son ensemble, impactant ainsi tout le monde. » Cela n’est pas étayé. Avec un portefeuille d’action assez panaché (règle de prudence nº1), le risque sera marginal. Un « rattrapage » du cours de NVidia n’aura principalement d’effet que sur ses actionnaires.

    Ce n’est pas les subprimes où la titrisation et la revente de créances moisies a gangréné le système bancaires.

  2. #2
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    168
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 168
    Par défaut
    Seulement quelques entreprises solides ont survécu à la tempête, comme Amazon ou Google
    Google est entré en bourse en 2004, soit 3 ans après la tempête.

  3. #3
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 010
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 010
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    « La différence entre la bulle informatique des années 1990 et la bulle de l'IA aujourd'hui est que les 10 premières entreprises du S&P 500 sont aujourd'hui plus surévaluées qu'elles ne l'étaient dans les années 1990 », a écrit Torsten Sløk dans sa note largement diffusée sur les médias sociaux. D'après l'analyse de Torsten Sløk, les 10 premières entreprises de l'indice de référence se négocient à un ratio cours/bénéfice prévisionnel sur 12 mois d'environ 25.

    « Cela suggère que les entreprises sont cotées à une prime légèrement plus élevée qu'il y a vingt ans », a-t-il écrit. Le ratio cours/bénéfice mesure la cherté d'une action en comparant son prix à ses bénéfices. Un ratio élevé signifie que les investisseurs paient une prime et parient sur une forte croissance future.

    Cela signifie que les investisseurs parient si agressivement sur les géants de l'IA tels que Nvidia, Microsoft, Apple et Google que le cours de leurs actions s'est détaché de leurs bénéfices réels, plus encore que ne l'étaient les chouchous de la technologie, notamment Cisco et AOL dans les années quatre-vingt-dix. Les dix premières entreprises technologiques à l'origine de cette frénésie comprennent Nvidia, Microsoft, Apple, Alphabet (Google), Amazon et Meta.

    Elles détiennent la valeur marchande la plus importante à Wall Street. Nvidia a récemment franchi la barre des 4 000 milliards de capitalisation boursière, dépassant Microsoft et Apple, qui sont les deux seules autres entreprises de la course à l'IA possédant une valorisation supérieure à 3 000 milliards de dollars. Il s'agit d'une frénésie d'IA très concentrée qui pousse une poignée d'actions à très forte capitalisation à se retrouver en situation de saignement de nez.
    Pourvu que les banques n'ont pas trop investit dans les entreprises qui se dégonfleront.
    Sinon y'en a qui vont devoir dire adieu à leur assurance vie, après l'éclatement de la bulle.

    Bon alors ça ne fonctionne pas trop, parce qu'il y a des règles qui font qu'une petite partie peut être investie en actions, l'argent des assurances vie est principalement investit dans des obligations d'État ou d'entreprises.

    Quoi qu'il en soit il est possible que des grosses banques fassent faillite.

  4. #4
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 359
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 359
    Par défaut
    j'ai un portefeuille très diversifié, qui va des métaux, a l'armement, le médicale, a la tech et l'ia.

    Certains marchés sont porteurs et d'autres diminue, mes actions dans l'automobile vont pas fort par exemple, mais l'armement et l’aéronautique rattrape bien.
    J'ai quasi toujours été a plus de 5-6% de rendement par ans, sauf covid et crise de 2008 ou j'ai parfois plongé.
    Ma meilleur année fut juste après le covid avec un +10%.

    Bref une chute de l'ia ne va rien changer a mon rendement, au pire je tomberais à 5%, et globalement tous les gros fonds de pensions sont diversifié. Personne en dehors des spéculateurs ne mettent 100% sur l'ia ou un domaine/une entreprise bien précis.
    Quand on investie, on diversifie: la bourse dans pleins d'entreprise via des indices généralement (cac40, pea européen, nasdac, etf monde...)
    et aussi l'or/autre métaux, l'immobilier papier via les scpi.

    Depuis peu j’investis en Afrique de l'ouest via la BRVM. Une zone remplie de jeune qui bossent et la chine y apporte les usines, pour moi c'est un boom de croissance en perspective.

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 902
    Par défaut Dites adieu à la bulle de l'IA et préparez-vous au krach : des analystes évoquent son éclatement imminent
    Dites adieu à la bulle de l'IA et préparez-vous au krach : plusieurs analystes soulignent les signes avant-coureurs de son éclatement imminent,
    Sam Altman lui-même le reconnait à demi-mot

    Depuis le lancement de ChatGPT il y a plus de deux ans, l'intelligence artificielle générative est sur toutes les lèvres. Des géants de la tech aux start-up les plus audacieuses, tout le monde s'est mis à rêver de cette nouvelle révolution. Les chiffres donnent le vertige : des milliards de dollars investis, des valorisations qui s'envolent et un marché boursier enivré par les promesses d'un futur radieux. Les promesses sont immenses : réinventer la productivité, automatiser la créativité, transformer la manière dont nous travaillons. Mais derrière l’emballement médiatique et financier, des signaux inquiétants s’accumulent.

    Aussi, des voix de plus en plus nombreuses murmurent la même inquiétude : sommes-nous en train de vivre la formation d'une nouvelle bulle, prête à éclater ? Plusieurs analystes estiment que nous vivons actuellement une bulle spéculative comparable à celle des dot-com au début des années 2000.


    Une étude récente du MIT fait l’effet d’une douche froide : 95 % des projets en intelligence artificielle générative échouent à créer de la valeur mesurable. Autrement dit, seule une poignée de cas d’usage parvient réellement à générer un retour sur investissement tangible. « Malgré les 30 à 40 milliards de dollars investis par les entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », ont écrit les chercheurs du MIT.

    Suite à ce rapport, les actions de Nvidia, l'entreprise évalué à 4 000 milliards de dollars qui a alimenté le boom de l'IA, ont chuté de 3,5 %, tandis que celles du géant des données Palantir ont baissé de 9 %. Les conclusions du MIT risquent de faire éclater la bulle boursière technologique, qui a ajouté des milliers de milliards de dollars à la valeur des actions américaines.

    La fascination pour l'IA n'est pas infondée. Les progrès sont réels et spectaculaires. Les modèles de langage comme GPT ou les générateurs d'images ont démontré des capacités impressionnantes, ouvrant la voie à des applications autrefois inimaginables. Mais cet engouement a entraîné une course folle qui présente plusieurs points de fragilité :
    • Des valorisations déconnectées de la réalité : Des start-up, parfois avec peu ou pas de revenus, atteignent le statut de licorne et des valorisations astronomiques. Le marché parie sur un potentiel futur, sans se soucier du présent. C'est le miroir de l'ère de la bulle Internet, où l'audience et la « croissance à tout prix » l'emportaient sur la rentabilité.
    • Le modèle économique en question : Produire et faire fonctionner des modèles d'IA à grande échelle coûte une fortune. Ces systèmes nécessitent une puissance de calcul colossale (GPU) et des investissements massifs. Pour l'instant, les coûts de fonctionnement pour les entreprises dépassent souvent les revenus générés. La rentabilité est un horizon lointain, voire incertain.
    • La surenchère du talent et de la puissance de calcul : La bataille pour attirer les meilleurs ingénieurs en IA fait grimper les salaires de manière déraisonnable. En parallèle, la pénurie de puces spécialisées comme celles de Nvidia crée une dépendance et des coûts d'infrastructure qui pèsent lourdement sur les bilans.

    La plupart des entreprises se retrouvent donc face à trois obstacles majeurs :
    • Des coûts massifs en infrastructure et en expertise.
    • Une complexité d’intégration dans des processus métier souvent mal préparés.
    • Des bénéfices limités en comparaison avec les promesses marketing.

    Pour de nombreuses organisations, l’IA générative est encore perçue comme un gadget spectaculaire, mais difficile à industrialiser.

    Nom : success.png
Affichages : 145317
Taille : 10,7 Ko

    GPT-5 et la déception technologique

    La plupart des personnes qui ne sont pas profondément impliquées dans la frénésie autour de l'intelligence artificielle ne l'ont peut-être pas remarqué, mais l'idée selon laquelle l'IA progresserait inexorablement vers une intelligence supérieure à celle des humains, voire deviendrait une menace pour l'humanité, a pris fin brutalement le 7 août.

    C'est ce jour-là que la société d'IA la plus suivie, OpenAI, a lancé GPT-5, un produit avancé qui, selon les promesses de longue date de l'entreprise, allait faire honte à ses concurrents et déclencher une nouvelle révolution dans cette technologie prétendument révolutionnaire.

    En réalité, GPT-5 s'est révélé être un échec. Il s'est avéré moins convivial et, à bien des égards, moins performant que ses prédécesseurs dans l'arsenal d'OpenAI. Il a commis le même type d'erreurs risibles en répondant aux demandes des utilisateurs, n'était pas meilleur en mathématiques (voire pire) et ne représentait en rien l'avancée dont OpenAI et son directeur général, Sam Altman, avaient tant vanté les mérites.

    « On pensait que cette croissance serait exponentielle », explique Alex Hanna, critique technologique et coauteur (avec Emily M. Bender de l'université de Washington) du nouvel ouvrage incontournable The AI Con: How to Fight Big Tech's Hype and Create the Future We Want (L'arnaque de l'IA : comment lutter contre le battage médiatique des géants de la technologie et créer l'avenir que nous voulons). Au lieu de cela, selon Hanna, « nous nous heurtons à un mur ».

    Les conséquences vont au-delà de ce que tant de personnes ont été amenés à attendre (chefs d'entreprise), voire à craindre (travailleurs), de la pénétration de l'IA dans nos vies. Des centaines de milliards de dollars ont été investis par des capital-risqueurs et de grandes entreprises telles que Google, Amazon et Microsoft dans OpenAI et ses nombreux laboratoires d'IA, même si aucun de ces laboratoires n'a encore réalisé de bénéfices.

    Une bulle rappelant celle des dot-com

    L’histoire se répète. Au tournant des années 2000, la bulle Internet avait vu les valorisations de jeunes pousses s’envoler à des niveaux absurdes. Beaucoup de ces sociétés ont ensuite disparu.

    Aujourd’hui, on retrouve les mêmes ingrédients avec l’IA :
    • Des investissements colossaux (plus de 500 milliards de dollars injectés en deux ans par les GAFAM).
    • Des revenus modestes en retour (35 milliards estimés en plus, soit un écart énorme).
    • Une frénésie médiatique où chaque entreprise se doit d’annoncer son « plan IA » pour rester crédible.

    Les entreprises cotées en bourse se sont empressées d'annoncer des investissements dans l'IA ou de revendiquer des capacités d'IA pour leurs produits dans l'espoir de faire grimper le cours de leurs actions, tout comme la génération précédente d'entreprises s'était présentée comme des « dot-coms » dans les années 1990 afin de paraître plus attrayantes aux yeux des investisseurs.

    Nvidia, le fabricant d'une puce haute performance alimentant la recherche en IA, joue presque le même rôle que celui joué par Intel Corp., un autre fabricant de puces, dans les années 1990 en tant que leader boursier, contribuant à soutenir le marché haussier des actions.

    « Cela semble logique pour une bulle », a déclaré Marko Kolanovic, ancien directeur de recherche chez JP Morgan.

    Le MIT a constaté que malgré des investissements massifs dans les logiciels d'IA, la moitié des projets se sont soldés par un échec. Il a indiqué que 80 % des entreprises avaient exploré la technologie de l'IA, mais que seulement 40 % l'avaient déployée. Il ajoute que les « systèmes de niveau entreprise » ont été « discrètement rejetés » par les grandes entreprises et que seulement « 20 % ont atteint le stade pilote et 5 % seulement ont atteint le stade de la production ».

    Le rapport, issu du projet Nanda AI de l'université américaine, poursuit en affirmant que de nombreux employés souhaitent en fait utiliser l'IA, mais se tournent vers des produits grand public tels que ChatGPT à leurs propres frais, plutôt que de s'appuyer sur des outils d'IA d'entreprise coûteux ou peu maniables. Le rapport insiste sur le fait que « l'IA transforme déjà le travail, mais pas par les voies officielles », mais sa conclusion principale, selon laquelle la quasi-totalité des investissements des entreprises sont gaspillés, n'aurait pas pu tomber à un moment plus délicat.


    Sam Altman, PDG d'OpenAI, admet à demi-mot

    Bien qu'il soit l'un des principaux bénéficiaires du boom de l'IA (les investisseurs envisageraient une valorisation de 500 milliards de dollars pour sa start-up OpenAI), Sam Altman a refusé, le week-end dernier, d'écarter les inquiétudes selon lesquelles les actions technologiques seraient dans une bulle. « Les investisseurs sont-ils trop enthousiastes ? Je pense que oui », a déclaré le directeur général d'OpenAI aux journalistes lors d'un dîner privé, ajoutant que certaines personnes risquaient de perdre « des sommes colossales ».

    Citation Envoyé par Sam Altman
    Ce n'est pas un comportement rationnel. Je pense que quelqu'un va y laisser des plumes. Quelqu'un va perdre une somme d'argent colossale. Nous ne savons pas qui ; et beaucoup de gens vont gagner une somme d'argent phénoménale. Ma conviction personnelle, même si je peux me tromper, est que, dans l'ensemble, cela représenterait un énorme gain net pour l'économie.
    Les investisseurs craignent que l'un de ces perdants ne soit SoftBank, le géant japonais de la technologie qui a investi des milliards dans OpenAI. Ses actions ont chuté de 7 % mardi.

    Nom : soft.png
Affichages : 50781
Taille : 21,8 Ko

    Si les promesses de l'IA s'avèrent être aussi illusoires que celles des dot-coms, les investisseurs boursiers pourraient être confrontés à une douloureuse prise de conscience.

    Le lancement peu encourageant de GPT-5 pourrait précipiter cette prise de conscience. « Les entreprises spécialisées dans l'IA soutiennent actuellement l'économie américaine, mais cela ressemble beaucoup à une bulle », a déclaré Hanna.

    Le lancement a été si décevant qu'il a mis en lumière à quel point l'ensemble du secteur de l'IA dépendait du battage médiatique.

    Voici ce qu'a déclaré Altman juste avant le dévoilement de GPT-5, en le comparant à son prédécesseur immédiat, GPT-4o : « GPT-4o, c'était peut-être comme parler à un étudiant », a-t-il déclaré. « Avec GPT-5, c'est maintenant comme parler à un expert, un véritable expert titulaire d'un doctorat dans n'importe quel domaine dont vous avez besoin à la demande... quels que soient vos objectifs. »

    Eh bien, pas vraiment. Lorsqu'un utilisateur lui a demandé de produire une carte des États-Unis avec tous les États indiqués, GPT-5 a généré un monde imaginaire, comprenant des États tels que Tonnessee, Mississipo et West Wigina. Un autre utilisateur a demandé au modèle de lui fournir une liste des 12 premiers présidents, avec leurs noms et leurs photos. Il n'en a trouvé que neuf, dont les présidents Gearge Washington, John Quincy Adama et Thomason Jefferson.

    Les utilisateurs expérimentés des modèles précédents de la nouvelle version ont été consternés, notamment par la décision d'OpenAI de fermer l'accès à ses anciennes versions et d'obliger les utilisateurs à se fier à la nouvelle. « GPT5 est horrible », a écrit un utilisateur sur Reddit. « Des réponses courtes et insuffisantes, un langage stylisé plus désagréable, moins de « personnalité »... et nous n'avons pas la possibilité d'utiliser simplement d'autres modèles. » OpenAI a rapidement cédé et a rouvert l'accès aux anciennes versions.

    Conclusion

    Depuis le lancement de ChatGPT en 2022, la Silicon Valley prêche que les chatbots IA vont transformer l'économie. Les dirigeants ont donc dépensé des milliards pour équiper leur personnel et prédit des économies massives.

    Mais la révolution promise de l'IA est au point mort, selon le rapport du MIT.

    Après avoir interrogé 150 chefs d'entreprise et 350 employés, le MIT a constaté que « seuls 5 % des projets pilotes intégrant l'IA génèrent des millions de dollars de valeur, tandis que la grande majorité reste bloquée sans impact mesurable sur le compte de résultat ».

    Le constat est clair : l’IA traverse une phase d’emballement qui ne pourra pas durer. Les marchés, les chercheurs et même les dirigeants des géants du secteur en conviennent.

    Alors, faut-il s'attendre à une catastrophe ? Non. Le "krach" d'une bulle n'est pas la fin de la technologie, mais la fin d'une période d'excès et de spéculation. La bulle, tôt ou tard, se dégonflera. Mais pour les professionnels de l’informatique, ce n’est pas une menace insurmontable : c’est une occasion de prendre du recul, de sélectionner les bons cas d’usage et de préparer l’avenir.

    Les entreprises ne seront plus jugées sur leurs promesses, mais sur leur capacité à générer de la valeur réelle et à résoudre des problèmes concrets. Ce sera le moment idéal pour :
    • Se concentrer sur les fondamentaux. Mettre l'accent sur les projets qui offrent un ROI clair et tangible.
    • Adopter une approche pragmatique. Tester les solutions d'IA en se concentrant sur les cas d'usage qui améliorent véritablement l'efficacité ou créent de nouveaux services.
    • Séparer le bon grain de l'ivraie. Les entreprises viables et les technologies robustes survivront, laissant derrière elles le bruit et le marketing surfait.

    La véritable révolution de l’IA n’a sans doute pas encore commencé. Et c’est peut-être seulement après l’éclatement de la bulle actuelle que nous verrons émerger les applications qui transformeront vraiment nos métiers et nos sociétés.

    Source : Rapport du Center for Information Systems Research du MIT

    Et vous ?

    Pensez-vous que l’IA générative est une véritable révolution technologique, ou simplement une mode passagère alimentée par le marketing ?

    Selon vous, quels secteurs métier tireront réellement profit de l’IA, même après un éventuel éclatement de la bulle ?

    Dans vos propres projets, avez-vous constaté un retour sur investissement concret grâce à l’IA, ou plutôt une déception ?

    Faut-il selon vous continuer à investir massivement dans l’IA, ou adopter une approche plus sobre et ciblée ?

    L’obsession pour les modèles géants est-elle la bonne voie, ou devrait-on privilégier des modèles spécialisés plus petits mais plus efficaces ?

    Pensez-vous que les PME auront réellement accès à des solutions IA utiles, ou que cette technologie restera réservée aux grands groupes capables d’investir lourdement ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 010
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 010
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Une étude récente du MIT fait l’effet d’une douche froide : 95 % des projets en intelligence artificielle générative échouent à créer de la valeur mesurable. Autrement dit, seule une poignée de cas d’usage parvient réellement à générer un retour sur investissement tangible. « Malgré les 30 à 40 milliards de dollars investis par les entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », ont écrit les chercheurs du MIT.
    Ouais pour l'instant ça coute cher et ça ne rapporte rien.
    Les investissements sont massifs parce qu'il faut que les entreprises se dépêchent, il faut prendre de l'avance sur les autres, il n'y aura pas beaucoup de gagnants.

    2, 3 entreprises vont devenir rentable, les autres feront faillite.
    Quand l'IA sera réellement performante il faudra faire payer les utilisateurs. (il faut bien que de l'argent rentre)

  7. #7
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 434
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    La véritable révolution de l’IA n’a sans doute pas encore commencé.
    Au contraire. La révolution "attendue" de l'IA n'a pas eu lieu, mais la révolution "véritable" a eu lieu : les LLM et désormais les agents ont eu un impact significatif sur nos sociétés, et ça va rester. Car oui ils apportent une réelle valeur ajoutée. Mais tant qu'on sait les utiliser correctement. Les usages vont arrêter de partir dans tous les sens, donc ça va se stabiliser, mais ce qui marche va rester.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  8. #8
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    595
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 595
    Par défaut Je suis bien d'accord...
    Matthieu,

    Citation Envoyé par Matthieu Vergne Voir le message
    Au contraire. La révolution "attendue" de l'IA n'a pas eu lieu
    Cette révolution "attendue", c'est celle qui a été "vendue" par les prophètes de l'IA/IAG avant qu'elle soit au point, en faisant mirroiter un ROI mirifique. Ce ROI n'ayant pas lieu, les investisseurs vont se retirer petit à petit, puis leur retrait va s'accélérer, et la bulle de l'IA "attendue" va finalement exploser. Certains pourront faire le gros dos et/ou pourront survivre, mais d'autres vont y laisser leur culotte.

    Citation Envoyé par Matthieu Vergne Voir le message
    mais la révolution "véritable" a eu lieu : les LLM et désormais les agents ont eu un impact significatif sur nos sociétés, et ça va rester. Car oui ils apportent une réelle valeur ajoutée.
    De quelle révolution "véritable" parlez-vous exactement ? Certes, certains domaines se "prêtent bien" à l'IA telle qu'elle existe maintenant (avec LLM et agents), mais quelles sont ces impacts "significatifs" (lesquelles) sur "nos sociétés" (lesquelles) ? Et pour quel "coût" ? Tant dans mon domaine, que dans mon expérience personnel, l'IA n'a strictement rien changé, rien apporté, sauf de nouveau soucis. Mais oui, dans "certains domaines", l'IA peut apporter "une aide", je n'en doute pas, mais de là a parler d'impact signifiquatif, c'est actuellement allez trop loin, me semble-t-il. C'est peut-être en route, mais actuellement (je peux me tromper), il n'y pas de "grand changements". On ne laisse pas n'importe qui utliser n'importe quelle outil. Un bon médecin n'est pas forcément un bon cuisinier.

    Citation Envoyé par Matthieu Vergne Voir le message
    Mais tant qu'on sait les utiliser correctement.
    Mais qui peut vérifier qu'elles sont utilisées "correctement" ? Comment se "fier" à l'IA, sauf a faire "valider" ce qu'elle produit des "spécialistes" du domaine concerné ? Ce qui "diminue", finalement, son "apport". L'IA est un outil, mais seuls des "spécialistes" peuvent l'utiliser et valider ce que cet "outil" produit ? Lorsque l'on fait appel à un humain, spécialiste dans un domaine, on le "connaît", il a des "références", on sait qu'on peut lui faire "confiance", car il a déjà "prouvé" sa valeur, et qu'il va produire un travail "correct" ? On ne peut pas dire ça d'une IA, mais encore une fois, je peux me tromper...

    Citation Envoyé par Matthieu Vergne Voir le message
    Les usages vont arrêter de partir dans tous les sens, donc ça va se stabiliser, mais ce qui marche va rester.
    Je suis d'accord, mais on est là très loin de la promesse de départ...

    BàV et Peace & Love.

  9. #9
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 434
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Cette révolution "attendue", c'est celle qui a été "vendue" par les prophètes de l'IA/IAG
    @OuftiBoy

    Tout l'objectif de mon post est justement de faire la différence entre ce qui a été vendu et la réalité.

    Pour autant, la réalité est que l'IA a fait bouger les lignes au niveau mondial de manière permanente. On a bien de nouvelles capacités grace à cet outil, mais maintenant que les rêves éveillés sont battus en brèche, les pratiques vont se voir "nettoyées" pour ne laisser que ce qui sert vraiment. Pour autant, ça ne va pas se réduire à peu de choses.

    Tout ce qui est de l'ordre du créatif s'est vu sévèrement impacté. Si je veux générer un texte dans le cadre d'un roman ou de role play, ça fonctionne. Je n'ai plus besoin de compter sur la compétence d'un professionnel ou sur un temps de pratique significatif pour obtenir un résultat satisfaisant. Je peux le faire moi-même en ayant les bons modèles et un peu de pratique de prompt. Pareil pour les images. Puis-je générer tout ce que je veux ? Pas du tout, les modèles ont leur limite aussi et c'est à hauteur de l'effort que je veux bien y mettre, mais je peux faire énormément de choses qu'auparavant je n'aurai même pas essayé car la quantité de travail m'aurait découragé.

    Pour ce qui est des tâches plus standardisées, comme le dév logiciel ou la médecine, il est moins question de satisfaction (ressenti subjectif) que d'objectif à atteindre (ce qui est acceptable au sein de la communauté concernée, et non au niveau individuel). La différence fondamentale est qu'une évaluation subjective est facilement influençable, y compris par le produit obtenu. Quand je génère des images, je démarre avec une idée en tête, mais même si je n'arrive pas à l'obtenir l'IA va quand même me sortir des choses, qui potentiellement me plairont quand même, et donc je n'aurai pas perdu mon temps. Ma cible aura juste changé, influencée par ce que l'IA m'aura fourni.

    Cela n'est pas envisageable quand l'objectif est un acquis communautaire :
    • les tests doivent représenter les besoins du clients : si l'IA te génère des tests sympas, ceux-là n'ont aucun intérêt si ce n'est pas aligné avec le client
    • le code doit passer tous les tests : si l'IA te fait un code sympa, tu ne vas pas réécrire les tests pour coller au code fourni
    • etc.


    Pour faire simple, les tâches subjectives sont "adaptables" à l'IA, et c'est ça qui change les pratiques significativement : on se retrouve avec de nouvelles pratiques centrées sur l'IA, car cela permet d'être satisfait à moindre coût comparé aux pratiques habituelles. Les tâches objectives quant à elles n'ont pas cette possibilité. C'est l'IA qui doit atteindre les objectifs recherchés. Dans ce cas il faut trouver les bonnes pratiques pour arriver à satisfaire ces objectifs via l'IA. Mais rien ne dit que cela soit possible ou économiquement viable. C'est ce qu'on vie dans le dev : c'est parti dans tous les sens, mais il va y avoir du nettoyage, jusqu'à ne retenir que ce qui apporte vraiment une valeur ajoutée.

    Et comme l'IA fonctionne de manière statistique, elle ne peut satisfaire les objectifs que de manière statistique. Du coup, soit on accepte que de temps en temps ça fasse n'importe quoi (ça peut être acceptable selon le cas d'usage), soit il faut systématiquement passer derrière pour vérifier que l'objectif est atteint. Ce qui nécessite, comme tu le dis, d'avoir l'expertise adéquate. Si cette vérification peut être automatisée (e.g. générer du code pour passer des tests automatisés existants), c'est envisageable, mais sinon il faut le faire à la main, et là où le coût de cette vérification est au moins aussi élevé que de le faire soi-même, ça n'est juste pas viable.

    Par exemple, il peut être viable que l'IA génère un script que je vérifie (la revue coûte moins cher que le développement), ensuite je compte sur le script pour traiter de manière déterministe une masse de documents, sans avoir besoin de repasser derrière. Il sera moins viable d'utiliser l'IA pour traiter directement la masse de documents, car passer derrière va potentiellement te demander de refaire le boulot pour voir si tu obtiens la même chose, donc autant le faire directement à la main. Ceux qui utilisent l'IA sans repasser derrière n'ont tout simplement pas compris quel outil ils ont dans les mains, et ceux là sont bon à alimenter les articles de drama pour que les autres ne fassent pas la même erreur.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  10. #10
    Membre Expert Avatar de KiLVaiDeN
    Profil pro
    Inscrit en
    Octobre 2003
    Messages
    2 890
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2003
    Messages : 2 890
    Par défaut
    La "bulle" internet a éclaté, et au final, son développement et son déploiement n'a cessé d'augmenter. Cela n'a pas fait disparaitre l'internet, bien au contraire. Il en sera de même pour l'IA.

    Dès qu'une technologie est prometteuse, des investisseurs misent dessus de manière inconsidérée, et cela est tout à fait normal, c'est l'occasion de prendre de l'avance sur les autres. Ils y perdront financièrement, mais l'expérience gagnée sur ces technologies leur sera acquise et utile lorsque les outils s'amélioreront encore, car l'amélioration est continue, les modèles deviennent de plus en plus performant, contrairement à ce que certains prédisaient sur un "plateau" : il n'est pas arrivé, et ma prédiction est qu'il n'arrivera pas.

    Aussi, ne pas mettre dans le même panier les IA génératives et les IA plus "concrètes". Le machine learning par exemple est déployé dès aujourd'hui et avec succès dans de nombreuses entreprises, on ne parle pas de ChatGPT mais bien de modèles entrainés dans des contextes spécifiques où leur apport est indéniable.

    Je vois de nombreux commentaires sur "l'incapacité" supposée des LLMs (comme ChatGPT) à coder, non mais allo ? Il y a encore quelques années, imaginer un outil qui puisse analyser du code "intelligemment", produire de la valeur ajoutée, était impensable, aujourd'hui c'est une réalité : je pense que la "hype" du moment est justement dans le camp des détracteurs de l'IA, qui font un prompt en une ligne pour soi-disant "prouver" que les LLMs échouent, c'est de la malhonnêteté intellectuelle. Regarder du côté de OpenAI, il y a un outil qui s'appelle "Prompt Optimizer". Testez un prompt "classique", comme vous pourriez le faire, puis passez-le dans la moulinette du "Prompt Optimizer", réessayez, et vous verrez la différence de résultat entre les deux, et vous comprendrez que si vous vous basez sur vos capacités, souvent médiocres, de prompteur, pour juger de l'efficacité d'un LLM, vous n'avez qu'un avis à la hauteur de cette médiocrité car le résultat obtenu le sera également.

    Ayant personnellement interagit des milliers de fois avec les LLMs, sur de nombreux sujets, ayant même crée des outils spécifiques pour prompter, je peux vous dire que les LLMs sont bien plus capables que vous le pensez pour le développement. Un LLM a besoin d'un contexte, d'un plan, de précision, selon mon expérience on peut obtenir des résultats optimaux en appliquant ces règles, mais encore faut-il apprendre à utiliser les bons outils, et surtout à comprendre ce qu'est un bon d'un mauvais prompt.

    Pour vous donner un exemple, GPT-5, le dernier modèle d'OpenAI, si vous ne prenez pas le temps de concevoir un prompt sérieux, il va vous répondre également à la va-vite, mais si vous vous appliquez à le questionner, il est bien plus puissant que GPT-4o, ou même qu'un o3, mais pour en apprécier la puissance il faut aller jusqu'à produire un prompt digne de nos attentes.

    Pour finir, je dirais que non seulement les LLMs s'améliorent en continue et ne sont pas prêt de rencontrer un quelconque plateau, mais j'irais encore plus loin, je dirais que oui le métier de développeur va évoluer inexorablement, nous ne sommes plus dans un monde où un développeur doit coder lui-même son application, nous sommes déjà dans un monde où le développeur qui sait prompter, qui sait se doter des bons outils, qui sait bien utiliser les LLMs, va non seulement savoir se servir convenablement des LLMs pour améliorer son travail, mais va en faire des véritables compagnons qui vont le placer bien au-dessus en terme d'efficacité et de qualité qu'un développeur qui fermerait les yeux sur ces technologies, et cet écart va se faire sentir de plus en plus en entreprise, et la compétence consistant à savoir utiliser un LLM sera de plus en plus demandée, bien plus que de savoir coder dans un quelconque langage. Alors bien entendu, il est hors de question d'être un inculte en développement, il faut savoir poser les bonnes questions, connaitre les bonnes pratiques, savoir tester convenablement les retours des LLMs, mais le gain en efficacité est là, et ça va faire toute la différence, alors mon conseil, n'écoutez pas les prédicateurs qui vantent un "krash" de l'IA, ni même ceux qui à l'autre bout du spectre des avis sont tout feu tout flamme sur ces technologies sans apporter les vraies bonnes pratiques, soyez celui ou celle qui sait reconnaitre l'efficacité d'un outil et qui sait que plus l'outil est complexe plus il faut investir de temps dans l'apprentissage de son utilisation plutôt que de continuer à travailler "manuellement", c'est ce que font les vrais pros.

  11. #11
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    261
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 261
    Par défaut Oh OUI 100% OK avec cela sur IA
    Citation Envoyé par KiLVaiDeN Voir le message
    La "bulle" internet a éclaté, et au final, son développement et son déploiement n'a cessé d'augmenter. Cela n'a pas fait disparaitre l'internet, bien au contraire. Il en sera de même pour l'IA.

    Aussi, ne pas mettre dans le même panier les IA génératives et les IA plus "concrètes". Le machine learning par exemple est déployé dès aujourd'hui et avec succès dans de nombreuses entreprises, on ne parle pas de ChatGPT mais bien de modèles entrainés dans des contextes spécifiques où leur apport est indéniable.

    ETC...
    il faut savoir poser les bonnes questions, connaitre les bonnes pratiques, savoir tester convenablement les retours des LLMs, mais le gain en efficacité est là, et ça va faire toute la différence, alors mon conseil, n'écoutez pas les prédicateurs qui vantent un "krash" de l'IA, ni même ceux qui à l'autre bout du spectre des avis sont tout feu tout flamme sur ces technologies sans apporter les vraies bonnes pratiques, soyez celui ou celle qui sait reconnaitre l'efficacité d'un outil et qui sait que plus l'outil est complexe plus il faut investir de temps dans l'apprentissage de son utilisation plutôt que de continuer à travailler "manuellement", c'est ce que font les vrais pros.
    Ah quel plaisir de te lire OUI OUI loin de ta compétence, je pense déjas cela, cette révolution sera pour nos enfant comme une évidence et il n'y aura plus de comparaison entre :
    un neurone biologique,
    un neurone artificiel,
    un “LLM” géant fait de milliards de neurones
    Nom : IA.jpg
Affichages : 775
Taille : 696,3 Ko

  12. #12
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    595
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 595
    Par défaut Ce n'est que mon opinion...
    KilVaiDeN

    Citation Envoyé par KiLVaiDeN Voir le message
    La "bulle" internet a éclaté, et au final, son développement et son déploiement n'a cessé d'augmenter. Cela n'a pas fait disparaitre l'internet, bien au contraire. Il en sera de même pour l'IA.
    Je ne dis pas le contraire, mais la bulle IA explosera (tout comme la bulle internet), puis ce sera une autre étape. Je ne suis pas devin, et rien ne prouve qu'après l'explosion de la bulle IA, cette technologie pourra évoluer dans le bon sens. Tout ne se déroule pas toujours de la même manière. D'autres "bulles" ont explosés, et rien de bon n'en est sorti par la suite...

    Citation Envoyé par KiLVaiDeN Voir le message
    Dès qu'une technologie est prometteuse, des investisseurs misent dessus de manière inconsidérée, et cela est tout à fait normal, c'est l'occasion de prendre de l'avance sur les autres. Ils y perdront financièrement, mais l'expérience gagnée sur ces technologies leur sera acquise et utile lorsque les outils s'amélioreront encore, car l'amélioration est continue, les modèles deviennent de plus en plus performant, contrairement à ce que certains prédisaient sur un "plateau" : il n'est pas arrivé, et ma prédiction est qu'il n'arrivera pas.
    Là encore, je suis d'accord, mais beaucoup de ces investisseurs, qui "misent dessus de manière inconsidérée", n'y trouveront pas leur compte. Certains gagneront beaucoups, certes, mais d'autres y perderont également. Le soucis, comme toute "bulle" est de savoir d'où vient l'argent des investisseurs (groupe, fond de pensions, ...) et que les personnes concernées risquent également d'en souffrir. Une "bulle" n'est jamais bonne pour le citoyen "lambda", car au final, c'est ce citoyen "lambda" qui sera impacté.

    Citation Envoyé par KiLVaiDeN Voir le message
    Aussi, ne pas mettre dans le même panier les IA génératives et les IA plus "concrètes". Le machine learning par exemple est déployé dès aujourd'hui et avec succès dans de nombreuses entreprises, on ne parle pas de ChatGPT mais bien de modèles entrainés dans des contextes spécifiques où leur apport est indéniable.
    Je suis encore tout à fait d'accord, une IA, entrainée avec de bonnes données, se limitant à un "champ" d'action bien spécifique, donnera un bien meilleur résultat qu'une IA alimentée avec tout et n'importe quoi, dans le but de répondre à tout et n'importe quoi...

    Citation Envoyé par KiLVaiDeN Voir le message
    Je vois de nombreux commentaires sur "l'incapacité" supposée des LLMs (comme ChatGPT) à coder, non mais allo ? Il y a encore quelques années, imaginer un outil qui puisse analyser du code "intelligemment", produire de la valeur ajoutée, était impensable, aujourd'hui c'est une réalité
    C'est une réalité ? Il y a pourtant nombre d'exemples qui montrent le contraire. Certains font "marche arrière", l'IA (peut-être mal utilisée, mais un bon outil ne devra se laisser "mal utiliser"). Si un compilateur sort un mauvais code car mal conçu, il faut connaître l'assembleur pour le remarquer.

    Citation Envoyé par KiLVaiDeN Voir le message
    je pense que la "hype" du moment est justement dans le camp des détracteurs de l'IA, qui font un prompt en une ligne pour soi-disant "prouver" que les LLMs échouent, c'est de la malhonnêteté intellectuelle. Regarder du côté de OpenAI, il y a un outil qui s'appelle "Prompt Optimizer". Testez un prompt "classique", comme vous pourriez le faire, puis passez-le dans la moulinette du "Prompt Optimizer", réessayez, et vous verrez la différence de résultat entre les deux, et vous comprendrez que si vous vous basez sur vos capacités, souvent médiocres, de prompteur, pour juger de l'efficacité d'un LLM, vous n'avez qu'un avis à la hauteur de cette médiocrité car le résultat obtenu le sera également.
    Le monde n'est ni blanc, ni noir. Il y a du mépris dans vos propos. Ils sont "execifs", donc insignifiant. Il faudrait être un "génie" tel que vous pour savoir utiliser "correctement" une IA ? Nous sommes trop médiocres, nous ne savons pas faire les "bons" prompts... C'est certains que si l'on pose la mauvaise question, la réponse le sera tout autant...

    Citation Envoyé par KiLVaiDeN Voir le message
    Ayant personnellement interagit des milliers de fois avec les LLMs, sur de nombreux sujets, ayant même crée des outils spécifiques pour prompter, je peux vous dire que les LLMs sont bien plus capables que vous le pensez pour le développement. Un LLM a besoin d'un contexte, d'un plan, de précision, selon mon expérience on peut obtenir des résultats optimaux en appliquant ces règles, mais encore faut-il apprendre à utiliser les bons outils, et surtout à comprendre ce qu'est un bon d'un mauvais prompt.
    Je cite "Selon votre expérience". Une affirmation basée sur 1 expérience, fusse-t-elle de vous, n'a pas de valeur. Comme tout dev à qui l'on donne de mauvaises spécifications, il a lui aussi besoin d'un contexte, d'un plan, de précision... Avec ces éléments en main, il produit un travail meilleur que sans. Rien de nouveau. J'attend toujours de voir une application un peu sérieuse, développée uniquement via des (bons) prompts... Si on me donne une mauvaise spécification, je le vois, je le dis, et cet spécifation est apdatée, réécrite. Que fait l'IA dans ce cas ? Elle "accepte" la mauvaise spécification (le mauvais prompt), et "sort" quelque chose, même si ce quelque chose est mauvais, puisque venant d'une mauvaise entrée. L'IA n'a pas de "réflection". C'est un simple outil pour faciliter certaines tâche. Elle va détruire des emplois, et en créer de nouveau. Sauf que parfois, elle donnera un résultat catastrophique, pouvant avoir un "impact" sur le monde réel. Des ingénieurs se trompent, et des IA se tromperont.

    Citation Envoyé par KiLVaiDeN Voir le message
    Pour vous donner un exemple, GPT-5, le dernier modèle d'OpenAI, si vous ne prenez pas le temps de concevoir un prompt sérieux, il va vous répondre également à la va-vite, mais si vous vous appliquez à le questionner, il est bien plus puissant que GPT-4o, ou même qu'un o3, mais pour en apprécier la puissance il faut aller jusqu'à produire un prompt digne de nos attentes.
    Si le métier de développeur disparaît et est remplacé par le métier de "prompteur", qui va vérifier que le "prompteur" a bien fait son taf ? Et que la réponse donnée est mauvaise ? Il n'y aura plus de assez de devs "compétents" pour faire ce travail, et il faudra faire une confiance aveugle dans l'IA... Certains le feront, il y'a bien des gens qui dorment dans leur tesla avant qu'elle ne s'encastre sous un camion de pompier...

    Citation Envoyé par KiLVaiDeN Voir le message
    Pour finir, je dirais que non seulement les LLMs s'améliorent en continue et ne sont pas prêt de rencontrer un quelconque plateau, mais j'irais encore plus loin, je dirais que oui le métier de développeur va évoluer inexorablement, nous ne sommes plus dans un monde où un développeur doit coder lui-même son application, nous sommes déjà dans un monde où le développeur qui sait prompter, qui sait se doter des bons outils, qui sait bien utiliser les LLMs, va non seulement savoir se servir convenablement des LLMs pour améliorer son travail, mais va en faire des véritables compagnons qui vont le placer bien au-dessus en terme d'efficacité et de qualité qu'un développeur qui fermerait les yeux sur ces technologies, et cet écart va se faire sentir de plus en plus en entreprise, et la compétence consistant à savoir utiliser un LLM sera de plus en plus demandée, bien plus que de savoir coder dans un quelconque langage. Alors bien entendu, il est hors de question d'être un inculte en développement, il faut savoir poser les bonnes questions, connaitre les bonnes pratiques, savoir tester convenablement les retours des LLMs, mais le gain en efficacité est là
    Bref, tout cela pour dire que le métier de développeur va évoluer ? Euh, c'est un des paramètres du métier, un développeur évolue en permanance tout ou long de sa carrière, ce ne sera qu'une autre sorte d'évolution, ou pas.

    Je vous cite : les LLMs s'améliorent en continue et ne sont pas prêt de rencontrer un quelconque plateau.. Si vous le dite, je veux bien vous croire. Vous allez peut-être être étonné, mais d'autres personnes ne pensent pas comme vous, si si, je vous l'assure. Mais qui "croire" ? Madame Irma n'est plus de ce monde pour me donner la réponse, zut alors...

    Citation Envoyé par KiLVaiDeN Voir le message
    et ça va faire toute la différence, alors mon conseil, n'écoutez pas les prédicateurs qui vantent un "krash" de l'IA, ni même ceux qui à l'autre bout du spectre des avis sont tout feu tout flamme sur ces technologies sans apporter les vraies bonnes pratiques, soyez celui ou celle qui sait reconnaitre l'efficacité d'un outil et qui sait que plus l'outil est complexe plus il faut investir de temps dans l'apprentissage de son utilisation plutôt que de continuer à travailler "manuellement", c'est ce que font les vrais pros.
    N'écoutons pas les prédicateurs dites-vous ? Cela s'applique-t-il à vous ? Aurais-je perdu mon temps à vous lire ?

    Vous disiez au début que la bulle IA finira par éclater, et vous dites maintenant qu'il n'y aura pas de "krash", il faudrait être un peu plus clair, Monsieur le vrai Pros, non ?

    Pour terminer, je ne suis ni pour ni contre l'IA, mais j'ai tendance a me méfier des "experts", de ceux qui prétendre détenir "LA" vérité, les autres étant pour eux des ploucs qui de toute manière ne comprennent rien à rien. On en voit tous les jours des "experts", qui délivrent leur "expertise", quitte à dire le contraire 24h plus tard.

    Il y a quand même des "expert" qui ont jugé lors du covid, que boire un café assis ou debout changeaient la dangereusité du buveur de café.

    Et de toute façon, chacun fait comme il veut. Certains ont "industrialisé" un domaine, et d'autres sont restés des "artisants" du même domaine. Chacun apporte une chose différente, et c'est très bien ainsi. Je préfère un bon resto qu'un plat sortant de chez Tricatel...

    Sur ce, Bonne journée.

    BàV et Peace & Love.

  13. #13
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    261
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 261
    Par défaut L'IA existe, les dévelopeurs manquent !
    Bonjour, j'arrives bien tard sur cette discussion que j'ai totalement lue, et qui résume (bien qu'ancienne) ce qui est toujours vrais. L'IA existe depuis longtemps, progresse très vite, mais manque de développeurs !
    J'ai tout plein de remarques à faire, car j’ai beaucoup de mal malgré mon métier, à aider trois de mes enfants qui sont en plein dans le bain IA, dont deux à un très bon niveau.
    Pour ma part j'ai mordu a la passion pour l'IA vers 1988 devant gérer la construction de deux villes (militaires), en deux ans pour l’ Irak ,oui, coordonner les réseaux, les rues , mosquées les villas préfabriquées, les magasins les transports bref tout cela en plein désert , c'est là ou j'ai appris avec l'aide d'IBM , partenaire du projet, avec ses deux AS400, comment programmer les trois éléments (questions, moteur d'inférence et son data center, puis la gestion de la réponse) Aucune structure « je sais tout je dis tout »

    Mon fils me racontait avoir réalisé sur un vieux programme PHP/MSQL +AJAX (réalisé il y a cinq ans pour une holding Française d’assurances). Programme qui gère les centaines de chèques des gros clients qui arrivent chaque jour. Ce programme marche très bien, les chèques sont scannés puis traités ,je ne vais pas vous décrire ce que fait son programme, sachez que tout marchait sur XXX équipes qui finissaient par tout traité si XXX équipes étaient suffisantes !
    Un par un les taches longues réalisées par PHP essentiellement, furent remplacées par de jolis modules PY s’appuyant sur du python !!

    Oui forcément un chèque de gros client paresseux de 60784 € sur un client ayant 250 contrat sa payait quoi ?
    En PHP c'était environ 2minutes en IA 1 seconde !
    Voila alors moi, ancien de notre cher Développez je cherche dans les questions sur IA ou poser mes questions sur du code pour tel ou tel problème, vous savez c'est comme les sites web, ICI on trouve très vite 10 réponses sur un petit code de tel ou tel langage .C'est la force de Développez ! vivement que se soit pareil pour l'IA, surtout que plus

  14. #14
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 902
    Par défaut La bulle de l'IA est 17 X plus importante que la bulle Internet et 4 X plus importante que les subprimes
    La bulle de l'IA est 17 fois plus importante que celle de la bulle Internet et quatre fois plus importante que celle des subprimes,
    selon un analyste

    Un analyste de MacroStrategy Partnership affirme que la bulle de l’intelligence artificielle serait dix-sept fois plus grosse que celle de la frénésie Internet du début des années 2000 et quatre fois plus importante que la bulle des subprimes. Selon lui, non seulement l’ampleur des investissements dans l’IA excède largement celle des bulles technologiques antérieures, mais les conditions de financement et d’optimisme exacerbées pourraient préparer le terrain à un effondrement sévère. Derrière cette provocation, une question essentielle : la révolution de l’IA repose-t-elle sur des bases solides, ou sur un mirage financier alimenté par la peur de « rater le train » ?

    L’idée que nous serions au cœur d’une « bulle de l’IA » n’est pas nouvelle : même Sam Altman, PDG d'OpenAI, s'est joint au concert. Il reconnaît que certaines personnes vont perdre « des sommes colossales » lorsque la bulle de l'IA éclatera.

    Jeff Bezos a fait une remarque similaire au début du mois. Selon le fondateur d'Amazon.com, les bulles se produisent lorsque les cours boursiers sont « déconnectés » du cœur de l'activité d'une entreprise et deviennent surévalués par rapport à ce qui est produit. Les valorisations augmentent alors bien au-delà de la valeur réelle de ces entreprises. Lors du célèbre krach des dot-com au début des années 2000, les entreprises basées sur Internet ont attiré des investissements, même si elles ne réalisaient pas de bénéfices et n'avaient pas de plans d'affaires viables. Lorsque la réalité s'est imposée, le marché s'est effondré, entraînant des pertes importantes pour les investisseurs et la faillite de nombreuses start-ups.

    Bezos a expliqué que pendant une période de boom, toutes les expériences ou idées finissent par être financées, car les investisseurs « ont du mal » à distinguer les bonnes idées des idées médiocres dans l'effervescence générale.

    Bezos a toutefois ajouté que les bulles industrielles sont « loin d'être aussi néfastes », car la technologie sous-jacente développée dans le cadre de celles-ci peut profiter à la société, même lorsque la bulle éclate. Il a donné l'exemple de la bulle biotechnologique et pharmaceutique des années 1990, qui a abouti à la création de médicaments vitaux, même si certaines entreprises ont fait faillite.

    « Lorsque la poussière retombe et que l'on voit qui sont les gagnants, les sociétés bénéficient de ces inventions », a déclaré Bezos. « C'est ce qui va se passer ici aussi. C'est une réalité, les avantages de l'IA pour la société vont être gigantesques. »


    La bulle de l'IA serait désormais 17 fois plus importante que la tristement célèbre bulle Internet

    Selon une nouvelle évaluation réalisée par Julien Garran, analyste de recherche chez MacroStrategy Partnership, la bulle de l'IA est désormais 17 fois plus importante que la tristement célèbre bulle Internet, une première dans l'histoire des actions technologiques liée à l'engouement des investisseurs pour Internet. Pire encore, Garran estime que l'IA représente aujourd'hui plus de quatre fois la richesse piégée dans la bulle des subprimes de 2008, qui a entraîné des années de crise prolongée à travers le monde.

    Dans le cas de la bulle Internet, selon le macroéconomiste David Henderson, une catastrophe économique majeure a été évitée car l'impact de la ruée vers le marché boursier sur la croissance du PIB américain a été minime. Malheureusement, ce n'est pas le cas des investissements dans l'IA, qui représentent désormais une part importante de notre croissance économique après des années d'engouement effréné.

    Avant la crise financière de 2008, les investisseurs optimistes ont alimenté un marché immobilier voué à l'échec, créé par les banques pour transformer les prêts hypothécaires à haut risque en source de liquidités. À l'instar de ces prêts hypothécaires toxiques, l'IA n'a démontré que très peu de valeur à long terme, du moins à ce stade de son développement, note Garran.

    Le problème avec l'IA, a-t-il déclaré, est qu'il est « impossible de créer une application ayant une valeur commerciale, car elle est soit générique [comme dans les jeux vidéo], ce qui ne se vend pas, soit issue du domaine public [comme dans les devoirs], soit soumise au droit d'auteur ».

    Il ajoute que c'est également un produit difficile à commercialiser efficacement, comme le montre clairement une start-up spécialisée dans l'IA à New York, dont les publicités dans le métro sont recouvertes de graffitis hostiles. Parallèlement, selon Garran, le coût des systèmes d'IA augmente de manière exponentielle, tandis que les gains en termes de capacités diminuent rapidement.

    Il est vain de tenter de prédire ce qui finira par faire éclater la bulle de l'IA, mais une chose est claire : nous avons déjà atteint un point de non-retour.

    « Pour savoir si nous avons atteint une limite, nous devons observer les développeurs de LLM », explique l'analyste. « S'ils lancent un modèle qui coûte 10 fois plus cher, qui utilise probablement 20 fois plus de puissance de calcul que le précédent, et qui n'est pas beaucoup plus performant que ce qui existe déjà, alors nous avons atteint une limite. »

    Sans l'IA, Garran prévient que l'économie ralentit déjà considérablement et que ce n'est qu'une question de temps avant que la croissance explosive du secteur technologique ne commence à s'inverser, comme cela s'est produit lors de la bulle Internet.

    Nom : macro.png
Affichages : 53652
Taille : 159,6 Ko

    Comprendre l'un des éléments permettant de parler de bulle : les déficits wickselliens

    Le « déficit wicksellien » vient du travail de Knut Wicksell, un économiste suédois du XIX siècle, considéré comme un précurseur de la macroéconomie moderne. Wicksell a développé la notion de taux d’intérêt naturel, qu’il définit comme le taux d’intérêt « d’équilibre » d’une économie — celui qui équilibre l’épargne et l’investissement, sans générer d’inflation ni de récession.

    Selon Wicksell, il existe deux taux d’intérêt dans une économie :
    • le taux d’intérêt du marché (celui fixé par les banques centrales ou le crédit) ;
    • le taux d’intérêt naturel (celui qui reflète la rentabilité réelle des investissements productifs).

    Quand ces deux taux sont égaux, l’économie est stable. Mais quand le taux du marché est inférieur au taux naturel, le crédit devient trop bon marché : les entreprises et les investisseurs empruntent massivement pour financer des projets parfois non rentables.

    Ce déséquilibre crée un « déficit wicksellien », c’est-à-dire un écart entre le coût de l’argent et le rendement réel attendu. Cet écart favorise la mauvaise allocation du capital — typique des périodes de bulle.

    Les analystes qui parlent de « bulle IA » disent en substance : « Nous vivons un déficit wicksellien massif. Le coût de l’argent reste inférieur à la rentabilité espérée, ce qui pousse à surinvestir dans des projets IA qui ne produiront jamais les rendements anticipés. »

    C’est un concept technique, mais il décrit très bien la dynamique psychologique et monétaire d’une bulle : trop d’argent facile, trop de promesses, et pas assez de valeur réelle pour tout justifier.

    L'analyse de Garran

    Wicksell avait compris que le capital était alloué efficacement lorsque le coût de la dette pour l'emprunteur moyen était supérieur de 2 points de pourcentage au PIB nominal. Ce n'est que maintenant que cette situation est positive, après une décennie d'assouplissement quantitatif de la Fed qui a fait baisser les écarts de rendement des obligations d'entreprises.

    Nom : allocation.png
Affichages : 19645
Taille : 96,3 Ko

    Garran calcule ensuite le déficit wicksellien, qui, pour être clair, inclut non seulement les dépenses en intelligence artificielle, mais aussi l'immobilier résidentiel et commercial, les NFT et le capital-risque. C'est ainsi que l'on obtient ce graphique sur la mauvaise allocation des ressources : il comporte beaucoup de variables, mais considérez-le comme la partie mal allouée du produit intérieur brut alimentée par des taux d'intérêt artificiellement bas.

    Mais Garran s'en est également pris aux grands modèles linguistiques eux-mêmes. Il met par exemple en avant une étude montrant que le taux d'achèvement des tâches dans une entreprise de logiciels variait de 1,5 % à 34 %, et que même pour les tâches achevées à 34 %, ce niveau d'achèvement ne pouvait être atteint de manière constante. Un autre graphique, précédemment diffusé par l'économiste Torsten Slok d'Apollo sur la base des données du département du Commerce, montrait que le taux d'adoption de l'IA dans les grandes entreprises était désormais en baisse. Il a également présenté certains de ses tests en conditions réelles, comme demander à un créateur d'images de créer un échiquier un coup avant que les blancs ne gagnent, ce qu'il n'a pas réussi à faire.

    Selon lui, les LLM ont déjà atteint leurs limites en termes d'évolutivité. « Nous ne savons pas exactement quand les LLM pourraient atteindre un rendement décroissant, car nous ne disposons pas d'une mesure de la complexité statistique du langage. Pour savoir si nous avons atteint une limite, nous devons observer les développeurs de LLM. S'ils lancent un modèle qui coûte 10 fois plus cher, qui utilise probablement 20 fois plus de puissance de calcul que le précédent, et qui n'est pas beaucoup mieux que ce qui existe déjà, alors nous avons atteint une limite », explique-t-il

    Et c'est exactement ce qui s'est passé : ChatGPT-3 a coûté 50 millions de dollars, ChatGPT-4 a coûté 500 millions de dollars et ChatGPT-5, qui a coûté 5 milliards de dollars, a été retardé et, une fois sorti, n'était pas nettement meilleur que la version précédente. Il est également facile pour les concurrents de rattraper leur retard.

    « En résumé, il est impossible de créer une application ayant une valeur commerciale, car soit elle est générique (jeux, etc.) et ne se vendra pas, soit elle reprend des éléments du domaine public (devoirs), soit elle est soumise au droit d'auteur. Il est difficile de faire de la publicité efficace, les LLM coûtent exponentiellement plus cher à former à chaque génération, avec un gain de précision qui diminue rapidement. Il n'y a pas de fossé autour d'un modèle, donc le pouvoir de fixation des prix est faible. Et les personnes qui utilisent le plus les LLM les utilisent pour accéder à des ressources informatiques qui coûtent plus cher au développeur que leurs abonnements mensuels », explique-t-il.

    D'après lui, non seulement une économie déjà au point mort va entrer en récession à mesure que les effets de richesse et les centres de données atteignent un plateau, mais elle va s'inverser, comme cela s'est produit lors de la bulle Internet en 2001.

    « Le danger n'est pas seulement que cela nous pousse dans une zone 4 de déflation sur notre horloge d'investissement, mais aussi que cela rende difficile pour la Fed et l'administration Trump de stimuler l'économie pour en sortir. Cela signifie un effort de relance beaucoup plus long, un peu comme ce que nous avons vu au début des années 1990, après la crise des caisses d'épargne, et probablement aussi des mesures spéciales, car l'administration Trump cherche à dévaluer le dollar américain afin de ramener des emplois sur le territoire national », explique-t-il.

    Les voix sceptiques : « ce n’est pas une bulle, mais une transformation »

    Certaines personnalités influentes mitigent l’idée d’une bulle purement spéculative. Par exemple, l’ancien PDG de Google, Eric Schmidt, a déclaré qu’il ne pensait pas que l’IA soit une bulle, arguant que la demande en matériel, en logiciels et en utilisation justifie un nouveau paradigme industriel.

    D’autres soutiennent qu’une grande part des investissements en IA est « réelle » : infrastructures, GPU, datacenters, logiciels d’optimisation, services d’industrialisation. Ces investissements peuvent avoir une utilité persistante même en cas de corrections. Par exemple, même si certains projets ne fonctionnent pas, l’accroissement de capacité de calcul ou l’amélioration des pipelines de données pourrait servir dans d’autres domaines.

    De plus, l’émergence d’un cycle de croissance réelle (par exemple, l’IA appliquée en santé, énergie, biotechnologie) pourrait amortir une correction spéculative. Les bulles ne détruisent pas toujours la valeur fondamentale sous-jacente, mais peuvent purifier le marché des excès.

    Un travail académique récent (“Examining the Relationship between Scientific Publishing Activity and Hype-Driven Financial Bubbles”) étudie le lien entre l’activité scientifique (publications, citations) et les bulles technologiques, comparant l’ère dot-com et l’ère IA. Les résultats montrent qu’on ne retrouve pas dans l’ère IA exactement les mêmes motifs de « bulles » qu’à la fin des années 1990, et suggèrent que l’IA pourrait être une bulle sans précédent ou ne pas en être une au sens classique.

    Sources : vidéo dans le texte, MacroStrategy Partnership, Examining the Relationship between Scientific Publishing Activity and Hype-Driven Financial Bubbles: A Comparison of the Dot-Com and AI Eras

    Et vous ?

    Trouvez-vous le point de vue de l'analyste de MacroStrategy Partnership crédible ou pertinent ?

    L’explosion des investissements en intelligence artificielle relève-t-elle d’une révolution technologique ou d’une fuite en avant spéculative ?

    Si la bulle de l’IA éclate, quelles seraient les conséquences concrètes pour l’emploi dans la tech et l’écosystème des start-ups ?

    L’IA est-elle condamnée à reproduire le destin des “dot-com” de 2000 — une bulle destructrice suivie d’une renaissance durable ?

    Les investisseurs comprennent-ils réellement les modèles économiques des entreprises d’IA, ou misent-ils sur des symboles comme Nvidia et OpenAI sans en lire les chiffres ?

    Peut-on encore parler de « bulle » quand les infrastructures construites — datacenters, GPU, réseaux — ont une valeur industrielle réelle ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #15
    Membre éclairé

    Profil pro
    Chef de Projet / Développeur
    Inscrit en
    Juin 2002
    Messages
    624
    Détails du profil
    Informations personnelles :
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Chef de Projet / Développeur
    Secteur : Santé

    Informations forums :
    Inscription : Juin 2002
    Messages : 624
    Par défaut
    Que les LLM tiennent leurs promesses ou non, qu'ils aient atteint une certaine limite ou non, il va y avoir des morts.
    Des grands noms de l'IA d'aujourd'hui sont les Lycos et Altavista de demain, c'est absolument certain.

    Certains vont perdre leurs colossaux investissements, même s'ils correspondent à quelque chose de réel comme le dit Eric Schmidt.
    Comme le disait Mc Leod, il n'en restera qu'un. Bon.... peut-être un peu plus... mais pas les dizaines qui existent aujourd'hui.

    Ce ne sont pas forcément les meilleurs qui gagneront.
    Google et Microsoft ont l'avantage de pouvoir intégrer leur IA dans leurs produits qui sont déjà largement implantées dans les entreprises.
    En serrant un peu les fesses à cause des autorisations que cela demande, j'ai connecté Gemini à mon compte gMail.
    Pouvoir rechercher un mail par "idée" ("je cherche un mail qui parlait de cela") plutôt que par mots clés est génial.

    Ce n'est pas pour rien que Chat GPT travaille sur une suite bureautique.
    Ils sont les leaders actuel, mais ils sont un peu déconnecté du travail réel.
    On peut connecter, bien entendu, mais cela exige un certain engagement que ne réclame pas MS et Google.

  16. #16
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 902
    Par défaut Les PDG persistent dans l’IA malgré des retours décevants
    Les PDG persistent dans l’IA malgré des retours décevants :
    68 % des dirigeants prêts à augmenter leurs budgets IA en 2026 alors que les bénéfices tardent à se matérialiser, selon Teneo

    Malgré des retours financiers encore inégaux, les dirigeants d’entreprise ne relâchent pas la pression sur l’intelligence artificielle. Selon une enquête récente menée auprès de plus de 350 PDG de sociétés cotées, près de 68 % d’entre eux prévoient d’augmenter leurs dépenses en IA en 2026. Un pari assumé, alors même que moins de la moitié des projets en cours ont, à ce stade, généré davantage de valeur qu’ils n’ont coûté. Une dynamique que confirme le cabinet de conseil Teneo, décrivant une course à l’IA où la peur de décrocher l’emporte sur la prudence budgétaire.

    L’augmentation annoncée des budgets en 2026 pourrait constituer un point de bascule. Soit l’IA parvient à démontrer sa capacité à générer de la valeur à grande échelle, soit elle s’exposera à une remise en question plus brutale. Certains dirigeants commencent déjà à évoquer la nécessité de « faire le tri » entre projets prometteurs et initiatives purement opportunistes.


    Selon une enquête annuelle menée par le cabinet de conseil Teneo auprès de plus de 350 dirigeants d’entreprises cotées, 68 % des PDG prévoient d’augmenter encore leurs dépenses en intelligence artificielle en 2026. Ce chiffre, en apparence spectaculaire, masque pourtant une réalité plus contrastée : moins de la moitié des projets d’IA actuellement déployés génèrent des retours financiers supérieurs à leur coût. Autrement dit, l’enthousiasme pour l’IA progresse plus vite que sa rentabilité démontrée.

    Cette tension entre promesse technologique et performance économique réelle est devenue l’un des paradoxes centraux de la stratégie numérique des grandes entreprises.

    Une conviction devenue quasi doctrinale au sommet des entreprises

    Pour une majorité de PDG interrogés, l’IA n’est plus une option mais un passage obligé. Le discours dominant au sein des conseils d’administration repose sur une conviction forte : ne pas investir massivement aujourd’hui exposerait l’entreprise à un déclassement stratégique demain. L’IA est perçue comme une technologie de rupture comparable à l’électrification ou à l’informatisation, avec un potentiel de transformation globale des chaînes de valeur.

    Cette vision explique pourquoi les arbitrages budgétaires continuent de pencher en faveur de l’IA, même lorsque les indicateurs de retour sur investissement restent mitigés. Dans de nombreux groupes, l’IA est désormais intégrée aux plans stratégiques pluriannuels, au même titre que la cybersécurité ou la transition cloud.

    Des retours sur investissement encore largement incertains

    Le constat dressé par l’enquête de Teneo est pourtant sans appel. Moins d’un projet d’IA sur deux a, à ce stade, généré plus de valeur qu’il n’a coûté. Ce décalage s’explique par plusieurs facteurs structurels.

    D’abord, une grande partie des investissements est encore concentrée sur des phases exploratoires. Preuves de concept, pilotes internes, expérimentations métiers et projets de transformation des données consomment des budgets importants sans produire immédiatement de gains mesurables. L’IA reste souvent cantonnée à des usages périphériques, loin des processus cœur de métier.

    Ensuite, les coûts réels de l’IA sont fréquemment sous-estimés. Au-delà des licences logicielles et des modèles, il faut intégrer l’infrastructure cloud, la montée en compétences des équipes, la gouvernance des données, la conformité réglementaire et la cybersécurité. Ces coûts indirects pèsent lourdement sur la rentabilité globale.

    Nom : expectation.png
Affichages : 7108
Taille : 405,9 Ko

    Des coûts souvent sous-estimés dans les plans initiaux

    L’enquête met en lumière une réalité plus prosaïque : les coûts réels de l’IA dépassent fréquemment les prévisions. Infrastructure cloud, consommation énergétique, sécurisation des données, conformité réglementaire, recrutement de profils spécialisés et accompagnement du changement alourdissent considérablement la facture.

    À cela s’ajoute un facteur organisationnel. Beaucoup d’entreprises découvrent que l’IA ne peut pas simplement se greffer sur des processus existants. Elle exige une refonte partielle des méthodes de travail, une meilleure qualité des données et une gouvernance plus rigoureuse. Ces transformations, longues et complexes, retardent mécaniquement l’apparition de retours sur investissement tangibles.

    Une pression concurrentielle qui pousse à investir coûte que coûte

    Malgré ces résultats mitigés, la pression concurrentielle joue un rôle déterminant dans la poursuite des investissements. Les PDG redoutent avant tout un scénario dans lequel un concurrent réussirait à industrialiser l’IA plus rapidement, captant ainsi des gains de productivité, une meilleure connaissance client ou un avantage décisif en matière d’innovation.

    Dans ce contexte, l’IA est souvent abordée comme une assurance stratégique plutôt que comme un projet à rentabilité immédiate. Investir devient une manière de rester dans la course, même si les bénéfices sont différés ou incertains. Cette logique rappelle celle observée lors des premières vagues de transformation numérique, où de nombreuses entreprises ont investi massivement avant de trouver des modèles réellement performants.

    De la fascination technologique à l’exigence de valeur métier

    L’enquête met également en lumière une évolution progressive du discours des dirigeants. Si l’enthousiasme reste fort, il s’accompagne désormais d’une exigence accrue de résultats concrets. Les PDG interrogés reconnaissent de plus en plus la nécessité de recentrer les projets d’IA sur des cas d’usage clairement liés à la performance opérationnelle.

    L’ère des expérimentations tous azimuts tend à céder la place à une approche plus sélective. Les PDG interrogés indiquent vouloir concentrer leurs efforts sur des cas d’usage directement liés à la performance économique, comme l’optimisation des opérations, la maintenance prédictive, la personnalisation commerciale ou l’automatisation de tâches à forte intensité humaine.

    Cette inflexion se traduit par une attention accrue portée aux indicateurs de valeur. Réduction des coûts, amélioration des délais, augmentation des taux de conversion ou optimisation des chaînes logistiques deviennent des critères prioritaires. L’époque des projets d’IA lancés principalement pour des raisons d’image ou d’innovation perçue touche progressivement à sa fin.

    L’IA n’est plus seulement un symbole d’innovation ou un argument de communication auprès des marchés financiers, mais un outil qui doit prouver sa contribution à des objectifs précis et mesurables.

    Une maturité inégale selon les secteurs

    La capacité à transformer l’IA en valeur économique varie fortement selon les secteurs. Les entreprises de la finance, de la technologie et de la distribution semblent plus avancées, bénéficiant de volumes de données importants et de processus déjà largement numérisés. À l’inverse, les secteurs industriels traditionnels ou fortement réglementés rencontrent davantage de difficultés à déployer l’IA à grande échelle.

    Cette disparité explique en partie pourquoi les résultats globaux restent mitigés. Là où l’IA est intégrée à des processus bien définis, les gains sont tangibles. Là où les fondations numériques sont fragiles, les investissements produisent surtout de la complexité supplémentaire.

    Vers un tournant en 2026 ?

    Le fait que 68 % des PDG prévoient d’augmenter encore leurs dépenses en 2026 pourrait marquer un tournant décisif. Soit ces investissements permettront enfin de franchir le cap de l’industrialisation et de la création de valeur mesurable, soit ils renforceront les interrogations sur une possible bulle de l’IA au niveau des entreprises.

    De plus en plus de dirigeants semblent conscients que la prochaine phase ne pourra plus se contenter de promesses. L’IA devra prouver sa capacité à transformer durablement les modèles économiques, sous peine de voir les budgets se réorienter vers des priorités jugées plus tangibles.

    La patience des investisseurs, elle aussi, pourrait s’amenuiser. Tant que l’IA est présentée comme un investissement d’avenir, les marchés tolèrent des retours différés. Mais à mesure que les montants engagés augmentent, l’exigence de résultats concrets devient plus pressante.

    Nom : pourcentage.png
Affichages : 1916
Taille : 287,5 Ko

    Entre pari rationnel et risque de désillusion

    La poursuite massive des investissements en IA, malgré des retours encore partiels, illustre une tension classique dans les grandes vagues technologiques. L’IA est à la fois un pari rationnel sur l’avenir et un risque financier réel à court et moyen terme.

    Pour les PDG, l’enjeu n’est plus de savoir s’il faut investir, mais comment investir intelligemment. La capacité à transformer l’IA en levier opérationnel, et non en simple centre de coûts, déterminera quels groupes sortiront renforcés de cette phase d’expérimentation généralisée. Les autres pourraient découvrir, trop tard, que la course à l’IA ne pardonne pas les stratégies mal maîtrisées.

    Nom : mor.png
Affichages : 1907
Taille : 367,1 Ko

    J.P. Morgan dénonce les dépenses consacrées à l'IA

    Dans son rapport, le cabinet suggère que la croissance de l'IA ne sera pas constante et qu'elle pourrait connaître les mêmes difficultés que celles qui ont affecté le secteur des télécommunications lorsqu'il a commencé à mettre en place son infrastructure fibre optique. « Le chemin à parcourir ne sera pas simplement ascendant », indique le rapport. « Notre plus grande crainte serait de voir se répéter l'expérience des télécommunications et du déploiement de la fibre optique, où la courbe des revenus n'a pas suivi un rythme justifiant la poursuite des investissements. » Bien qu'OpenAI ait déjà atteint un chiffre d'affaires annualisé de 20 milliards de dollars et qu'Anthropic vise un chiffre d'affaires de 26 milliards de dollars d'ici 2026, il ne s'agit que de rapports ou d'objectifs individuels qui ne se sont pas encore traduits en bénéfices nets.

    En outre, le cabinet souligne qu'une percée inattendue pourrait entraîner une surcapacité, un risque évoqué par le PDG d'OpenAI, Sam Altman, dans un podcast avec le directeur général de Microsoft, Satya Nadella. Cela pourrait conduire à une surcapacité de calcul, avec des centres de données IA gigantesques coûtant des milliards de dollars qui resteraient inutilisés faute de demande suffisante pour les exploiter.

    Un modèle économique encore sans repère clair

    Le paradoxe est simple : alors que l’industrie investit des centaines de milliards dans l’infrastructure IA, personne ne semble réellement savoir comment ces plateformes vont rapporter durablement de l’argent.

    Les services payants pour le grand public restent marginaux. Les API destinées aux entreprises ne couvrent qu’une fraction des coûts. Les startups de l’écosystème, ultra-consommatrices de calcul, vivent elles-mêmes des financements de plus en plus dilués. Quant aux promesses de gains de productivité dans les entreprises, elles demeurent complexes à mesurer, donc difficiles à monétiser directement.

    Au-delà de l’effet de mode, une question s’impose : peut-on bâtir une économie de l’IA basée uniquement sur des abonnements mensuels de quelques dizaines d’euros par utilisateur ? Les chiffres avancés par les analystes montrent que la réponse est probablement non. À moins de réinventer totalement la notion de monétisation, l’IA générative coûtera toujours plus qu’elle ne rapporte.

    Le risque systémique : l’hypothèse d’un mur énergétique et financier

    L’exigence en énergie des modèles de nouvelle génération constitue l’un des points critiques les plus inquiétants. Pour maintenir l’illusion d’une IA omniprésente et toujours plus performante, il faudrait multiplier les centres de données capables de consommer l’équivalent de plusieurs réacteurs nucléaires. Pour les banques, cela crée un risque structurel comparable à celui des infrastructures logistiques ou pétrolières : une dépendance absolue à des facteurs physiques dont la croissance n’est pas infinie.

    Du côté financier, la fragilisation est tout aussi palpable. Les grandes entreprises de l’IA dépensent à perte, parfois à des niveaux inimaginables. Prenons le cas d'OpenAI : l’éditeur de ChatGPT, a subi des pertes vertigineuses estimées à 12 milliards de dollars sur le dernier trimestre (un montant inédit pour une entreprise tech sur trois mois) pour 4,3 milliards de dollars de recette... en six mois. Si les investisseurs venaient à douter de la rentabilité future de ces modèles, l’effet domino serait fulgurant.

    Source : Teneo

    Et vous ?

    La décision d’investir massivement dans l’IA relève-t-elle encore d’une stratégie rationnelle ou s’apparente-t-elle désormais à une forme de mimétisme concurrentiel dicté par la peur de décrocher ?

    À partir de quel moment l’absence de retour sur investissement mesurable devrait-elle conduire un conseil d’administration à remettre en cause, voire à suspendre, certains projets d’IA ?

    Les entreprises disposent-elles aujourd’hui des outils et des indicateurs adaptés pour mesurer réellement la valeur créée par l’IA, ou continuent-elles à s’appuyer sur des métriques incomplètes et parfois trompeuses ?

    L’IA est-elle en train de devenir une infrastructure incontournable, comparable à l’électricité ou au cloud, justifiant des investissements lourds avant toute rentabilité, ou reste-t-elle une technologie dont la valeur dépend fortement des cas d’usage ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #17
    Invité
    Invité(e)
    Par défaut
    A part ChatGPT, ou autre pour le particulier, les entreprises, qui sont les principales sources de revenus pour l'écosystème IA, n'ont pas encore la killer app. Le truc qui prouve que l'IA est aussi importante que l'électricité. Donc je crains une vague de désillusion même si dans des marchés de niche, l'IA survivra à cette hype aussi soudaine que coûteuse pour un résultat, financier et pratique, dérisoire comparativement à l'investissement consenti.

    L'approche de SAP ou Thales par exemple avec cette innovation est, je pense, la plus saine, l’humain augmenté maîtrisant la décision finale et validant la réflexion de l'IA. Au contraire, ce vers quoi veut tendre la Silicon Valley, le tout en un qui maîtrise tout, reste selon moi une erreur. S'appuyant sur des statistiques donc des probabilités, l'erreur peut devenir gigantesque en conséquences avec une confiance aveugle dans le résultat donné par la machine qui ne s'explique pas. Une machine, de plus, corrigée par une autre machine tout aussi boîte noire.

    Donc l'IA, dans certains cas, est une avancée mais, dans la plupart, une régression, une perte de temps et d'argent. Surtout l'IA générative.
    Dernière modification par Invité ; 18/12/2025 à 16h06.

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 902
    Par défaut L’IA en entreprise : des milliards investis, mais où sont passés les gains de productivité promis ?
    L’IA en entreprise : des milliards investis, mais où sont passés les gains de productivité promis aux dirigeants ?
    L'engouement pour l'IA se heurte à la réalité, la majorité des PDG déclarant ne pas en tirer de bénéfices financiers

    L’intelligence artificielle est partout dans les discours stratégiques, dans les plans d’investissement et dans les présentations aux conseils d’administration. Pourtant, derrière l’emballement médiatique et les annonces spectaculaires, un constat s’impose progressivement : pour une majorité de dirigeants, l’IA n’a pas encore tenu ses promesses de création de valeur mesurable. Les données issues de la dernière grande enquête mondiale menée auprès des CEO dessinent un paysage bien plus nuancé, parfois même désenchanté, où l’expérimentation technologique avance plus vite que les résultats économiques.

    Dans les grandes entreprises comme dans les organisations intermédiaires, l’IA s’est imposée en quelques années comme un passage obligé. Automatisation de processus, assistants génératifs, outils d’aide à la décision ou encore analyse prédictive : les cas d’usage se multiplient à un rythme soutenu. Pourtant, lorsqu’on interroge les dirigeants sur les bénéfices concrets déjà observés, le tableau est loin d’être triomphal.

    Le dernier sondage mondial des PDG réalisé par le réseau de services professionnels PwC a été répondu par 4 454 présidents-directeurs généraux dans 95 pays et territoires.

    Parmi les principales conclusions de l'enquête de cette année :
    • La plupart des PDG affirment que leur entreprise ne tire pas encore de bénéfices financiers de ses investissements dans l'IA. Bien que près d'un tiers (30 %) déclarent avoir augmenté leur chiffre d'affaires grâce à l'IA au cours des 12 derniers mois et qu'un quart (26 %) constatent une baisse des coûts, plus de la moitié (56 %) affirment n'avoir réalisé ni gains de chiffre d'affaires ni économies.
    • Les PDG recherchent des opportunités de croissance en dehors de leur secteur. Plus de 40 % déclarent que leur entreprise a commencé à se lancer dans de nouveaux secteurs au cours des cinq dernières années. Parmi ceux qui prévoient d'importantes acquisitions au cours des trois prochaines années, quatre sur dix s'attendent à conclure des accords dans d'autres secteurs ou industries.
    • Par rapport à l'année dernière, les PDG sont moins confiants quant aux perspectives de croissance à court terme des revenus de leur entreprise. Seuls 30 % sont très ou extrêmement confiants quant à la croissance des revenus au cours des 12 prochains mois, contre 38 % dans l'enquête de l'année dernière et le pic récent de 56 % en 2022.
    • Près d'un tiers des PDG (29 %) affirment que les droits de douane réduiront la marge bénéficiaire nette de leur entreprise au cours des 12 prochains mois. La majorité (60 %) s'attend à peu ou pas de changement. Parmi ceux qui s'attendent à une compression des marges, la plupart ne prévoient qu'une légère baisse.
    • Deux tiers des PDG (66 %) déclarent que des problèmes de confiance des parties prenantes sont apparus dans au moins un domaine des opérations commerciales au cours des 12 derniers mois. Il existe un écart significatif dans le rendement total pour les actionnaires au cours de cette période entre les sociétés cotées en bourse qui connaissent le plus et le moins de problèmes de confiance.

    La majorité des CEO interrogés reconnaissent donc ne pas avoir constaté d’amélioration significative de la rentabilité liée à leurs investissements en IA. Les projets sont bien là, les budgets ont été débloqués, mais les indicateurs financiers peinent à suivre. Pour beaucoup, l’IA reste à ce stade un pari stratégique, davantage justifié par la peur de rater un virage technologique que par un retour sur investissement clairement démontré.

    L’écart entre promesse technologique et réalité organisationnelle

    Ce décalage s’explique en grande partie par la complexité de l’intégration de l’IA dans les structures existantes. Les dirigeants soulignent que la technologie, aussi avancée soit-elle, ne suffit pas. Les données sont souvent dispersées, de qualité inégale ou juridiquement sensibles. Les systèmes d’information historiques résistent mal à l’introduction de modèles gourmands en calcul et en données. À cela s’ajoute une gouvernance encore floue, notamment sur la responsabilité des décisions prises ou suggérées par des systèmes algorithmiques.

    Dans ce contexte, l’IA se révèle moins être un simple outil qu’un catalyseur de transformations profondes, parfois douloureuses. Les entreprises qui espéraient des gains rapides découvrent qu’elles doivent d’abord repenser leurs processus, leurs métiers et même leur culture managériale avant d’envisager des bénéfices durables.

    Nom : revenu.png
Affichages : 15120
Taille : 65,3 Ko

    La question du capital humain au cœur des préoccupations

    Contrairement à certains discours alarmistes, les dirigeants ne décrivent pas l’IA comme un simple instrument de réduction massive des effectifs. La tendance dominante est plutôt celle d’une recomposition du travail. L’IA modifie les compétences attendues, déplace la valeur ajoutée humaine vers des tâches d’arbitrage, de supervision et de créativité, et rend obsolètes certains rôles très spécialisés ou purement exécutifs.

    Cependant, cette transition a un coût. Les CEO admettent que le manque de talents capables de concevoir, déployer et piloter des systèmes d’IA constitue l’un des principaux freins à la création de valeur. Former les équipes existantes, attirer des profils rares et maintenir l’engagement des salariés face à l’automatisation sont devenus des enjeux aussi critiques que le choix des technologies elles-mêmes.

    Des risques mieux identifiés, mais encore imparfaitement maîtrisés

    À mesure que l’IA s’installe dans les processus clés, la perception des risques s’affine. Les dirigeants citent en priorité les enjeux liés à la cybersécurité, à la confidentialité des données et à la conformité réglementaire. L’IA générative, en particulier, soulève des inquiétudes quant à la fiabilité des résultats produits et à la propagation potentielle d’erreurs ou de biais à grande échelle.

    Dans ce paysage, la confiance apparaît comme une ressource stratégique. Les entreprises cherchent à rassurer à la fois leurs clients, leurs partenaires et leurs régulateurs, tout en avançant suffisamment vite pour ne pas se laisser distancer par la concurrence. Cet équilibre fragile contribue à ralentir la transformation et à limiter, à court terme, les gains économiques attendus.

    Une vision stratégique en recomposition

    L’un des enseignements majeurs de l’enquête mondiale menée par PwC est le changement de ton chez les dirigeants. L’IA n’est plus seulement perçue comme une révolution immédiate, mais comme une infrastructure stratégique de long terme. Les CEO les plus lucides admettent que la création de valeur passera moins par des effets spectaculaires que par une accumulation progressive d’optimisations, souvent invisibles au premier regard.

    Cette évolution marque une forme de maturité. L’IA cesse d’être un slogan ou un argument marketing pour devenir un chantier structurant, comparable à ce qu’ont été, en leur temps, l’informatisation massive ou la transition vers le cloud. Les attentes se recalibrent, les calendriers s’allongent et les critères de succès se diversifient au-delà du simple retour financier immédiat.

    L’IA, révélateur plus que solution miracle

    En filigrane, les réponses des dirigeants dessinent une conclusion claire : l’IA ne crée pas de valeur par magie. Elle agit comme un révélateur des forces et des faiblesses organisationnelles. Les entreprises déjà solides sur le plan des données, de la gouvernance et des compétences sont celles qui commencent à en tirer des bénéfices tangibles. Les autres découvrent que la technologie met en lumière leurs retards structurels plutôt qu’elle ne les compense.

    Loin de signer l’échec de l’IA en entreprise, ce constat invite à un réalisme salutaire. La phase d’euphorie laisse place à un travail de fond, moins spectaculaire mais potentiellement plus transformateur. Pour les dirigeants, le défi n’est plus de savoir s’il faut investir dans l’IA, mais comment le faire avec méthode, patience et lucidité, afin que la promesse technologique finisse, enfin, par se traduire en valeur économique durable.

    Nom : tangible.png
Affichages : 4119
Taille : 226,0 Ko

    Les PDG persistent dans l'IA malgré des retours décevants

    Selon une enquête annuelle menée par le cabinet de conseil Teneo auprès de plus de 350 dirigeants d’entreprises cotées, 68 % des PDG prévoient d’augmenter encore leurs dépenses en intelligence artificielle en 2026. Ce chiffre, en apparence spectaculaire, masque pourtant une réalité plus contrastée : moins de la moitié des projets d’IA actuellement déployés génèrent des retours financiers supérieurs à leur coût. Autrement dit, l’enthousiasme pour l’IA progresse plus vite que sa rentabilité démontrée.

    Cette tension entre promesse technologique et performance économique réelle est devenue l’un des paradoxes centraux de la stratégie numérique des grandes entreprises.

    Pour une majorité de PDG interrogés, l’IA n’est plus une option mais un passage obligé. Le discours dominant au sein des conseils d’administration repose sur une conviction forte : ne pas investir massivement aujourd’hui exposerait l’entreprise à un déclassement stratégique demain. L’IA est perçue comme une technologie de rupture comparable à l’électrification ou à l’informatisation, avec un potentiel de transformation globale des chaînes de valeur.

    Cette vision explique pourquoi les arbitrages budgétaires continuent de pencher en faveur de l’IA, même lorsque les indicateurs de retour sur investissement restent mitigés. Dans de nombreux groupes, l’IA est désormais intégrée aux plans stratégiques pluriannuels, au même titre que la cybersécurité ou la transition cloud.

    Nom : mor.png
Affichages : 2597
Taille : 367,1 Ko

    J.P. Morgan dénonce les dépenses consacrées à l'IA

    Dans son rapport, le cabinet suggère que la croissance de l'IA ne sera pas constante et qu'elle pourrait connaître les mêmes difficultés que celles qui ont affecté le secteur des télécommunications lorsqu'il a commencé à mettre en place son infrastructure fibre optique. « Le chemin à parcourir ne sera pas simplement ascendant », indique le rapport. « Notre plus grande crainte serait de voir se répéter l'expérience des télécommunications et du déploiement de la fibre optique, où la courbe des revenus n'a pas suivi un rythme justifiant la poursuite des investissements. » Bien qu'OpenAI ait déjà atteint un chiffre d'affaires annualisé de 20 milliards de dollars et qu'Anthropic vise un chiffre d'affaires de 26 milliards de dollars d'ici 2026, il ne s'agit que de rapports ou d'objectifs individuels qui ne se sont pas encore traduits en bénéfices nets.

    En outre, le cabinet souligne qu'une percée inattendue pourrait entraîner une surcapacité, un risque évoqué par le PDG d'OpenAI, Sam Altman, dans un podcast avec le directeur général de Microsoft, Satya Nadella. Cela pourrait conduire à une surcapacité de calcul, avec des centres de données IA gigantesques coûtant des milliards de dollars qui resteraient inutilisés faute de demande suffisante pour les exploiter.

    Source : PwC

    Et vous ?

    L’IA est-elle aujourd’hui un levier stratégique mûrement réfléchi ou un investissement défensif dicté par la peur d’être perçu comme « en retard » par les marchés et les conseils d’administration ? Combien d’entreprises savent réellement mesurer la valeur créée par leurs projets d’IA, au-delà des démonstrateurs et des effets d’annonce ?

    Les CEO ont-ils sous-estimé le temps nécessaire pour transformer une organisation autour de l’IA, ou ont-ils survendu en interne et en externe des gains qui ne pouvaient, par nature, être que progressifs ?

    Les entreprises peuvent-elles raisonnablement fonder des décisions critiques sur des systèmes dont elles ne maîtrisent ni totalement le fonctionnement ni les biais potentiels ? À quel moment le risque réputationnel, juridique ou opérationnel devient-il supérieur aux gains attendus ?

    L’IA crée-t-elle une nouvelle fracture entre les entreprises capables d’attirer et de former des talents spécialisés et celles qui devront se contenter d’outils standards, avec un risque de dépendance technologique accrue ? Plus largement, les dirigeants sont-ils prêts à investir autant dans les compétences que dans les infrastructures et les licences logicielles ?

    Voir aussi :

    Malgré de solides profits, le géant français des services informatiques Capgemini pourrait supprimer jusqu'à 2400 postes en France, l'IA figure parmi les explications fournies par la direction du groupe

    Tout le monde se demande si, et quand, la bulle de l'IA va éclater. Voici ce qui s'est passé il y a 25 ans et qui a finalement conduit à l'éclatement de la bulle Internet
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #19
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 902
    Par défaut Jensen Huang, PDG de NVIDIA, met en garde : « Vous n'avez aucune idée de ce qui vous attend en 2026 »
    Jensen Huang met en garde : « Vous n'avez aucune idée de ce qui vous attend en 2026 ».
    Robots, pénurie de main-d’œuvre et automatisation totale : le futur du travail selon le PDG de NVIDIA

    Alors que l’euphorie autour de l’intelligence artificielle continue d’alimenter les marchés financiers, une voix majeure du secteur appelle à un retour brutal au réel. Jensen Huang, PDG de NVIDIA, met en garde contre une lecture trop simpliste de la révolution de l’IA par les investisseurs. Derrière les valorisations record et la ruée vers les puces, le patron du leader mondial des GPU rappelle que l’IA n’est ni magique, ni instantanément rentable, et que les marchés pourraient payer cher toute mauvaise anticipation.

    Nvidia est le principal fabricant de la technologie qui alimente l'essor mondial de l'IA : des puces électroniques et des progiciels qui entraînent et hébergent des systèmes tels que ChatGPT. Ses produits équipent les centres de données de la Norvège au New Jersey. Ses puces sont devenues l'un des composants informatiques les plus convoités de l'industrie. Nvidia détient près de 90 % des parts de marché et engrange des bénéfices records chaque année.

    Cette année a été exceptionnelle pour l'entreprise : elle a conclu des contrats d'une valeur d'au moins 125 milliards de dollars, allant d'un investissement de 5 milliards de dollars dans son rival Intel – pour faciliter son accès au marché des PC – à 100 milliards de dollars investis dans OpenAI, le fabricant de ChatGPT.

    L’intelligence artificielle est devenue le moteur principal de la narration boursière. Chaque annonce liée aux modèles de langage, aux data centers ou aux semi-conducteurs suffit à déclencher des envolées spectaculaires des cours. NVIDIA, fournisseur clé de l’infrastructure matérielle de l’IA moderne, s’est retrouvée au cœur de cette frénésie, incarnant à elle seule la promesse d’une nouvelle révolution industrielle.

    Pourtant, Jensen Huang observe avec une certaine inquiétude la manière dont Wall Street extrapole cette dynamique. Selon lui, beaucoup d’investisseurs raisonnent encore comme si l’IA était un produit logiciel classique, capable de générer des marges immédiates et exponentielles. Or, la réalité industrielle de l’IA est tout autre : elle repose sur des cycles d’investissement lourds, des infrastructures énergivores et une transformation profonde des systèmes informatiques existants.

    Et Jensen Huang de déclarer : « Et si vous leur demandez : "L'IA est-elle susceptible de faire plus de bien que de mal ?", 80 % d'entre eux répondront que l'IA fera plus de bien que de mal. Dans notre cas, ce serait l'inverse. Cela vous apprend quelque chose de très, très important sur le plan social. Sur le plan social, nous devons veiller à ne pas décrire l'IA à la manière des films de science-fiction, qui suscitent beaucoup d'inquiétudes chez les gens. Nous voulons nous préoccuper de la question, mais nous voulons aussi être pragmatiques. »

    Nom : pdg.png
Affichages : 304019
Taille : 149,7 Ko

    L’IA n’est pas un produit, c’est une pile industrielle complète

    Pour comprendre l’ampleur du changement en cours, Jensen Huang insiste sur un point fondamental : l’IA ne doit pas être pensée comme un logiciel isolé, mais comme une pile technologique complète, structurée en couches. À la base de cette pile se trouve l’énergie, condition sine qua non de toute croissance dans ce nouveau secteur. Sans capacité énergétique suffisante, aucun data center, aucune usine de puces, aucune « AI factory » ne peut voir le jour.

    Au-dessus de cette couche énergétique viennent les semi-conducteurs et les systèmes de calcul, domaine dans lequel Nvidia s’est imposé comme un acteur central. Mais Huang rappelle que le matériel n’est qu’une étape : la couche suivante est celle de l’infrastructure logicielle, souvent réduite à tort au cloud, alors qu’elle englobe aussi les systèmes financiers, le foncier, l’accès au capital et la capacité à déployer rapidement des installations industrielles à grande échelle.

    Ce n’est qu’ensuite que viennent les modèles d’IA, ceux qui concentrent aujourd’hui toute l’attention médiatique. Or, selon Huang, ces modèles — aussi spectaculaires soient-ils — ne représentent qu’une fraction visible d’un écosystème bien plus vaste, composé de plus d’un million de modèles spécialisés à travers le monde, chacun dédié à un champ précis : biologie, chimie, finance, physique, robotique ou industrie lourde

    PDG de Nvidia :

    « Maintenant, le fonctionnement de l'IA et de notre technologie repose sur le fait que, en fin de compte, la plateforme technologique est construite en couches. C'est l'une des raisons pour lesquelles nous la considérons comme une plateforme. Vous vous trouvez au sommet de cette plateforme. Une application ou un secteur d'activité se trouve au sommet de cette plateforme. Cette plateforme commence par l'énergie à la base. L'une des raisons pour lesquelles cette administration a immédiatement fait une telle différence, c'est cette initiative en faveur de la croissance énergétique, son attitude vis-à-vis de l'énergie, qui consiste à dire que sans énergie, nous ne pouvons pas permettre à ce nouveau secteur d'activité de prospérer. C'est tout à fait vrai.

    « La première couche est donc l'énergie. La deuxième couche est essentiellement constituée des puces et des systèmes, mais surtout des puces. C'est là qu'intervient Nvidia. La troisième couche est constituée de tout un ensemble de logiciels. Nous développons toute une série de logiciels sur nos puces et nous sommes bien connus pour ce logiciel appelé CUDA. Mais nous créons des centaines de logiciels différents qui permettent aux gens d'utiliser l'IA dans différents domaines scientifiques, linguistiques, visuels ou autres, comme la robotique ou la fabrication, par exemple. Mais cette troisième couche s'appelle l'infrastructure. Il s'agit essentiellement de logiciels. Historiquement, les gens ont toujours considéré l'infrastructure comme étant le cloud, mais il est de plus en plus important de réaliser que l'infrastructure comprend également les infrastructures terrestres. »


    Une révolution silencieuse qui dépasse largement le langage

    L’un des points les plus marquants de cette intervention est la volonté de sortir l’IA de son carcan linguistique. Jensen Huang rappelle que réduire l’intelligence artificielle aux modèles conversationnels est une erreur stratégique. L’IA comprend désormais des structures complexes : les protéines, les gènes, les lois physiques, les systèmes financiers à long terme ou encore les environnements industriels.

    Cette capacité à traiter des informations multi-modales sur de longues périodes transforme déjà des secteurs entiers comme la santé, la recherche scientifique, la fabrication ou les transports. L’IA devient un outil de compréhension du monde réel, pas seulement un générateur de texte ou d’images. C’est précisément cette transversalité qui explique pourquoi Nvidia se définit comme une plateforme plutôt que comme un éditeur de solutions verticales : l’entreprise ne construit ni voitures autonomes ni médicaments, mais fournit l’architecture sur laquelle tous ces acteurs bâtissent leurs propres innovations.

    Chine, États-Unis : une compétition qui ne se joue pas là où on l’imagine

    Là où le discours devient plus politique, Jensen Huang introduit une comparaison directe entre les États-Unis et la Chine. Contrairement à une lecture simpliste de la “course à l’IA”, il souligne que la compétition ne se joue pas uniquement sur la qualité des modèles ou la puissance brute des puces.

    Sur le plan énergétique, la Chine dispose d’une capacité largement supérieure, avec une croissance continue, là où les États-Unis stagnent. Sur le plan des infrastructures, la différence de vitesse est frappante : là où un data center ou un supercalculateur peut nécessiter plusieurs années de déploiement aux États-Unis, la Chine démontre une capacité à construire à un rythme sans équivalent.

    Même dans le domaine des semi-conducteurs, où l’avance américaine reste réelle, Huang appelle à la prudence. La fabrication est avant tout un processus industriel, et sous-estimer la capacité manufacturière chinoise serait, selon lui, une erreur majeure. La domination technologique ne se décrète pas, elle se soutient par une politique industrielle cohérente et durable

    Open source : l’angle mort stratégique de l’Occident

    Un autre point clé du raisonnement de Jensen Huang concerne l’open source. Si les modèles de pointe américains conservent une avance qualitative, la majorité des modèles déployés dans le monde sont open source. Or, dans ce domaine, la Chine a pris une avance considérable.

    Pour Huang, l’open source n’est pas un luxe idéologique, mais une condition structurelle de l’innovation. Sans open source, pas de startups, pas de recherche universitaire efficace, pas de diffusion massive des compétences. Il rappelle que les piliers de l’informatique moderne — Linux, Kubernetes, PyTorch — sont tous issus de cette logique d’ouverture.

    À terme, explique-t-il, ce ne sont pas uniquement les inventeurs des technologies qui gagnent une révolution industrielle, mais ceux qui les diffusent et les appliquent le plus rapidement dans l’économie réelle. Retarder cette diffusion par peur sociale ou réglementaire pourrait coûter cher aux économies occidentales


    Robots et IA incarnée : une rupture plus proche qu’on ne le croit

    La partie la plus dérangeante de cette intervention concerne sans doute la robotique. Jensen Huang décrit un futur où la frontière entre IA logicielle et systèmes mécaniques disparaît progressivement. La capacité actuelle des modèles à générer des vidéos à partir de descriptions textuelles n’est, selon lui, qu’un avant-goût de ce qui arrive.

    Pour une IA, manipuler des pixels ou piloter des moteurs repose sur des principes similaires. Il suffit d’“incarner” l’IA dans un système physique pour que la robotique devienne une extension naturelle des modèles actuels. Cette évolution est d’autant plus probable que de nombreux pays font face à une pénurie structurelle de main-d’œuvre.

    La Chine, là encore, part avec un avantage : forte demande industrielle, maîtrise de la mécatronique et stratégie nationale claire. D’autres puissances industrielles comme le Japon, l’Allemagne ou les États-Unis possèdent certaines briques, mais rarement l’ensemble de la chaîne. La robotique, dans cette vision, n’est pas une hypothèse lointaine : elle devient une réponse économique et démographique imminente

    Nvidia est-il le prochain Enron ? La nature circulaire de ses accords dans l'IA ébranle la confiance des investisseurs et suscite des comparaisons
    La trajectoire de Nvidia dépend désormais étroitement de la réussite économique de l’IA générative elle-même. Si les investissements massifs dans l’IA ne produisent pas les retours espérés ou si la demande ralentit, Nvidia pourrait se retrouver exposée à des pertes sur ses investissements et à une baisse de ses ventes. Cela a suscité des comparaisons avec Enron, une entreprise qui avait orchestré l'une des plus grandes fraudes comptables de l'histoire.

    Enron utilisait des entités ad hoc pour soustraire ses dettes et ses actifs toxiques de son bilan, convainquant ainsi les investisseurs et les créanciers de sa stabilité tout en dissimulant ses passifs galopants. Mais Nvidia a fermement nié toute similitude avec Enron. L'entreprise a déclaré que ses rapports étaient « complets et transparents » et que, « contrairement à Enron, elle n'utilisait pas d'entités ad hoc pour dissimuler ses dettes et gonfler ses revenus ».

    Le caractère circulaire des accords conclus par Nvidia a aussi suscité des comparaisons avec Lucent Technologies, une entreprise de télécommunications qui a prêté de manière agressive de l'argent à ses clients, avant de se surendetter et de s'effondrer au début des années 2000. Nvidia a réfuté toute suggestion de similitude, affirmant dans une note que l'entreprise ne dépend pas d'accords de financement par le fournisseur pour augmenter ses revenus.

    Le journaliste Ed Zitron, sceptique notoire face à l'essor de l'IA, reconnaît que Nvidia ne ressemble à aucune de ces deux entreprises. Selon Ed Zitron, contrairement à Lucent, Nvidia ne semble pas contracter d'importantes dettes pour financer ses transactions circulaires. Et la plupart des clients soutenus par le fabricant de puces ne présentent pas de risques aussi évidents que les partenaires de Lucent lors de la bulle Internet de la fin des années 1990.

    Source : vidéos dans le texte

    Et vous ?

    Si l’intelligence artificielle devient une infrastructure comparable à l’énergie ou aux télécoms, faut-il la placer sous un contrôle politique et industriel beaucoup plus strict, au risque de freiner l’innovation ?

    Peut-on encore parler de souveraineté numérique quand l’IA repose sur une chaîne complète — énergie, puces, data centers, logiciels — que peu de pays maîtrisent réellement de bout en bout ?

    L’Occident est-il en train de perdre du temps à débattre des risques sociétaux de l’IA pendant que d’autres accélèrent son déploiement industriel à grande échelle ?

    La domination actuelle des modèles fermés est-elle une impasse stratégique face à l’avance croissante de la Chine sur l’open source et la diffusion massive de l’IA ?

    Voir aussi :

    Peter Thiel se débarrasse de toutes ses actions NVIDIA après avoir précédemment mis en garde contre le cycle de hype de l'IA, ravivant les craintes de bulle spéculative de l'IA
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #20
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 902
    Par défaut La chute de 400 milliards de dollars de valorisation de Microsoft un avant-goût du krach à venir ?
    La bulle de l'IA est sur le point d'éclater : la chute de 400 milliards de dollars de Microsoft un avant-goût du krach à venir ?
    peu d'entreprises peuvent démontrer un retour sur investissement proportionnel aux dépenses engagées

    Depuis plusieurs mois, un même mot revient avec insistance dans les cercles financiers, technologiques et politiques : bulle. La bulle de l’intelligence artificielle, nourrie par des investissements colossaux, des promesses parfois floues et une course mondiale à la puissance de calcul, semble se rapprocher d’un point de rupture. Entre signaux boursiers inquiétants, doutes croissants sur la rentabilité réelle des projets et comparaisons de plus en plus assumées avec l’explosion de la bulle Internet, le secteur de l’IA entre dans une phase critique où l’euphorie laisse place à l’examen.

    Dès l’ouverture du débat, certains critiques ne prennent plus de pincettes. Selon eux, la bulle actuelle de l’IA serait non seulement réelle, mais structurellement plus grave que celle des années 2000. À l’époque de la bulle Internet, les investisseurs misaient sur des usages encore embryonnaires, mais fondés sur une adoption grand public évidente : le web, l’e-commerce, la messagerie électronique. Aujourd’hui, l’IA concentre des sommes bien plus importantes, sur des projets dont la viabilité économique reste incertaine et dont les coûts explosent à mesure que les modèles deviennent plus grands, plus énergivores et plus complexes à maintenir.

    Ce qui inquiète particulièrement les observateurs, c’est la dissociation croissante entre valorisations financières et réalités industrielles. Des milliards sont injectés dans des modèles et des infrastructures dont la monétisation repose souvent sur des hypothèses optimistes, voire spéculatives. L’argument de la « révolution inévitable » sert parfois de paravent à des paris risqués, rappelant les investissements « bidons » qui ont précédé l’éclatement de la bulle Internet.

    La situation de Microsoft : une perte de 400 milliards de capitalisation malgré de bons résultats

    La spéculation effrénée et les investissements massifs dans l'IA ont créé une menace financière aux proportions cosmiques, dont les répercussions seront catastrophiques, a averti Erik Gordon. « La bulle de l'IA est presque aussi grande que la planète Jupiter », a déclaré Gordon, professeur d'entrepreneuriat à la Ross School of Business de l'université du Michigan.

    « Lorsqu'elle éclatera, les débris seront partout », a-t-il poursuivi. « Les grands investisseurs institutionnels seront touchés, tout comme les investisseurs individuels qui ont parié que la bulle allait encore grossir. » Gordon a cité l'exemple de l'action Microsoft, qui a chuté de plus de 6 % après la publication mercredi des résultats supérieurs aux attentes du géant du logiciel. Les actions de Microsoft ont chuté « en raison des sommes colossales qu'il investit dans l'IA », a déclaré Gordon. « C'est un avertissement de l'éclatement à venir. »

    En fait, les investissements dans l'IA et les nouvelles technologies ont fait l'objet de nombreux débats à Wall Street. Les investisseurs souhaitent de plus en plus voir les entreprises montrer qu'elles tirent profit des dépenses massives engagées au cours de l'année dernière. Les résultats de Microsoft ont montré une augmentation de 66 % des dépenses d'investissement au cours du dernier trimestre, pour atteindre un niveau record de 37,5 milliards de dollars, Microsoft soutenant la demande pour ses segments cloud et IA.

    Cette augmentation des dépenses d'investissement intervient à un moment où la croissance de son unité de cloud computing Azure, suivie de près, a ralenti par rapport au trimestre précédent. Les investisseurs surveilleraient de près ce segment, qui leur sert d'indicateur pour mesurer la demande des entreprises en matière d'IA. « Étant donné qu'il devient de plus en plus évident que Microsoft ne va pas obtenir un retour sur investissement important grâce à ses investissements massifs dans l'IA, ses actions doivent être réévaluées à la baisse pour atteindre un niveau plus conforme à leur juste valeur historique », a déclaré Matthew Maley, stratège en chef des marchés chez Miller Tabak + Co, à Bloomberg.

    Les liquidités nettes utilisées par le géant du cloud computing pour ses investissements ont bondi de 95 % en glissement annuel pour atteindre plus de 57 milliards de dollars au cours des six mois précédant décembre. Cette hausse s'explique par l'ajout de 49 milliards de dollars d'immobilisations corporelles, telles que des centres de données.

    Avant leur chute après la publication des résultats, les actions de Microsoft avaient pratiquement doublé depuis le début de l'année 2023, portant la capitalisation boursière de la société à plus de 3 500 milliards de dollars.

    Nom : cinq.png
Affichages : 67382
Taille : 17,3 Ko

    La situation actuelle serait pire que lors de la bulle des dotcoms

    Edward Zitron estime que « beaucoup de nouvelles technologies intégrant l’IA ne sont que des itérations d’outils déjà existants, habillés de marketing extravagant ». Ces produits sont présentés comme révolutionnaires alors qu’ils ne font rien de fondamentalement nouveau. L’industrie se concentre sur l’image et le battage médiatique plutôt que sur la création de valeur réelle. L'auteur critique le modèle de capital-risque et de l’investissement dans l’IA.

    Selon lui, l'IA générative abaisse la barrière à l'entrée pour quiconque souhaite monter une startup capable de dire tout ce qu'il faut à un investisseur en capital-risque. Le vibe-coding peut créer un « prototype fonctionnel » d'un produit qui ne peut pas être mis à l'échelle (mais qui peut lever des fonds !), les problèmes nébuleux des LLM offrent aux fondateurs la possibilité de créer des sociétés nébuleuses d'observabilité et de « véracité des données ».

    En conséquence, les startups d'IA ont absorbé 65 % des financements en capital-risque au quatrième trimestre 2025. Le décalage fondamental entre le capital-risque et la création de valeur (ou la réalité) a conduit à l'injection de centaines de milliards de dollars dans des startups d'IA qui affichent déjà des marges négatives. À ce stade, il est évident qu'il est « impossible » de créer un laboratoire de base ou un service alimenté par LLM qui soit rentable.

    Edward Zitron a rappelé quelques chiffres clés de la bulle Internet d'il y a vingt ans. Le capital-risque américain a investi 11,49 milliards de dollars (23,08 milliards de dollars actuels) en 1997, 14,27 milliards de dollars (28,21 milliards de dollars actuels) en 1998, 48,3 milliards de dollars (95,50 milliards de dollars actuels) en 1999 et plus de 100 milliards de dollars (197,71 milliards de dollars) en 2000, pour un total de 344,49 milliards de dollars (en dollars actuels).

    Ce montant représente seulement 6,174 milliards de dollars de plus que les 338,3 milliards de dollars levés en 2025, dont 40 à 50 % (environ 168 milliards de dollars) ont été investis dans l'IA générative. En 2024, les startups nord-américaines spécialisées dans l'IA ont levé environ 106 milliards de dollars.

    À partir de ces données, Edward Zitron explique que la bulle actuelle est en fait « bien pire » que la bulle Internet, parce que les sommes investies sont presque aussi importantes et que l’écart entre promesse et réalité économique semble encore plus grand. Selon le New York Times, « 48 % des entreprises de l'ère des dotcoms créées depuis 1996 existaient encore fin 2004, soit plus de quatre ans après le pic atteint par le Nasdaq en mars 2000 ».

    Celles qui ont fait faillite étaient principalement des boutiques en ligne douteuses et manifestement non viables, telles que WebVan, Pets.com et Kozmo. Dans les faits, la bulle Internet que tout le monde a connue n'avait que très peu à voir avec la technologie proprement dite. Les investisseurs sur les marchés publics se sont précipités, les yeux fermés et le portefeuille à la main, pour investir dans toute entreprise qui sentait même de loin l'informatique.

    Selon Edward Zitron, cette frénésie a conduit pratiquement toutes les grandes valeurs technologiques ou de télécommunications à se négocier à un multiple ridicule de leur bénéfice par action (jusqu'à 60 fois dans le cas de Microsoft). La bulle Internet a éclaté lorsque les actions bidon des dotcoms se sont effondrées et que le monde a réalisé que la magie d'Internet n'était pas une panacée capable de « redresser tous les modèles économiques ».

    Nom : north.png
Affichages : 15904
Taille : 49,5 Ko

    Ce qui pourrait faire éclater la bulle de l'IA, ce ne sont pas les inquiétudes signalées concernant le financement circulaire

    L’analyse publiée par le Council on Foreign Relations dresse un constat sans détour : la dynamique actuelle autour de l’intelligence artificielle ressemble de moins en moins à une trajectoire de croissance maîtrisée et de plus en plus à une bulle en phase de maturité. Les auteurs soulignent que l’enthousiasme des marchés repose sur une hypothèse centrale fragile, celle selon laquelle l’IA générera rapidement des gains de productivité massifs et durables, capables de justifier des investissements qui se chiffrent déjà en centaines de milliards de dollars.

    Or, dans les faits, cette promesse tarde à se matérialiser à grande échelle. Si certaines entreprises parviennent à améliorer marginalement leurs processus grâce à l’IA, peu sont aujourd’hui en mesure de démontrer un retour sur investissement proportionnel aux dépenses engagées. Le décalage entre les coûts réels — infrastructures, énergie, talents hautement qualifiés — et les revenus effectivement générés constitue l’un des signaux d’alerte les plus sérieux mis en avant.

    Le CFR insiste également sur la concentration extrême du marché. Une poignée d’acteurs capte l’essentiel des capitaux et impose un rythme d’investissement que même ces géants peinent à soutenir sur la durée. Cette concentration accroît le risque systémique : si les attentes se révèlent excessives, la correction ne se limitera pas à quelques startups surévaluées, mais pourrait affecter l’ensemble de l’écosystème technologique et financier.

    Autre point clé de l’analyse : la dépendance croissante à des infrastructures physiques lourdes. Contrairement à l’économie Internet des débuts, l’IA moderne n’est pas seulement une affaire de logiciels. Elle exige des centres de données énergivores, des chaînes d’approvisionnement complexes pour les semi-conducteurs et une consommation électrique qui commence à entrer en concurrence avec d’autres priorités économiques et politiques. Cette réalité limite mécaniquement la scalabilité du modèle et fragilise les projections les plus optimistes.

    Enfin, les auteurs mettent en garde contre un effet de mimétisme classique des bulles spéculatives. De nombreuses entreprises se sentent contraintes d’annoncer des stratégies IA ambitieuses, non pas parce qu’elles y voient une valeur immédiate, mais parce que le marché l’exige. Cette logique défensive, où l’IA devient un argument boursier avant d’être un outil industriel, rappelle dangereusement les excès observés avant l’éclatement de la bulle Internet.

    Dans cette perspective, le risque n’est pas tant l’échec de l’intelligence artificielle en tant que technologie, mais la violence potentielle d’un réajustement brutal des attentes. Le CFR conclut implicitement que plus cette correction est retardée par l’euphorie, plus elle pourrait être douloureuse lorsque la réalité économique reprendra ses droits.

    Source : Council on Foreign Relations

    Et vous ?

    L’IA crée-t-elle réellement de la valeur mesurable pour les entreprises clientes, ou assiste-t-on à une inflation artificielle des usages pour justifier des CAPEX toujours plus lourds ?

    Peut-on comparer sérieusement la bulle de l’IA à celle d’Internet alors que l’IA repose sur des infrastructures physiques, énergétiques et géopolitiques beaucoup plus contraignantes ?

    Les géants technologiques peuvent-ils absorber durablement des milliards de pertes ou de faibles marges sur l’IA sans fragiliser leur cœur de métier ?

    La course aux modèles toujours plus grands est-elle encore soutenable économiquement, ou assiste-t-on déjà à une impasse industrielle masquée par l’enthousiasme boursier ?

    Une correction violente du marché de l’IA serait-elle une catastrophe pour l’innovation ou, au contraire, une étape nécessaire pour assainir le secteur ?

    Les entreprises utilisatrices d’IA sont-elles prêtes à payer le vrai prix de ces technologies une fois les subventions indirectes des investisseurs disparues ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 06/08/2010, 11h34
  2. Microsoft et SAP s'allient contre Oracle
    Par Gordon Fowler dans le forum Actualités
    Réponses: 0
    Dernier message: 19/11/2009, 16h07
  3. Réponses: 2
    Dernier message: 16/01/2009, 16h50
  4. Erreur Oracle suite a un traitement(parallel query)
    Par D_light dans le forum Oracle
    Réponses: 2
    Dernier message: 16/04/2007, 10h42

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo