IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Demis Hassabis, PDG de Google DeepMind, alerte sur la formation d'une bulle autour des startups d'IA


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    551
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 551
    Par défaut
    « À son tour, cette situation pourrait provoquer un effondrement de l'économie dans son ensemble, impactant ainsi tout le monde. » Cela n’est pas étayé. Avec un portefeuille d’action assez panaché (règle de prudence nº1), le risque sera marginal. Un « rattrapage » du cours de NVidia n’aura principalement d’effet que sur ses actionnaires.

    Ce n’est pas les subprimes où la titrisation et la revente de créances moisies a gangréné le système bancaires.

  2. #2
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    160
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 160
    Par défaut
    Seulement quelques entreprises solides ont survécu à la tempête, comme Amazon ou Google
    Google est entré en bourse en 2004, soit 3 ans après la tempête.

  3. #3
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 724
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 724
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    « La différence entre la bulle informatique des années 1990 et la bulle de l'IA aujourd'hui est que les 10 premières entreprises du S&P 500 sont aujourd'hui plus surévaluées qu'elles ne l'étaient dans les années 1990 », a écrit Torsten Sløk dans sa note largement diffusée sur les médias sociaux. D'après l'analyse de Torsten Sløk, les 10 premières entreprises de l'indice de référence se négocient à un ratio cours/bénéfice prévisionnel sur 12 mois d'environ 25.

    « Cela suggère que les entreprises sont cotées à une prime légèrement plus élevée qu'il y a vingt ans », a-t-il écrit. Le ratio cours/bénéfice mesure la cherté d'une action en comparant son prix à ses bénéfices. Un ratio élevé signifie que les investisseurs paient une prime et parient sur une forte croissance future.

    Cela signifie que les investisseurs parient si agressivement sur les géants de l'IA tels que Nvidia, Microsoft, Apple et Google que le cours de leurs actions s'est détaché de leurs bénéfices réels, plus encore que ne l'étaient les chouchous de la technologie, notamment Cisco et AOL dans les années quatre-vingt-dix. Les dix premières entreprises technologiques à l'origine de cette frénésie comprennent Nvidia, Microsoft, Apple, Alphabet (Google), Amazon et Meta.

    Elles détiennent la valeur marchande la plus importante à Wall Street. Nvidia a récemment franchi la barre des 4 000 milliards de capitalisation boursière, dépassant Microsoft et Apple, qui sont les deux seules autres entreprises de la course à l'IA possédant une valorisation supérieure à 3 000 milliards de dollars. Il s'agit d'une frénésie d'IA très concentrée qui pousse une poignée d'actions à très forte capitalisation à se retrouver en situation de saignement de nez.
    Pourvu que les banques n'ont pas trop investit dans les entreprises qui se dégonfleront.
    Sinon y'en a qui vont devoir dire adieu à leur assurance vie, après l'éclatement de la bulle.

    Bon alors ça ne fonctionne pas trop, parce qu'il y a des règles qui font qu'une petite partie peut être investie en actions, l'argent des assurances vie est principalement investit dans des obligations d'État ou d'entreprises.

    Quoi qu'il en soit il est possible que des grosses banques fassent faillite.

  4. #4
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 264
    Par défaut
    j'ai un portefeuille très diversifié, qui va des métaux, a l'armement, le médicale, a la tech et l'ia.

    Certains marchés sont porteurs et d'autres diminue, mes actions dans l'automobile vont pas fort par exemple, mais l'armement et l’aéronautique rattrape bien.
    J'ai quasi toujours été a plus de 5-6% de rendement par ans, sauf covid et crise de 2008 ou j'ai parfois plongé.
    Ma meilleur année fut juste après le covid avec un +10%.

    Bref une chute de l'ia ne va rien changer a mon rendement, au pire je tomberais à 5%, et globalement tous les gros fonds de pensions sont diversifié. Personne en dehors des spéculateurs ne mettent 100% sur l'ia ou un domaine/une entreprise bien précis.
    Quand on investie, on diversifie: la bourse dans pleins d'entreprise via des indices généralement (cac40, pea européen, nasdac, etf monde...)
    et aussi l'or/autre métaux, l'immobilier papier via les scpi.

    Depuis peu j’investis en Afrique de l'ouest via la BRVM. Une zone remplie de jeune qui bossent et la chine y apporte les usines, pour moi c'est un boom de croissance en perspective.

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 757
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 757
    Par défaut Dites adieu à la bulle de l'IA et préparez-vous au krach : des analystes évoquent son éclatement imminent
    Dites adieu à la bulle de l'IA et préparez-vous au krach : plusieurs analystes soulignent les signes avant-coureurs de son éclatement imminent,
    Sam Altman lui-même le reconnait à demi-mot

    Depuis le lancement de ChatGPT il y a plus de deux ans, l'intelligence artificielle générative est sur toutes les lèvres. Des géants de la tech aux start-up les plus audacieuses, tout le monde s'est mis à rêver de cette nouvelle révolution. Les chiffres donnent le vertige : des milliards de dollars investis, des valorisations qui s'envolent et un marché boursier enivré par les promesses d'un futur radieux. Les promesses sont immenses : réinventer la productivité, automatiser la créativité, transformer la manière dont nous travaillons. Mais derrière l’emballement médiatique et financier, des signaux inquiétants s’accumulent.

    Aussi, des voix de plus en plus nombreuses murmurent la même inquiétude : sommes-nous en train de vivre la formation d'une nouvelle bulle, prête à éclater ? Plusieurs analystes estiment que nous vivons actuellement une bulle spéculative comparable à celle des dot-com au début des années 2000.


    Une étude récente du MIT fait l’effet d’une douche froide : 95 % des projets en intelligence artificielle générative échouent à créer de la valeur mesurable. Autrement dit, seule une poignée de cas d’usage parvient réellement à générer un retour sur investissement tangible. « Malgré les 30 à 40 milliards de dollars investis par les entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », ont écrit les chercheurs du MIT.

    Suite à ce rapport, les actions de Nvidia, l'entreprise évalué à 4 000 milliards de dollars qui a alimenté le boom de l'IA, ont chuté de 3,5 %, tandis que celles du géant des données Palantir ont baissé de 9 %. Les conclusions du MIT risquent de faire éclater la bulle boursière technologique, qui a ajouté des milliers de milliards de dollars à la valeur des actions américaines.

    La fascination pour l'IA n'est pas infondée. Les progrès sont réels et spectaculaires. Les modèles de langage comme GPT ou les générateurs d'images ont démontré des capacités impressionnantes, ouvrant la voie à des applications autrefois inimaginables. Mais cet engouement a entraîné une course folle qui présente plusieurs points de fragilité :
    • Des valorisations déconnectées de la réalité : Des start-up, parfois avec peu ou pas de revenus, atteignent le statut de licorne et des valorisations astronomiques. Le marché parie sur un potentiel futur, sans se soucier du présent. C'est le miroir de l'ère de la bulle Internet, où l'audience et la « croissance à tout prix » l'emportaient sur la rentabilité.
    • Le modèle économique en question : Produire et faire fonctionner des modèles d'IA à grande échelle coûte une fortune. Ces systèmes nécessitent une puissance de calcul colossale (GPU) et des investissements massifs. Pour l'instant, les coûts de fonctionnement pour les entreprises dépassent souvent les revenus générés. La rentabilité est un horizon lointain, voire incertain.
    • La surenchère du talent et de la puissance de calcul : La bataille pour attirer les meilleurs ingénieurs en IA fait grimper les salaires de manière déraisonnable. En parallèle, la pénurie de puces spécialisées comme celles de Nvidia crée une dépendance et des coûts d'infrastructure qui pèsent lourdement sur les bilans.

    La plupart des entreprises se retrouvent donc face à trois obstacles majeurs :
    • Des coûts massifs en infrastructure et en expertise.
    • Une complexité d’intégration dans des processus métier souvent mal préparés.
    • Des bénéfices limités en comparaison avec les promesses marketing.

    Pour de nombreuses organisations, l’IA générative est encore perçue comme un gadget spectaculaire, mais difficile à industrialiser.

    Nom : success.png
Affichages : 142794
Taille : 10,7 Ko

    GPT-5 et la déception technologique

    La plupart des personnes qui ne sont pas profondément impliquées dans la frénésie autour de l'intelligence artificielle ne l'ont peut-être pas remarqué, mais l'idée selon laquelle l'IA progresserait inexorablement vers une intelligence supérieure à celle des humains, voire deviendrait une menace pour l'humanité, a pris fin brutalement le 7 août.

    C'est ce jour-là que la société d'IA la plus suivie, OpenAI, a lancé GPT-5, un produit avancé qui, selon les promesses de longue date de l'entreprise, allait faire honte à ses concurrents et déclencher une nouvelle révolution dans cette technologie prétendument révolutionnaire.

    En réalité, GPT-5 s'est révélé être un échec. Il s'est avéré moins convivial et, à bien des égards, moins performant que ses prédécesseurs dans l'arsenal d'OpenAI. Il a commis le même type d'erreurs risibles en répondant aux demandes des utilisateurs, n'était pas meilleur en mathématiques (voire pire) et ne représentait en rien l'avancée dont OpenAI et son directeur général, Sam Altman, avaient tant vanté les mérites.

    « On pensait que cette croissance serait exponentielle », explique Alex Hanna, critique technologique et coauteur (avec Emily M. Bender de l'université de Washington) du nouvel ouvrage incontournable The AI Con: How to Fight Big Tech's Hype and Create the Future We Want (L'arnaque de l'IA : comment lutter contre le battage médiatique des géants de la technologie et créer l'avenir que nous voulons). Au lieu de cela, selon Hanna, « nous nous heurtons à un mur ».

    Les conséquences vont au-delà de ce que tant de personnes ont été amenés à attendre (chefs d'entreprise), voire à craindre (travailleurs), de la pénétration de l'IA dans nos vies. Des centaines de milliards de dollars ont été investis par des capital-risqueurs et de grandes entreprises telles que Google, Amazon et Microsoft dans OpenAI et ses nombreux laboratoires d'IA, même si aucun de ces laboratoires n'a encore réalisé de bénéfices.

    Une bulle rappelant celle des dot-com

    L’histoire se répète. Au tournant des années 2000, la bulle Internet avait vu les valorisations de jeunes pousses s’envoler à des niveaux absurdes. Beaucoup de ces sociétés ont ensuite disparu.

    Aujourd’hui, on retrouve les mêmes ingrédients avec l’IA :
    • Des investissements colossaux (plus de 500 milliards de dollars injectés en deux ans par les GAFAM).
    • Des revenus modestes en retour (35 milliards estimés en plus, soit un écart énorme).
    • Une frénésie médiatique où chaque entreprise se doit d’annoncer son « plan IA » pour rester crédible.

    Les entreprises cotées en bourse se sont empressées d'annoncer des investissements dans l'IA ou de revendiquer des capacités d'IA pour leurs produits dans l'espoir de faire grimper le cours de leurs actions, tout comme la génération précédente d'entreprises s'était présentée comme des « dot-coms » dans les années 1990 afin de paraître plus attrayantes aux yeux des investisseurs.

    Nvidia, le fabricant d'une puce haute performance alimentant la recherche en IA, joue presque le même rôle que celui joué par Intel Corp., un autre fabricant de puces, dans les années 1990 en tant que leader boursier, contribuant à soutenir le marché haussier des actions.

    « Cela semble logique pour une bulle », a déclaré Marko Kolanovic, ancien directeur de recherche chez JP Morgan.

    Le MIT a constaté que malgré des investissements massifs dans les logiciels d'IA, la moitié des projets se sont soldés par un échec. Il a indiqué que 80 % des entreprises avaient exploré la technologie de l'IA, mais que seulement 40 % l'avaient déployée. Il ajoute que les « systèmes de niveau entreprise » ont été « discrètement rejetés » par les grandes entreprises et que seulement « 20 % ont atteint le stade pilote et 5 % seulement ont atteint le stade de la production ».

    Le rapport, issu du projet Nanda AI de l'université américaine, poursuit en affirmant que de nombreux employés souhaitent en fait utiliser l'IA, mais se tournent vers des produits grand public tels que ChatGPT à leurs propres frais, plutôt que de s'appuyer sur des outils d'IA d'entreprise coûteux ou peu maniables. Le rapport insiste sur le fait que « l'IA transforme déjà le travail, mais pas par les voies officielles », mais sa conclusion principale, selon laquelle la quasi-totalité des investissements des entreprises sont gaspillés, n'aurait pas pu tomber à un moment plus délicat.


    Sam Altman, PDG d'OpenAI, admet à demi-mot

    Bien qu'il soit l'un des principaux bénéficiaires du boom de l'IA (les investisseurs envisageraient une valorisation de 500 milliards de dollars pour sa start-up OpenAI), Sam Altman a refusé, le week-end dernier, d'écarter les inquiétudes selon lesquelles les actions technologiques seraient dans une bulle. « Les investisseurs sont-ils trop enthousiastes ? Je pense que oui », a déclaré le directeur général d'OpenAI aux journalistes lors d'un dîner privé, ajoutant que certaines personnes risquaient de perdre « des sommes colossales ».

    Citation Envoyé par Sam Altman
    Ce n'est pas un comportement rationnel. Je pense que quelqu'un va y laisser des plumes. Quelqu'un va perdre une somme d'argent colossale. Nous ne savons pas qui ; et beaucoup de gens vont gagner une somme d'argent phénoménale. Ma conviction personnelle, même si je peux me tromper, est que, dans l'ensemble, cela représenterait un énorme gain net pour l'économie.
    Les investisseurs craignent que l'un de ces perdants ne soit SoftBank, le géant japonais de la technologie qui a investi des milliards dans OpenAI. Ses actions ont chuté de 7 % mardi.

    Nom : soft.png
Affichages : 50149
Taille : 21,8 Ko

    Si les promesses de l'IA s'avèrent être aussi illusoires que celles des dot-coms, les investisseurs boursiers pourraient être confrontés à une douloureuse prise de conscience.

    Le lancement peu encourageant de GPT-5 pourrait précipiter cette prise de conscience. « Les entreprises spécialisées dans l'IA soutiennent actuellement l'économie américaine, mais cela ressemble beaucoup à une bulle », a déclaré Hanna.

    Le lancement a été si décevant qu'il a mis en lumière à quel point l'ensemble du secteur de l'IA dépendait du battage médiatique.

    Voici ce qu'a déclaré Altman juste avant le dévoilement de GPT-5, en le comparant à son prédécesseur immédiat, GPT-4o : « GPT-4o, c'était peut-être comme parler à un étudiant », a-t-il déclaré. « Avec GPT-5, c'est maintenant comme parler à un expert, un véritable expert titulaire d'un doctorat dans n'importe quel domaine dont vous avez besoin à la demande... quels que soient vos objectifs. »

    Eh bien, pas vraiment. Lorsqu'un utilisateur lui a demandé de produire une carte des États-Unis avec tous les États indiqués, GPT-5 a généré un monde imaginaire, comprenant des États tels que Tonnessee, Mississipo et West Wigina. Un autre utilisateur a demandé au modèle de lui fournir une liste des 12 premiers présidents, avec leurs noms et leurs photos. Il n'en a trouvé que neuf, dont les présidents Gearge Washington, John Quincy Adama et Thomason Jefferson.

    Les utilisateurs expérimentés des modèles précédents de la nouvelle version ont été consternés, notamment par la décision d'OpenAI de fermer l'accès à ses anciennes versions et d'obliger les utilisateurs à se fier à la nouvelle. « GPT5 est horrible », a écrit un utilisateur sur Reddit. « Des réponses courtes et insuffisantes, un langage stylisé plus désagréable, moins de « personnalité »... et nous n'avons pas la possibilité d'utiliser simplement d'autres modèles. » OpenAI a rapidement cédé et a rouvert l'accès aux anciennes versions.

    Conclusion

    Depuis le lancement de ChatGPT en 2022, la Silicon Valley prêche que les chatbots IA vont transformer l'économie. Les dirigeants ont donc dépensé des milliards pour équiper leur personnel et prédit des économies massives.

    Mais la révolution promise de l'IA est au point mort, selon le rapport du MIT.

    Après avoir interrogé 150 chefs d'entreprise et 350 employés, le MIT a constaté que « seuls 5 % des projets pilotes intégrant l'IA génèrent des millions de dollars de valeur, tandis que la grande majorité reste bloquée sans impact mesurable sur le compte de résultat ».

    Le constat est clair : l’IA traverse une phase d’emballement qui ne pourra pas durer. Les marchés, les chercheurs et même les dirigeants des géants du secteur en conviennent.

    Alors, faut-il s'attendre à une catastrophe ? Non. Le "krach" d'une bulle n'est pas la fin de la technologie, mais la fin d'une période d'excès et de spéculation. La bulle, tôt ou tard, se dégonflera. Mais pour les professionnels de l’informatique, ce n’est pas une menace insurmontable : c’est une occasion de prendre du recul, de sélectionner les bons cas d’usage et de préparer l’avenir.

    Les entreprises ne seront plus jugées sur leurs promesses, mais sur leur capacité à générer de la valeur réelle et à résoudre des problèmes concrets. Ce sera le moment idéal pour :
    • Se concentrer sur les fondamentaux. Mettre l'accent sur les projets qui offrent un ROI clair et tangible.
    • Adopter une approche pragmatique. Tester les solutions d'IA en se concentrant sur les cas d'usage qui améliorent véritablement l'efficacité ou créent de nouveaux services.
    • Séparer le bon grain de l'ivraie. Les entreprises viables et les technologies robustes survivront, laissant derrière elles le bruit et le marketing surfait.

    La véritable révolution de l’IA n’a sans doute pas encore commencé. Et c’est peut-être seulement après l’éclatement de la bulle actuelle que nous verrons émerger les applications qui transformeront vraiment nos métiers et nos sociétés.

    Source : Rapport du Center for Information Systems Research du MIT

    Et vous ?

    Pensez-vous que l’IA générative est une véritable révolution technologique, ou simplement une mode passagère alimentée par le marketing ?

    Selon vous, quels secteurs métier tireront réellement profit de l’IA, même après un éventuel éclatement de la bulle ?

    Dans vos propres projets, avez-vous constaté un retour sur investissement concret grâce à l’IA, ou plutôt une déception ?

    Faut-il selon vous continuer à investir massivement dans l’IA, ou adopter une approche plus sobre et ciblée ?

    L’obsession pour les modèles géants est-elle la bonne voie, ou devrait-on privilégier des modèles spécialisés plus petits mais plus efficaces ?

    Pensez-vous que les PME auront réellement accès à des solutions IA utiles, ou que cette technologie restera réservée aux grands groupes capables d’investir lourdement ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 724
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 724
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Une étude récente du MIT fait l’effet d’une douche froide : 95 % des projets en intelligence artificielle générative échouent à créer de la valeur mesurable. Autrement dit, seule une poignée de cas d’usage parvient réellement à générer un retour sur investissement tangible. « Malgré les 30 à 40 milliards de dollars investis par les entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », ont écrit les chercheurs du MIT.
    Ouais pour l'instant ça coute cher et ça ne rapporte rien.
    Les investissements sont massifs parce qu'il faut que les entreprises se dépêchent, il faut prendre de l'avance sur les autres, il n'y aura pas beaucoup de gagnants.

    2, 3 entreprises vont devenir rentable, les autres feront faillite.
    Quand l'IA sera réellement performante il faudra faire payer les utilisateurs. (il faut bien que de l'argent rentre)

  7. #7
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 401
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 401
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    La véritable révolution de l’IA n’a sans doute pas encore commencé.
    Au contraire. La révolution "attendue" de l'IA n'a pas eu lieu, mais la révolution "véritable" a eu lieu : les LLM et désormais les agents ont eu un impact significatif sur nos sociétés, et ça va rester. Car oui ils apportent une réelle valeur ajoutée. Mais tant qu'on sait les utiliser correctement. Les usages vont arrêter de partir dans tous les sens, donc ça va se stabiliser, mais ce qui marche va rester.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  8. #8
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    516
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 516
    Par défaut Je suis bien d'accord...
    Matthieu,

    Citation Envoyé par Matthieu Vergne Voir le message
    Au contraire. La révolution "attendue" de l'IA n'a pas eu lieu
    Cette révolution "attendue", c'est celle qui a été "vendue" par les prophètes de l'IA/IAG avant qu'elle soit au point, en faisant mirroiter un ROI mirifique. Ce ROI n'ayant pas lieu, les investisseurs vont se retirer petit à petit, puis leur retrait va s'accélérer, et la bulle de l'IA "attendue" va finalement exploser. Certains pourront faire le gros dos et/ou pourront survivre, mais d'autres vont y laisser leur culotte.

    Citation Envoyé par Matthieu Vergne Voir le message
    mais la révolution "véritable" a eu lieu : les LLM et désormais les agents ont eu un impact significatif sur nos sociétés, et ça va rester. Car oui ils apportent une réelle valeur ajoutée.
    De quelle révolution "véritable" parlez-vous exactement ? Certes, certains domaines se "prêtent bien" à l'IA telle qu'elle existe maintenant (avec LLM et agents), mais quelles sont ces impacts "significatifs" (lesquelles) sur "nos sociétés" (lesquelles) ? Et pour quel "coût" ? Tant dans mon domaine, que dans mon expérience personnel, l'IA n'a strictement rien changé, rien apporté, sauf de nouveau soucis. Mais oui, dans "certains domaines", l'IA peut apporter "une aide", je n'en doute pas, mais de là a parler d'impact signifiquatif, c'est actuellement allez trop loin, me semble-t-il. C'est peut-être en route, mais actuellement (je peux me tromper), il n'y pas de "grand changements". On ne laisse pas n'importe qui utliser n'importe quelle outil. Un bon médecin n'est pas forcément un bon cuisinier.

    Citation Envoyé par Matthieu Vergne Voir le message
    Mais tant qu'on sait les utiliser correctement.
    Mais qui peut vérifier qu'elles sont utilisées "correctement" ? Comment se "fier" à l'IA, sauf a faire "valider" ce qu'elle produit des "spécialistes" du domaine concerné ? Ce qui "diminue", finalement, son "apport". L'IA est un outil, mais seuls des "spécialistes" peuvent l'utiliser et valider ce que cet "outil" produit ? Lorsque l'on fait appel à un humain, spécialiste dans un domaine, on le "connaît", il a des "références", on sait qu'on peut lui faire "confiance", car il a déjà "prouvé" sa valeur, et qu'il va produire un travail "correct" ? On ne peut pas dire ça d'une IA, mais encore une fois, je peux me tromper...

    Citation Envoyé par Matthieu Vergne Voir le message
    Les usages vont arrêter de partir dans tous les sens, donc ça va se stabiliser, mais ce qui marche va rester.
    Je suis d'accord, mais on est là très loin de la promesse de départ...

    BàV et Peace & Love.

  9. #9
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 401
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 401
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Cette révolution "attendue", c'est celle qui a été "vendue" par les prophètes de l'IA/IAG
    @OuftiBoy

    Tout l'objectif de mon post est justement de faire la différence entre ce qui a été vendu et la réalité.

    Pour autant, la réalité est que l'IA a fait bouger les lignes au niveau mondial de manière permanente. On a bien de nouvelles capacités grace à cet outil, mais maintenant que les rêves éveillés sont battus en brèche, les pratiques vont se voir "nettoyées" pour ne laisser que ce qui sert vraiment. Pour autant, ça ne va pas se réduire à peu de choses.

    Tout ce qui est de l'ordre du créatif s'est vu sévèrement impacté. Si je veux générer un texte dans le cadre d'un roman ou de role play, ça fonctionne. Je n'ai plus besoin de compter sur la compétence d'un professionnel ou sur un temps de pratique significatif pour obtenir un résultat satisfaisant. Je peux le faire moi-même en ayant les bons modèles et un peu de pratique de prompt. Pareil pour les images. Puis-je générer tout ce que je veux ? Pas du tout, les modèles ont leur limite aussi et c'est à hauteur de l'effort que je veux bien y mettre, mais je peux faire énormément de choses qu'auparavant je n'aurai même pas essayé car la quantité de travail m'aurait découragé.

    Pour ce qui est des tâches plus standardisées, comme le dév logiciel ou la médecine, il est moins question de satisfaction (ressenti subjectif) que d'objectif à atteindre (ce qui est acceptable au sein de la communauté concernée, et non au niveau individuel). La différence fondamentale est qu'une évaluation subjective est facilement influençable, y compris par le produit obtenu. Quand je génère des images, je démarre avec une idée en tête, mais même si je n'arrive pas à l'obtenir l'IA va quand même me sortir des choses, qui potentiellement me plairont quand même, et donc je n'aurai pas perdu mon temps. Ma cible aura juste changé, influencée par ce que l'IA m'aura fourni.

    Cela n'est pas envisageable quand l'objectif est un acquis communautaire :
    • les tests doivent représenter les besoins du clients : si l'IA te génère des tests sympas, ceux-là n'ont aucun intérêt si ce n'est pas aligné avec le client
    • le code doit passer tous les tests : si l'IA te fait un code sympa, tu ne vas pas réécrire les tests pour coller au code fourni
    • etc.


    Pour faire simple, les tâches subjectives sont "adaptables" à l'IA, et c'est ça qui change les pratiques significativement : on se retrouve avec de nouvelles pratiques centrées sur l'IA, car cela permet d'être satisfait à moindre coût comparé aux pratiques habituelles. Les tâches objectives quant à elles n'ont pas cette possibilité. C'est l'IA qui doit atteindre les objectifs recherchés. Dans ce cas il faut trouver les bonnes pratiques pour arriver à satisfaire ces objectifs via l'IA. Mais rien ne dit que cela soit possible ou économiquement viable. C'est ce qu'on vie dans le dev : c'est parti dans tous les sens, mais il va y avoir du nettoyage, jusqu'à ne retenir que ce qui apporte vraiment une valeur ajoutée.

    Et comme l'IA fonctionne de manière statistique, elle ne peut satisfaire les objectifs que de manière statistique. Du coup, soit on accepte que de temps en temps ça fasse n'importe quoi (ça peut être acceptable selon le cas d'usage), soit il faut systématiquement passer derrière pour vérifier que l'objectif est atteint. Ce qui nécessite, comme tu le dis, d'avoir l'expertise adéquate. Si cette vérification peut être automatisée (e.g. générer du code pour passer des tests automatisés existants), c'est envisageable, mais sinon il faut le faire à la main, et là où le coût de cette vérification est au moins aussi élevé que de le faire soi-même, ça n'est juste pas viable.

    Par exemple, il peut être viable que l'IA génère un script que je vérifie (la revue coûte moins cher que le développement), ensuite je compte sur le script pour traiter de manière déterministe une masse de documents, sans avoir besoin de repasser derrière. Il sera moins viable d'utiliser l'IA pour traiter directement la masse de documents, car passer derrière va potentiellement te demander de refaire le boulot pour voir si tu obtiens la même chose, donc autant le faire directement à la main. Ceux qui utilisent l'IA sans repasser derrière n'ont tout simplement pas compris quel outil ils ont dans les mains, et ceux là sont bon à alimenter les articles de drama pour que les autres ne fassent pas la même erreur.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  10. #10
    Membre Expert Avatar de KiLVaiDeN
    Profil pro
    Inscrit en
    Octobre 2003
    Messages
    2 890
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2003
    Messages : 2 890
    Par défaut
    La "bulle" internet a éclaté, et au final, son développement et son déploiement n'a cessé d'augmenter. Cela n'a pas fait disparaitre l'internet, bien au contraire. Il en sera de même pour l'IA.

    Dès qu'une technologie est prometteuse, des investisseurs misent dessus de manière inconsidérée, et cela est tout à fait normal, c'est l'occasion de prendre de l'avance sur les autres. Ils y perdront financièrement, mais l'expérience gagnée sur ces technologies leur sera acquise et utile lorsque les outils s'amélioreront encore, car l'amélioration est continue, les modèles deviennent de plus en plus performant, contrairement à ce que certains prédisaient sur un "plateau" : il n'est pas arrivé, et ma prédiction est qu'il n'arrivera pas.

    Aussi, ne pas mettre dans le même panier les IA génératives et les IA plus "concrètes". Le machine learning par exemple est déployé dès aujourd'hui et avec succès dans de nombreuses entreprises, on ne parle pas de ChatGPT mais bien de modèles entrainés dans des contextes spécifiques où leur apport est indéniable.

    Je vois de nombreux commentaires sur "l'incapacité" supposée des LLMs (comme ChatGPT) à coder, non mais allo ? Il y a encore quelques années, imaginer un outil qui puisse analyser du code "intelligemment", produire de la valeur ajoutée, était impensable, aujourd'hui c'est une réalité : je pense que la "hype" du moment est justement dans le camp des détracteurs de l'IA, qui font un prompt en une ligne pour soi-disant "prouver" que les LLMs échouent, c'est de la malhonnêteté intellectuelle. Regarder du côté de OpenAI, il y a un outil qui s'appelle "Prompt Optimizer". Testez un prompt "classique", comme vous pourriez le faire, puis passez-le dans la moulinette du "Prompt Optimizer", réessayez, et vous verrez la différence de résultat entre les deux, et vous comprendrez que si vous vous basez sur vos capacités, souvent médiocres, de prompteur, pour juger de l'efficacité d'un LLM, vous n'avez qu'un avis à la hauteur de cette médiocrité car le résultat obtenu le sera également.

    Ayant personnellement interagit des milliers de fois avec les LLMs, sur de nombreux sujets, ayant même crée des outils spécifiques pour prompter, je peux vous dire que les LLMs sont bien plus capables que vous le pensez pour le développement. Un LLM a besoin d'un contexte, d'un plan, de précision, selon mon expérience on peut obtenir des résultats optimaux en appliquant ces règles, mais encore faut-il apprendre à utiliser les bons outils, et surtout à comprendre ce qu'est un bon d'un mauvais prompt.

    Pour vous donner un exemple, GPT-5, le dernier modèle d'OpenAI, si vous ne prenez pas le temps de concevoir un prompt sérieux, il va vous répondre également à la va-vite, mais si vous vous appliquez à le questionner, il est bien plus puissant que GPT-4o, ou même qu'un o3, mais pour en apprécier la puissance il faut aller jusqu'à produire un prompt digne de nos attentes.

    Pour finir, je dirais que non seulement les LLMs s'améliorent en continue et ne sont pas prêt de rencontrer un quelconque plateau, mais j'irais encore plus loin, je dirais que oui le métier de développeur va évoluer inexorablement, nous ne sommes plus dans un monde où un développeur doit coder lui-même son application, nous sommes déjà dans un monde où le développeur qui sait prompter, qui sait se doter des bons outils, qui sait bien utiliser les LLMs, va non seulement savoir se servir convenablement des LLMs pour améliorer son travail, mais va en faire des véritables compagnons qui vont le placer bien au-dessus en terme d'efficacité et de qualité qu'un développeur qui fermerait les yeux sur ces technologies, et cet écart va se faire sentir de plus en plus en entreprise, et la compétence consistant à savoir utiliser un LLM sera de plus en plus demandée, bien plus que de savoir coder dans un quelconque langage. Alors bien entendu, il est hors de question d'être un inculte en développement, il faut savoir poser les bonnes questions, connaitre les bonnes pratiques, savoir tester convenablement les retours des LLMs, mais le gain en efficacité est là, et ça va faire toute la différence, alors mon conseil, n'écoutez pas les prédicateurs qui vantent un "krash" de l'IA, ni même ceux qui à l'autre bout du spectre des avis sont tout feu tout flamme sur ces technologies sans apporter les vraies bonnes pratiques, soyez celui ou celle qui sait reconnaitre l'efficacité d'un outil et qui sait que plus l'outil est complexe plus il faut investir de temps dans l'apprentissage de son utilisation plutôt que de continuer à travailler "manuellement", c'est ce que font les vrais pros.

  11. #11
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    257
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 257
    Par défaut Oh OUI 100% OK avec cela sur IA
    Citation Envoyé par KiLVaiDeN Voir le message
    La "bulle" internet a éclaté, et au final, son développement et son déploiement n'a cessé d'augmenter. Cela n'a pas fait disparaitre l'internet, bien au contraire. Il en sera de même pour l'IA.

    Aussi, ne pas mettre dans le même panier les IA génératives et les IA plus "concrètes". Le machine learning par exemple est déployé dès aujourd'hui et avec succès dans de nombreuses entreprises, on ne parle pas de ChatGPT mais bien de modèles entrainés dans des contextes spécifiques où leur apport est indéniable.

    ETC...
    il faut savoir poser les bonnes questions, connaitre les bonnes pratiques, savoir tester convenablement les retours des LLMs, mais le gain en efficacité est là, et ça va faire toute la différence, alors mon conseil, n'écoutez pas les prédicateurs qui vantent un "krash" de l'IA, ni même ceux qui à l'autre bout du spectre des avis sont tout feu tout flamme sur ces technologies sans apporter les vraies bonnes pratiques, soyez celui ou celle qui sait reconnaitre l'efficacité d'un outil et qui sait que plus l'outil est complexe plus il faut investir de temps dans l'apprentissage de son utilisation plutôt que de continuer à travailler "manuellement", c'est ce que font les vrais pros.
    Ah quel plaisir de te lire OUI OUI loin de ta compétence, je pense déjas cela, cette révolution sera pour nos enfant comme une évidence et il n'y aura plus de comparaison entre :
    un neurone biologique,
    un neurone artificiel,
    un “LLM” géant fait de milliards de neurones
    Nom : IA.jpg
Affichages : 456
Taille : 696,3 Ko

  12. #12
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    516
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 516
    Par défaut Ce n'est que mon opinion...
    KilVaiDeN

    Citation Envoyé par KiLVaiDeN Voir le message
    La "bulle" internet a éclaté, et au final, son développement et son déploiement n'a cessé d'augmenter. Cela n'a pas fait disparaitre l'internet, bien au contraire. Il en sera de même pour l'IA.
    Je ne dis pas le contraire, mais la bulle IA explosera (tout comme la bulle internet), puis ce sera une autre étape. Je ne suis pas devin, et rien ne prouve qu'après l'explosion de la bulle IA, cette technologie pourra évoluer dans le bon sens. Tout ne se déroule pas toujours de la même manière. D'autres "bulles" ont explosés, et rien de bon n'en est sorti par la suite...

    Citation Envoyé par KiLVaiDeN Voir le message
    Dès qu'une technologie est prometteuse, des investisseurs misent dessus de manière inconsidérée, et cela est tout à fait normal, c'est l'occasion de prendre de l'avance sur les autres. Ils y perdront financièrement, mais l'expérience gagnée sur ces technologies leur sera acquise et utile lorsque les outils s'amélioreront encore, car l'amélioration est continue, les modèles deviennent de plus en plus performant, contrairement à ce que certains prédisaient sur un "plateau" : il n'est pas arrivé, et ma prédiction est qu'il n'arrivera pas.
    Là encore, je suis d'accord, mais beaucoup de ces investisseurs, qui "misent dessus de manière inconsidérée", n'y trouveront pas leur compte. Certains gagneront beaucoups, certes, mais d'autres y perderont également. Le soucis, comme toute "bulle" est de savoir d'où vient l'argent des investisseurs (groupe, fond de pensions, ...) et que les personnes concernées risquent également d'en souffrir. Une "bulle" n'est jamais bonne pour le citoyen "lambda", car au final, c'est ce citoyen "lambda" qui sera impacté.

    Citation Envoyé par KiLVaiDeN Voir le message
    Aussi, ne pas mettre dans le même panier les IA génératives et les IA plus "concrètes". Le machine learning par exemple est déployé dès aujourd'hui et avec succès dans de nombreuses entreprises, on ne parle pas de ChatGPT mais bien de modèles entrainés dans des contextes spécifiques où leur apport est indéniable.
    Je suis encore tout à fait d'accord, une IA, entrainée avec de bonnes données, se limitant à un "champ" d'action bien spécifique, donnera un bien meilleur résultat qu'une IA alimentée avec tout et n'importe quoi, dans le but de répondre à tout et n'importe quoi...

    Citation Envoyé par KiLVaiDeN Voir le message
    Je vois de nombreux commentaires sur "l'incapacité" supposée des LLMs (comme ChatGPT) à coder, non mais allo ? Il y a encore quelques années, imaginer un outil qui puisse analyser du code "intelligemment", produire de la valeur ajoutée, était impensable, aujourd'hui c'est une réalité
    C'est une réalité ? Il y a pourtant nombre d'exemples qui montrent le contraire. Certains font "marche arrière", l'IA (peut-être mal utilisée, mais un bon outil ne devra se laisser "mal utiliser"). Si un compilateur sort un mauvais code car mal conçu, il faut connaître l'assembleur pour le remarquer.

    Citation Envoyé par KiLVaiDeN Voir le message
    je pense que la "hype" du moment est justement dans le camp des détracteurs de l'IA, qui font un prompt en une ligne pour soi-disant "prouver" que les LLMs échouent, c'est de la malhonnêteté intellectuelle. Regarder du côté de OpenAI, il y a un outil qui s'appelle "Prompt Optimizer". Testez un prompt "classique", comme vous pourriez le faire, puis passez-le dans la moulinette du "Prompt Optimizer", réessayez, et vous verrez la différence de résultat entre les deux, et vous comprendrez que si vous vous basez sur vos capacités, souvent médiocres, de prompteur, pour juger de l'efficacité d'un LLM, vous n'avez qu'un avis à la hauteur de cette médiocrité car le résultat obtenu le sera également.
    Le monde n'est ni blanc, ni noir. Il y a du mépris dans vos propos. Ils sont "execifs", donc insignifiant. Il faudrait être un "génie" tel que vous pour savoir utiliser "correctement" une IA ? Nous sommes trop médiocres, nous ne savons pas faire les "bons" prompts... C'est certains que si l'on pose la mauvaise question, la réponse le sera tout autant...

    Citation Envoyé par KiLVaiDeN Voir le message
    Ayant personnellement interagit des milliers de fois avec les LLMs, sur de nombreux sujets, ayant même crée des outils spécifiques pour prompter, je peux vous dire que les LLMs sont bien plus capables que vous le pensez pour le développement. Un LLM a besoin d'un contexte, d'un plan, de précision, selon mon expérience on peut obtenir des résultats optimaux en appliquant ces règles, mais encore faut-il apprendre à utiliser les bons outils, et surtout à comprendre ce qu'est un bon d'un mauvais prompt.
    Je cite "Selon votre expérience". Une affirmation basée sur 1 expérience, fusse-t-elle de vous, n'a pas de valeur. Comme tout dev à qui l'on donne de mauvaises spécifications, il a lui aussi besoin d'un contexte, d'un plan, de précision... Avec ces éléments en main, il produit un travail meilleur que sans. Rien de nouveau. J'attend toujours de voir une application un peu sérieuse, développée uniquement via des (bons) prompts... Si on me donne une mauvaise spécification, je le vois, je le dis, et cet spécifation est apdatée, réécrite. Que fait l'IA dans ce cas ? Elle "accepte" la mauvaise spécification (le mauvais prompt), et "sort" quelque chose, même si ce quelque chose est mauvais, puisque venant d'une mauvaise entrée. L'IA n'a pas de "réflection". C'est un simple outil pour faciliter certaines tâche. Elle va détruire des emplois, et en créer de nouveau. Sauf que parfois, elle donnera un résultat catastrophique, pouvant avoir un "impact" sur le monde réel. Des ingénieurs se trompent, et des IA se tromperont.

    Citation Envoyé par KiLVaiDeN Voir le message
    Pour vous donner un exemple, GPT-5, le dernier modèle d'OpenAI, si vous ne prenez pas le temps de concevoir un prompt sérieux, il va vous répondre également à la va-vite, mais si vous vous appliquez à le questionner, il est bien plus puissant que GPT-4o, ou même qu'un o3, mais pour en apprécier la puissance il faut aller jusqu'à produire un prompt digne de nos attentes.
    Si le métier de développeur disparaît et est remplacé par le métier de "prompteur", qui va vérifier que le "prompteur" a bien fait son taf ? Et que la réponse donnée est mauvaise ? Il n'y aura plus de assez de devs "compétents" pour faire ce travail, et il faudra faire une confiance aveugle dans l'IA... Certains le feront, il y'a bien des gens qui dorment dans leur tesla avant qu'elle ne s'encastre sous un camion de pompier...

    Citation Envoyé par KiLVaiDeN Voir le message
    Pour finir, je dirais que non seulement les LLMs s'améliorent en continue et ne sont pas prêt de rencontrer un quelconque plateau, mais j'irais encore plus loin, je dirais que oui le métier de développeur va évoluer inexorablement, nous ne sommes plus dans un monde où un développeur doit coder lui-même son application, nous sommes déjà dans un monde où le développeur qui sait prompter, qui sait se doter des bons outils, qui sait bien utiliser les LLMs, va non seulement savoir se servir convenablement des LLMs pour améliorer son travail, mais va en faire des véritables compagnons qui vont le placer bien au-dessus en terme d'efficacité et de qualité qu'un développeur qui fermerait les yeux sur ces technologies, et cet écart va se faire sentir de plus en plus en entreprise, et la compétence consistant à savoir utiliser un LLM sera de plus en plus demandée, bien plus que de savoir coder dans un quelconque langage. Alors bien entendu, il est hors de question d'être un inculte en développement, il faut savoir poser les bonnes questions, connaitre les bonnes pratiques, savoir tester convenablement les retours des LLMs, mais le gain en efficacité est là
    Bref, tout cela pour dire que le métier de développeur va évoluer ? Euh, c'est un des paramètres du métier, un développeur évolue en permanance tout ou long de sa carrière, ce ne sera qu'une autre sorte d'évolution, ou pas.

    Je vous cite : les LLMs s'améliorent en continue et ne sont pas prêt de rencontrer un quelconque plateau.. Si vous le dite, je veux bien vous croire. Vous allez peut-être être étonné, mais d'autres personnes ne pensent pas comme vous, si si, je vous l'assure. Mais qui "croire" ? Madame Irma n'est plus de ce monde pour me donner la réponse, zut alors...

    Citation Envoyé par KiLVaiDeN Voir le message
    et ça va faire toute la différence, alors mon conseil, n'écoutez pas les prédicateurs qui vantent un "krash" de l'IA, ni même ceux qui à l'autre bout du spectre des avis sont tout feu tout flamme sur ces technologies sans apporter les vraies bonnes pratiques, soyez celui ou celle qui sait reconnaitre l'efficacité d'un outil et qui sait que plus l'outil est complexe plus il faut investir de temps dans l'apprentissage de son utilisation plutôt que de continuer à travailler "manuellement", c'est ce que font les vrais pros.
    N'écoutons pas les prédicateurs dites-vous ? Cela s'applique-t-il à vous ? Aurais-je perdu mon temps à vous lire ?

    Vous disiez au début que la bulle IA finira par éclater, et vous dites maintenant qu'il n'y aura pas de "krash", il faudrait être un peu plus clair, Monsieur le vrai Pros, non ?

    Pour terminer, je ne suis ni pour ni contre l'IA, mais j'ai tendance a me méfier des "experts", de ceux qui prétendre détenir "LA" vérité, les autres étant pour eux des ploucs qui de toute manière ne comprennent rien à rien. On en voit tous les jours des "experts", qui délivrent leur "expertise", quitte à dire le contraire 24h plus tard.

    Il y a quand même des "expert" qui ont jugé lors du covid, que boire un café assis ou debout changeaient la dangereusité du buveur de café.

    Et de toute façon, chacun fait comme il veut. Certains ont "industrialisé" un domaine, et d'autres sont restés des "artisants" du même domaine. Chacun apporte une chose différente, et c'est très bien ainsi. Je préfère un bon resto qu'un plat sortant de chez Tricatel...

    Sur ce, Bonne journée.

    BàV et Peace & Love.

  13. #13
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    257
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 257
    Par défaut L'IA existe, les dévelopeurs manquent !
    Bonjour, j'arrives bien tard sur cette discussion que j'ai totalement lue, et qui résume (bien qu'ancienne) ce qui est toujours vrais. L'IA existe depuis longtemps, progresse très vite, mais manque de développeurs !
    J'ai tout plein de remarques à faire, car j’ai beaucoup de mal malgré mon métier, à aider trois de mes enfants qui sont en plein dans le bain IA, dont deux à un très bon niveau.
    Pour ma part j'ai mordu a la passion pour l'IA vers 1988 devant gérer la construction de deux villes (militaires), en deux ans pour l’ Irak ,oui, coordonner les réseaux, les rues , mosquées les villas préfabriquées, les magasins les transports bref tout cela en plein désert , c'est là ou j'ai appris avec l'aide d'IBM , partenaire du projet, avec ses deux AS400, comment programmer les trois éléments (questions, moteur d'inférence et son data center, puis la gestion de la réponse) Aucune structure « je sais tout je dis tout »

    Mon fils me racontait avoir réalisé sur un vieux programme PHP/MSQL +AJAX (réalisé il y a cinq ans pour une holding Française d’assurances). Programme qui gère les centaines de chèques des gros clients qui arrivent chaque jour. Ce programme marche très bien, les chèques sont scannés puis traités ,je ne vais pas vous décrire ce que fait son programme, sachez que tout marchait sur XXX équipes qui finissaient par tout traité si XXX équipes étaient suffisantes !
    Un par un les taches longues réalisées par PHP essentiellement, furent remplacées par de jolis modules PY s’appuyant sur du python !!

    Oui forcément un chèque de gros client paresseux de 60784 € sur un client ayant 250 contrat sa payait quoi ?
    En PHP c'était environ 2minutes en IA 1 seconde !
    Voila alors moi, ancien de notre cher Développez je cherche dans les questions sur IA ou poser mes questions sur du code pour tel ou tel problème, vous savez c'est comme les sites web, ICI on trouve très vite 10 réponses sur un petit code de tel ou tel langage .C'est la force de Développez ! vivement que se soit pareil pour l'IA, surtout que plus

  14. #14
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 757
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 757
    Par défaut La bulle de l'IA est 17 X plus importante que la bulle Internet et 4 X plus importante que les subprimes
    La bulle de l'IA est 17 fois plus importante que celle de la bulle Internet et quatre fois plus importante que celle des subprimes,
    selon un analyste

    Un analyste de MacroStrategy Partnership affirme que la bulle de l’intelligence artificielle serait dix-sept fois plus grosse que celle de la frénésie Internet du début des années 2000 et quatre fois plus importante que la bulle des subprimes. Selon lui, non seulement l’ampleur des investissements dans l’IA excède largement celle des bulles technologiques antérieures, mais les conditions de financement et d’optimisme exacerbées pourraient préparer le terrain à un effondrement sévère. Derrière cette provocation, une question essentielle : la révolution de l’IA repose-t-elle sur des bases solides, ou sur un mirage financier alimenté par la peur de « rater le train » ?

    L’idée que nous serions au cœur d’une « bulle de l’IA » n’est pas nouvelle : même Sam Altman, PDG d'OpenAI, s'est joint au concert. Il reconnaît que certaines personnes vont perdre « des sommes colossales » lorsque la bulle de l'IA éclatera.

    Jeff Bezos a fait une remarque similaire au début du mois. Selon le fondateur d'Amazon.com, les bulles se produisent lorsque les cours boursiers sont « déconnectés » du cœur de l'activité d'une entreprise et deviennent surévalués par rapport à ce qui est produit. Les valorisations augmentent alors bien au-delà de la valeur réelle de ces entreprises. Lors du célèbre krach des dot-com au début des années 2000, les entreprises basées sur Internet ont attiré des investissements, même si elles ne réalisaient pas de bénéfices et n'avaient pas de plans d'affaires viables. Lorsque la réalité s'est imposée, le marché s'est effondré, entraînant des pertes importantes pour les investisseurs et la faillite de nombreuses start-ups.

    Bezos a expliqué que pendant une période de boom, toutes les expériences ou idées finissent par être financées, car les investisseurs « ont du mal » à distinguer les bonnes idées des idées médiocres dans l'effervescence générale.

    Bezos a toutefois ajouté que les bulles industrielles sont « loin d'être aussi néfastes », car la technologie sous-jacente développée dans le cadre de celles-ci peut profiter à la société, même lorsque la bulle éclate. Il a donné l'exemple de la bulle biotechnologique et pharmaceutique des années 1990, qui a abouti à la création de médicaments vitaux, même si certaines entreprises ont fait faillite.

    « Lorsque la poussière retombe et que l'on voit qui sont les gagnants, les sociétés bénéficient de ces inventions », a déclaré Bezos. « C'est ce qui va se passer ici aussi. C'est une réalité, les avantages de l'IA pour la société vont être gigantesques. »


    La bulle de l'IA serait désormais 17 fois plus importante que la tristement célèbre bulle Internet

    Selon une nouvelle évaluation réalisée par Julien Garran, analyste de recherche chez MacroStrategy Partnership, la bulle de l'IA est désormais 17 fois plus importante que la tristement célèbre bulle Internet, une première dans l'histoire des actions technologiques liée à l'engouement des investisseurs pour Internet. Pire encore, Garran estime que l'IA représente aujourd'hui plus de quatre fois la richesse piégée dans la bulle des subprimes de 2008, qui a entraîné des années de crise prolongée à travers le monde.

    Dans le cas de la bulle Internet, selon le macroéconomiste David Henderson, une catastrophe économique majeure a été évitée car l'impact de la ruée vers le marché boursier sur la croissance du PIB américain a été minime. Malheureusement, ce n'est pas le cas des investissements dans l'IA, qui représentent désormais une part importante de notre croissance économique après des années d'engouement effréné.

    Avant la crise financière de 2008, les investisseurs optimistes ont alimenté un marché immobilier voué à l'échec, créé par les banques pour transformer les prêts hypothécaires à haut risque en source de liquidités. À l'instar de ces prêts hypothécaires toxiques, l'IA n'a démontré que très peu de valeur à long terme, du moins à ce stade de son développement, note Garran.

    Le problème avec l'IA, a-t-il déclaré, est qu'il est « impossible de créer une application ayant une valeur commerciale, car elle est soit générique [comme dans les jeux vidéo], ce qui ne se vend pas, soit issue du domaine public [comme dans les devoirs], soit soumise au droit d'auteur ».

    Il ajoute que c'est également un produit difficile à commercialiser efficacement, comme le montre clairement une start-up spécialisée dans l'IA à New York, dont les publicités dans le métro sont recouvertes de graffitis hostiles. Parallèlement, selon Garran, le coût des systèmes d'IA augmente de manière exponentielle, tandis que les gains en termes de capacités diminuent rapidement.

    Il est vain de tenter de prédire ce qui finira par faire éclater la bulle de l'IA, mais une chose est claire : nous avons déjà atteint un point de non-retour.

    « Pour savoir si nous avons atteint une limite, nous devons observer les développeurs de LLM », explique l'analyste. « S'ils lancent un modèle qui coûte 10 fois plus cher, qui utilise probablement 20 fois plus de puissance de calcul que le précédent, et qui n'est pas beaucoup plus performant que ce qui existe déjà, alors nous avons atteint une limite. »

    Sans l'IA, Garran prévient que l'économie ralentit déjà considérablement et que ce n'est qu'une question de temps avant que la croissance explosive du secteur technologique ne commence à s'inverser, comme cela s'est produit lors de la bulle Internet.

    Nom : macro.png
Affichages : 51335
Taille : 159,6 Ko

    Comprendre l'un des éléments permettant de parler de bulle : les déficits wickselliens

    Le « déficit wicksellien » vient du travail de Knut Wicksell, un économiste suédois du XIX siècle, considéré comme un précurseur de la macroéconomie moderne. Wicksell a développé la notion de taux d’intérêt naturel, qu’il définit comme le taux d’intérêt « d’équilibre » d’une économie — celui qui équilibre l’épargne et l’investissement, sans générer d’inflation ni de récession.

    Selon Wicksell, il existe deux taux d’intérêt dans une économie :
    • le taux d’intérêt du marché (celui fixé par les banques centrales ou le crédit) ;
    • le taux d’intérêt naturel (celui qui reflète la rentabilité réelle des investissements productifs).

    Quand ces deux taux sont égaux, l’économie est stable. Mais quand le taux du marché est inférieur au taux naturel, le crédit devient trop bon marché : les entreprises et les investisseurs empruntent massivement pour financer des projets parfois non rentables.

    Ce déséquilibre crée un « déficit wicksellien », c’est-à-dire un écart entre le coût de l’argent et le rendement réel attendu. Cet écart favorise la mauvaise allocation du capital — typique des périodes de bulle.

    Les analystes qui parlent de « bulle IA » disent en substance : « Nous vivons un déficit wicksellien massif. Le coût de l’argent reste inférieur à la rentabilité espérée, ce qui pousse à surinvestir dans des projets IA qui ne produiront jamais les rendements anticipés. »

    C’est un concept technique, mais il décrit très bien la dynamique psychologique et monétaire d’une bulle : trop d’argent facile, trop de promesses, et pas assez de valeur réelle pour tout justifier.

    L'analyse de Garran

    Wicksell avait compris que le capital était alloué efficacement lorsque le coût de la dette pour l'emprunteur moyen était supérieur de 2 points de pourcentage au PIB nominal. Ce n'est que maintenant que cette situation est positive, après une décennie d'assouplissement quantitatif de la Fed qui a fait baisser les écarts de rendement des obligations d'entreprises.

    Nom : allocation.png
Affichages : 19065
Taille : 96,3 Ko

    Garran calcule ensuite le déficit wicksellien, qui, pour être clair, inclut non seulement les dépenses en intelligence artificielle, mais aussi l'immobilier résidentiel et commercial, les NFT et le capital-risque. C'est ainsi que l'on obtient ce graphique sur la mauvaise allocation des ressources : il comporte beaucoup de variables, mais considérez-le comme la partie mal allouée du produit intérieur brut alimentée par des taux d'intérêt artificiellement bas.

    Mais Garran s'en est également pris aux grands modèles linguistiques eux-mêmes. Il met par exemple en avant une étude montrant que le taux d'achèvement des tâches dans une entreprise de logiciels variait de 1,5 % à 34 %, et que même pour les tâches achevées à 34 %, ce niveau d'achèvement ne pouvait être atteint de manière constante. Un autre graphique, précédemment diffusé par l'économiste Torsten Slok d'Apollo sur la base des données du département du Commerce, montrait que le taux d'adoption de l'IA dans les grandes entreprises était désormais en baisse. Il a également présenté certains de ses tests en conditions réelles, comme demander à un créateur d'images de créer un échiquier un coup avant que les blancs ne gagnent, ce qu'il n'a pas réussi à faire.

    Selon lui, les LLM ont déjà atteint leurs limites en termes d'évolutivité. « Nous ne savons pas exactement quand les LLM pourraient atteindre un rendement décroissant, car nous ne disposons pas d'une mesure de la complexité statistique du langage. Pour savoir si nous avons atteint une limite, nous devons observer les développeurs de LLM. S'ils lancent un modèle qui coûte 10 fois plus cher, qui utilise probablement 20 fois plus de puissance de calcul que le précédent, et qui n'est pas beaucoup mieux que ce qui existe déjà, alors nous avons atteint une limite », explique-t-il

    Et c'est exactement ce qui s'est passé : ChatGPT-3 a coûté 50 millions de dollars, ChatGPT-4 a coûté 500 millions de dollars et ChatGPT-5, qui a coûté 5 milliards de dollars, a été retardé et, une fois sorti, n'était pas nettement meilleur que la version précédente. Il est également facile pour les concurrents de rattraper leur retard.

    « En résumé, il est impossible de créer une application ayant une valeur commerciale, car soit elle est générique (jeux, etc.) et ne se vendra pas, soit elle reprend des éléments du domaine public (devoirs), soit elle est soumise au droit d'auteur. Il est difficile de faire de la publicité efficace, les LLM coûtent exponentiellement plus cher à former à chaque génération, avec un gain de précision qui diminue rapidement. Il n'y a pas de fossé autour d'un modèle, donc le pouvoir de fixation des prix est faible. Et les personnes qui utilisent le plus les LLM les utilisent pour accéder à des ressources informatiques qui coûtent plus cher au développeur que leurs abonnements mensuels », explique-t-il.

    D'après lui, non seulement une économie déjà au point mort va entrer en récession à mesure que les effets de richesse et les centres de données atteignent un plateau, mais elle va s'inverser, comme cela s'est produit lors de la bulle Internet en 2001.

    « Le danger n'est pas seulement que cela nous pousse dans une zone 4 de déflation sur notre horloge d'investissement, mais aussi que cela rende difficile pour la Fed et l'administration Trump de stimuler l'économie pour en sortir. Cela signifie un effort de relance beaucoup plus long, un peu comme ce que nous avons vu au début des années 1990, après la crise des caisses d'épargne, et probablement aussi des mesures spéciales, car l'administration Trump cherche à dévaluer le dollar américain afin de ramener des emplois sur le territoire national », explique-t-il.

    Les voix sceptiques : « ce n’est pas une bulle, mais une transformation »

    Certaines personnalités influentes mitigent l’idée d’une bulle purement spéculative. Par exemple, l’ancien PDG de Google, Eric Schmidt, a déclaré qu’il ne pensait pas que l’IA soit une bulle, arguant que la demande en matériel, en logiciels et en utilisation justifie un nouveau paradigme industriel.

    D’autres soutiennent qu’une grande part des investissements en IA est « réelle » : infrastructures, GPU, datacenters, logiciels d’optimisation, services d’industrialisation. Ces investissements peuvent avoir une utilité persistante même en cas de corrections. Par exemple, même si certains projets ne fonctionnent pas, l’accroissement de capacité de calcul ou l’amélioration des pipelines de données pourrait servir dans d’autres domaines.

    De plus, l’émergence d’un cycle de croissance réelle (par exemple, l’IA appliquée en santé, énergie, biotechnologie) pourrait amortir une correction spéculative. Les bulles ne détruisent pas toujours la valeur fondamentale sous-jacente, mais peuvent purifier le marché des excès.

    Un travail académique récent (“Examining the Relationship between Scientific Publishing Activity and Hype-Driven Financial Bubbles”) étudie le lien entre l’activité scientifique (publications, citations) et les bulles technologiques, comparant l’ère dot-com et l’ère IA. Les résultats montrent qu’on ne retrouve pas dans l’ère IA exactement les mêmes motifs de « bulles » qu’à la fin des années 1990, et suggèrent que l’IA pourrait être une bulle sans précédent ou ne pas en être une au sens classique.

    Sources : vidéo dans le texte, MacroStrategy Partnership, Examining the Relationship between Scientific Publishing Activity and Hype-Driven Financial Bubbles: A Comparison of the Dot-Com and AI Eras

    Et vous ?

    Trouvez-vous le point de vue de l'analyste de MacroStrategy Partnership crédible ou pertinent ?

    L’explosion des investissements en intelligence artificielle relève-t-elle d’une révolution technologique ou d’une fuite en avant spéculative ?

    Si la bulle de l’IA éclate, quelles seraient les conséquences concrètes pour l’emploi dans la tech et l’écosystème des start-ups ?

    L’IA est-elle condamnée à reproduire le destin des “dot-com” de 2000 — une bulle destructrice suivie d’une renaissance durable ?

    Les investisseurs comprennent-ils réellement les modèles économiques des entreprises d’IA, ou misent-ils sur des symboles comme Nvidia et OpenAI sans en lire les chiffres ?

    Peut-on encore parler de « bulle » quand les infrastructures construites — datacenters, GPU, réseaux — ont une valeur industrielle réelle ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #15
    Membre éclairé

    Profil pro
    Chef de Projet / Développeur
    Inscrit en
    Juin 2002
    Messages
    624
    Détails du profil
    Informations personnelles :
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Chef de Projet / Développeur
    Secteur : Santé

    Informations forums :
    Inscription : Juin 2002
    Messages : 624
    Par défaut
    Que les LLM tiennent leurs promesses ou non, qu'ils aient atteint une certaine limite ou non, il va y avoir des morts.
    Des grands noms de l'IA d'aujourd'hui sont les Lycos et Altavista de demain, c'est absolument certain.

    Certains vont perdre leurs colossaux investissements, même s'ils correspondent à quelque chose de réel comme le dit Eric Schmidt.
    Comme le disait Mc Leod, il n'en restera qu'un. Bon.... peut-être un peu plus... mais pas les dizaines qui existent aujourd'hui.

    Ce ne sont pas forcément les meilleurs qui gagneront.
    Google et Microsoft ont l'avantage de pouvoir intégrer leur IA dans leurs produits qui sont déjà largement implantées dans les entreprises.
    En serrant un peu les fesses à cause des autorisations que cela demande, j'ai connecté Gemini à mon compte gMail.
    Pouvoir rechercher un mail par "idée" ("je cherche un mail qui parlait de cela") plutôt que par mots clés est génial.

    Ce n'est pas pour rien que Chat GPT travaille sur une suite bureautique.
    Ils sont les leaders actuel, mais ils sont un peu déconnecté du travail réel.
    On peut connecter, bien entendu, mais cela exige un certain engagement que ne réclame pas MS et Google.
    --
    vanquish

  16. #16
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 757
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 757
    Par défaut Les PDG persistent dans l’IA malgré des retours décevants
    Les PDG persistent dans l’IA malgré des retours décevants :
    68 % des dirigeants prêts à augmenter leurs budgets IA en 2026 alors que les bénéfices tardent à se matérialiser, selon Teneo

    Malgré des retours financiers encore inégaux, les dirigeants d’entreprise ne relâchent pas la pression sur l’intelligence artificielle. Selon une enquête récente menée auprès de plus de 350 PDG de sociétés cotées, près de 68 % d’entre eux prévoient d’augmenter leurs dépenses en IA en 2026. Un pari assumé, alors même que moins de la moitié des projets en cours ont, à ce stade, généré davantage de valeur qu’ils n’ont coûté. Une dynamique que confirme le cabinet de conseil Teneo, décrivant une course à l’IA où la peur de décrocher l’emporte sur la prudence budgétaire.

    L’augmentation annoncée des budgets en 2026 pourrait constituer un point de bascule. Soit l’IA parvient à démontrer sa capacité à générer de la valeur à grande échelle, soit elle s’exposera à une remise en question plus brutale. Certains dirigeants commencent déjà à évoquer la nécessité de « faire le tri » entre projets prometteurs et initiatives purement opportunistes.


    Selon une enquête annuelle menée par le cabinet de conseil Teneo auprès de plus de 350 dirigeants d’entreprises cotées, 68 % des PDG prévoient d’augmenter encore leurs dépenses en intelligence artificielle en 2026. Ce chiffre, en apparence spectaculaire, masque pourtant une réalité plus contrastée : moins de la moitié des projets d’IA actuellement déployés génèrent des retours financiers supérieurs à leur coût. Autrement dit, l’enthousiasme pour l’IA progresse plus vite que sa rentabilité démontrée.

    Cette tension entre promesse technologique et performance économique réelle est devenue l’un des paradoxes centraux de la stratégie numérique des grandes entreprises.

    Une conviction devenue quasi doctrinale au sommet des entreprises

    Pour une majorité de PDG interrogés, l’IA n’est plus une option mais un passage obligé. Le discours dominant au sein des conseils d’administration repose sur une conviction forte : ne pas investir massivement aujourd’hui exposerait l’entreprise à un déclassement stratégique demain. L’IA est perçue comme une technologie de rupture comparable à l’électrification ou à l’informatisation, avec un potentiel de transformation globale des chaînes de valeur.

    Cette vision explique pourquoi les arbitrages budgétaires continuent de pencher en faveur de l’IA, même lorsque les indicateurs de retour sur investissement restent mitigés. Dans de nombreux groupes, l’IA est désormais intégrée aux plans stratégiques pluriannuels, au même titre que la cybersécurité ou la transition cloud.

    Des retours sur investissement encore largement incertains

    Le constat dressé par l’enquête de Teneo est pourtant sans appel. Moins d’un projet d’IA sur deux a, à ce stade, généré plus de valeur qu’il n’a coûté. Ce décalage s’explique par plusieurs facteurs structurels.

    D’abord, une grande partie des investissements est encore concentrée sur des phases exploratoires. Preuves de concept, pilotes internes, expérimentations métiers et projets de transformation des données consomment des budgets importants sans produire immédiatement de gains mesurables. L’IA reste souvent cantonnée à des usages périphériques, loin des processus cœur de métier.

    Ensuite, les coûts réels de l’IA sont fréquemment sous-estimés. Au-delà des licences logicielles et des modèles, il faut intégrer l’infrastructure cloud, la montée en compétences des équipes, la gouvernance des données, la conformité réglementaire et la cybersécurité. Ces coûts indirects pèsent lourdement sur la rentabilité globale.

    Nom : expectation.png
Affichages : 5430
Taille : 405,9 Ko

    Des coûts souvent sous-estimés dans les plans initiaux

    L’enquête met en lumière une réalité plus prosaïque : les coûts réels de l’IA dépassent fréquemment les prévisions. Infrastructure cloud, consommation énergétique, sécurisation des données, conformité réglementaire, recrutement de profils spécialisés et accompagnement du changement alourdissent considérablement la facture.

    À cela s’ajoute un facteur organisationnel. Beaucoup d’entreprises découvrent que l’IA ne peut pas simplement se greffer sur des processus existants. Elle exige une refonte partielle des méthodes de travail, une meilleure qualité des données et une gouvernance plus rigoureuse. Ces transformations, longues et complexes, retardent mécaniquement l’apparition de retours sur investissement tangibles.

    Une pression concurrentielle qui pousse à investir coûte que coûte

    Malgré ces résultats mitigés, la pression concurrentielle joue un rôle déterminant dans la poursuite des investissements. Les PDG redoutent avant tout un scénario dans lequel un concurrent réussirait à industrialiser l’IA plus rapidement, captant ainsi des gains de productivité, une meilleure connaissance client ou un avantage décisif en matière d’innovation.

    Dans ce contexte, l’IA est souvent abordée comme une assurance stratégique plutôt que comme un projet à rentabilité immédiate. Investir devient une manière de rester dans la course, même si les bénéfices sont différés ou incertains. Cette logique rappelle celle observée lors des premières vagues de transformation numérique, où de nombreuses entreprises ont investi massivement avant de trouver des modèles réellement performants.

    De la fascination technologique à l’exigence de valeur métier

    L’enquête met également en lumière une évolution progressive du discours des dirigeants. Si l’enthousiasme reste fort, il s’accompagne désormais d’une exigence accrue de résultats concrets. Les PDG interrogés reconnaissent de plus en plus la nécessité de recentrer les projets d’IA sur des cas d’usage clairement liés à la performance opérationnelle.

    L’ère des expérimentations tous azimuts tend à céder la place à une approche plus sélective. Les PDG interrogés indiquent vouloir concentrer leurs efforts sur des cas d’usage directement liés à la performance économique, comme l’optimisation des opérations, la maintenance prédictive, la personnalisation commerciale ou l’automatisation de tâches à forte intensité humaine.

    Cette inflexion se traduit par une attention accrue portée aux indicateurs de valeur. Réduction des coûts, amélioration des délais, augmentation des taux de conversion ou optimisation des chaînes logistiques deviennent des critères prioritaires. L’époque des projets d’IA lancés principalement pour des raisons d’image ou d’innovation perçue touche progressivement à sa fin.

    L’IA n’est plus seulement un symbole d’innovation ou un argument de communication auprès des marchés financiers, mais un outil qui doit prouver sa contribution à des objectifs précis et mesurables.

    Une maturité inégale selon les secteurs

    La capacité à transformer l’IA en valeur économique varie fortement selon les secteurs. Les entreprises de la finance, de la technologie et de la distribution semblent plus avancées, bénéficiant de volumes de données importants et de processus déjà largement numérisés. À l’inverse, les secteurs industriels traditionnels ou fortement réglementés rencontrent davantage de difficultés à déployer l’IA à grande échelle.

    Cette disparité explique en partie pourquoi les résultats globaux restent mitigés. Là où l’IA est intégrée à des processus bien définis, les gains sont tangibles. Là où les fondations numériques sont fragiles, les investissements produisent surtout de la complexité supplémentaire.

    Vers un tournant en 2026 ?

    Le fait que 68 % des PDG prévoient d’augmenter encore leurs dépenses en 2026 pourrait marquer un tournant décisif. Soit ces investissements permettront enfin de franchir le cap de l’industrialisation et de la création de valeur mesurable, soit ils renforceront les interrogations sur une possible bulle de l’IA au niveau des entreprises.

    De plus en plus de dirigeants semblent conscients que la prochaine phase ne pourra plus se contenter de promesses. L’IA devra prouver sa capacité à transformer durablement les modèles économiques, sous peine de voir les budgets se réorienter vers des priorités jugées plus tangibles.

    La patience des investisseurs, elle aussi, pourrait s’amenuiser. Tant que l’IA est présentée comme un investissement d’avenir, les marchés tolèrent des retours différés. Mais à mesure que les montants engagés augmentent, l’exigence de résultats concrets devient plus pressante.

    Nom : pourcentage.png
Affichages : 1467
Taille : 287,5 Ko

    Entre pari rationnel et risque de désillusion

    La poursuite massive des investissements en IA, malgré des retours encore partiels, illustre une tension classique dans les grandes vagues technologiques. L’IA est à la fois un pari rationnel sur l’avenir et un risque financier réel à court et moyen terme.

    Pour les PDG, l’enjeu n’est plus de savoir s’il faut investir, mais comment investir intelligemment. La capacité à transformer l’IA en levier opérationnel, et non en simple centre de coûts, déterminera quels groupes sortiront renforcés de cette phase d’expérimentation généralisée. Les autres pourraient découvrir, trop tard, que la course à l’IA ne pardonne pas les stratégies mal maîtrisées.

    Nom : mor.png
Affichages : 1465
Taille : 367,1 Ko

    J.P. Morgan dénonce les dépenses consacrées à l'IA

    Dans son rapport, le cabinet suggère que la croissance de l'IA ne sera pas constante et qu'elle pourrait connaître les mêmes difficultés que celles qui ont affecté le secteur des télécommunications lorsqu'il a commencé à mettre en place son infrastructure fibre optique. « Le chemin à parcourir ne sera pas simplement ascendant », indique le rapport. « Notre plus grande crainte serait de voir se répéter l'expérience des télécommunications et du déploiement de la fibre optique, où la courbe des revenus n'a pas suivi un rythme justifiant la poursuite des investissements. » Bien qu'OpenAI ait déjà atteint un chiffre d'affaires annualisé de 20 milliards de dollars et qu'Anthropic vise un chiffre d'affaires de 26 milliards de dollars d'ici 2026, il ne s'agit que de rapports ou d'objectifs individuels qui ne se sont pas encore traduits en bénéfices nets.

    En outre, le cabinet souligne qu'une percée inattendue pourrait entraîner une surcapacité, un risque évoqué par le PDG d'OpenAI, Sam Altman, dans un podcast avec le directeur général de Microsoft, Satya Nadella. Cela pourrait conduire à une surcapacité de calcul, avec des centres de données IA gigantesques coûtant des milliards de dollars qui resteraient inutilisés faute de demande suffisante pour les exploiter.

    Un modèle économique encore sans repère clair

    Le paradoxe est simple : alors que l’industrie investit des centaines de milliards dans l’infrastructure IA, personne ne semble réellement savoir comment ces plateformes vont rapporter durablement de l’argent.

    Les services payants pour le grand public restent marginaux. Les API destinées aux entreprises ne couvrent qu’une fraction des coûts. Les startups de l’écosystème, ultra-consommatrices de calcul, vivent elles-mêmes des financements de plus en plus dilués. Quant aux promesses de gains de productivité dans les entreprises, elles demeurent complexes à mesurer, donc difficiles à monétiser directement.

    Au-delà de l’effet de mode, une question s’impose : peut-on bâtir une économie de l’IA basée uniquement sur des abonnements mensuels de quelques dizaines d’euros par utilisateur ? Les chiffres avancés par les analystes montrent que la réponse est probablement non. À moins de réinventer totalement la notion de monétisation, l’IA générative coûtera toujours plus qu’elle ne rapporte.

    Le risque systémique : l’hypothèse d’un mur énergétique et financier

    L’exigence en énergie des modèles de nouvelle génération constitue l’un des points critiques les plus inquiétants. Pour maintenir l’illusion d’une IA omniprésente et toujours plus performante, il faudrait multiplier les centres de données capables de consommer l’équivalent de plusieurs réacteurs nucléaires. Pour les banques, cela crée un risque structurel comparable à celui des infrastructures logistiques ou pétrolières : une dépendance absolue à des facteurs physiques dont la croissance n’est pas infinie.

    Du côté financier, la fragilisation est tout aussi palpable. Les grandes entreprises de l’IA dépensent à perte, parfois à des niveaux inimaginables. Prenons le cas d'OpenAI : l’éditeur de ChatGPT, a subi des pertes vertigineuses estimées à 12 milliards de dollars sur le dernier trimestre (un montant inédit pour une entreprise tech sur trois mois) pour 4,3 milliards de dollars de recette... en six mois. Si les investisseurs venaient à douter de la rentabilité future de ces modèles, l’effet domino serait fulgurant.

    Source : Teneo

    Et vous ?

    La décision d’investir massivement dans l’IA relève-t-elle encore d’une stratégie rationnelle ou s’apparente-t-elle désormais à une forme de mimétisme concurrentiel dicté par la peur de décrocher ?

    À partir de quel moment l’absence de retour sur investissement mesurable devrait-elle conduire un conseil d’administration à remettre en cause, voire à suspendre, certains projets d’IA ?

    Les entreprises disposent-elles aujourd’hui des outils et des indicateurs adaptés pour mesurer réellement la valeur créée par l’IA, ou continuent-elles à s’appuyer sur des métriques incomplètes et parfois trompeuses ?

    L’IA est-elle en train de devenir une infrastructure incontournable, comparable à l’électricité ou au cloud, justifiant des investissements lourds avant toute rentabilité, ou reste-t-elle une technologie dont la valeur dépend fortement des cas d’usage ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #17
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 923
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 923
    Par défaut
    A part ChatGPT, ou autre pour le particulier, les entreprises, qui sont les principales sources de revenus pour l'écosystème IA, n'ont pas encore la killer app. Le truc qui prouve que l'IA est aussi importante que l'électricité. Donc je crains une vague de désillusion même si dans des marchés de niche, l'IA survivra à cette hype aussi soudaine que coûteuse pour un résultat, financier et pratique, dérisoire comparativement à l'investissement consenti.

    L'approche de SAP ou Thales par exemple avec cette innovation est, je pense, la plus saine, l’humain augmenté maîtrisant la décision finale et validant la réflexion de l'IA. Au contraire, ce vers quoi veut tendre la Silicon Valley, le tout en un qui maîtrise tout, reste selon moi une erreur. S'appuyant sur des statistiques donc des probabilités, l'erreur peut devenir gigantesque en conséquences avec une confiance aveugle dans le résultat donné par la machine qui ne s'explique pas. Une machine, de plus, corrigée par une autre machine tout aussi boîte noire.

    Donc l'IA, dans certains cas, est une avancée mais, dans la plupart, une régression, une perte de temps et d'argent. Surtout l'IA générative.

  18. #18
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 117
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 117
    Par défaut La GenAI entre dans le « creux de la désillusion » face à un scepticisme grandissant et des attentes déçues
    La GenAI entre dans le « creux de la désillusion » face à un scepticisme grandissant,
    elle peine à répondre aux attentes élevées

    La GenAI, initialement acclamée, est maintenant confrontée à un scepticisme croissant en raison de son incapacité à répondre aux attentes élevées. Les préoccupations concernant les coûts, la consommation d'énergie et l'éthique ont pris le dessus sur l'enthousiasme initial. L'industrie se concentre désormais sur des cas d'utilisation pratiques et la résolution de problèmes de fiabilité et de gouvernance. Malgré des applications prometteuses dans des domaines comme la gestion de l'expérience client et les gains de productivité, la GenAI rencontre des défis importants dans l'automatisation des processus complexes. Les enjeux de coût, de latence et de gouvernance persistent, mais ces défis favorisent également l'innovation et une meilleure compréhension des exigences en matière de données et de techniques avancées.

    Bern Elliot, analyste vice-président de Gartner, a comparé l'IA générative à un « marteau cherchant un clou », soulignant que beaucoup croient à tort qu'elle peut résoudre de nombreux problèmes alors qu'en réalité, elle en est incapable. Il a ajouté que malgré l'enthousiasme initial pour OpenAI, cette technologie n'a finalement pas prouvé son utilité. Selon lui, au début, l'enthousiasme était fort autour de ChatGPT. Au printemps 2023, l'attention s'est portée sur les grands modèles de langage (LLM). En été, il est devenu clair qu'un soutien logiciel substantiel était nécessaire. À l'automne, l'accent a été mis sur l'incitation, la génération augmentée par récupération (RAG) et les vecteurs. En hiver, les discussions se sont orientées vers la gouvernance à mesure que des utilisations inappropriées de ces technologies se manifestaient. Plus récemment, le terme à la mode est devenu l'IA « agentique ».

    Nom : HyperCycle.jpg
Affichages : 17346
Taille : 35,7 Ko

    Le Gartner Hype Cycle est un modèle graphique qui décrit les étapes de développement et d'adoption d'une technologie, de son émergence à sa maturité. Il comprend cinq phases : le déclenchement de la technologie, où une innovation génère un intérêt médiatique initial ; le pic des attentes exagérées, caractérisé par un enthousiasme excessif et des attentes irréalistes ; le creux de la désillusion, où l'intérêt diminue en raison d'échecs initiaux ; la pente de l'illumination, où les avantages pratiques deviennent plus clairs et des applications réussies émergent ; et enfin, le plateau de productivité, où la technologie est largement adoptée et intégrée de manière stable dans les processus quotidiens, avec des bénéfices largement reconnus.

    Les défis et inquiétudes autour de l'IA générative

    James Ferguson, associé fondateur de MacroStrategy Partnership, met en garde contre une potentielle bulle spéculative autour de l'IA, comparant la situation actuelle à celle de la bulle Internet des années 1990. Selon lui, l'enthousiasme excessif et les prédictions optimistes concernant l'IA pourraient se solder par un désastre économique. Les préoccupations incluent les coûts élevés, la consommation énergétique et les limitations pratiques des technologies, comme les hallucinations des grands modèles de langage (LLM). Les investissements massifs alimentés par des attentes irréalistes risquent de se révéler infructueux, avec des conséquences potentiellement graves pour l'économie mondiale. Bien que l'IA promette des gains importants, certains experts avertissent que la technologie pourrait ne pas répondre aux attentes et que les valorisations actuelles pourraient s'effondrer, provoquant une douleur généralisée pour les investisseurs.

    Nombreux sont ceux qui pensaient que la GenAI allait « refaire les affaires » au début de l'année 2023, note Brad Shimmin, analyste en chef d'Omdia pour les plateformes d'IA, d'analyse et de données. Cependant, les attentes initiales concernant la GenAI sont très éloignées des réalités actuelles. La GenAI semble entrer dans le creux de la désillusion, une phase où l'intérêt diminue lorsque les résultats escomptés ne sont pas atteints. Pendant cette période, la technologie est souvent critiquée et les attentes diminuent jusqu'à ce qu'elle mûrisse et prouve sa valeur pratique.

    L'IA générative peut être difficile à situer dans le Hype Cycle car de nombreuses entreprises se trouvent à des stades différents de leur parcours de mise en œuvre. Certains aspects de l'IA font toujours l'objet d'un engouement, tandis que d'autres ont dépassé l'engouement et se trouvent sur le plateau de productivité, où les avantages d'une technologie sont largement compris et acceptés, se traduisant par une utilisation stable et durable.

    Face aux préoccupations de sécurité, 27 % des entreprises ont interdit l'utilisation de l'IA générative, selon une étude de Cisco. Les principales inquiétudes incluent les menaces pour les droits juridiques et la propriété intellectuelle (69 %) ainsi que le risque de divulgation d'informations sensibles (68 %). Pour mitiger ces risques, 63 % des organisations limitent les types de données pouvant être saisies, 61 % restreignent les outils GenAI accessibles aux employés, et 27 % ont totalement interdit ces applications. Cependant, des informations sensibles, telles que des données sur les employés et des informations confidentielles sur l'entreprise, continuent d'être problématiques.

    En réponse à la nécessité de protéger les données des clients, 98 % des entreprises considèrent les certifications externes en matière de protection de la vie privée comme essentielles pour leurs décisions d'achat. L'étude montre également que les investissements en protection de la vie privée ont plus que doublé ces cinq dernières années, avec un retour sur investissement estimé à 1,6 fois supérieur aux dépenses. De plus, 80 % des organisations constatent des avantages significatifs en termes de loyauté et de confiance des clients grâce à ces investissements, un chiffre qui atteint 92 % pour les organisations les plus avancées en matière de confidentialité.

    La menace de la désillusion : un engouement transformé en scepticisme

    La GenAI, qui avait suscité un engouement massif à ses débuts, est maintenant en proie à un scepticisme croissant. Ce retournement de perception est largement attribuable à son incapacité à répondre aux attentes initialement très élevées. Plusieurs facteurs sous-tendent ce désenchantement : les coûts élevés, la consommation d'énergie et les questions éthiques entourant l'utilisation de cette technologie.

    Les préoccupations concernant les coûts et la consommation d'énergie sont particulièrement pertinentes. La mise en œuvre et l'entretien des systèmes de GenAI nécessitent des investissements considérables, et leur consommation énergétique est significative. Dans un contexte où la durabilité devient de plus en plus cruciale, ces aspects posent de sérieux défis. En outre, les préoccupations éthiques liées à la GenAI sont de plus en plus mises en avant. Les questions de biais dans les modèles, de confidentialité des données et de l'impact potentiel sur l'emploi sont au cœur des débats. La nécessité de réguler et de gouverner l'utilisation de l'IA devient ainsi une priorité.

    Cependant, l'industrie de la GenAI ne reste pas passive face à ces défis. Elle se concentre maintenant sur des cas d'utilisation pratiques et sur la résolution de problèmes de fiabilité et de gouvernance. Des secteurs tels que la gestion de l'expérience client et l'amélioration de la productivité ont vu des applications prometteuses de la GenAI. Malgré cela, l'automatisation des processus complexes reste un défi majeur. La technologie doit encore surmonter des obstacles en matière de coût, de latence et de gouvernance pour prouver pleinement sa valeur.


    Ces défis, bien qu'ardus, stimulent également l'innovation. Ils incitent à une meilleure compréhension des exigences en matière de données et des techniques avancées nécessaires pour optimiser l'utilisation de la GenAI. En somme, la période de désillusion actuelle pourrait être une étape nécessaire dans le développement et la maturation de la GenAI, menant à une adoption plus judicieuse et efficace à l'avenir.

    En conclusion, si la GenAI traverse une phase de scepticisme et de remise en question, elle offre également des opportunités d'amélioration et d'innovation. L'industrie doit maintenant se concentrer sur des applications réalistes et des solutions aux problèmes actuels pour transformer ce scepticisme en une confiance renouvelée et justifiée dans les capacités de la GenAI.

    Source : Opinion of Bern Elliot, Analyst and Vice President at Gartner

    Et vous ?

    Quel est votre avis sur le sujet ?

    Êtes-vous d'accord avec l'opinion de Bern Elliot selon laquelle beaucoup croient à tort que la GenAI peut résoudre une multitude de problèmes, alors qu'en réalité, elle en est incapable ?

    Comment les entreprises peuvent-elles équilibrer les coûts élevés et la consommation d'énergie associés à la GenAI tout en tirant parti de ses avantages potentiels ?

    Voir aussi :

    Les craintes liées à la sécurité conduisent les entreprises à interdire l'utilisation de la GenAI : 27 % des organisations ont interdit l'utilisation de l'IA générative, selon Cisco

    « L'IA est en fait inutile et elle a créé une bulle "faire semblant jusqu'à ce que ça marche" qui pourrait se solder par un désastre », prévient un observateur chevronné des marchés
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  19. #19
    Invité
    Invité(e)
    Par défaut
    L'IA est complètement disruptive, ça ne peut exister dans la technologie actuelle, ne peut être réductible au langage machine numérique, purement technologique et son corollaire économique trop étriqué, qui ne constituent que des reflets chatoyants et éphémères.
    Que l'on cherche à saisir, qui plus est. Un peu comme l'affaire du boson de Higgs, "la particule de Dieu", quelque chose que l'on veut saisir alors que cela a toujours été exprimé sous la forme, qui d'un son primordial, qui d'un souffle originel, qui d'une note fondamentale.
    Peut-être reprendre avec "EpigenAi" et l'être humain en relation directe : c'est un pari et non un Paris, à très court terme.

  20. #20
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 724
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 724
    Par défaut
    Les bourses se portent mal aujourd'hui.
    Dans un article ils disent que c'est l'explosion de la bulle de l'IA, mais juste après ça parle de chômage. Je ne suis pas pas convaincu que ce qui arrive est lié à l'IA.

    Les Bourses redoutent une récession et plongent
    Le krach boursier mondial s’est amplifié, lundi 5*août, à Wall Street. L’indice Nasdaq, riche en technologies, a ouvert en baisse de 6,3*%, amplifiant son recul de 2,43*% de vendredi 2*août, tandis que le S&P*500, qui représente les grandes entreprises américaines, reculait de 4,1*%. Depuis le plus haut de juillet, la correction atteint désormais 15,8*% et 10,5*%. C’est la bulle de l’intelligence artificielle qui explose, incarnée par Nvidia. La firme de microprocesseurs, qui avait été brièvement l’entreprise la plus valorisée du monde devant Apple et Microsoft, baissait lundi de 14*%, un recul de 35*% depuis son plus haut historique.

    De même, Apple, la firme technologique considérée la plus sûre du monde, a poursuivi une glissade amplifiée par la nouvelle tombée, samedi 3*août*: Berkshire Hathaway, l’entreprise du milliardaire et investisseur de génie Warren Buffett, a cédé la moitié de ses titres Apple au cours du second semestre, pour des raisons fiscales. Le titre était en baisse de 7,3*% lundi matin.

    La panique a été déclenchée vendredi avec la publication des chiffres de l’emploi pour juillet aux Etats-Unis, qui ont montré une hausse brutale du chômage. Celui-ci frappe désormais 4,3*% de la population active, tandis que les créations d’emplois (114*000) ont accusé un recul inattendu par rapport à juin (179*000). S’y ajoutent un indice des investissements industriels catastrophique et une désaffection des consommateurs, attestée par les résultats médiocres des entreprises de grande consommation, telles que McDonald’s ou les compagnies aériennes. Bulle de la technologie, chute de l’investissement, consommation morose*: les ingrédients laissant craindre une récession sont là, selon les exégètes américains.

Discussions similaires

  1. Réponses: 17
    Dernier message: 15/05/2024, 17h17
  2. Réponses: 0
    Dernier message: 19/06/2023, 01h05
  3. Réponses: 4
    Dernier message: 13/12/2018, 19h05
  4. Réponses: 1
    Dernier message: 19/10/2012, 18h00
  5. Alerte sur la modification d'une table
    Par Mothership dans le forum Administration
    Réponses: 1
    Dernier message: 21/05/2008, 16h10

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo