@ Anselme45 : allons nous vers la bulle (ou pustule) IA qui va bientôt éclater ?
Discussion :
C'est comme pour la ruée vers l'or, un tas de chercheurs d'or n'ont rien trouvé et sont revenus chez eux à poil, et ça sera pareil en IA, pour un tas de startups logicielles IA qui ont levé des milliards lespigeonsinvestisseurs ne reverront jamais leur argent, quand la bulle IA va éclater, demain ou en 2026, 99% des sociétés IA vont fermer, il n'en restera qu'une poignée, qui mettrons plus de 10 ans à devenir peut être bénéficiaires, ou jamais.
Pendant ce temps les fabricants de pelles (donc ici les fabriquant de puces IA), NVIDIA et AMD s'en mettent plein les fouilles.
Dans quelques années la bulle logicielle IA aura éclaté depuis longtemps, et la Chine sera apte à faire les puces IA pour presque rien, ça sera fini.
Après quand l'IA aura viré plus de 50% des emplois de bureau je ne sais pas dans quel état sera le monde.
OpenAI serait-elle en train de perdre la guerre de l’IA ? La société qui avait déclenché la révolution de l’IA générative avec ChatGPT pourrait perdre son trône plus vite que prévu,
son PDG lance une « alerte rouge » face à la montée en puissance de la concurrence
OpenAI traverse une zone de turbulences qui remet en cause sa position dominante dans l’intelligence artificielle. Longtemps perçue comme l’entreprise visionnaire capable de définir seule l’avenir de l’IA générative, elle doit aujourd’hui composer avec une gouvernance instable, une dépendance structurelle à Microsoft, une pression concurrentielle accrue et un climat interne délétère. Les enquêtes dévoilent une organisation fragilisée, dont l’édifice semble tenir sur un équilibre précaire. Au-delà du destin de cette entreprise emblématique, c’est l’évolution même de l’industrie de l’IA qui se joue.
L’année 2025 aura agi comme un révélateur brutal pour OpenAI. Ce qui devait être la trajectoire triomphale de l’entreprise la plus emblématique de l’intelligence artificielle générative commence à ressembler à une lente décomposition.
L’entreprise est toujours puissante, toujours capable d’influencer les débats mondiaux et d’attirer les talents. Pourtant, derrière l’aura de leadership technologique, les fissures s’élargissent, nourries par une instabilité structurelle, des tensions internes et un positionnement stratégique de plus en plus contesté.
L’impression générale est celle d’un colosse qui avance encore, mais dont les fondations fragilisées risquent d’emporter l’édifice entier. Le mythe OpenAI, bâti sur une vision quasi messianique de l’AGI, se heurte à la réalité d’une industrie devenue ultra-concurrentielle, industrialisée et dominée par des acteurs capables d’aligner des moyens financiers, énergétiques et industriels d’une ampleur inédite.
OpenAI occupe aujourd'hui une position bien moins dominante qu'il y a quelques années, après la sortie publique de ChatGPT
En 2022, la popularité soudaine de ChatGPT avait semé la panique chez Google. La société était tellement inquiète à l'idée que ce nouveau chatbot puisse perturber son activité de recherche que ses dirigeants avaient déclenché une alerte « alerte rouge » au sein de l'entreprise et rappelé Sergey Brin et Larry Page, alors à la retraite depuis 2019, pour les aider à formuler une réponse à OpenAI.
Il faut dire qu'il y avait de quoi faire paniquer l'entreprise : ChatGPT était l'un des phénomènes Internet de l’heure, tant les internautes s’émerveillaient de son « intelligence. » Certains le qualifiaient même de remplaçant du moteur de recherche Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes et ce, de façon détaillée.
Google a alors précipitamment lancé Bard, annonçant son premier chatbot commercial le 6 février 2023. Quelques jours plus tard, l'action Google s'est effondrée lorsque l'IA a donné une réponse erronée à une question sur le télescope spatial James Webb de la NASA lors d'une démonstration publique.
En effet, un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire ».
La toute première réponse de Bard contenait une erreur factuelle
Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.
Une guerre technologique où OpenAI n’a plus l’avantage : l'illustration avec DeepSeekNot to be a ~well, actually~ jerk, and I'm sure Bard will be impressive, but for the record: JWST did not take "the very first image of a planet outside our solar system".
— Grant Tremblay (@astrogrant) February 7, 2023
the first image was instead done by Chauvin et al. (2004) with the VLT/NACO using adaptive optics. https://t.co/bSBb5TOeUW pic.twitter.com/KnrZ1SSz7h
Mais Google n'était pas la seule à vouloir s'approprier d'une part du grand gâteau de l'IA. Alors que le géant de la recherche cherchait à faire concurrence à OpenAI, d'autres, dont Microsoft et Apple, ont conclu des accords avec l'entreprise afin d'intégrer sa technologie à leurs produits et services, tous convaincus que l'IA finirait par révolutionner tous les aspects de l'économie.
Depuis lors, OpenAI a vu son avance sur Google et une grande partie du secteur de l'IA s'évaporer, ce qui a abouti à une série de coups successifs tout au long de l'année 2025.
Le 20 janvier, le jour même où Altman s'affairait à côtoyer d'autres oligarques de la technologie lors de l'investiture de Donald Trump, la société chinoise DeepSeek a discrètement lancé son modèle de chaîne de pensée R1.
Sam Altman, PDG d’OpenAI, n’a pas hésité à saluer les performances de DeepSeek, qu’il a qualifié de « modèle impressionnant » dans une publication sur X le 28 janvier. Il s’est particulièrement attardé sur l’efficacité du modèle au regard de son coût de développement : moins de 6 millions de dollars, un chiffre dérisoire comparé aux milliards investis par les leaders du secteur comme OpenAI. Ce commentaire, venant de l’un des pionniers de l’intelligence artificielle moderne, souligne à quel point la startup chinoise a bousculé l’ordre établi.
Satya Nadella, PDG de Microsoft, a lui aussi exprimé son admiration pour DeepSeek, affirmant qu’il représente désormais le nouveau « critère de réussite » en matière d’IA pour la firme de Redmond. Ce qui l’a particulièrement frappé, c’est la capacité d’une équipe de seulement 200 personnes à développer une solution IA qui s’est hissée au sommet de l’App Store. Cette réussite spectaculaire remet en question les méthodes traditionnelles de l’industrie, souvent dépendantes d’effectifs massifs et de budgets faramineux.
Une semaine plus tard, le chatbot de la start-up dépassait ChatGPT en tant qu'application gratuite la plus téléchargée sur l'App Store américain.
Nadella a souligné que ce qui rend DeepSeek remarquable n’est pas seulement sa dimension technique, mais surtout sa capacité à transformer un projet open source en un produit concret, massivement adopté par le grand public. Pour lui, cela fixe une nouvelle barre à atteindre dans le domaine de l’IA. Selon les données de la plateforme [aitools.xyz], DeepSeek était alors l’outil d’IA connaissant la plus forte croissance au monde, dépassant même ChatGPT en nombre de visites mensuelles sur son site.
La réponse d'OpenAI à DeepSeek, loin d'être au rendez-vous
Le succès fulgurant de DeepSeek a fait perdre 1 000 milliards de dollars à la valeur boursière et a très certainement pris OpenAI au dépourvu.
En réponse, l'entreprise a fait preuve d'une nouvelle urgence. En une semaine, par exemple, OpenAI a lancé à la fois o3-mini et Deep Research. Elle est même allée jusqu'à annoncer ce dernier un dimanche soir. Mais malgré toute cette nouvelle urgence, la plus grande et la plus importante sortie de l'année d'OpenAI a été un échec.
On peut affirmer sans risque que GPT-5 n'a pas répondu aux attentes, encore moins de celles d'OpenAI. La société a vanté les mérites de ce système, le présentant comme plus intelligent, plus rapide et plus performant que tous ses modèles précédents, mais après l'avoir essayé, les utilisateurs se sont plaints d'un chatbot qui commettait des erreurs étonnamment stupides et manquait cruellement de personnalité.
Malgré le discours marketing sur cette intelligence artificielle de pointe, qualifiée « d'intelligence de niveau doctorat » par ses créateurs, GPT-5 pense qu'il y a trois « r » dans le mot « Northern Territory ». C'est ce qu'ont découvert les utilisateurs après avoir essayé la dernière mouture de ChatGPT.
Cependant, lorsque les utilisateurs des réseaux sociaux ont tenté de mettre GPT-5 au défi, ils ont constaté que le modèle commettait des erreurs élémentaires dans ses réponses. Un utilisateur de Bluesky a remarqué que le chatbot affirmait à plusieurs reprises qu'il y avait trois B dans « blueberry ».
« Oui, blueberry est l'un de ces mots dont le milieu vous fait presque trébucher, comme s'il disait « b-b-better pay attention » (mieux vaut faire attention) », a déclaré le chatbot dans la conversation publiée. « Mais ce petit moment bb est satisfaisant, il rend le mot encore plus entraînant. »
Un autre utilisateur a constaté que le chatbot était incapable d'identifier correctement les États américains contenant la lettre R. Et lorsqu'on lui a demandé de produire une carte, il a mal orthographié des États tels que « Krizona » et « Vermoni ». ChatGPT a également répertorié deux fois la Californie et inventé les États « New Jefst » et « Mitroinia ».
« Je me suis réveillé ce matin et j'ai découvert qu'OpenAI avait supprimé 8 modèles pendant la nuit. Sans avertissement. Sans choix. Sans "option héritée". Ils les ont simplement... supprimés », s'est plaint un utilisateur. « 4o ? Disparu. o3 ? Disparu. o3-Pro ? Disparu. 4.5 ? Disparu. Tout ce qui rendait ChatGPT réellement utile pour mon flux de travail a été supprimé. »
Pour beaucoup, GPT-5 semblait être une régression par rapport à l'ancien GPT-4o, plus simple. C'est une position dans laquelle aucune entreprise d'IA ne souhaite se trouver, et encore moins une entreprise qui a reçu autant d'investissements qu'OpenAI.
Il n'a fallu que 24 heures de plaintes pour qu'OpenAI réintroduise son ancien modèle. Le lancement du GPT-5 a été un désastre, les utilisateurs le qualifiant de « machine à conneries horrible »
Sam Altman a déclaré : « Je pense que nous avons complètement raté certaines choses lors du déploiement ».
Face à la montée en puissance d'Anthropic, Google et d'autres concurrents, Sam Altman lance une « alerte rouge » sur ChatGPT
Anthropic a rapidement tiré parti de cette faiblesse en signant un accord avec Microsoft pour intégrer ses modèles Claude à Copilot 365. Auparavant, Microsoft dépendait exclusivement d'OpenAI pour les modèles partenaires dans Copilot. Avant que la société n'annonce cette intégration, un article publié par The Information indiquait que Microsoft avait pris cette décision en se basant sur la puissance du modèle Sonnet 4.0 d'Anthropic, le jugeant « plus performant de manière subtile mais importante » par rapport aux offres d'OpenAI.
Cependant, ce qui restera probablement comme le moment décisif s'est produit quelques semaines seulement après l'annonce par OpenAI de la conclusion de sa restructuration. Le 18 novembre, Google a lancé Gemini 3 Pro, et ce nouveau modèle a immédiatement dépassé la concurrence, y compris GPT-5. Au moment de la rédaction de cet article, le nouveau modèle de Google est en tête du classement LMArena, le site où des humains comparent les résultats de différents systèmes d'IA et votent pour le meilleur. GPT-5, en revanche, est actuellement classé sixième au classement général, derrière les modèles d'Anthropic et de xAI d'Elon Musk.
D'ailleurs, dans une interview accordée à Business Insider, lorsqu'il a été question de la position de Google par rapport à OpenAI, Geoffrey Hinton, le « parrain de l'IA », a déclaré : « Je pense qu'il est en fait plus surprenant que Google ait mis autant de temps à dépasser OpenAI. Je pense qu'à l'heure actuelle, ils commencent à le dépasser ».
Selon un article publié le 2 décembre dans le Wall Street Journal, Sam Altman a envoyé une note de service à l'ensemble du personnel après la sortie de Gemini 3 Pro. Reprenant les termes utilisés par Google pour décrire la situation dans laquelle il se trouvait face à OpenAI en 2023, il a appelé à un effort en « alerte rouge » pour améliorer ChatGPT. Altman aurait déclaré aux employés qu'il y aurait des réaffectations temporaires et que l'entreprise retarderait certains produits, le tout dans le but de rattraper Google et Anthropic.
OpenAI a un désavantage inhérent face à Google
Pour Google, l'IA touche peut-être tous les domaines d'activité de l'entreprise, mais Gemini n'est qu'un produit parmi tant d'autres dans un portefeuille très complet qui comprend de nombreux autres services populaires. Google peut financer ses avancées en matière d'IA grâce aux revenus générés par d'autres activités. OpenAI ne peut pas en dire autant. L'entreprise lève constamment des fonds pour rester à flot et, selon une feuille de route financière obtenue par The Journal, elle devra augmenter son chiffre d'affaires à environ 200 milliards de dollars par an pour devenir rentable d'ici 2030. En novembre, Altman a déclaré sur X que l'entreprise était en bonne voie pour atteindre plus de 20 milliards de dollars de chiffre d'affaires annualisé cette année.
Dans le but d'augmenter leurs revenus, Altman et son entreprise ont adopté une stratégie incroyablement risquée. Au cours des derniers mois, OpenAI a signé des contrats d'infrastructure d'une valeur totale de plus de 1 400 milliards de dollars afin de dépasser la concurrence qui la devance déjà.
Source : vidéos dans le texte
Et vous ?
Quelle lecture en faites-vous ?
Que pensez-vous de la stratégie d'OpenAI visant à lever encore plus de fonds tout en cherchant à trouver d'autres sources de revenus, son business model n'étant pas rentable pour le moment ?
La course à l’AGI est-elle devenue une narration marketing plutôt qu’un objectif scientifique crédible, et OpenAI en paie-t-elle aujourd’hui le prix ?
L’écosystème IA peut-il encore reposer sur un acteur centralisé comme OpenAI, ou entre-t-on dans une ère d’hyper-fragmentation dominée par le multi-cloud, le multi-vendor et l’open source ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Alors que GPT-5 est ridiculisé, Sam Altman affirme qu'OpenAI aura besoin de « milliers de milliards de dollars » en infrastructure IA
un défi énergétique et financier colossal
Le mois d’août 2025 devait marquer une étape majeure pour OpenAI avec le déploiement de GPT-5, présenté comme un modèle plus avancé, plus « raisonné » et plus fiable que ses prédécesseurs. Pourtant, à peine disponible, le modèle a essuyé une vague de critiques de la part des utilisateurs. Le PDG Sam Altman affirme que ChatGPT est désormais comparable à un « super-pouvoir » et équivaut à « un véritable expert titulaire d'un doctorat dans n'importe quel domaine, à votre disposition, capable de vous aider à atteindre vos objectifs ». Mais après une journée passée à l'essayer, beaucoup de gens sont déçus. Non seulement parce que GPT-5 a encore du mal à répondre à des questions basiques, mais aussi parce qu'il semble perturber de nombreux flux de travail, selon les plaintes publiées sur les réseaux sociaux.
Imperturbable, Sam Altman, a fait une annonce qui a laissé plusieurs stupéfaits : son entreprise aura besoin de « milliers de milliards de dollars » pour développer les infrastructures nécessaires à l'IA du futur.
Depuis son lancement, le GPT-5, le tout dernier modèle de langage à grande échelle d'OpenAI, a été la cible de nombreuses critiques. De nombreux utilisateurs se plaignent qu'il est stupide, ennuyeux et moins performant que le dernier LLM commercialisé par OpenAI. Sam Altman, le PDG de l'entreprise, a quelques mots réconfortants pour ceux qui s'inquiètent de la direction prise par son entreprise : l'IA est une bulle, et au fait, mon entreprise est sur le point de dépenser le PIB d'un pays comme la France pour développer notre infrastructure d'IA.
Tout s'est passé à l'occasion d'un diner à San Francisco qui a réuni des cadres supérieurs d'OpenAI et des journalistes. Altman a répondu à leurs questions pendant un bon moment. L'un des journalistes a expliqué « qu'aucun sujet n'était tabou, et tout, à l'exception de ce qui a été dit au dessert, était enregistré ».
« Je pense que nous avons complètement raté certaines choses lors du déploiement », a-t-il déclaré. « En revanche, le trafic de notre API a doublé en 48 heures et continue de croître. Nous n'avons plus de GPU. ChatGPT atteint un nouveau record d'utilisateurs chaque jour. Beaucoup d'utilisateurs apprécient vraiment le sélecteur de modèles. Je pense que nous avons tiré une leçon de ce que signifie mettre à niveau un produit pour des centaines de millions de personnes en une seule journée. »
Sam Altman semble d'accord avec les critiques qui qualifient l'industrie IA de « bulle »...
Dans le même temps, Altman semble être d’accord avec les critiques de son industrie qui l’ont qualifiée de « bulle » semblable à l’Internet des débuts.
« Lorsqu'une bulle spéculative éclate, les gens intelligents s'emballent pour un fond de vérité », a-t-il expliqué.
Depuis un certain temps, critiques et commentateurs se demandent si l'engouement suscité par le secteur de l'IA n'est pas voué à un effondrement brutal. Certains événements récents du secteur, comme la très mauvaise performance boursière de Coreweave, start-up spécialisée dans les centres de données et les infrastructures d'IA, ont renforcé ces inquiétudes. Nombreux sont ceux qui ont constaté que, jusqu'à présent, l'IA est un gouffre financier dans lequel les entreprises continuent d'investir des sommes colossales. L'espoir est qu'un jour, d'une manière ou d'une autre, tout cet argent revienne au secteur de l'IA sous forme de bénéfices, mais qui sait quand ce jour viendra ?
Et Sam Altman de déclarer : « Si l'on considère la plupart des bulles spéculatives de l'histoire, comme la bulle technologique, on constate qu'il y a eu un véritable phénomène. La technologie était vraiment importante. Internet était un enjeu majeur. Les gens étaient surexcités. Sommes-nous dans une phase où les investisseurs sont globalement surexcités par l'IA ? Je pense que oui. L'IA est-elle la chose la plus importante à se produire depuis très longtemps ? Je pense que oui également. »
... mais veut quand même des « milliers de milliards de dollars » pour développer l'infrastructure IA de son entreprise
Que l'IA soit une bulle spéculative ou non, Altman souhaite toujours investir des sommes folles pour développer l'infrastructure IA de son entreprise. «*Il faut s'attendre à ce qu'OpenAI investisse des milliers de milliards de dollars dans la construction de centres de données dans un avenir proche*», a déclaré Altman aux journalistes.
« Nous devons faire ces terribles compromis dès maintenant », a-t-il déclaré. « Nous avons de meilleurs modèles, mais nous ne pouvons tout simplement pas les proposer, faute de capacités. Nous avons d'autres nouveaux produits et services que nous aimerions proposer. »
Il a confirmé des informations récentes selon lesquelles OpenAI envisage de financer une startup spécialisée dans les interfaces cerveau-ordinateur pour concurrencer Neuralink d'Elon Musk. « Je pense que les interfaces neuronales sont des idées intéressantes à explorer. J'aimerais pouvoir réfléchir à quelque chose et que ChatGPT y réponde. »
L'arrivée de Fidji Simo dans OpenAI pour gérer des « applications » implique-t-elle qu'il y aura d'autres applications autonomes en plus de ChatGPT ? « Oui, vous pouvez vous y attendre.» Il a laissé entrevoir ses ambitions en matière de médias sociaux : « Je me demande s'il est possible de créer une expérience sociale beaucoup plus innovante grâce à l'IA.» Il a également ajouté : « Si Chrome est vraiment rentable, nous devrions y réfléchir. »
Un défi énergétique et financier colossal
Cette montée en puissance de l’IA ne concerne pas que le calcul : elle soulève aussi des enjeux énergétiques majeurs. Les puissances informatiques exigées par les modèles comme GPT-5 imposent une demande électrique considérable, mettant à l’épreuve les infrastructures existantes.
Le coût de l'entrainement
Les bilans chiffrés disponibles se limitent souvent aux centres de données. Selon l’AIE, leur consommation d’électricité (excluant les réseaux de données et le minage de cryptomonnaies) oscillait entre 240 et 340 TWh en 2022, soit environ 1 à 1,3% de la consommation totale d’électricité. En dépit d’une croissance annuelle de 4%, la demande globale en électricité des centres de données n’a pas augmenté entre 2010 et 2020, grâce notamment à l’amélioration de leur efficacité
énergétique.
Dans quelle mesure l’arrivée massive de l’IA générative va-t-elle changer la donne? L’IA générative est basée sur de grands modèles de langage (LLM) qui consomment de l’énergie en deux temps. D’abord pour leur phase d’entraînement, considérée il y a quelques années comme la plus énergivore. Ils s’entraînent sur des téraoctets de données afin d’apprendre la prédiction des mots ou des phrases dans un contexte donné.
La deuxième phase est celle de l’inférence dans laquelle le modèle donne une réponse en fonction d’une requête. L’adoption massive des modèles d’IA génératives a changé la donne et cette phase devient dès lors la plus prépondérante. Les récentes données fournies par Meta et Google indiquent qu’elle représente 60 à 70% de la consommation énergétique, contre 30 à 40% pour l’entraînement.
ChatGPT vs recherche Google
Une requête ChatGPT consomme environ 3 Wh contre 0,3 Wh pour une recherche Google traditionnelle, toujours selon l’AIE. Sachant qu’il y a environ 9 milliards de recherches Google par jour, leur transfert à une IA générative entraînerait une augmentation de 10 TWh par an. Goldman Sachs Research (GSR) estime que les besoins des centres de données vont augmenter de 160% d’ici à 5 ans. D’ici la fin de la décennie, les centres de données devraient consommer de 3 à 4% de l’énergie électrique totale, entraînant un doublement de leurs émissions de CO₂ entre 2022 et 2030. En Europe, après trois ans de diminution, la demande d’électricité devrait retrouver son niveau de 2021 pour la période 2024-2026, estime l’AIE, soit quelque 2560 TWh. Près du tiers de cette hausse est directement causé par les centres de données. GSR évalue l’augmentation globale des besoins des centres de données issus de l’IA à environ 200 TWh par an entre 2023 et 2030. D’ici à 2028, l’IA représenterait ainsi environ 19% de la demande d’énergie des centres de données.
Des bénéfices encore à exploiter
Mais la consommation supplémentaire des IA génératives pourrait aussi être en partie compensée par les bénéfices qu’elle rend en général. Pour certains, l’entraînement des modèles constituerait en fait un investissement, potentiellement rentable du point de vue énergétique, voire climatique. L’IA pourrait ainsi accélérer la vitesse de l’innovation énergétique, contribuant à mieux prédire et optimiser la consommation d’énergie, l’utilisation du réseau, à gérer les ressources, à créer des simulations ou encore à améliorer l’état de l’art en matière de modélisation, d’économie climatique, d’éducation ou de recherche fondamentale. Toutefois, les bénéfices de l’innovation restent conditionnés par leurs impacts, ainsi que par leur adoption par la population, leur compréhension par les autorités politiques et leur traduction législative.
En outre, les nouveaux centres de données sont de plus en plus efficaces énergétiquement et travaillent sur une utilisation plus flexible de leurs capacités. NVIDIA améliore aussi les performances de ses puces tout en réduisant leur consommation d’énergie. Sans compter le potentiel des ordinateurs quantiques. Selon l’AIE, 40% de la demande d’électricité des centres de données est dévolue au refroidissement, 40% aux serveurs eux-mêmes et 20% au système, aux éléments de stockage et de communication. À l’EPFL par exemple, le projet Heating Bits, dirigé par le professeur Mario Paolone, impliquant cinq laboratoires et le centre EcoCloud, vise à construire un démonstrateur pour expérimenter des méthodes de refroidissement permettant la récupération de chaleur ou la cogénération d’électricité, couplées à l’optimisation de l’utilisation d’énergies renouvelables et des serveurs.
D'accord, mais l'IA en vaut-elle vraiment la peine ?
C'est cette ampleur véritablement absurde des investissements dans l'IA qui pousse le simple observateur à se demander à quoi tout cela sert réellement. Aussi, un critique note que la question qui ne semble jamais être soulevée lors des conversations avec Altman est de savoir si une analyse coûts-avantages à l'échelle de la société a déjà été réalisée pour son secteur. Autrement dit, l'IA en vaut-elle vraiment la peine*?
« Cette question pourrait facilement être décomposée en une série de questions plus spécifiques. Par exemple, une bonne question pourrait être*: vaut-il vraiment la peine de dépenser des milliards de dollars pour créer une série de chatbots légèrement amusants qui ne fournissent des informations précises qu’un certain pourcentage du temps*? Ou encore*: ces milliards de dollars ne seraient-ils pas mieux dépensés, par exemple pour aider les plus démunis ou améliorer notre système éducatif*? Ou encore*: les chatbots sont-ils une nécessité sociétale, ou leur présence est-elle simplement agréable*? Dans quelle mesure l’IA est-elle plus utile qu’un moteur de recherche, par exemple*? Ne peut-on pas se contenter des moteurs de recherche*? Les externalités négatives liées à l’utilisation de l’IA (une empreinte énergétique considérable, une prétendue diminution des capacités mentales des utilisateurs et un fléau de la tricherie dans l’enseignement supérieur) l’emportent-elles sur les positives (accès à un moyen légèrement plus pratique de trouver des informations en ligne)*? »
Source : Sam Altman
Et vous ?
Les critiques sur GPT-5 sont-elles révélatrices d’un vrai problème de qualité ou simplement d’attentes irréalistes du public ?
Pensez-vous qu’il soit possible de créer un modèle d’IA « parfait » qui satisfasse à la fois précision, créativité et humanité dans les réponses ?
Faut-il privilégier des IA plus performantes techniquement ou des IA qui semblent plus « humaines » dans leur ton et leur comportement ?
L’IA mérite-t-elle vraiment des investissements de « plusieurs milliers de milliards de dollars » alors que d’autres secteurs (santé, climat, éducation) manquent de financements ?
Comment résoudre la question énergétique si chaque progrès en IA demande toujours plus d’électricité et de centres de données ?
L’IA doit-elle être considérée comme une infrastructure mondiale, au même titre que l’internet ou l’électricité ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Clairement non. Lorsque l'IA vue par Sam Altman demande de tels investissements, mieux vaut l'investir dans la R&D. Ce serait plus bénéfique. Le PIB de la France permettrait certainement un ROI plus grand et plus sûr que cette IA. Il faudrait plutôt investir une fraction de cette somme dans le hardware moins gourmand et plus performant que d'emprunter cette voie hasardeuse du toujours plus avec nos moyens actuels.L’IA mérite-t-elle vraiment des investissements de « plusieurs milliers de milliards de dollars » alors que d’autres secteurs (santé, climat, éducation) manquent de financements ?
Pas l'IA de Sam Altman ou une quelconque IA générative sujette à hallucinations. Mais, cortAIx, l'IA de Thales oui. Elle est bien plus utile et performante que n'importe quel IA générative actuellement disponible sur le marché, mais malheureusement réservée aux systèmes critiques (où des vies humaines sont en jeu).L’IA doit-elle être considérée comme une infrastructure mondiale, au même titre que l’internet ou l’électricité ?
Mon avis sur le sujet tient en un manque de pragmatisme de Sam Altman complètement décorrélé de la réalité, et c'est dangereux car les 'fans' vont se dire qu'il faut toujours plus alors que DeepSeek a prouvé qu'on pouvait faire aussi bien voire souvent mieux avec moins. Et cortAIx est sans commune mesure meilleur car frugal, explicable, sécurisé et sûr à 100%.

En des temps anciensj'ai fait une thèse été ATER et été chargé de cours toussa toussa et le principe N°1 de l'esprit scientifique c'est que quand on est confronté aux faits soit notre point de vue/ these sont confirmés soit nos propos sont infirmés et on le dit. Je me suis planté je suis par terre compte tenu de ce que Chat5 m'a sorti en 1H ... (parce que je lui ai demandé la totale, analyse, conclusions, arrets, powerpoint word pdf schémas etc) avec mon téléphone sur mon domaine d'expertise (droit public) je suis scié. c'est absolument époustouflant et aussi inquiétant. je me suis planté j'avais rien compris et cet après midi j'ai pris le temps et je me suis pris une claque tectonique. Allez RDV dans 2 ans (je suis optimiste de nature) amis docteurs a pole pas d'emploi on fera un club des inutiles déclassés.
![]()
C'est mortce soir je bouffe de la drunk food avec de la bière. génial et catastrophique et ce n'est que le début cette fois j'ai bien compris.
RIDEAU. retourné comme une crêpe en 8 jours. je sais quelles questions précises poser et comment vérifier l'info de chat mais à part ca.. .et le fait que ..; c'est bon c'est plus que bon
Amen les carottes sont cuites cette fois j'ai compris et je regrette la période (il y a quelques jours... ) ou j'étais dans l' incompréhension.
Dernière modification par Invité ; 18/08/2025 à 18h58.
Les investisseurs se mettent dans l'IA car c'est ce qui rapporte le plus de nos jours. Sans l'IA leur argent irait dans un autre secteur qui rapporte, donc certainement pas la santé, le climat ou l'éducation.L’IA mérite-t-elle vraiment des investissements de « plusieurs milliers de milliards de dollars » alors que d’autres secteurs (santé, climat, éducation) manquent de financements ?
Il est évident que certaines élucubrations de l'IA sont mauvaises. Je ne demande pas plus à l'IA que d'être principalement un réservoir d'informations . Tout ce que je souhaite c'est que l'IA ne devienne pas progressivement obligatoire.
DuckDuckGo a ajouté le GPT-5 d'OpenAI à sa plateforme Duck AI, permettant ainsi aux utilisateurs d'accéder gratuitement à ce modèle d'IA avancé sans avoir à s'inscrire.
DuckDuckGo a annoncé l'ajout le GPT-5 à son service de chat IA Duck.Ai. Cela signifie que le GPT-5 rejoint la liste aux côtés du GPT-4o, du Llama 4 Scout, du Claude Haiku 3.5 et du Mistral Small 3. Duck.ai est accessible gratuitement à tous via le web et promet un accès anonyme à une gamme de chatbots IA.
Le lancement de GPT-5 a suscité des réactions mitigées, oscillant entre l'enthousiasme pour ses performances techniques et l'inquiétude concernant la direction stratégique de son créateur. Après plus de deux ans de développement, la mise à jour très attendue du système qui alimente l'application ChatGPT d'OpenAI, extrêmement populaire, a été saluée par certains des premiers utilisateurs comme « évolutive plutôt que révolutionnaire ». Si GPT-5 brille dans certaines tâches techniques, nombre de spécialistes soulignent qu’il ne s’agit que d’une évolution incrémentale plutôt que d’une révolution. En créativité et en raisonnement, il ne surpasse pas nettement ses rivaux, et serait même distancé par Grok 4 Heavy dans certaines évaluations.
Dans ce contexte, DuckDuckGo a annoncé l'ajout le GPT-5 à son service de chat IA Duck.Ai. « Le GPT-5 mini d'OpenAI a remplacé l'o4-mini dans notre gamme Duck.ai », a déclaré un représentant de DuckDuckGo. Cela signifie que le GPT-5 rejoint la liste aux côtés du GPT-4o, du Llama 4 Scout, du Claude Haiku 3.5 et du Mistral Small 3. Duck.ai est accessible gratuitement à tous via le web et promet un accès anonyme à une gamme de chatbots IA.
Duck.ai propose désormais également le dernier modèle de langage d'OpenAI, GPT-5, dans son service de chat. Microsoft a déjà intégré GPT-5 dans son Copilot. GPT-5 a été lancé il y a quelques semaines seulement et promet d'offrir des performances « de pointe ». Au départ, le nouveau modèle d'OpenAI n'a pas été bien accueilli par les utilisateurs. Il aurait été plus distant et plus limité que ses prédécesseurs. OpenAI a rapidement réagi aux critiques des utilisateurs et a rendu la personnalité de GPT-5 beaucoup plus agréable.
En outre, OpenAI a réintroduit GPT-4o dans ChatGPT, un jour seulement après l'avoir remplacé par GPT-5. Dans un message publié sur X, le PDG d'OpenAI, Sam Altman, a confirmé que la société allait permettre aux utilisateurs payants de passer à GPT-4o après que les utilisateurs de ChatGPT aient déploré son remplacement. « Nous allons permettre aux utilisateurs Plus de choisir de continuer à utiliser 4o », déclare Altman. « Nous allons observer l'utilisation afin de déterminer pendant combien de temps nous allons proposer les anciens modèles. »
Source : Duck.ai
Et vous ?
Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
DuckDuckGo dit stop à l'invasion des images générées par IA dans les résultats de recherche en introduisant une fonctionnalité permettant de les masquer : une petite option, un grand signal pour le web
Classement des IA par QI : GPT-5 Pro en tête avec 138 points, alors que le modèle affiche des performances médiocres et est qualifié de « fiasco », ce qui remet en cause la fiabilité des tests de QI pour l'IA
OpenAI lancera dans les prochaines semaines un navigateur web qui pourrait concurrencer Google Chrome, et qui vise à utiliser l'IA pour changer radicalement la façon dont les consommateurs naviguent sur le Web
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Une IA est excellente pour appliquer des principes bien connus, et même te l'appliquer à ton contexte (il y a donc une certaine intelligence)....
Mais qu'attend on d'un doctorant ? Précisément de sortir des sentier battus !!!! Et là l'IA déclare forfait. Exemple : calculer l'intersection de deux polygones en Ada ?
Bien le doctorant !Il n'existe pas de code Ada très simple et tout fait pour l'intersection exacte de deux polygones, car c'est un problème géométrique assez complexe
(J'avais essayé Perplexity... Plus de chance avec ChatGPT qui a entendu parlé de Sutherland–Hodgman ou Weiler–Atherton... donc, il arrive à me faire quelque chose. C'est pas mal, car en imposant le language Ada qui n'est pas si mainstream que cela, il m'arrive à faire quelque chose qui compile et semble marcher... mais cela ne reste que de l'application). Rebelote en OCaml... même résultat ! Donc certes il y a une "certaine intelligence" qui permet d'appliquer un sujet connu à un contexte personnalisé... mais de là à en faire un doctorant, il y a un pas que je ne franchirait pas.
DuckDuckGo ajoute l'accès à des modèles d'IA à son offre d'abonnement : la plateforme Duck.ai vous permet d'utiliser les modèles GPT-4o et GPT-5 d'OpenAI, Claude Sonnet 4 d'Anthropic et Llama Maverick de Meta
DuckDuckGo a élargi son service d'abonnement pour inclure l'accès à des modèles d'intelligence artificielle (IA) de pointe tels que GPT-4o et GPT-5 d'OpenAI, Claude Sonnet 4 d'Anthropic et Llama Maverick de Meta. Le forfait, au prix de 9,99 dollars par mois, conserve les fonctionnalités existantes telles que le VPN et la protection de l'identité, tandis que la société annonce de futurs niveaux premium offrant des options d'IA plus avancées.
DuckDuckGo est une société américaine de logiciels spécialisée dans la confidentialité en ligne, dont le produit phare est un moteur de recherche appelé DuckDuckGo. Fondée par Gabriel Weinberg en 2008, elle a ensuite développé des extensions pour navigateurs et un navigateur web DuckDuckGo personnalisé. Basée à Paoli, en Pennsylvanie, DuckDuckGo est une société privée qui emploie environ 200 personnes. Le nom de la société fait référence au jeu pour enfants « duck, duck, goose ».
Cette récente initiative fait suite à la décision prise précédemment par DuckDuckGo de rendre GPT-5 d'OpenAI accessible gratuitement via Duck.ai, aux côtés de GPT-4o, Claude Haiku 3.5, Mistral Small 3 et Llama 4 Scout. La plateforme, accessible directement via le web, met l'accent sur l'anonymat et se positionne comme un point d'entrée axé sur la confidentialité vers les principaux modèles d'IA.
Plus récemment, DuckDuckGo a élargi son abonnement payant, anciennement connu sous le nom de Privacy Pro, afin d'inclure des modèles d'IA avancés provenant de fournisseurs de premier plan tels que OpenAI, Anthropic et Meta. Grâce à la plateforme Duck.ai, les abonnés peuvent désormais utiliser des outils d'IA tels que GPT-4o et GPT-5 d'OpenAI, Claude Sonnet 4 d'Anthropic et Llama Maverick de Meta.
Le prix de l'abonnement reste inchangé. Les utilisateurs continuent de payer 9,99 $ par mois ou 99 $ par an. En plus des nouvelles offres d'IA, l'abonnement donne toujours accès au réseau privé virtuel (VPN) de DuckDuckGo, à la suppression des informations personnelles et aux services de restauration en cas d'usurpation d'identité.
Tout en présentant ces améliorations, DuckDuckGo a fait part de son intention de proposer à l'avenir des niveaux d'abonnement plus élevés. Ces options à venir devraient donner accès à des modèles d'IA encore plus puissants.
Les utilisateurs qui préfèrent une expérience sans IA conservent le contrôle de leurs paramètres. Les fonctionnalités de Duck.ai restent facultatives pour tous, quel que soit le statut de l'abonnement. Les boutons IA et les fonctionnalités associées peuvent également être masqués directement dans les paramètres de recherche, ainsi que sur les navigateurs de bureau et mobiles.
Alors que DuckDuckGo ajoute l'accès à des modèles d'IA avancés, l'adoption plus large de ces outils relance le débat sur la « théorie de l'Internet mort ». Cette théorie affirme qu'une grande partie des contenus et des personnes présentes en ligne sont en réalité générés automatiquement par des ordinateurs.
Selon Sam Altman, le patron de ChatGPT, la « théorie de l'Internet mort » pourrait contenir une part de vérité, même si elle a souvent été réfutée. Elle est devenue encore plus pertinente avec le lancement de SocialAI, une application de réseaux sociaux dans laquelle les utilisateurs interagissent exclusivement avec des chatbots d'IA.
Source : DuckDuckGo
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de DuckDuckGo cohérente ou pertinente ?
Voir aussi :
DuckDuckGo dit stop à l'invasion des images générées par IA dans les résultats de recherche en introduisant une fonctionnalité permettant de les masquer : une petite option, un grand signal pour le web
DuckDuckGo lance AI Chat pour une interaction anonyme avec des modèles d'IA populaires, les chats sont privés, anonymes et ne sont pas utilisés pour l'entraînement des modèles d'IA
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Le dernier modèle de ChatGPT extrait discrètement des informations de Grokipedia d'Elon Musk, suscitant l'inquiétude des chercheurs quant à l'introduction subtile de désinformations dans les réponses de l'IA
La dernière version de ChatGPT soulève de nouvelles inquiétudes parmi les chercheurs après que des tests ont montré qu'elle puisait discrètement des informations sur Grokipedia, une encyclopédie en ligne générée par l'intelligence artificielle (IA) et gérée par la société xAI d'Elon Musk. Lors de tests menés par The Guardian, le modèle GPT-5.2 d'OpenAI a cité Grokipedia à plusieurs reprises pour répondre à des questions factuelles sur des sujets sensibles, notamment les institutions politiques iraniennes et le parcours de personnes liées à des affaires de négationnisme. Ces résultats ont relancé l'examen de la manière dont les systèmes d'IA générative sélectionnent et valident leurs sources.
OpenAI est une organisation américaine de recherche en IA composée à la fois d'une fondation à but non lucratif et d'une société d'intérêt public (PBC) à but lucratif contrôlée, dont le siège social est situé à San Francisco, en Californie. Elle vise à développer une IA générale (AGI) « sûre et bénéfique », qu'elle définit comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches à forte valeur économique ». OpenAI est largement reconnu pour avoir développé la famille GPT de grands modèles de langage (LLM), la série DALL-E de modèles de conversion texte-image et un modèle de conversion texte-vidéo appelé Sora.
ChatGPT est un chatbot d'IA générative développé par OpenAI. Il a été lancé en novembre 2022. Il utilise des transformateurs génératifs pré-entraînés (GPT), tels que GPT-5, pour générer du texte, de la parole et des images en réponse aux demandes des utilisateurs. On lui attribue le mérite d'avoir accéléré le boom de l'IA, une période caractérisée par des investissements rapides et l'attention du public envers le domaine de l'IA. OpenAI exploite ce service selon un modèle freemium. Les utilisateurs peuvent interagir avec ChatGPT par le biais de requêtes textuelles, audio et visuelles.
Les inquiétudes concernant les sources utilisées par ChatGPT contrastent avec les récentes promesses d’OpenAI concernant ses modèles d’IA. En août 2025, OpenAI a dévoilé GPT-5, la dernière version de son chatbot IA, qui serait capable de fournir une expertise de niveau doctorat. Sam Altman, le dirigeant d'OpenAI, a décrit ce modèle comme « plus intelligent, plus rapide et plus utile », et a notamment promis qu'il réduirait les phénomènes d'hallucinations et améliorerait la qualité des réponses factuelles.
Cependant, la dernière version de ChatGPT commence à puiser des informations dans une source inattendue, ce qui inquiète les chercheurs. Des tests montrent en effet que le dernier modèle GPT-5.2 d'OpenAI a commencé à citer Grokipedia, une encyclopédie en ligne dont les entrées sont créées et éditées par l'IA Grok d'Elon Musk, comme source pour toute une série de questions factuelles. Celles-ci portent notamment sur des sujets sensibles tels que les institutions politiques iraniennes et même le parcours de personnes liées à des affaires de négationnisme.
Grok est un chatbot d'IA générative développé par xAI. Il tire son nom du verbe « grok », inventé par l'auteur américain Robert A. Heinlein pour décrire une forme de compréhension. Grok a été lancé en novembre 2023 par Elon Musk dans le cadre d'une initiative basée sur le LLM du même nom. Le chatbot a généré diverses réponses controversées, notamment des théories du complot, des éloges à l'égard d'Adolf Hitler, des propos antisémites et la création d'images non consensuelles et sexualisées de femmes et d'enfants dénudés. Les mises à jour effectuées depuis 2023 ont fait basculer Grok vers la droite sur le plan politique afin de fournir des réponses conservatrices aux questions des utilisateurs.
Lors de tests menés par The Guardian, ChatGPT a fait référence à Grokipedia à neuf reprises pour répondre à une douzaine de questions. Certaines portaient sur le fonctionnement du système politique iranien, notamment sur les détails concernant la force paramilitaire Basij et la propriété de fondations puissantes. D'autres concernaient Sir Richard Evans, un historien britannique qui a témoigné en tant qu'expert contre David Irving, négationniste de l'Holocauste, dans une affaire de diffamation très médiatisée.
Grokipedia a été lancé en octobre pour concurrencer Wikipédia, mais son fonctionnement est très différent. Contrairement à Wikipédia, il ne peut pas être modifié directement par des humains. Un modèle d'IA rédige les articles et répond aux demandes de modification. Le projet a déjà été critiqué pour avoir promu des opinions de droite sur des sujets tels que le mariage homosexuel et l'attaque du Capitole américain du 6 janvier.
Ce qui est frappant, c'est la manière dont Grokipedia apparaît dans les réponses de ChatGPT. Lorsque le chatbot a été interrogé directement sur des informations erronées bien connues, telles que les allégations concernant le parti pris des médias à l'égard de Donald Trump ou les fausses informations sur le VIH et le sida, il n'a pas cité Grokipedia. En revanche, l'encyclopédie est apparue lorsque ChatGPT a été interrogé sur des sujets plus obscurs ou techniques.
Dans un exemple, ChatGPT a répété des affirmations plus fortes que celles trouvées sur Wikipédia concernant les liens entre le gouvernement iranien et la société de télécommunications MTN-Irancell. Il a également cité Grokipedia en répétant des détails sur Sir Richard Evans qui avaient déjà été démentis.
Grokipedia n'apparaît pas seulement dans ChatGPT. Selon certaines informations, le chatbot Claude d'Anthropic aurait également fait référence à cette même source sur des sujets allant de la production pétrolière à la bière écossaise.
Un porte-parole d'OpenAI a déclaré que ChatGPT avait pour objectif de puiser dans un large éventail de sources accessibles au public et utilisait des filtres de sécurité pour réduire les contenus préjudiciables, tout en indiquant clairement la provenance des informations.
Les experts en désinformation restent inquiets. Ils avertissent qu'une fois que des informations douteuses se glissent dans les systèmes d'IA, elles peuvent se propager discrètement et devenir difficiles à supprimer. Lorsque les gens voient une source citée par un chatbot IA, ils peuvent supposer qu'elle a été vérifiée et qu'elle est fiable.
Selon les chercheurs, c'est là que réside le véritable risque. Les outils d'IA tels que ChatGPT deviennent des sources de connaissances quotidiennes. S'ils commencent à traiter des sources peu crédibles comme fiables, même de manière subtile, la désinformation pourrait connaître un nouvel essor considérable.
La controverse autour de l’utilisation de Grokipedia par ChatGPT ravive par ailleurs les critiques concernant les pratiques de cette encyclopédie. Lancée par la société xAI d'Elon Musk comme une alternative « améliorée » à Wikipédia, Grokipedia a rapidement été mise en cause pour ses procédés éditoriaux. Des enquêtes ont en effet révélé que plusieurs articles de Grokipedia reprenaient mot pour mot le contenu de Wikipédia, avec des similitudes allant jusqu’à la structure et aux sauts de ligne. Pour la Fondation Wikimedia, cet épisode illustre les limites actuelles des projets d'IA qui cherchent à se substituer aux bases de connaissances collaboratives, tout en restant fortement dépendants des contenus qu'ils prétendent améliorer ou remplacer.
Source : Tests effectués par The Guardian
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous les conclusions des tests réalisés par The Guardian crédibles ou pertinentes ?
Voir aussi :
Le PDG de Tesla, Elon Musk, a vivement critiqué le chatbot ChatGPT d'OpenAI, le qualifiant de « diabolique » : « C'est diabolique. ChatGPT d'OpenAI a convaincu un homme de commettre un meurtre-suicide ! »
OpenAI publie GPT-5.2 après une alerte de type « code rouge » déclenchée par Google. L'entreprise affirme que son nouveau modèle d'IA surpasse Gemini et égale les humains sur 70 % des tâches professionnelles
Grokipedia s'approvisionne en infos auprès du plus grand forum néonazi sur Internet, selon des chercheurs. La France va enquêter sur le chatbot Grok après des accusations de négationnisme de l'Holocauste
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Partager