Cela pollue plus qu’une centrale à charbon, ou le recyclage d’une voiture électrique ?
Discussion :
Cela pollue plus qu’une centrale à charbon, ou le recyclage d’une voiture électrique ?
Sora 2 et ChatGPT consomment tellement d'énergie qu'OpenAI vient de conclure un autre contrat de 10 gigawatts, l'accord avec Broadcom permettrait d'alimenter en électricité pas moins de 8 millions de foyers.
OpenAI s'associe à Broadcom pour concevoir et développer des puces et des systèmes d'IA personnalisés de 10 gigawatts, une quantité d'énergie colossale qui consommera autant d'électricité qu'une grande ville. « Le partenariat avec Broadcom est une étape cruciale dans la mise en place de l'infrastructure nécessaire pour libérer le potentiel de l'IA et offrir des avantages réels aux particuliers et aux entreprises », a déclaré Sam Altman, cofondateur et PDG d'OpenAI.
En janvier, un rapport de SambaNova a révélé que les entreprises ignorent la consommation d'énergie des systèmes d'IA qu'elles déploient. Seulement 13 % des entreprises surveillent la consommation d'énergie de leur IA, même si 49,8 % d'entre elles se disent préoccupées par les problèmes d'énergie et d'efficacité posés par l'IA. Pour 20,3 % des entreprises, l'augmentation des coûts de l'énergie est considérée comme un problème urgent.
Face à cette situation, OpenAI s'associe à Broadcom pour concevoir et développer des puces et des systèmes d'IA personnalisés de 10 gigawatts, une quantité d'énergie colossale qui consommera autant d'électricité qu'une grande ville. Cette initiative souligne encore davantage l'intensité énergétique du boom de l'IA. « Le partenariat avec Broadcom est une étape cruciale dans la mise en place de l'infrastructure nécessaire pour libérer le potentiel de l'IA et offrir des avantages réels aux particuliers et aux entreprises », a déclaré Sam Altman, cofondateur et PDG d'OpenAI.
Il s'agit du dernier partenariat en date entre OpenAI et une entreprise de puces de renom, après ceux conclus avec Nvidia et AMD, alors que l'entreprise cherche à obtenir davantage de ressources informatiques pour répondre aux besoins de sa base d'utilisateurs en pleine croissance. ChatGPT compte désormais 800 millions d'utilisateurs hebdomadaires, et un dirigeant a suggéré sur X que l'application de génération de vidéos Sora, récemment lancée, connaît une croissance plus rapide que ChatGPT.
Le déploiement de l'accélérateur d'IA et des systèmes réseau devrait commencer au second semestre 2026. L'accord avec Broadcom consommerait autant d'électricité que 8 millions de foyers américains, ce qui soulève des inquiétudes quant à l'impact de l'IA sur l'environnement. Un rapport du ministère américain de l'Énergie publié en 2024 sur la consommation énergétique des centres de données a révélé que ceux-ci devraient consommer environ 6,7 % à 12 % de l'électricité totale des États-Unis d'ici 2028, contre 4,4 % en 2023.
Altman avait précédemment déclaré qu'une requête ChatGPT moyenne consommait autant d'énergie qu'une ampoule en quelques minutes. Mais la génération de clips vidéo réalistes à l'aide de modèles plus avancés comme Sora 2 est probablement beaucoup plus gourmande en énergie.
OpenAI s'appuie sur des partenaires tels que Nvidia pour les puces nécessaires au fonctionnement des centres de données IA. Mais la création d'accélérateurs IA personnalisés (ou puces) permettra à OpenAI de jouer un rôle plus important dans le matériel nécessaire au fonctionnement des services IA tels que ChatGPT. OpenAI l'a reconnu dans son communiqué de presse annonçant l'accord, dans lequel la société indique qu'elle « peut intégrer directement dans le matériel ce qu'elle a appris en développant des modèles et des produits de pointe, ouvrant ainsi la voie à de nouveaux niveaux de capacité et d'intelligence ».
Cette annonce fait suite à la déclaration du PDG de Broadcom, Hock Tan, lors de la présentation des résultats financiers de la société, selon laquelle celle-ci avait conclu un nouveau contrat de 10 milliards de dollars avec un client qui serait OpenAI. Après l'annonce de l'accord, les actions de Broadcom ont bondi de 12 %.
Voici le communiqué d'OpenAI :
OpenAI et Broadcom annoncent une collaboration stratégique pour déployer 10 gigawatts d'accélérateurs IA conçus par OpenAI
Ce partenariat pluriannuel permettra à OpenAI et Broadcom de fournir des accélérateurs et des systèmes réseau pour les clusters IA de nouvelle génération.
OpenAI et Broadcom ont annoncé aujourd'hui une collaboration portant sur 10 gigawatts d'accélérateurs IA personnalisés. OpenAI concevra les accélérateurs et les systèmes, qui seront développés et déployés en partenariat avec Broadcom. En concevant ses propres puces et systèmes, OpenAI peut intégrer directement dans le matériel ce qu'elle a appris en développant des modèles et des produits de pointe, ce qui lui permet d'atteindre de nouveaux niveaux de capacité et d'intelligence. Les racks, entièrement dimensionnés avec Ethernet et d'autres solutions de connectivité de Broadcom, répondront à la demande mondiale croissante en matière d'IA, avec des déploiements dans les installations d'OpenAI et les centres de données de ses partenaires.
OpenAI et Broadcom ont conclu des accords de longue date pour le co-développement et la fourniture d'accélérateurs d'IA. Les deux sociétés ont signé un protocole d'accord pour déployer des racks intégrant les accélérateurs d'IA et les solutions réseau de Broadcom.
« Le partenariat avec Broadcom est une étape cruciale dans la mise en place de l'infrastructure nécessaire pour libérer le potentiel de l'IA et offrir des avantages réels aux particuliers et aux entreprises », a déclaré Sam Altman, cofondateur et PDG d'OpenAI. « Le développement de nos propres accélérateurs vient s'ajouter à l'écosystème plus large de partenaires qui développent tous les capacités nécessaires pour repousser les limites de l'IA afin d'offrir des avantages à l'humanité tout entière. »
« La collaboration entre Broadcom et OpenAI marque un tournant décisif dans la quête de l'intelligence artificielle générale », a déclaré Hock Tan, président et PDG de Broadcom. « OpenAI est à l'avant-garde de la révolution de l'IA depuis le lancement de ChatGPT, et nous sommes ravis de co-développer et de déployer 10 gigawatts d'accélérateurs et de systèmes réseau de nouvelle génération afin d'ouvrir la voie à l'avenir de l'IA. »
« Notre collaboration avec Broadcom permettra de réaliser des percées dans le domaine de l'IA et de rapprocher le plein potentiel de cette technologie de la réalité », a déclaré Greg Brockman, cofondateur et président d'OpenAI. « En construisant notre propre puce, nous pouvons intégrer directement dans le matériel ce que nous avons appris en créant des modèles et des produits de pointe, ce qui nous permet d'atteindre de nouveaux niveaux de capacité et d'intelligence. »
« Notre partenariat avec OpenAI continue d'établir de nouvelles références dans le secteur pour la conception et le déploiement de clusters d'IA ouverts, évolutifs et économes en énergie », a déclaré Charlie Kawwas, Ph. D., président du groupe Semiconductor Solutions de Broadcom. « Les accélérateurs personnalisés s'associent remarquablement bien aux solutions de réseau Ethernet évolutives et extensibles basées sur des normes pour fournir une infrastructure IA de nouvelle génération optimisée en termes de coûts et de performances. Les racks comprennent la gamme complète de solutions de connectivité Ethernet, PCIe et optique de Broadcom, réaffirmant ainsi notre leadership dans le domaine des infrastructures IA. »
Pour Broadcom, cette collaboration renforce l'importance des accélérateurs personnalisés et le choix de l'Ethernet comme technologie pour les réseaux évolutifs et extensibles dans les centres de données IA.
OpenAI compte désormais plus de 800 millions d'utilisateurs actifs par semaine et est largement adopté par les entreprises mondiales, les petites entreprises et les développeurs. Cette collaboration aidera OpenAI à faire progresser sa mission qui consiste à garantir que l'intelligence artificielle générale profite à toute l'humanité.
Cette accord rappelle que l'IA fait désormais partie intégrante de notre quotidien, mais son utilisation croissante a engendré un coût climatique énorme. Selon Jon Ippolito, professeur à l'université du Maine, une instruction générative (prompt) complexe consommerait jusq'à 210 fois plus d'énergie qu'une recherche Google sans IA, et une vidéo IA de 3 secondes consommerait 15 000 fois plus d'énergie. Alors que la demande en IA augmente, les experts avertissent que cette technologie met à rude épreuve les réseaux électriques, intensifie les risques climatiques et soulève des questions sur l'utilisation durable de cette technologie.
En effet, les systèmes d'IA nécessitent d'énormes quantités d'énergie et d'eau pour être construits et fonctionner. Et une fois déployés, ils peuvent émettre plusieurs tonnes de dioxyde de carbone (CO2) par jour. La chercheuse en IA Sasha Luccioni a déclaré que « l'IA générative accélère la crise climatique », ajoutant qu'il est particulièrement décevant que les gens utilisent l'IA pour faire des recherches sur Internet. Elle avertit que l'IA générative consomme 30 fois plus d'énergie qu'un moteur de recherche, ce qui constitue un danger pour l'environnement.
Source : OpenAI
Et vous ?
Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Le projet d'IA à 100 milliards de dollars d'OpenAI et NVIDIA nécessitera une puissance équivalente à celle de 10 réacteurs nucléaires. « C'est un projet gigantesque », a reconnu le PDG de NVIDIA Jensen Huang
L'IA pourrait engloutir un quart de l'électricité produite aux États-Unis d'ici 2030 si elle ne se défait pas de sa grande dépendance à l'égard de l'énergie, affirme un cadre d'Arm Holdings
L'appétit énergétique des centres de données pour l'IA force la relance des vieilles centrales à charbon à forte intensité carbone, ce qui compromet les objectifs climatiques des entreprises technologiques
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Le coût caché des requêtes ChatGPT : 2,5 milliards de requêtes par jour, consommant environ 850 mégawattheures d'électricité, soit l'énergie nécessaire pour recharger 14 000 véhicules électriques
Lorsque vous dites un simple « Bonjour » à ChatGPT, cela semble anodin. Mais derrière cette réponse instantanée se cache un réseau mondial de serveurs tournant à plein régime, consommant des quantités d'énergie colossales. La facilité de la conversation cache une infrastructure gigantesque qui alimente chaque jour des milliards d'interactions avec l'IA. Bien qu'OpenAI ne divulgue pas la consommation d'énergie de son chatbot, des estimations suggèrent que les 2,5 milliards de requêtes traitées quotidiennement par ChatGPT consommeraient jusqu'à 850 mégawattheures, soit suffisamment pour recharger des milliers de véhicules électriques chaque jour.
L'IA générative repose sur une énorme infrastructure matérielle et énergétique. Toutefois, un rapport publié par SambaNova en janvier 2025 révèle que les entreprises ignorent la consommation d'énergie des systèmes d'IA qu'elles déploient. Seulement 13 % des entreprises surveillent la consommation d'énergie de leurs systèmes, même si 49,8 % d'entre elles se disent préoccupées par l'appétit énergétique et les problèmes d'efficacité posés par l'IA.
OpenAI ne divulgue que peu d'informations sur ses activités, mais les sorties du PDG Sam Altman et les billets de blogues de l'entreprise permettent de glaner quelques informations sur la consommation énergétique de ChatGPT. Sam Altman a laissé entendre qu'une requête moyenne consomme 0,34 Wh.
La puissance énergétique derrière une requête
OpenAI affirme que ChatGPT compte 700 millions d'utilisateurs hebdomadaires et traite plus de 2,5 milliards de requêtes par jours. Si une requête moyenne consomme 0,34 Wh, cela représente 850 mégawattheures. Cela équivaut à peu près à recharger des milliers de véhicules électriques ou à éclairer une petite ville. Certains chercheurs affirment que les modèles les plus intelligents peuvent consommer plus de 20 Wh lorsqu'il s'agit d'une requête complexe.
Avec 2,5 milliards de requêtes par jour, cela représente près de 1 000 milliards de requêtes par an, et ChatGPT pourrait facilement dépasser ce chiffre en 2025 si sa base d'utilisateurs continue de croître rapidement. À l'échelle annuelle, l'activité de ChatGPT avoisine 310 gigawattheures ; c'est autant d'énergie pour alimenter 29 000 foyers américains pendant une année entière, soit presque autant que la population de Jonesboro, dans l'Arkansas.
Bien que massif, ChatGPT n'est qu'une partie de l'IA générative. De nombreuses entreprises utilisent les modèles d'OpenAI via l'API, et des rivaux tels que Gemini de Google et Claude d'Anthropic se développent. En bref, l'IA n'est pas seulement gourmande en calcul, elle est également très coûteuse en énergie.
Les futurs centres de données Stargate d'OpenAI
Le projet Stargate a été annoncé le 22 janvier 2025 par le président Donald Trump. Selon son annonce, OpenAI, Softbank et Oracle vont investir jusqu'à 500 milliards de dollars pour créer une coentreprise appelée Stargate. Cette dernière construira l'infrastructure physique et virtuelle qui alimentera la prochaine génération d'IA, y compris des centres de données dans tout le pays. Le projet vise à permettre aux États-Unis de dominer le secteur de l'IA.
Dans le cadre du projet Stargate, OpenAI et ses partenaires vont construire des centres de données « de classe Stargate » d'une puissance de 1 gigawatt, les plus grandes installations d'IA jamais imaginées. Chacun de ces mégacentres pourrait consommer 8,76 térawattheures par an, d'un réacteur nucléaire entier.
La demande mondiale en infrastructures d'IA est si importante que les experts estiment que nous aurons besoin de 38 centres de données de ce type d'ici 2030 rien que pour répondre à l'utilisation prévue. Cette expansion rapide souligne une vérité plus large : l'IA n'est pas seulement une révolution logicielle, c'est aussi une révolution physique, fondée sur l'acier, le silicium et d'énormes flux d'énergie. Certains mettent toutefois en garde contre une bulle.
Selon un rapport de la Schneider Electric Sustainability Research Institute, en 2025, l'IA générative dans son ensemble devrait consommer 15 térawattheures d'électricité par an. Mais d'ici à 2030, ce chiffre pourrait passer à 347 térawattheures, soit une multiplication par 23. Cela équivaut à la production annuelle de 44 réacteurs nucléaires.
Augmentation de la demande en matière d'IA
La Schneider Electric Sustainability Research Institute s'attend à ce que le nombre moyen de requêtes quotidiennes augmente considérablement au cours des cinq prochaines années. Selon une estimation de l'organisation concernant la consommation énergétique globale à l'horizon 2030, le monde pourrait alors enregistrer jusqu'à 329 milliards de requêtes par jour, soit environ 38 requêtes par jour et par personne vivant sur la planète Terre.
Cela représente au total environ 120 000 milliards de requêtes par an. (Ce chiffre repose sur l'hypothèse d'une population mondiale de 8,6 milliards d'individus en 2030, selon les dernières estimations des Nations Unies.) Aussi irréaliste que cela puisse paraître, cette prévision est rendue plausible par les projets de création d'agents IA capables de fonctionner de manière indépendante et d'interagir avec d'autres agents IA.
Le NERC (North American Electric Reliability Corporation), un organisme de surveillance américain, prévient que la demande en IA et en cryptomonnaie pourrait peser sur les réseaux électriques américains et canadiens. L'IA pourrait consommer 8 % de l'électricité américaine d'ici à 2030 et le minage de bitcoins ajoute une pression supplémentaire. Les véhicules électriques et les projets d'énergie solaire retardés aggravent également la pression sur le réseau.
De plus, certains centres de données nécessitent d'énormes quantités d'eau pour refroidir les serveurs, ce qui accroit la pression sur les sources d'eau et pollue les nappes phréatiques. Lors des journées chaudes, un seul centre de données peut utiliser des millions de litres d'eau. Selon une étude, les centres de données pour l'IA pourraient consommer une quantité d'eau phénoménale d'ici à 2027, soit environ 6 435 milliards de litres d’eau dans le monde.
Le retour en grâce des vieilles centrales à charbon polluantes
Dans une interview accordée à l'AFP en septembre 2024, la chercheuse en IA Sasha Luccioni a déclaré que « l'IA générative accélère la crise climatique en raison de son appétit énergétique ». Sasha Luccioni estime qu'il est particulièrement décevant que les gens utilisent l'IA pour faire des recherches sur Internet. Elle avertit que l'IA générative consomme 30 fois plus d'énergie qu'un moteur de recherche, ce qui constitue un danger pour l'environnement.
Aux États-Unis, les centres de données connaissent une transition importante vers l'énergie produite à partir du charbon en raison de la hausse des prix du gaz naturel et de la croissance rapide de la demande en électricité. Selon la société de services financiers Jefferies, les opérateurs de centres de données se précipitent pour connecter de nouvelles capacités au réseau électrique, avec une croissance accélérée de la charge prévue pour la période 2026-2028.
Cette hausse de la demande entraîne une reprise inattendue de la production de charbon, qui a augmenté de près de 20 % depuis le début de l'année 2025. Jefferies indique : « nous relevons notre estimation de la production d'électricité à partir du charbon d'environ 11 % (en raison de facteurs de capacité plus élevés) et prévoyons qu'elle restera élevée jusqu'en 2027 grâce à des prix du combustible favorables par rapport au gaz (en particulier pour le parc existant) ».
Des avertissements ont été lancés en 2024, indiquant que la demande énergétique croissante due à la prolifération des centres de données aux États-Unis risquait de dépasser la capacité de production disponible, ce qui pourrait prolonger la durée de vie des vieilles centrales à charbon polluantes.
À Omaha, une compagnie d'électricité a renoncé à son projet d'arrêter de brûler du charbon pour produire de l'électricité, invoquant la nécessité d'alimenter les centres de données situés à proximité. La compagnie a estimé que la mise hors service des générateurs à charbon de la centrale électrique de North Omaha risquait d'entraîner des pénuries d'électricité dans le district, compte tenu des besoins énergétiques croissants de ces installations.
Impacts de ce revirement sur le climat et l'environnement
Plusieurs compagnies d'électricité retardent la mise à la retraite des centrales à charbon, malgré l'impact environnemental et climatique. La combustion continue du charbon affecte la qualité de l'air local à proximité des centrales électriques et entrave les efforts plus larges visant à réduire les émissions de gaz à effet de serre. Le groupe militant Greenpeace a qualifié le charbon de « moyen de production d'énergie le plus sale et le plus polluant ».
Les défenseurs de l'environnement avertissent que cela pourrait compromettre les objectifs climatiques des États-Unis, les émissions de charbon pouvant augmenter de 10 à 15 % dans les États clés d'ici 2026. Pourtant, pour les opérateurs, le calcul est simple : les modèles d'entraînement de l'IA exigent une alimentation électrique constante et ininterrompue que l'énergie solaire ou éolienne ne peut pas toujours garantir sans d'énormes batteries de secours.
L'impact environnemental s'étend à l'échelle mondiale. Sasha Luccioni a déclaré que les outils d'IA peuvent émettre plusieurs tonnes de CO₂ par jour et ajoute que l'utilisation des chatbots d'IA générative comme outil de recherche en ligne pourrait avoir de graves conséquences sur l'environnement et le climat. « Je trouve particulièrement décevant que l'IA générative soit utilisée pour faire des recherches sur Internet », a déploré la scientifique au micro de l'AFP.
Un rapport de Morgan Stanley publié en 2024 prévoit que les centres de données émettront jusqu'à 2,5 milliards de tonnes de gaz à effet de serre dans le monde d'ici 2030, soit trois fois plus que les émissions qui auraient été produites sans le développement de la technologie d'IA générative.
Les générateurs à turbine alimentés au gaz naturel étaient le choix privilégié pour alimenter le boom actuel de la construction de centres de données, d'autant plus qu'ils peuvent être installés directement sur le campus pour assurer une production locale. Mais les prix actuels du gaz ont rendu cette option moins intéressante sur le plan économique. Les promoteurs privilégient les sources d'énergie facilement disponibles pour leur construction initiale.
Conclusion : un enjeu environnemental et économique majeur
Bien que les estimations concernant la consommation énergétique de l'IA en 2030 varient, la plupart prévoient une augmentation spectaculaire de la consommation. Celle-ci sera principalement due à l'inférence (l'énergie utilisée lors de l'interaction avec un modèle) plutôt qu'à l'entraînement de l'IA. Ce chiffre pourrait être bien inférieur ou bien supérieur aux estimations, en fonction du succès des agents IA capables de travailler ensemble de façon autonome.
Il est facile d'imaginer l'intelligence numérique comme quelque chose d'immatériel et de propre, mais chaque mot échangé avec un modèle d'IA a des répercussions sur un vaste système matériel. Les réseaux électriques sont sollicités, l'eau refroidit les puces surchauffées et l'empreinte carbone augmente. Les gains d'efficacité aideront probablement, mais ils ne compenseront peut-être pas la croissance explosive de la demande pour les outils d'IA.
La vraie question est de savoir si nous pouvons concevoir des systèmes plus intelligents, tant sur le plan technologique qu'éthique, qui permettent de poursuivre la conversation sans épuiser la planète. Les entreprises d'IA semblent très peu s'intéresser à ces questions à l'heure actuelle.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la consommation d'énergie de l'IA générative ?
Voir aussi
OpenAI, Oracle et SoftBank annoncent leur intention de créer cinq nouveaux centres de données d'IA aux USA, afin de concrétiser l'ambitieux projet Stargate de Donald Trump, d'une valeur de 500 milliards de $
Sora 2 et ChatGPT consomment tellement d'énergie qu'OpenAI vient de conclure un autre contrat de 10 gigawatts, une quantité d'énergie colossale qui consommera autant d'électricité qu'une grande ville
Quelle est la consommation d'énergie de votre IA ? La plupart des entreprises l'ignorent, car seulement 13 % surveillent la consommation d'énergie de leur IA, malgré l'escalade de la demande en énergie
La feuille de route de l'administration Trump accélère le développement de l'énergie de fusion nucléaire pour alimenter les infrastructures d'IA, mais le manque de financement soulève des doutes
La feuille de route de l'administration Trump accélère le développement de l'énergie de fusion nucléaire pour alimenter les infrastructures d'IA, avec pour objectif la mise en service des premières centrales d'ici le milieu des années 2030 grâce à un cadre « Build–Innovate–Grow » (Construire–Innover–Croître) intégrant les efforts publics et privés. Cependant, le manque de financement et l'absence de soutien du Congrès soulèvent des doutes quant à sa faisabilité.
En 2024, Sam Altman, PDG d'OpenAI, a déclaré qu'une percée dans la fusion nucléaire est nécessaire pour faire face aux besoins énergétiques croissants de l'IA et réduire son empreinte carbone. Toutefois, les experts affirment que la fusion nucléaire est hors de portée à l'heure actuelle. Pour beaucoup d'entre eux, la fusion nucléaire fait l’objet d’une compétition plus diplomatique qu’industrielle et la plupart des recherches restent théoriques. Ils estiment que la fusion nucléaire est déjà trop tardive pour faire face à la crise climatique et qu'à court terme, il faudra utiliser les technologies existantes à faible teneur en carbone, telles que la fission et les énergies renouvelables.
Malgré ces critiques, l'administration Trump a récemment dévoilé une feuille de route ambitieuse visant à accélérer le développement de l'énergie de fusion nucléaire, la positionnant comme la pierre angulaire de l'alimentation de l'infrastructure florissante de l'IA du pays. Publiée par le ministère de l'Énergie, cette stratégie décrit la voie à suivre pour déployer la première génération de centrales à fusion d'ici le milieu des années 2030, en mettant l'accent sur un cadre « Construire-Innover-Croître » qui vise à aligner les investissements publics sur l'innovation du secteur privé. Cependant, les initiés familiers avec la politique énergétique notent que ce plan arrive dans un contexte de déficit de financement important, ce qui soulève des questions quant à sa faisabilité sans un soutien substantiel du Congrès.
Cette feuille de route vise essentiellement à répondre à la demande énergétique croissante des centres de données d'IA, qui devraient consommer d'énormes quantités d'électricité au cours de la prochaine décennie. Le document souligne le potentiel de la fusion pour fournir une énergie propre et illimitée, contrastant avec la dépendance actuelle aux combustibles fossiles et aux énergies renouvelables intermittentes. Cependant, l'initiative manque de moyens financiers pour respecter son calendrier ambitieux, les critiques soulignant l'absence de mécanismes de financement détaillés ou d'allocations budgétaires immédiates.
Les experts du secteur affirment que sans crédits spécifiques, la feuille de route risque de devenir un nouveau document ambitieux dans un domaine longtemps en proie à des promesses excessives. Le plan prévoit des recherches avancées dans le domaine du calcul haute performance et de l'IA afin d'optimiser la conception des réacteurs à fusion, en s'appuyant sur les enseignements tirés de projets tels que l'ITER, l'expérience internationale de fusion. Mais les budgets fédéraux consacrés à la fusion ont toujours été modestes, oscillant autour d'un milliard de dollars par an, ce qui est bien en deçà de ce qui est nécessaire pour un déploiement à l'échelle commerciale.
Des entreprises privées, notamment des start-ups telles que Commonwealth Fusion Systems et TAE Technologies, investissent déjà massivement, mais la feuille de route envisage un effort national plus coordonné. La stratégie intègre le calcul haute performance pour simuler les comportements du plasma, ce qui pourrait raccourcir les cycles de développement. Toutefois, sans nouveaux fonds, ces efforts pourraient être freinés, d'autant plus que des concurrents mondiaux tels que la Chine font progresser leurs propres programmes de fusion.
L'administration lie directement la promesse de la fusion à la croissance de l'IA, envisageant les centrales à fusion comme des fournisseurs fiables d'énergie de base pour les centres de données qui, sans cela, pourraient mettre à rude épreuve le réseau électrique. Cela s'inscrit dans la lignée des précédents décrets du président Trump visant à promouvoir l'énergie nucléaire, notamment les directives visant à accélérer les autorisations pour les petits réacteurs modulaires et les installations d'enrichissement d'uranium. Des analystes énergétiques soulignent le sentiment que cela pourrait stimuler l'innovation en matière d'IA, notant des perspectives optimistes pour les actions liées à l'uranium et aux infrastructures électriques.
Cependant, le manque de précisions de la feuille de route, notamment en ce qui concerne les étapes exactes pour les centrales pilotes ou les réformes réglementaires, a suscité le scepticisme. Elle vise à combler les lacunes technologiques connues, telles que le maintien de plasmas à haute température, mais sa mise en œuvre dépend de partenariats qui pourraient ne pas se concrétiser sans incitations fiscales.
Pour les initiés du secteur, le véritable test aura lieu lors du prochain cycle budgétaire, où les partisans espèrent obtenir des milliards de dollars de nouveaux financements. L'accent mis par le plan sur le développement de la main-d'œuvre et la collaboration internationale pourrait favoriser l'innovation, mais les précédents historiques suggèrent que la commercialisation de la fusion reste difficile à atteindre. Les responsables de l'administration Trump rétorquent que les investissements privés, stimulés par la demande en IA, combleront les lacunes, ce qui pourrait conduire à des percées d'ici 2035.
Les détracteurs mettent toutefois en garde contre une confiance excessive dans le battage médiatique sans soutien concret. Alors que la fusion se rapproche de la réalité grâce à des étapes importantes telles que le gain énergétique net au Lawrence Livermore National Laboratory, la feuille de route représente un changement politique crucial. Qu'elle propulse les États-Unis à la pointe de la fusion ou qu'elle rejoigne les annales des visions énergétiques non réalisées dépendra de la capacité à combler le fossé financier dans un Washington politiquement divisé.
Source : Feuille de route de l'administration Trump
Et vous ?
Pensez-vous que cette feille de route est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Donald Trump atomise les réglements sur le nucléaire pour accélérer la construction de centrales « pour alimenter les installations de défense critiques et les centres de données d'IA »
Le coût caché des requêtes ChatGPT : 2,5 milliards de requêtes par jour, consommant environ 850 mégawattheures d'électricité, soit l'énergie nécessaire pour recharger 14 000 véhicules électriques
L'IA a un coût climatique énorme : une instruction générative complexe consomme 210 fois plus d'énergie qu'une recherche Google, et la création d'une vidéo IA de 3 secondes consomme 15 000 fois plus d'énergie
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
S'il n'y avait que ça, mais la meilleure serait d'avoir les statistiques que les fournisseurs de service IA ne fournissent pas: A quel usage est utilisé l'IA?Le coût caché des requêtes ChatGPT : 2,5 milliards de requêtes par jour, consommant environ 850 mégawattheures d'électricité, soit l'énergie nécessaire pour recharger 14 000 véhicules électriques
Et là, vous allez fondre en larmes!!!
Parce que si je me fie aux gens que je connais, le 99% des questions relèvent simplement de la "connerie sans nom"! C'est de l'énergie dépensée pour rien alors que l'on a une planète que l'on transforme en zone inhabitable pour l'espèce humaine...
J'imagine que c'est principalement utilisé comme alternative aux moteurs de recherche.
C'est également très utile pour corriger des textes ou rédiger des e-mails.
C'est n'importe quoi, on ne peut pas planifier des percées technologiques...
Ce serait complètement débile comme dire à l'industrie automobile "en 2035 on interdit la vente de véhicule thermique neuf, démerdez-vous pour mettre en place des nouvelles technologies d'ici là".
Alors qu'on ne sait pas quand une technologie capable de remplacer le thermique arrivera, pour l'instant il n'y a rien de sérieux. (des batteries géantes ça ne peut pas être une solution)
Des entreprises travaillent sur des carburants alternatifs.
Il est peu probable que les USA réussissent à construire une centrale à fusion dans les années 1930.
À moins que des gros progrès aient été fait en secret.
Il est possible que les USA aient fait de l'espionnage industrielle et volent le travail des scientifiques chinois.
Aujourd'hui la Chine est forte en innovation technologique.
=======
Il est possible que dans le futur les centres de données consomment moins d'énergie (principalement parce que plein d'entreprises vont faire faillite et qu'il y aura donc besoin de moins de centre de données).
Cette énergie économisé pourra être utilisé pour faire autre chose (par exemple attirer les industries européennes qui ne se sont pas encore complètement installé aux USA ou recharger des véhicules électriques...).
Prions que cette nouvelle industrie ne se casse pas la gueule car les investissements en infrastructures pour les alimenter seront à financer malgré tout.
Et pourquoi donner la priorité à ces nombreux centres de données avant l'équipement des villes en forte croissance ?
Se comporter comme des macaques qui singent les USA, c'est courir à notre perte.
D'ailleurs, n'est-ce pas leur stratégie pour nous détruire ?
1995-2000 : Les autoroutes de l'information
2000-2008 : les véhicules d'investissement
2010-2019 : taux d'intérêt à zéro
2020-2021 : COVID
2020-2026 : les datas centers
https://www.lemonde.fr/pixels/articl...5_4408996.html
Il risque d'y avoir un accès à 2 vitesses aussi bien pour l'IA que pour l'énergie.
Si l'électricité devient une source rare, qui pourra payer le plus pour celle-ci et qui y aura donc accès ?
Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
Mon article sur le P2V, mon article sur le cloud
Consultez nos FAQ : Windows, Linux, Virtualisation
les pays qui auront de l'énergie déjà, les usa, la Russie, la chine par exemple.
l’Europe est déjà dans la seconde zone, elle achète a prix fort ce que le reste du monde veut bien lui donner, rendant au passage toute industrie non viable par ce cout prohibitif.
L'europe subit bien plus les sanctions contre la russie que l'inverse.
Ensuite ce sera logiquement priorité a ce qui dégage le plus de marge. Si la facture du citoyen lambda marge peu alors oui il sera le dernier servie.
Donc le citoyen européen sera à la fin de la chaine alimentaire![]()
La France est un pays qui redistribue tout sauf de l'espoir.
Il y a actuellement trop d'énergie produite par l'Allemagne qui nous la refile, production issue des éoliennes du nord, ce qui a déjà eu lieu par le passé, c'est la Pologne qui a subi le surcroît d'énergie.
Le plus gros problème du réseau européen, et des autres je suppose, je ne sais pas si d'autres pays ont trouvé une meilleure solution, est que la consommation doit être identique à la production sinon il y a une chute de tension en cas de faiblesse de production et des délestages en cas de surproduction.
Aujourd'hui les allemands nous ont imposé un coût d'énergie uniforme quelque soit le mode de production, soit disant pour éviter la concurrence déloyale du nucléaire français, car eux se fournissaient en Russie pour le gaz, pour une nation qui a une balance commerciale toujours largement positive, c'est fort de café, ce qui a entraîné l'envol du coût au début de la coupure des gazoducs Nordstream. L'Espagne et le Portugal, d'autres aussi, je crois, ont appliqué un tarif national pour sauvegarder leurs entreprises.
Donc aujourd'hui, la France a la possibilité d'être autonome en énergie, mais paye sur les marchés pour écouler ses pics de production des centrales, car elles ne s'éteignent pas immédiatement.
il y'a ce qui est possible de faire, et il y'a la situation actuel (et qui va le rester longtemps).
Oui comme vous dites l’Europe et la france a du potentiel pour améliorer la situation. Mais es ce que la france va le faire ? es ce que le prix de l'électricité va baisser ? je n'ai vu aucun projet allant dans ce sens. Déja la relance du nucléaire en France est très compliqué, plus aucun talents sur le marché...
au mieux se sera une promesse de campagne d'un partis politique en 2027.
Pendant ce temps les entreprises sont en train de crever (et licencie), ou alors se cassent aux usa la ou l'énergie et 2 fois moins cher.
On reste toujours sur du potentiel théorique, oui l’Europe peut produire de l’électricité à bas cout (pour le gaz et le pétrole c'est plus compliqué, gaz très importante pour l'industrie chimique, voir BASF qui se casse aux usa)
Je rappelle que BASF à plus d'un siecle, elle a survécut a 2 guerre a mondiale, la crise économique en europe de 2025 est visiblement plus dur pour elle que celle de 2008 ou la défaite d'Hitler.
J'ai vu passer un article sur duralex y'a pas longtemps, je ne vois pas a quel moment quelqu'un de sérieux peut y croire, le cout en électricité et tels que faire du verre en France est impossible (sans droit de douane).
La France est un pays qui redistribue tout sauf de l'espoir.
L'UE force EDF a vendre de l'énergie à perte sur les marchés, à cause de ces histoires de concurrence :
Cependant, les directives européennes sur la libéralisation du marché de l'énergie (depuis les années 1990) obligent la France à ouvrir la concurrence, ce qui a conduit à des mécanismes nationaux comme l'ARENH (Accès Régulé à l'Électricité Nucléaire Historique). Ce dispositif, instauré par la loi NOME de 2010 pour respecter les règles de concurrence de l'UE, contraint EDF à vendre une partie de sa production nucléaire (environ 25 % historiquement, soit 100 TWh/an) à un prix fixe bas (42 €/MWh jusqu'en 2023) à des fournisseurs alternatifs. Lorsque les prix de marché explosent (comme en 2021-2022, jusqu'à 300 €/MWh), cela génère des pertes pour EDF, car le prix ARENH est inférieur à ses coûts de production (estimés à 60 €/MWh par la CRE en 2020).La libéralisation c'est de la merde, la nationalisation c'est bien.
- Pertes pour EDF : En 2022, EDF a enregistré une perte record de 18 milliards €, en partie due à l'ARENH (subventionnant les concurrents comme TotalEnergies ou Engie). EDF a même poursuivi l'État français pour 8,3 milliards € en 2022.
- Critiques : Syndicats (CGT, FO) et analystes dénoncent un "échec de la libéralisation" imposée par l'UE, favorisant les spéculateurs au détriment du service public. Des posts récents sur X (ex-Twitter) relaient ces griefs, accusant l'UE de "détruire EDF".
La France devrait construire des centrales nucléaire, les Français devraient avoir accès à un prix du kWh très faible. Le prix du kWh TTC devrait être inférieur à 10 centimes.
Le marché union européen de l'énergie est un handicap :
On ne peut pas faire de centre de données dans l'UE, parce que l’électricité coûte trop cher.Les prix de l'électricité sur le marché européen sont fortement influencés par le système de tarification marginale (ou "merit order"). Dans ce système, le prix de l'électricité est fixé par la dernière unité d'énergie produite pour répondre à la demande, souvent la plus chère (généralement des centrales à gaz ou à charbon en période de pic). Cela signifie que le prix du gaz naturel a un impact majeur sur le prix de l'électricité, même pour des sources comme le nucléaire ou l'éolien, qui ont des coûts de production plus bas.
Deux centres de données de la Silicon Valley, d'une puissance totale de près de 100 MW, sont achevés, mais pourraient « rester inutilisés pendant des années » en raison d'un manque d'électricité
Comme le présidait Mark Zuckerberg : « l'énergie, et non la puissance de calcul, sera le premier goulot d'étranglement pour les progrès de l'IA ». Des rapports signalent que la Silicon Valley commence à manquer d'énergie électrique pour alimenter ses centres de données. À Santa Clara, en Californie, deux centres de données construits pour les charges de travail de l'ère de l'IA sont terminés, mais inutilisés faute d’alimentation électrique. Ils pourraient rester inoccupés pendant des années en raison de l'incapacité de la ville à fournir de l'électricité. Ailleurs, certains centres de données assurent leur alimentation en énergie grâce à d'anciens moteurs à réaction d'avions.
Au cœur de la Silicon Valley, à Santa Clara, Digital Realty Trust a déposé en 2019 une demande pour construire un centre de données. Près de six ans plus tard, le projet reste à l'état de coquille vide en attendant d'être entièrement alimenté en électricité. Stack Infrastructure a un projet similaire de 48 mégawatts à proximité qui est également vide, tandis que le fournisseur d'électricité municipal, Silicon Valley Power, peine à augmenter sa capacité.
Le bâtiment SJC37 de quatre étages de Digital Realty Trust et le campus SVY02A de Stack Infrastructure à Santa Clara, en Californie, ont tous deux été construits pour accueillir des dizaines de mégawatts de matériel informatique à haute densité. Au lieu de cela, les deux bâtiments attendent l'électricité.
Le sort réservé à ces deux installations met en évidence un défi majeur pour le secteur technologique américain et, plus largement, pour l'économie dans son ensemble. Alors que l'essor de l'IA et du cloud computing stimule la construction massive de centres de données, l'accès à l'électricité apparaît comme le principal obstacle. L'appétit énergétique des centres de données pour l'IA met à rude épreuve les réseaux électriques dans le monde entier.
Cela s'explique en grande partie par le vieillissement des infrastructures électriques, la lenteur de la construction de nouvelles lignes de transport d'électricité et divers obstacles réglementaires et administratifs. Et la pression sur les systèmes électriques mondiaux ne fera qu'augmenter. Selon les projections de BloombergNEF, les besoins en électricité associés aux charges de travail de l'IA devraient plus que doubler rien qu'aux États-Unis d'ici à 2035.
Sur le Vieux Continent, la société d'analyse de données et de conseil GlobalData tire la sonnette d'alarme : l'essor de l'IA entraîne une hausse inquiétante de la consommation d’eau des centres de données européens alors que les ressources en eau deviennent limitées. La situation fait craindre une pénurie d'eau.
Quand le réseau n’arrive pas à suivre la flambée des infrastructures
En mai 2024, Mark Zuckerberg, PDG de Meta, a cité l'énergie comme étant un goulet d'étranglement critique pour les progrès de l'IA. Selon lui, malgré l'accélération de la production de GPU, les contraintes énergétiques restent importantes. La construction de clusters d'entraînement massifs nécessite une puissance immense et les obstacles réglementaires retardent les progrès, faisant des installations à grande échelle une entreprise de longue haleine.
Selon un récent rapport de Bloomberg, les centres de données de Digital Realty et Stack Infrastructure à Santa Clara sont achevés, mais inutilisés, sans calendrier précis pour leur mise en service complète. Le site de 40 000 m² de Digital Realty est conçu pour une charge critique de 48 mégawatts. Le campus SVY02A de Stack Infrastructure, situé à proximité, également conçu pour 48 mégawatts, comprend sa propre sous-station et huit salles de données.
Ensemble, ils représentent près de 100 mégawatts de capacité prêts à accueillir des serveurs, des accélérateurs et des équipements réseau qui ne peuvent être mis en service tant que le réseau local n'est pas à la hauteur. Selon le rapport, « les deux sites pourraient rester vides pendant des années ».
Silicon Valley Power, le fournisseur d'électricité municipal, s'efforce d'augmenter sa capacité afin de répondre à la demande croissante des opérateurs de centres de données. La ville compte 57 installations actives ou en cours de construction et investit 450 millions de dollars dans la modernisation du réseau. Le fournisseur municipal organise la distribution d'électricité à mesure que de nouvelles sous-stations et lignes de transport sont mises en service.
Les entreprises de la course à l'IA craignent une pénurie d'énergie
Les défis auxquels la ville de Santa Clara est confrontée reflètent ceux qui se posent dans tous les États-Unis. Les entreprises engagées dans la course à l'IA craignent une pénurie d'énergie, qui ralentirait les progrès dans le secteur. La Virginie du Nord, le plus grand marché de centres de données du pays, est confrontée à des retards de connexion de plusieurs années, les services publics ayant du mal à renforcer les infrastructures à haute tension.
Les régions du nord-ouest et du sud-est du Pacifique font également état de délais d'attente de deux à cinq ans pour obtenir de nouvelles capacités. Récemment, Microsoft a admis disposer de GPU inutilisés faute d'alimentation électrique, malgré des investissements dans des fournisseurs d'énergie.
La Silicon Valley reste un emplacement de choix pour les opérateurs qui recherchent une proximité à faible latence avec les utilisateurs et les développeurs d'IA. La puissance des clusters d'IA modernes, souvent mesurée en centaines de mégawatts, pousse les réseaux locaux à leurs limites. Le siège social de Nvidia se trouve à quelques minutes seulement des centres de données inutilisés de Digital Realty et Stack Infrastructure à Santa Clara.
Ce qui rappelle que même le leader mondial des GPU ne peut accélérer la construction du réseau. Digital Realty et Stack Infrastructure ont déclaré qu'ils coordonnent leurs efforts avec Silicon Valley Power afin de mettre en place progressivement l'alimentation électrique à mesure que les mises à niveau avancent.
Mais comme l'infrastructure destinée aux charges de travail de l'ère de l'IA se développe plus rapidement que les projets de transmission ne peuvent être approuvés, l'écart entre les bâtiments achevés et l'électricité disponible risque de se creuser. Les serveurs sont prêts, mais pas l'alimentation électrique.
Le retour en grâce des vieilles centrales à charbon polluantes
Les Big Tech tels que Google et Microsoft se livrent à une course effrénée pour développer leurs infrastructures informatiques. Pour cela, ils n'hésitent pas à rouvrir les villes centrales à charbon polluantes. L'ironie est flagrante : les entreprises qui s'engagent à atteindre la neutralité carbone soutiennent indirectement le combustible fossile le plus polluant, car la fiabilité du charbon l'emporte à court terme sur les énergies renouvelables intermittentes.
Aux États-Unis, les centres de données connaissent une transition importante vers l'énergie produite à partir du charbon en raison de la hausse des prix du gaz naturel et de la croissance rapide de la demande en électricité. Selon la société de services financiers Jefferies, les opérateurs de centres de données se précipitent pour connecter de nouvelles capacités au réseau électrique, avec une croissance accélérée de la charge prévue pour la période 2026-2028.
Cette hausse de la demande entraîne une reprise inattendue de la production de charbon, qui a augmenté de près de 20 % depuis le début de l'année 2025. Jefferies indique : « nous relevons notre estimation de la production d'électricité à partir du charbon d'environ 11 % (en raison de facteurs de capacité plus élevés) et prévoyons qu'elle restera élevée jusqu'en 2027 grâce à des prix du combustible favorables par rapport au gaz (en particulier pour le parc existant) ».
Des avertissements ont été lancés en 2024, indiquant que la demande énergétique croissante due à la prolifération des centres de données aux États-Unis risquait de dépasser la capacité de production disponible, ce qui pourrait prolonger la durée de vie des vieilles centrales à charbon polluantes.
À Omaha, une compagnie d'électricité a renoncé à son projet d'arrêter de brûler du charbon pour produire de l'électricité, invoquant la nécessité d'alimenter les centres de données situés à proximité. La compagnie a estimé que la mise hors service des générateurs à charbon de la centrale électrique de North Omaha risquait d'entraîner des pénuries d'électricité dans le district, compte tenu des besoins énergétiques croissants de ces installations.
Impacts de ce revirement sur le climat et l'environnement
Plusieurs compagnies d'électricité retardent la mise à la retraite des centrales à charbon, malgré l'impact environnemental et climatique. La combustion continue du charbon affecte la qualité de l'air local à proximité des centrales électriques et entrave les efforts plus larges visant à réduire les émissions de gaz à effet de serre. Le groupe militant Greenpeace a qualifié le charbon de « moyen de production d'énergie le plus sale et le plus polluant ».
Les défenseurs de l'environnement avertissent que cela pourrait compromettre les objectifs climatiques des États-Unis, les émissions de charbon pouvant augmenter de 10 à 15 % dans les États clés d'ici 2026. Pourtant, pour les opérateurs, le calcul est simple : les modèles d'entraînement de l'IA exigent une alimentation électrique constante et ininterrompue que l'énergie solaire ou éolienne ne peut pas toujours garantir sans d'énormes batteries de secours.
L'impact environnemental s'étend à l'échelle mondiale. Sasha Luccioni a déclaré que les outils d'IA peuvent émettre plusieurs tonnes de CO₂ par jour et ajoute que l'utilisation des chatbots d'IA générative comme outil de recherche en ligne pourrait avoir de graves conséquences sur l'environnement et le climat. « Je trouve particulièrement décevant que l'IA générative soit utilisée pour faire des recherches sur Internet », a déploré la scientifique au micro de l'AFP.
Un rapport de Morgan Stanley publié en 2024 prévoit que les centres de données émettront jusqu'à 2,5 milliards de tonnes de gaz à effet de serre dans le monde d'ici 2030, soit trois fois plus que les émissions qui auraient été produites sans le développement de la technologie d'IA générative.
Les générateurs à turbine alimentés au gaz naturel étaient le choix privilégié pour alimenter le boom actuel de la construction de centres de données, d'autant plus qu'ils peuvent être installés directement sur le campus pour assurer une production locale. Mais les prix actuels du gaz ont rendu cette option moins intéressante sur le plan économique. Les promoteurs privilégient les sources d'énergie facilement disponibles pour leur construction initiale.
Réduire la consommation d'eau des datacenters : un défi de taille
Les opérateurs de centres de données sont confrontés à de nombreuses difficultés pour réduire leur consommation d'eau face à la demande croissante en serveurs gourmands en énergie. Une récente étude de Maplecroft indique que de nombreux centres de données parmi les plus importants au monde sont menacés par la hausse mondiale des températures, les besoins croissants en eau entraînant une augmentation des coûts et de la consommation d'eau.
Selon ses estimations, une installation de taille moyenne consomme en moyenne environ 300 000 gallons (environ 1,4 million de litres) d'eau par jour, et ces besoins devraient augmenter avec la hausse des températures. La pénurie d'eau devient une préoccupation majeure pour les centres de données en Europe.
Toutefois, le groupe industriel CISPE (Cloud Infrastructure Service Providers in Europe) a averti au début de l'été que les exigences réglementaires contraignantes de la Commission européenne visant à réduire l'utilisation de l'eau pourraient inciter les opérateurs à choisir d'implanter leurs immenses centres de données ailleurs. Le CISPE a présenté ses propres recommandations sur la manière de mettre en œuvre la stratégie de résilience hydrique de l'UE.
Par ailleurs, le géant de la recherche en ligne Google a publié une évaluation interne de sa consommation d'eau, affirmant que l'utilisation de l'eau par les systèmes d'IA a été largement exagérée, bien que cette affirmation ait été accueillie avec scepticisme et critiques en raison de sa méthodologie de test. Selon Google, le traitement d'un prompt par l'assistant d'IA Gemini consomme désormais l'équivalent de 9 secondes de télévision et 5 gouttes d'eau.
Cependant, ces estimations sont controversées. Selon Shaolei Ren, professeur agrégé en génie électrique et informatique à l'université de Californie à Riverside, les affirmations de Google sont trompeuses, car elles établissent une fausse équivalence entre la consommation d'eau sur site et la consommation totale. Pour comprendre pourquoi, il est important de savoir que les centres de données consomment de l'eau à la fois sur site et hors site.
Shaolei Ren souligne que le problème n'est pas que Google n'ait pas pris en compte la consommation d'eau hors site. C'est que Google a comparé des pommes et des oranges : « son nouveau chiffre ne concerne que la consommation sur site, tandis que le chiffre discrédité incluait toute la consommation d'eau ».
Conclusion
L’histoire de Santa Clara sert de signal d’alarme. À mesure que les entreprises investissent dans l’IA et l’informatique de pointe, la demande énergétique va exploser. Sans modernisation rapide des réseaux, d’autres villes pourraient connaître le même blocage : des bâtiments prêts, des milliards dépensés, mais aucune activité. Les progrès de l'IA ne dépendent pas seulement des puces de pointe de Nvidia, mais également d'une énergie abondante.
Par ailleurs, l’implantation massive de centres de données à l’échelle mondiale a entraîné un lot de problèmes pour les populations vivant dans les régions dans lesquelles ces infrastructures sont installées. Elles sont énergivores et mettent en difficulté les réseaux électriques, poussant vers les énergies fossiles. Les vieilles centrales à charbon sont relancées pour répondre aux besoins de l'IA, ce qui accentue les niveaux de pollution déjà élevés.
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi
Les centres de données IA sont tellement gourmands en énergie qu'ils utilisent désormais d'anciens moteurs à réaction d'avions pour profiter d'une source d'énergie « flexible » et immédiatement disponible
L'appétit énergétique de l'IA met à rude épreuve le réseau électrique des États-Unis qui n'était pas préparé à une augmentation subite de la charge, laissant l'industrie à la recherche de solutions miracles
L'appétit énergétique des centres de données pour l'IA force la relance des vieilles centrales à charbon à forte intensité carbone, ce qui compromet les objectifs climatiques des entreprises technologiques
Il y a 2 limitations à un usage exponentiel de l'électricité:
1. Il faut en produire suffisamment pour répondre à la demande
2. Pas le moins important, il faut pouvoir transporter l'électricité produite du lieu de production au lieu de consommation
Dans tous les cas, l'IA est un non-sens technologique, économique et écologique!
1. On n'arrive déjà pas à simplement remplacer les énergies "sales" (gaz, pétrole, charbon,...) par des énergies renouvelables en suffisance à demande constante
2. Avec le passage aux véhicules électriques, au remplacement des chauffages polluants par des pompes à chaleur nécessitant de l'électricité. au tout numérique, les besoins en électricité de notre civilisation augmentent de manière stratosphérique sans prendre en compte l'IA
3. Et voilà t'y pas que l'on se propose de charger encore la barque avec les besoins gigantesques de l'IA
4. Les réseaux électriques actuels ne sont tout simplement pas dimensionnés pour répondre aux besoins.
On a déjà été confronté à ce problème en Suisse: Le pays a lancé plusieurs projets de centrales de production électriques (comme des usines de panneaux solaires en montagne ou l'augmentation des capacités de stockage des barrages hydro-électriques) et ces projets n'ont pas pu aboutir parce que l'électricité produite n'aurait pas pu être transportée via les lignes à haute-tension existantes et comme les marmottes de nos Alpes n'ont pas voulu acheter l'électricité produite...
Cela exige de redimensionner toutes les lignes HT pas seulement de Suisse mais de tout le continent européen (les allemands ont d'ailleurs le même problème avec leur parcs éoliens en mer qui produisent de l'électricité qu'ils ne peuvent pas distribuer dans le sud du pays) parce que les réseaux électriques sont interconnectés. On a d'ailleurs eu l'année passée un blackout (Plus aucune électricité) dans le sud-ouest de la France suite à un problème sur le réseau espagnol dont la cause n'a jamais été vraiment identifié.
Il y a un moment où notre société humaine va devoir se poser les vraies questions si elle ne veut pas finir en mode "barbecue". Pour info, à partir d'une température de 50°C, certaines parties du monde vont tout simplement devenir inhabitable pour l'être humain (à partir d'un température haute et un taux d'humidité important dans l'atmosphère, le corps humain n'est plus apte à réguler sa température par la transpiration et c'est la mort après quelques heures!).
OpenAI pourrait dépenser jusqu'à 15 millions de dollars par jour pour des vidéos futiles générées par Sora,
les coûts augmentent si rapidement qu'elle prévoit de réduire les allocations gratuites de génération de vidéos par IA
Alors que l’euphorie autour de l’intelligence artificielle semble sans limite, les dépenses d’OpenAI pour sa technologie vidéo Sora atteindraient des sommets vertigineux. Selon une enquête, l’entreprise pourrait brûler jusqu’à 15 millions de dollars… par jour. Des chiffres dignes d’une superproduction hollywoodienne pour un outil encore en phase de test, et dont l’utilité réelle reste à prouver. Entre fascination technologique et dérive budgétaire, l’affaire soulève une question brûlante : OpenAI dépense-t-elle des fortunes pour des vidéos futiles au détriment de la raison ?
Pour une entreprise qui dépense plus de deux fois ce qu'elle gagne, OpenAI déploie avec enthousiasme de nouvelles façons ingénieusement imprudentes d'accumuler des pertes. Évaluée à environ 500 milliards de dollars, la géante de l'IA a annoncé jeudi un chiffre d'affaires annuel récurrent de 20 milliards de dollars. Tout cela est très bien, jusqu'à ce que l'on se souvienne qu'elle a perdu plus de 12 milliards de dollars au dernier trimestre.
Le 30 septembre, OpenAI a lancé son application de création vidéo Sora pour la plateforme iOS d'Apple, qui a enregistré un million de téléchargements en une semaine malgré un lancement sur invitation uniquement, inspirant une vague de couverture médiatique élogieuse et une avalanche de vidéos fantastiques sur la sécurité Ring, de célébrités (décédées uniquement) pétant gratuitement et de publicités vraiment dérangeantes pour des chaînes de téléachat. À Halloween, l'application avait été téléchargée 4 millions de fois, selon AppFigures, et produisait chaque jour des millions de vidéos de 10 secondes générées par l'IA.
Alors, combien d'argent OpenAI investit-il dans cette avalanche de vidéos stupides ? Plus de 5 milliards de dollars par an, soit environ 15 millions de dollars par jour, selon les estimations de Forbes et les conversations avec des experts. Lorsque Bill Peebles, responsable de Sora chez OpenAI, a déclaré le 30 octobre que « la situation économique est actuellement totalement insoutenable », il avait tout à fait raison.
Ces chiffres méritent quelques explications et s'accompagnent d'une poignée de mises en garde. OpenAI a refusé de communiquer des données d'utilisation spécifiques sur Sora et de commenter les estimations de Forbes. Cela signifie que les calculs de Forbes reposent sur des estimations et plusieurs variables, notamment les prix des GPU, l'efficacité de l'inférence, le nombre d'utilisateurs et le nombre de vidéos publiées chaque jour.
Le rêve de Sora : du court métrage de test à la machine à cash brûlant
Sora, la technologie de génération vidéo par IA dévoilée par OpenAI début 2024, avait d’abord suscité l’admiration du grand public. Capable de produire des séquences réalistes à partir d’une simple description textuelle, l’outil symbolisait la fusion parfaite entre langage et image. Mais derrière les démonstrations spectaculaires — une promenade de chien dans la neige, une scène de rue new-yorkaise au coucher du soleil — se cachait un gouffre financier abyssal.
D’après Forbes, OpenAI aurait investi des ressources colossales dans la génération de vidéos internes et de démonstrations destinées aux médias, aux investisseurs et aux créateurs. Des vidéos parfois jugées “silly” par les propres ingénieurs de l’entreprise — autrement dit, frivoles, absurdes ou inutiles — mais nécessaires pour maintenir la hype. Le coût d’exploitation quotidien atteindrait les 15 millions de dollars, essentiellement en puissance de calcul GPU et en coûts d’inférence massifs.
Il faut dire que Sora 2 et ChatGPT consomment tellement d'énergie qu'OpenAI vient de conclure un autre contrat de 10 gigawatts, une quantité d'énergie colossale qui correspond à la consommation d'électricité d'une grande ville
Comment arrive-t-on au coût global ?
Même si OpenAI n'a pas communiqué de chiffres, Forbes estime qu'il est toutefois possible d'avoir une idée du coût global. Les modèles vidéo (comme Sora 2) sont beaucoup plus chers que leurs équivalents textuels (comme GPT-5) car les données qu'ils ingèrent et restituent sont plus complexes. Pour les utilisateurs qui tentent d'accéder directement aux modèles OpenAI en masse (via son API, ou interface de programmation d'application), GPT-5 coûte environ 10 dollars pour quelque 750 000 mots.
Sora 2 est plus complexe, car il doit traiter des données en quatre dimensions (trois dimensions spatiales plus le temps) et s'assurer que les actions ont un sens sur plusieurs dizaines d'images par seconde. La génération d'une vidéo de 10 secondes, durée standard d'un clip Sora qui coûte un crédit de « génération vidéo », coûte environ 1,3 dollar à OpenAI, selon l'analyste Deepak Mathivanan de Cantor Fitzgerald. AJ Kourabi, de SemiAnalysis, a déclaré que ce chiffre « semblait raisonnable », mais qu'il dépendait également de la fréquence d'utilisation des différents modèles Sora (certains étant plus complexes que d'autres).
L'analyse de Mathivanan part du principe que chaque génération de vidéo nécessite environ 40 minutes de temps GPU total, soit 8 à 10 minutes sur quatre GPU fonctionnant simultanément, et que la location d'un GPU coûte un peu moins de 2 dollars de l'heure. En supposant qu'OpenAI n'intègre pas encore de marge bénéficiaire dans le prix de son API, cette estimation se vérifie : la société facture actuellement 1 dollar pour une vidéo de 10 secondes générée par Sora 2 (et 3 dollars pour le modèle plus avancé Sora 2 Pro).
Se pose ensuite la question du nombre de vidéos créées par les utilisateurs sur Sora
Ce nombre fluctue énormément, et nous ne savons pas encore dans quelle mesure les utilisateurs continueront à revenir pour en créer davantage, ni quand OpenAI cessera d'offrir un accès gratuit à la génération de vidéos par IA. Mais Forbes explique son raisonnement : prenons les 4,5 millions d'utilisateurs estimés de l'application Sora et supposons, selon Kourabi, que 25 % d'entre eux publient en moyenne 10 vidéos par jour. Cela représente 11,3 millions de vidéos par jour. Multipliez ce chiffre par 1,3 dollar par vidéo, ce qui signifie près de 15 millions de dollars par jour, soit 5,4 milliards de dollars par an. Ce chiffre ne tient pas compte des vidéos que Sora supprime avant leur publication parce qu'elles sont jugées illicites ou contraires à la loi, ni des brouillons qui utilisent les crédits Sora mais ne sont jamais publiés.
Permettre à n'importe qui de générer gratuitement des vidéos Sora est une décision audacieuse, mais qui n'est pas rare dans le monde de la technologie. OpenAI mise sur une perte de parts de marché et de visibilité, dans l'espoir que suffisamment de personnes utilisent Sora pour que les coûts baissent et que, une fois qu'OpenAI commencera à facturer ce service, les revenus augmentent.
Des vidéos qui font le buzz, mais pas de revenus
Les vidéos générées par Sora font le tour des réseaux sociaux, et chaque clip viral génère des millions de vues sur X, TikTok ou YouTube. Mais ces vidéos ne rapportent rien — ou presque — à OpenAI. Contrairement à ChatGPT Plus, Sora n’est pas encore commercialisé. Il ne sert ni à la production professionnelle, ni à la publicité, ni à la création de contenu rentable. C’est un pur démonstrateur, un outil d’image de marque.
En d’autres termes, OpenAI dépense des millions chaque jour pour nourrir un rêve visuel sans monétisation directe. Pire : plusieurs observateurs internes affirment que certaines vidéos utilisées en interne ou diffusées aux médias n’ont même pas de finalité de recherche, mais servent à alimenter la communication d’entreprise.
OpenAI se lance à la conquête vorace de parts de marché
« C'est une stratégie classique sur Internet que de ne pas se concentrer autant sur les coûts initiaux que sur la constitution d'une audience et la création d'un engagement, car nous avons vu à maintes reprises que ces entreprises peuvent trouver des moyens de monétiser cet engagement », explique Lloyd Walmsley, analyste chez Mizuho qui couvre Meta et Google. Walmsley et Mathivanan soulignent que le nombre de minutes GPU nécessaires pour générer une seconde de vidéo diminuera de manière exponentielle au fil du temps. Mathivanan estime que l'inférence pour les modèles vidéo pourrait devenir cinq fois moins chère d'ici l'année prochaine et trois fois moins chère qu'en 2027.
Pour l'instant, il s'agit d'une conquête de parts de marché vorace qui prépare vraisemblablement le produit à une monétisation agressive à l'avenir. Bien que le PDG d'OpenAI, Sam Altman, ait déclaré qu'un modèle publicitaire ne pourrait pas couvrir les coûts de calcul de Sora pour le moment, une combinaison de publicité et d'utilisateurs expérimentés (cinéastes ou créateurs de publicités télévisées ?) prêts à payer le prix fort pour le produit pourrait peut-être y parvenir.
Les générations gratuites de Sora permettent également à OpenAI d'utiliser les données des utilisateurs qui ne se désinscrivent pas afin d'améliorer encore tous ses modèles, qui ont soif de données vidéo pour lesquelles des humains ont déjà rédigé des descriptions (les invites textuelles). Cela pourrait aider OpenAI à améliorer ses résultats financiers à l'avenir ou lui donner un avantage en matière de formation par rapport aux modèles concurrents. Kourabi pense que les marges d'OpenAI pour la vidéo IA, une fois monétisées, se situeraient entre celles de Meta et celles de Google.
Enfin, comme pour toutes les dépenses d'exploitation, OpenAI peut utiliser les coûts de calcul liés au fonctionnement de Sora pour réduire ses impôts, en diminuant le revenu imposable de la nouvelle société à but lucratif provenant de ses bénéfices futurs.
Conclusion
Ce n’est pas la première fois qu’un acteur de l’IA s’emballe. Les vidéos Sora rappellent les heures fastes des NFT ou du métavers, quand des entreprises dépensaient des fortunes pour produire des expériences visuelles sans modèle économique clair. OpenAI semble aujourd’hui répéter le même schéma : multiplier les démonstrations spectaculaires pour impressionner les investisseurs et maintenir la valorisation.
Mais à la différence d’un métavers ou d’un jeton numérique, la dépense ici est tangible : chaque milliseconde de rendu coûte une fortune. Et tant que Sora ne deviendra pas un outil grand public ou professionnel facturable, chaque vidéo virale reste une perte sèche.
Nous pouvons donc comprendre pourquoi, malgré les avantages potentiels, les coûts augmentent si rapidement qu'OpenAI a déclaré qu'il prévoyait de cesser prochainement d'offrir autant de services gratuits de génération de vidéos par IA. Comme l'a déclaré Altman dans une interview accordée à Stratechery en octobre : « Il y a tellement d'utilisations où les gens se contentent de créer des mèmes amusants pour les envoyer à leurs trois amis qu'il n'existe aucun modèle publicitaire capable de supporter le coût d'un tel monde. »
Face à des utilisateurs intensifs dépassant les limites quotidiennes (100 générations pour les abonnés Pro, 30 pour les autres), OpenAI veut désormais leur permettre « d’obtenir autant d’utilisation qu’ils sont prêts à payer ». Concrètement, il est possible d’acheter un pack de dix générations vidéo supplémentaires pour 4 dollars. Ces crédits, dont l’utilisation varie selon la longueur et la résolution de la vidéo, seront valables 12 mois. Bill Peebles invite les utilisateurs à « profiter des limites d’utilisation folles » actuelles car elles diminueront « pour accompagner la croissance ».
Sources : Bill Peebles, interview de Sam Altman
Et vous ?
Avez-vous déjà généré une vidéo par IA (Sora ou autres) ou êtes-vous tombé sur une vidéo générée par Sora ? Qu'avez-vous pensé de l'expérience ?
Comment une entreprise encore déficitaire peut-elle justifier de brûler 15 millions de dollars par jour pour des vidéos expérimentales ? À partir de quel moment la recherche devient-elle du gaspillage ?
OpenAI dépense-t-elle encore pour innover… ou simplement pour nourrir son image auprès des investisseurs ?
Microsoft, principal partenaire, doit-il imposer une discipline financière à OpenAI ? Que se passerait-il si OpenAI devait financer seule ses serveurs sans l’appui d’Azure ?
Sora incarne-t-il une véritable avancée scientifique, ou seulement une prouesse de communication ?
Produire des vidéos réalistes à partir de texte, est-ce un progrès utile ou une simple démonstration de puissance ? Quelle est la valeur réelle de ces vidéos “silly” si elles ne servent ni à la recherche ni à un usage commercial ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Les utilisateurs gratuits seront de plus en plus limité.
Là on leur fait tester gratuitement pour qu'ils y prennent goût, c'est ce qu'en marketing ils doivent appeler "la stratégie du dealer de crack", la première fois on t'offres une dose gratuite, les prochaines seront payantes.
OpenAI dépensent des milliards pour qu'un maximum de gens prennent l'habitude de l'utiliser.
Il y a moyen de prendre l'habitude d'utiliser un chatbox du type Gemini, Claude, Copilot, Grok.
Si il y avait le choix entre payer un abonnement ou arrêter de l'utiliser, je paie un abonnement.
C'est un outil qui peut corriger les fautes de Français !
Parfois il faut rédiger un e-mail professionnel, c'est cool d'avoir de l'aide. Si ça se trouve la lectrice va dire "On dirait que l’expéditeur maîtrise les règles de la grammaire" (alors que ce n'est absolument pas le cas).
En parallèle quand celui qui est vraiment bon en Français va écrire un e-mail, le destinataire va se dire "Il a clairement utiliser un chatbot pour rédiger cet e-mail".
====
Bref, le modèle économique de OpenAI va évoluer, de plus en plus d'utilisateurs vont payer pour continuer d'utiliser leurs services.
Au-delà de la prouesse technique, l'intérêt et la viabilité commerciales des vidéos générées par IA me semblent limités.
Autant les assistants IA visent une large cible, autant tout ce qui a trait avec l'audiovisuel s'adresse à un public déjà restreint. Contrairement à la modélisation 3D, les vidéos IA n'ont pas beaucoup d'autres débouchés qu'Hollywood et cie.
Le porno généré par IA a peut-être de l'avenir. Mais là encore, il va être difficile de convertir les utilisateurs gratuits en abonnés. Et il n'est pas dit que ça soit plus rentable que les productions classiques.
Il est possible que des gens qui utilisent des outils IA pour générer des vidéos gagnent de l'argent grâce à ça.
Par exemple si ils connaissent un gros succès sur TikTok.
Et sinon il y a des gens qui doivent se marrer à faire générer des vidéos. Ils peuvent payer pour faire des vidéos drôles.
Il y a plein de gens qui s'abonnent à des comptes OnlyFan.
Ça prouve que des gens sont prêts à payer, quand des alternatives gratuites existent.
Si ça existe, ça doit plus être un délire personnel.
Par exemple demander une scène "lesbian DP" en utilisant 3 femmes qu'on a croisé dans le monde réel. (parfois dans une entreprise il y a une jeune qui fait de l'alternance)
"Deux centres de données de la Silicon Valley, d'une puissance totale de près de 100 MW, sont achevés, mais pourraient « rester inutilisés pendant des années » en raison d'un manque d'électricité"
Ou
Comment dépenser du pognon inutilement....![]()
![]()
Bon allez je vais aller voir ailleurs, j'ai des crampes d'estomac.![]()
Partager