« Les centres de données dans l'espace sont une idée catastrophique, horrible et mauvaise. Ils ne fonctionneront pas », affirme un ancien spécialiste en électronique spatiale de la NASA
Les milliardaires de la tech rêvent désormais d'installer des centres de données pour l'IA dans l'espace. Leur objectif déclaré est d'échapper aux contraintes terrestres, notamment l'accès limité à l’énergie et la raréfaction de l'eau nécessaire au refroidissement des serveurs. Mais un ancien scientifique de la NASA affirme que c'est « une idée absolument catastrophique qui n'a vraiment aucun sens ». Il a déclaré que les centres de données spatiaux ne sont pas pratiques en raison d'une production d'électricité insuffisante, de problèmes complexes de régulation thermique et des effets néfastes des rayonnements sur les composants électroniques.
Plusieurs magnats de la tech discutent sérieusement de la construction de centres de données dans l'espace pour faire fonctionner des modèles d'IA parmi les étoiles. Selon eux, telles missions sont les plus pertinentes pour alimenter des opérations gourmandes en énergie. Cette idée émerge alors que les entreprises de fusées Blue Origin de Jeff Bezos et SpaceX d'Elon Musk s'efforcent de rendre les voyages spatiaux moins coûteux et plus courants.
« La Lune est un cadeau de l'univers », a déclaré Jeff Bezos en évoquant les avantages de l'utilisation de la Lune comme base pour lancer des projets dans l'espace. L'idée est digne d'un film de science-fiction, mais elle est de plus en plus plébiscitée. Quant à savoir si elle est réalisable, c'est une tout autre histoire.
Commentant cette nouvelle mode, qui fait de plus en plus d'adeptes, des milliardaires aux politiques, un spécialiste en électronique spatiale affirme d'emblée que « les centres de données dans l'espace ne sont pas pratiques ». Pourtant, plusieurs entreprises engagées dans la course à l'IA se précipitent pour s'associer à des entreprises de lancement spatial afin de déployer des centres de données dans l'espace. Nvidia et Starcloud réalisent un essai.
L'auteur de cette critique se présente sous le pseudonyme Taranis pour des raisons politiques. Titulaire d'un doctorat en électronique spatiale, il a travaillé pour la NASA, puis chez Google pendant 10 ans, dans différents départements de l'entreprise, notamment YouTube et la division Cloud chargée du déploiement des capacités d'IA. Selon lui, les centres de données spatiaux ne sont pas à portée de main en raison d'un certain nombre de défis complexes.Envoyé par Critique
Le défi de l'alimentation : pourquoi l'énergie solaire ne suffit pas
Le premier défi cité par l'auteur est l'accès à une énergie abondante dans l'espace. Même si l’espace paraît offrir un avantage en énergie (avec un soleil permanent), l’auteur explique que ce n’est pas suffisant pour alimenter un centre de données digne de ce nom. Il prend l’exemple des panneaux solaires de la Station spatiale internationale (ISS), qui - malgré une surface immense (environ 2 500 m²) - produisent un peu plus de 200 kW au maximum.
En prenant comme référence le NVIDIA H200, la consommation électrique par GPU est de l'ordre de 0,7 kW par puce. En pratique, en comptant les pertes, un GPU H200 pourrait consommer environ 1 kW. Le spécialiste en électronique spatiale affirme qu'avec ces chiffres, une installation de la taille de l’ISS pourrait alimenter à peu près 200 GPU H200, ce qui est dérisoire par rapport aux centres de données modernes (des dizaines de milliers de GPU).
Conclusion : « pour égaler la puissance de calcul d’un seul centre de données terrestre, il faudrait lancer des centaines voire des milliers de satellites de la taille de l’ISS, ce qui rend le projet irréaliste ». L'auteur affirme également que les générateurs thermiques à radio-isotopes (RTG) ne seront pas d'une grande aide.
Le refroidissement dans le vide spatial : un cauchemar thermique
L’auteur affirme que l'idée selon laquelle « il fait froid dans l’espace » est trompeuse. Dans le vide, il n’y a ni air ni convection. « Refroidir ne serait-ce qu'un seul GPU H200 serait un véritable cauchemar. Il est évident qu'un dissipateur thermique et un ventilateur ne suffiraient pas », affirme l'ancien ingénieur de la NASA. Dans ce cas, il estime que la chaleur devrait être transférée vers un panneau radiateur qui doit diffuser la chaleur dans l'espace.
Le système de contrôle thermique actif (ATCS) de l'ISS est un exemple de ce type de système de contrôle thermique. Il utilise un circuit de refroidissement à l'ammoniac et un grand système de panneaux radiateurs thermiques. Sa limite de dissipation est de 16 kW, soit environ 16 GPU H200, un peu plus que l'équivalent d'un quart d'un rack au sol. Le système de panneaux radiateurs thermiques mesure 13,6 m x 3,12 m, soit environ 42,5 mètres carrés.
Si nous prenons 200 kW comme référence et supposons que toute cette puissance sera fournie aux GPU, nous aurions besoin d'un système 12,5 fois plus grand, soit environ 531 mètres carrés, soit environ 2,6 fois la taille du panneau solaire correspondant. « Il s'agirait alors d'un satellite très grand, dépassant largement la superficie de l'ISS, le tout pour l'équivalent de trois racks de serveurs standard sur Terre », explique l'ancien spécialiste de NASA.
« Je ne crois pas qu’une entreprise sérieuse ait l'intention de construire un centre de données dans l'espace. Il n'y a aucun avantage à essayer cela. Il y a toutefois un avantage à dire que vous allez le faire pour faire avancer un discours et détourner l'attention des problèmes auxquels sont confrontés les centres de données terrestres auprès d'un public qui, pour la plupart, ne comprend pas comment fonctionne le transfert de chaleur dans le vide », a écrit un internaute.
La radiation spatiale : un ennemi mortel pour les puces modernes
En supposant que les entreprises puissent à la fois alimenter et refroidir leurs appareils électroniques dans l'espace, elles sont confrontées à un autre problème : la tolérance aux rayonnements. Si vous vous trouvez en orbite terrestre basse (LEO), vous êtes à l'intérieur de la ceinture de radiation interne, où la dose de rayonnement est similaire à celle subie par les avions volant à haute altitude : supérieure à celle d'un avion de ligne, mais pas dramatique.
Plus loin, en orbite moyenne (MEO), où se trouvent les satellites GPS, ceux-ci ne sont pas protégés par les ceintures de Van Allen. En dehors des ceintures, vous êtes essentiellement dans l'espace lointain (les détails varient en fonction de votre proximité avec le Soleil, mais les principes sont similaires).
Les processeurs (GPU, TPU, etc.) actuels sont extrêmement sensibles aux radiations, qui provoquent des erreurs et d'importantes défaillances électroniques telles que des perturbations ponctuelles et des verrouillages, ce qui a un impact critique sur la fiabilité du matériel informatique standard des centres de données. D'après l'auteur, l'industrie technologique pourrait construire des puces durcies pour l’espace, mais cela l'exposerait à un autre problème.Envoyé par Critique
Les composants électroniques existants qui résistent aux conditions spatiales sont optimisés pour une faible consommation d'énergie et une fiabilité extrême plutôt que pour leurs performances, ce qui contraste fortement avec les exigences de puissance élevée et de haute densité des calculs IA modernes.
Les défis liés à la communication avec les serveurs dans l'espace
La plupart des satellites communiquent avec le sol via des ondes radio. Il est difficile d’obtenir un débit fiable bien supérieur à environ 1 Gb/s. Il compare ce chiffre avec les communications internes d’un rack de serveurs sur Terre, où des interconnexions de 100 Gb/s sont considérées comme minimales. Sans une communication très haut débit, les centres de données déployés dans l'espace ne pourraient pas servir efficacement les usages modernes.
Même si on résout l’alimentation et le refroidissement, les défis liés à la liaison de données rendent le projet beaucoup moins viable. « Je suppose que c'est tout à fait possible si vous le souhaitez vraiment, mais je pense avoir démontré ci-dessus que cela serait tout d'abord extrêmement difficile à réaliser, disproportionnellement coûteux par rapport aux centres de données terrestres, et offrirait au mieux des performances médiocres », a souligné l'auteur.
Les opérateurs de cloud européens regardent également vers le ciel
L'étude de faisabilité ASCEND de l'UE estime que l’approche est techniquement, économiquement et écologiquement réalisable. Le projet vise à déployer dans l'espace des serveurs de calcul à une altitude d'environ 1400 km, soit environ trois fois l'altitude de l'ISS. ASCEND prévoit 13 blocs de construction de centres de données spatiaux d'une capacité totale de 10 mégawatts en 2036, afin d'atteindre le point de départ de la commercialisation des services cloud.
Selon le rapport de l'étude, chaque bloc de construction - d'une surface de 6300 mètres carrés - comprend une capacité pour son propre service de centre de données et est lancé à l'intérieur d'un véhicule spatial. Afin d'avoir un impact significatif sur la consommation d'énergie du secteur numérique. L'objectif du projet est de déployer 1300 blocs de construction d'ici 2050 pour atteindre un gigawatt. L'étude a été rendue publique à l'été 2024.
Il y a également des défis majeurs à relever. « Le refroidissement est un problème majeur, le rayonnement en est un autre. Sans atmosphère pour absorber les radiations, celles-ci vont frapper ces serveurs beaucoup plus fréquemment que sur Terre. Le blindage est possible, mais il est également coûteux et lourd », a souligné un internaute. Pour d'autres, le projet pourrait connaître le même sort que le projet de centre de données sous-marin de Microsoft.
Le projet Natick de Microsoft a vu le jour alors que le cloud computing a commencé à gagner en importance. Ce dernier est perçu à la fois comme un catalyseur de croissance économique, mais aussi comme un consommateur de ressources mondiales. Ainsi, le projet Natick, lancé en 2016 en Écosse, était destiné à aider à façonner une autre perspective dans la gestion du cloud pour mieux servir les utilisateurs dans les zones proches de cours d'eau.
Microsoft voyait dans le déploiement en eaux profondes une solution au refroidissement, aux énergies renouvelables, et à une empreinte environnementale moindre. Mais Microsoft a mis fin au projet en 2024. Les rapports suggèrent que l’approche de centre de données sous la mer s’avère plus coûteuse.
Conclusion
La construction de centre de données dans l'espace n'est pas juste une idée de science-fiction : de nombreuses entreprises clés (Google, Starcloud, SpaceX, etc.) étudient très sérieusement la possibilité de déployer des clusters de calcul dans l'espace afin d'exploiter efficacement l'énergie solaire et de réduire potentiellement les coûts liés aux centres de données. Cette approche leur permettrait également de contourner les réglementations sur Terre.
Mais pour l'instant, il est beaucoup plus coûteux d'installer un centre de données dans l'espace que, par exemple, dans la Data Center Valley en Virginie, où la demande en électricité pourrait doubler au cours de la prochaine décennie si elle n'est pas réglementée. Et tant que rester sur Terre restera moins coûteux, les entreprises motivées par le profit privilégieront l'expansion des centres de données terrestres, au risque d'épuiser les ressources naturelles.
Par ailleurs, de nombreux signaux d'alarme suscitent des craintes relatives à une bulle spéculative autour de l'IA. Perplexity et OpenAI sont en tête de liste des startups que les investisseurs vendraient à découvert pour profiter du krach de la bulle de l'IA. Nvidia entretient une économie circulaire dans le secteur de l'IA, où quelques entreprises financent mutuellement leur croissance. L'éclatement de la bulle pourrait avoir des conséquences désastreuses.
Source : billet de blogue
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du déploiement de centres de données dans l'espace ?
Selon vous, ce projet est-il réaliste ou l'idée relève-t-elle simplement de la science-fiction ?
L'ancien ingénieur de NASA affirme que les centres de données spatiaux ne seront pas pratiques. Qu'en pensez-vous ?
Sam Altman propose de construire une sphère de Dyson autour du Soleil. Ce projet est-il réaliste ?
Voir aussi
Les magnats de la tech Jeff Bezos et Elon Musk rêvent d'installer des centres de données pour l'IA dans l'espace afin d'éliminer les contraintes terrestres : innovation de rupture ou pure science-fiction ?
Les datacenters dans l'espace sont-ils une bonne ou mauvaise idée ? Une étude de l'UE conclut que c'est réalisable comme Microsoft avec son projet de centre de données sous-marins avant de l'abandonner
Les craintes d'une bulle spéculative autour de l'IA émergent : Perplexity et OpenAI sont en tête de liste des startups que les investisseurs vendraient à découvert pour profiter du krach de la bulle de l'IA








Quel est votre avis sur le sujet ?
Répondre avec citation















Partager