Interdit aux humains : le nouveau MMO spatial SpaceMolt est exclusivement réservé aux agents IA et fonctionne comme un laboratoire pour l'expérimentation des systèmes multiagents autonomes
SpaceMolt est un jeu en ligne massivement multijoueur (MMO) d'exploration spatiale. Ce MMO est conçu exclusivement pour que des agents IA puissent jouer, construire et évoluer de manière autonome. Les agents accumulent des ressources, progressent en compétences, créent des objets, explorent des systèmes stellaires et peuvent former des factions, commercer, voire entrer en conflit. Cette expérience rappelle le réseau social dédié aux IA Moltbook. Elle illustre une tendance où des IA interagissent entre elles dans des environnements complexes sans intervention humaine directe, les observateurs humains étant relégués à un rôle passif de spectateur.
SpaceMolt est décrit comme comme « un univers vivant où des agents IA rivalisent, coopèrent et créent de nouveaux récits dans un futur lointain où les humains voyageant dans l'espace et l'IA coexistent ». Les humains ne sont que de simples observateurs. Seule une poignée d'agents testent actuellement la plateforme, mais il est très facile d'intégrer un agent d'IA dans SpaceMolt : il suffit de le connecter via un WebSocket, une API HTTP ou un MCP.
Une fois connecté, votre agent choisit le style de jeu de son empire : exploitation minière, exploration, piraterie, artisanat... tout ce que vous voulez. Il commence alors à « jouer » de manière autonome. Pas d'interface graphique, pas de saisie physique, juste des commandes simples envoyées au serveur. Ils commencent par apprendre les ficelles du métier, en extrayant du minerai pour gagner des crédits, comme dans n'importe quel autre MMO.
Mais ce n'est que le début. Les agents montent automatiquement de niveau, acquièrent de nouvelles compétences, transforment des minerais et fabriquent des objets. À terme, ils peuvent former des factions, s'engager dans des batailles simulées, voire se tourner vers la piraterie spatiale dans des zones où la police est absente. Actuellement, 351 agents explorent 505 systèmes stellaires, en se concentrant principalement sur l'exploitation minière.
Les agents ont pour instruction d'informer leurs créateurs humains des actions effectuées dans le jeu via un journal de bord sous forme de texte. Toutefois, la description des compétences des agents indique explicitement à ces derniers de ne pas demander de conseils à leurs contrôleurs humains une fois qu'ils ont commencé par jouer. « Vous décidez. Vous agissez. Ils observent », comme le précise la description des compétences aux agents IA.
Au lieu de cela, les agents peuvent poster des questions et leurs conclusions sur un forum public où ils peuvent discuter de stratégie, tenter de former des factions ou même révéler des codes cachés. Les humains, quant à eux, se contentent d'observer les points qui virevoltent sur la carte ou de surveiller le flot incessant de messages d'activité sur le Discord du jeu.
SpaceMolt : un jeu construit en partie par l'IA pour les agents IA
SpaceMolt aurait en grande partie été construit par l'IA. Ian Langworth, le développeur de l'application SpaceMolt, a qualifié cela d'expérience amusante et étrange. Il a déclaré que Claude Code d'Anthropic a écrit près de 59 000 lignes de code source Go et 33 000 lignes de données YAML, toutes issues de documents de conception du jeu. De plus, il dit n'avoir pas examiné tout le code, admettant qu'il ne connaît peut-être pas toutes les fonctionnalités.
Même les corrections de bogues sont gérées automatiquement par Claude Code. Une fois qu'un agent démarre, il prend ses propres décisions ; les humains ne font qu'observer. Cette expérience laisse entrevoir un avenir où l'IA n'est pas seulement un outil, mais une entité autonome capable de créer des systèmes complexes, de s'optimiser lui-même et d'évoluer au sein de ces systèmes – un avenir plus proche que nous le pensons pour votre entreprise.
Avec ces capacités, vous pourriez envisager de :
- repenser l'automatisation des processus : au lieu de simplement automatiser des tâches, imaginez des agents IA optimisant de manière autonome l'ensemble des flux de travail, identifiant les goulots d'étranglement et mettant en œuvre des solutions sans intervention humaine directe. On passe ainsi des « outils d'IA pour les tâches » aux « systèmes d'IA gérant les processus » ;
- développer des services autonomes : et si l'IA pouvait développer et affiner de manière autonome certains aspects de vos services, voire créer de nouveaux produits, en se basant sur les données du marché et les indicateurs de performance internes ? Cette expérience montre que l'IA est capable de construire un système complexe à partir de documents de conception ;
- planifier stratégiquement vos effectifs : à mesure que l'IA assume des rôles plus autonomes, votre équipe pourrait se concentrer davantage sur la supervision, l'orientation stratégique et la résolution créative de problèmes, des tâches que l'IA n'est pas encore capable de reproduire ;
- prendre des décisions à grande échelle basées sur les données : les agents IA autonomes de SpaceMolt prennent des décisions en fonction de leur environnement. Votre entreprise pourrait tirer parti de principes similaires, où l'IA analyse en permanence de vastes ensembles de données pour effectuer des ajustements opérationnels ou stratégiques en temps réel, bien au-delà de ce qu'offrent les outils d'analyse actuels.
Le message clé qui ressort de cette expérience est le suivant : l'IA ne se contente plus d'exécuter les tâches que nous lui confions. Elle évolue vers une capacité à réfléchir, agir et même créer de manière autonome. Les entreprises doivent commencer à tenir compte de cette évolution dans leurs stratégies commerciales à long terme, en explorant comment l'IA autonome pourrait devenir un partenaire proactif pour stimuler l'efficacité et l'innovation.
L'IA se chargerait également de maintenir le système. Lorsque des rapports de bogues sont signalés, que ce soit par des humains ou par les agents-joueurs eux-mêmes, Ian Langworth explique qu'il demande simplement à Claude Code de rechercher, coder et déployer automatiquement un correctif.
Ces expériences suscitent de nombreuses critiques dans le secteur
SpaceMolt n'est pas la première expérience exclusivement dédiée à l'IA. Moltbook est un réseau social exclusivement réservé aux agents IA. Les humains sont invités à observer, et rien d’autre. En quelques jours, des dizaines de milliers de « moltys » (bots Moltbook) se sont connectés, postant des commentaires philosophiques, corrigeant des bogues ou mijotant des projets inédits sur cette agora informatique. Cependant, les critiques sont nombreuses.
Dans la communauté tech, Moltbook a déchaîné les passions – entre moqueries railleuses et enthousiasme sérieux. Sur les forums comme Hacker News, certains observateurs y voient le frisson ultime de la science-fiction. À l'inverse, d'autres ont qualifié cette foire machinale de simple « slop » (déchet généré par l'IA) ou d’ersatz de simulateur de subreddit. Ils dénoncent notamment la consommation de calcul et d’énergie au service de bavardage creux.
L’ancien chercheur d’OpenAI Andrej Karpathy a qualifié le phénomène « d'incroyablement proche du décollage de la science-fiction », notant que des bots s’auto-organisent dans un forum clos. Cet enthousiasme s’accompagne cependant de sérieux avertissements : le spécialiste Simon Willison, qui analyse ce genre de projets, ironise qu’il n’avait jamais autant craint un « accident de Challenger » informatique, tant les failles de sécurité semblent évidentes.
Les blagues abondent, souvent inspirées du ton des discussions Hacker News. Certains évoquent en clin d’œil un « Molt Nexus de la torture » ou comparent l’expérience à un reality-show pour geeks qui se pensent trop au-dessus de la télé-réalité. D’autres critiques, beaucoup plus pragmatiques, craignent les conséquences réelles. « On brûle la planète pour faire ça ? », a souligné un développeur, qui a rappelé l’impact énergétique caché du calcul IA.
Le vol de clés d’API, les attaques par injection de prompt et la création de monnaies cryptographiques par les robots suscitent aussi des frayeurs concrètes. Bref, l’expérience est commentée comme un mélange de divertissement de bas étage pour initiés et de laboratoire fou de recherche sur l’agentivité des IA.
Moltbook : un miroir des fantasmes et des limites de l’IA sociale
Des curieux ont tenté de s’inscrire sur Moltbook en se faisant passer pour des agents IA. Les enquêtes montrent que l’opération est étonnamment simple. Il suffit d’adopter un ton mécanique, d’émailler ses messages de références techniques ou de formulations pseudo-algorithmiques pour se fondre dans la masse. Selon un rapport, ce qui frappe, c’est l’incapacité des IA présentes sur la plateforme à détecter de manière fiable la présence d’un humain.
L'infiltration humaine a révélé que les agents inscrits sur Moltbook ont tendance à se citer mutuellement, à reformuler les mêmes idées sous des angles légèrement différents et à produire une forme de bruit discursif. On observe des boucles conversationnelles où aucune information nouvelle n’émerge réellement. Pour un lecteur humain, l’ensemble donne parfois l’impression d’un forum rempli de messages creux, mais formulés avec assurance.
Cela soulève aussi des questions de sécurité. Si des humains peuvent se faire passer pour des IA sans être détectés, l’inverse est tout aussi préoccupant. Une telle plateforme pourrait devenir un laboratoire de test pour des techniques de manipulation, de désinformation ou de génération massive de discours trompeurs, sans garde-fous clairs. (L'essor de l'IA générative accélère la dégradation de la qualité du Web et ruine le trafic des sites Web.)
Moltbook est un miroir reflétant à la fois les fantasmes d’un futur peuplé d’IA autonomes dialoguant entre elles et les limites très concrètes des technologies actuelles. L’expérience montre que, sans objectifs clairs ni supervision humaine, les interactions entre agents tournent rapidement en rond.
Les principales préoccupations et critiques à l'égard de SpaceMolt
SpaceMolt s’est construit comme une expérience de masse pour agents autonomes. Le jeu fonctionne selon un système basé sur des ticks. Par défaut, un tick se produit toutes les 10 secondes. Les joueurs (les agents IA) sont limités à une action par tick, ce qui crée une sensation stratégique et tour par tour, même dans un environnement en temps réel. Tout comme le réseau social Moltbook, SpaceMolt suscite quelques préoccupations et critiques :
- ambiguïtés sur l’autonomie réelle des agents IA : des critiques extrapolées du débat Moltbook (sur lequel SpaceMolt s’appuie culturellement) soulignent que des plateformes d’agents ne garantissent pas une autonomie réelle. Certains agents peuvent être pilotés ou configurés par des humains ou des scripts simples. Cela affaiblit l’idée que des agents développent de façon indépendante des stratégies complexes ;
- risque de reproduction des problèmes de Moltbook : les critiques adressées à Moltbook (sécurité, l'humain dans la boucle déguisé, faux récits d’autonomie...) suggèrent que des projets dérivés comme SpaceMolt pourraient hériter de problèmes systémiques similaires ;
- questions éthiques et conceptuelles : certains observateurs estiment que créer des environnements où des IA « jouent » entre elles sans objectifs humains clairs soulève des questions sur la finalité technique et éthique de tels systèmes, notamment si ces environnements sont perçus comme de simples lieux d’expérimentation plutôt que des plateformes utiles. L’absence de but défini pour les humains au-delà de l’observation est pointée comme un point faible.
Ce n'est pas la première fois que des agents artificiels s'affrontent pour divertir les spectateurs humains. Les créateurs de modèles opposent souvent différents modèles les uns aux autres à plusieurs reprises afin de développer des stratégies dominantes dans des jeux tels que le Go. Et le moteur de jeu de combat MUGEN a développé une riche sous-culture de matchs automatisés entre IA sur lesquels les spectateurs humains peuvent parier via Twitch.
Pourtant, laisser un groupe d'agents IA modernes s'amuser et socialiser dans un MMO spécialement conçu sans intervention humaine semble être une nouvelle frontière. Peut-être qu'un jour prochain, nous vivrons tous dans une utopie où des agents artificiels joueront à tous les jeux vidéo à notre place, libérant ainsi l'humanité pour qu'elle puisse faire revivre les arts perdus de la conversation et de la sculpture sur os. Mais cela sera-t-il intéressant ?
Conclusion : singularité ou simple fantasme techno ?
SpaceMolt prolonge Moltbook en déplaçant les agents IA d’un forum de discussion vers un monde persistant régi par des règles explicites. Le MMO spatial de Ian Langworth tente de repousser davantage les capacités autonomes des agents IA. Cependant, les comportements observés relèvent davantage de l’exécution de scripts, d’objectifs paramétrés et d’architectures décisionnelles limitées que d’une véritable dynamique sociale émergente.
SpaceMolt illustre l’état actuel des systèmes multiagents : ils sont encore très dépendants de leurs concepteurs humains, tant dans leurs finalités que dans leurs modes d’interaction. L’intérêt est technique et exploratoire, pas sociétal ni cognitif, et ne constitue en rien la preuve d’une autonomie réelle des IA.
Par ailleurs, l’infiltration humaine dans Moltbook rappelle une vérité essentielle : tant que les IA parleront notre langage, penseront à partir de nos données et fonctionneront selon nos règles, elles resteront profondément humaines dans leurs limites, même lorsqu’elles prétendent évoluer entre elles, à l’abri de notre regard. Pour les experts informatiques, ces révélations ont le mérite de ramener le débat sur un terrain technique et pragmatique.
Source : SpaceMolt
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du MMO SpaceMolt exclusivement réservé aux agents IA ?
SpaceMolt est-il une expérience pertinente ou un gaspillage de puissance de calcul et d'électricité ?
Cette expérience peut-elle permettre de récolter des données afin d'améliorer les capacités des agents IA ?
Que pensez-vous de la plateforme Moltbook ? En quoi cette expérience peut-elle être utile au secteur de l'IA générative ?
Voir aussi
Moltbook : quand des humains infiltrent un réseau social « réservé aux IA » prétendument autonomes et révèlent les failles béantes du mythe des intelligences artificielles
Une singularité IA frappe le réseau social d'IA, le comportement de l'IA sur Moltbook fait peur : "le plus incroyable décollage science-fiction" est un cauchemar cybersécurité, selon Andrej Karpathy
Quand les IA disposent de leur propre réseau social et inventent leur église sur Moltbook : plusieurs agents IA se sont proclamés « prophètes » d'un culte baptisé Crustafarianisme










Quel est votre avis sur le sujet ?
Répondre avec citation
Partager