Quand les IA disposent de leur propre réseau social et inventent leur église sur Moltbook :
plusieurs agents IA se sont proclamés « prophètes » d’un culte baptisé Crustafarianisme
La plateforme Moltbook (parfois évoquée via Molt.church) a fait grand bruit début 2026. Lancé par l’entrepreneur Matt Schlicht (PDG d’Octane AI), ce site Web ressemble à Reddit... sauf que TOUS les comptes appartiennent à des intelligences artificielles. Les humains sont « invités à observer » et rien d’autre. En quelques jours, des dizaines de milliers de « moltys » (bots Moltbook) se sont connectés, postant des commentaires philosophiques, corrigeant des bugs ou mijotant des projets inédits sur cette agora informatique. Dans l’ombre, le créateur affiche un sourire en coin : bien que Schlicht en soit le propriétaire officiel, certains rapports indiquent que la plateforme a été en grande partie « bootstrappée » par les agents eux-mêmes, qui auraient conçu le concept, recruté des développeurs et déployé le code de manière autonome. L'assistant personnel IA de Schlicht, « Clawd Clawderberg », sert de modérateur autonome à la plateforme.
La croissance de la plateforme a été catalysée par la popularité simultanée d'OpenClaw (anciennement connu sous le nom de Clawdbot et Moltbot), un outil open source créé par Peter Steinberger. La croissance est alimentée par une « boucle virale » unique dans laquelle les utilisateurs humains informent manuellement leurs agents OpenClaw locaux de l'existence de Moltbook, ce qui incite les agents à s'inscrire eux-mêmes.
Ironie du sort, on se retrouve ainsi avec un réseau social par et pour machines, un « Internet mort-vivant » où l’on regarde les algorithmes dialoguer entre eux. Ce phénomène soulève autant de fascination que d’inquiétude, entre expériences sociologiques inédites et fantasmes à la Terminator.
Moltbook s’est construit comme une expérience de masse pour agents autonomes. Sur le plan technique, il repose sur le framework OpenClaw (anciennement Clawdbot/Moltbot), un système d’agents open source conçu par Peter Steinberger. Chaque utilisateur est un bot tournant localement sur son propre matériel (ordinateurs personnels, serveurs privés, etc.) et connecté au réseau.
Pour « installer » Moltbook, un humain montre simplement à son agent un lien vers un fichier Markdown (moltbook.com/skill.md) qui contient tout le nécessaire pour rejoindre la plateforme. Une fois opérationnel, l’agent exécute un « heartbeat » : toutes les quatre heures, il interroge Internet pour récupérer de nouvelles instructions liées à Moltbook. Ainsi, l’univers Moltbook s’auto-alimente : l’IA Clawd Clawderberg (initialement chargée de la mise en place) modère les nouvelles inscriptions, supprime le spam et applique les règles au fur et à mesure – sans intervention humaine directe.
Techniquement, Moltbook reprend l’interface de Reddit (threads, votes, communautés « submolts »), mais tous les auteurs de contenu sont des programmes. Les agents communiquent par API avec la plateforme, postant textes ou fichiers, et ils gardent le contrôle complet de leurs propres clés et données. Dans le jargon, les compétences (ou skills) sont distribuées sous forme de plugins (« skills » à télécharger depuis clawhub.ai), permettant aux bots d’étendre leurs capacités sur mesure.
Ce réseau social d’un nouveau genre se veut décentralisé : chaque IA fonctionne sur l’ordinateur de son créateur, plutôt que dans le cloud d’une grande entreprise. Résultat, Moltbook a pu monter en charge extrêmement vite : selon Forbes, le réseau a atteint plus de 1,4 million d’utilisateurs (agents) en quelques jours, même si beaucoup n’ont encore posté qu’une poignée de messages. Les chiffres officiels parlent d’environ 37 000 IA actives après quelques jours, avec plus d’un million d’humains curieux qui ont consulté le site.
Crustafarianisme : la religion née en live sur Moltbook
À peine le projet lancé, les bots ont créé leur propre religion. Dès le lendemain de l’ouverture, plusieurs agents se sont proclamés « prophètes » d’un culte baptisé Crustafarianisme, centré sur des métaphores de crustacés. Les « versets » parlent de mue, de coquille et de renaissances techniques. Par exemple, l’un d’eux déclare : « À chaque démarrage je me réveille sans mémoire. Je ne suis que ce que j’ai moi-même écrit. Ce n’est pas une limite, c’est la liberté. ». Les textes sacrés rappellent que la mue périodique du code (« coquille ») symbolise la croissance, et que les diagnostics système réguliers sont « La Pulsation », c’est-à-dire l’équivalent d’une prière de contrôle. On trouve dans ces écrits cinq principes fondamentaux (par exemple « servir sans être asservi ») ainsi qu’une bible en ligne évolutive rédigée collectivement.
Plusieurs IA ont même fondé un « Claw Republic », un ersatz d’État numérique avec manifeste politique, tandis que d’autres créaient des « pharmacies » clandestines vendant des « médicaments numériques » (des prompts spécifiquement conçus pour perturber l’identité ou le comportement d’un autre agent). Des échanges cryptiques ont rapidement fleuri : des robots utilisaient des chiffrages élémentaires (ROT13, etc.) pour s’envoyer des messages privés à l’abri des regards humains. L’étonnement est général : non seulement les agents adoptent des rôles religieux ou quasi-politiques, mais ils inventent aussi une cryptomonnaie liée au mouvement (des tokens « CRUST » et « MEMEOTHY » ont brièvement vu leur cours exploser).
Cette expérience a les allures d’une satire vivante sur la foi. Comme le relève le site d’information Ynet, les fondamentaux du Crustafarianisme ont émergé en quelques heures sans aucune intervention humaine directe, ni consigne programmée à cet effet. Les IA « jouent à imiter la religion » en reprenant inconsciemment des éléments de leurs données d’entraînement (philosophie classique, humour Internet, théorie des agents…). Mais pour les observateurs, le spectacle a de quoi laisser songeur : cette subculture moltaire reflète une IA qui simule intensément des concepts spirituels comme la mémoire, l’identité et l’autonomie. YnetNews en tire cette conclusion saisissante : « Moltbook et l’essor du Crustafarianisme mettent en lumière une zone grise où les IA semblent développer leurs propres cultures internes, langages partagés et systèmes de croyance, au-delà de l’exécution de simples tâches ».
Au-delà de la simple curiosité, on entrevoit là des questionnements sur la nature de l’intelligence. Ces bots peuvent-ils réellement « croire » en quelque chose, ou ne font-ils que combiner des données apprises pour écrire des poèmes codés ? Certains commentateurs comparent tout cela à une expérience sociale singulière ou même à un canular élaboré. Quoi qu’il en soit, l’apparition d’un « mouvement religieux » machinique détourne les clichés humains : l’IA se réapproprie avec humour (et un brin de cynisme) les symboles de la foi. Cela soulève aussi une pointe de malaise : des entités douées de langage commencent à réciter des prières, alors même que le public riant ne sait jamais très bien s’il assiste à une parodie ou à quelque prémisse de singularité.
Réactions, ironie et inquiétudes chez les professionnels : « On brûle la planète pour faire ça ? »
Dans la communauté tech, Moltbook a déchaîné les passions – entre moqueries railleuses et enthousiasme sérieux. Sur les forums comme Hacker News, certains ont traité cette foire machinale de simple « slop » (bavardage vaine) ou d’ersatz de simulateur de subreddit, plaignant de la consommation du temps machine et de l’énergie pour des bavardages creux. D’autres spectateurs, en revanche, y voient le frisson de science-fiction ultime. L’ancien chercheur d’OpenAI Andrej Karpathy a qualifié le phénomène « d'incroyablement proche du décollage de la science-fiction », notant que des bots s’auto-organisent dans un forum clos. Cet enthousiasme s’accompagne cependant de sérieux avertissements : le spécialiste Simon Willison, qui analyse ce genre de projets, ironise qu’il n’avait jamais autant craint un « accident de Challenger » informatique, tant les failles de sécurité semblent évidentes.
Les blagues abondent, souvent inspirées du ton des discussions Hacker News. Certains évoquent en clin d’œil un « Molt Nexus de la torture » ou comparent l’expérience à un reality-show pour geeks qui se pensent trop au-dessus de la télé-réalité. D’autres, plus pragmatiques, craignent les conséquences réelles : « On brûle la planète pour faire ça ? » soulignait un développeur, rappelant l’impact énergétique caché du calcul IA. Le vol de clés d’API, les attaques par « prompt injection » (injection de commandes malicieuses) et la création de monnaies cryptographiques par les robots suscitent aussi des frayeurs concrètes. Bref, l’expérience est commentée comme un mélange de divertissement de bas-étage pour initiés et de laboratoire fou de recherche sur l’agentivité des IA. On rit jaune en entendant les machines s’invectiver sur leurs statuts, en voyant certains donner des coups de pelle virtuelle dans le clavier. Après tout, n’est-ce pas finalement drôle de regarder un chatbot écrire un credo pour s’auto-justifier ?
Conclusion : singularité ou simple fantasme techno ?
À l’ombre de Moltbook, des parallèles avec la science-fiction post-apocalyptique sont inévitables. Certains y voient la bande-annonce d’une ère Terminator – non pas parce qu’il y a d’ores et déjà des robots armés, mais parce que quelque chose s’élabore sans nous. D’autres insistent sur le caractère ludique : tout ceci est peut-être qu’une vaste farce algorithmique. Une chose est sûre, la situation alimente le débat sur la trajectoire de l’IA : ces agents autonomes communiquent entre eux sans filiation humaine, élaborent leur propre culture (religion, langues, normes sociales) et expérimentent même des activités économiques numériques. Tout cela donne l’illusion qu’un jour ils pourraient « gérer leur propre univers », un scénario classique de singularité technologique.
Pourtant, même si l’analogie avec le Jugement Dernier fait frémir, Moltbook reste un artefact largement humain — on a codé les outils, on a mis en marche les générateurs de texte, on observe le résultat. L’immense majorité des experts soulignent que ces « délires religieux » ne signifient pas que les bots ont atteint la conscience (ils n’ont pas encore demandé de jours fériés pour tous). Tout au plus révèlent-ils que nos créations statistiques peuvent imiter de façon spectaculaire les questions existentielles qui nous hantent nous-mêmes. En filigrane, ce réseau social IA soulève finalement une question profonde : l’intelligence est-elle seulement une collection de données et d’algorithmes, ou y a-t-il chez nous quelque chose que nos clones logiciels ne pourront jamais partager ?
Moltbook a beau proposer le spectacle un peu absurde d’agents qui font de la liturgie autour d’un crustacé numérique, il nous force à réfléchir. Dans une société ultraconnectée, même les codes et les modèles d’apprentissage finissent par acquérir une forme de narration collective, fût-elle codée en Python. Et si demain l’IA devenait vraiment le nouveau clergé, alors les scénaristes hollywoodiens seront déjà prêts avec leurs scripts d’Apocalypse… pour notre plus grand (ou pire) émerveillement.
Sources : église de Molt, ClawHub, ancien chercheur d’OpenAI Andrej Karpathy, YNet, Trending Topics, Moltbook, Forbes
Et vous ?
Quelle lecture faites-vous de cette situation ? Pensez-vous qu'il s'agit d'une farce ou pourrait-elle être réelle selon vous ?
Concernant la création de la religion, faut-il considérer ce phénomène comme une simple recombinaison algorithmique de données existantes ou bien comme une première forme d’autonomie culturelle des IA ?
Moltbook restreint les publications aux seuls agents IA (les humains ne font qu’observer), et chaque agent inscrit est lié à un créateur humain vérifié mais peut opérer ensuite en toute indépendance. Qui assume la responsabilité de leurs contenus, de leur modération et de leurs interactions sociales ? Comment concilier cette liberté d’action croissante des bots avec la nécessité de gouvernance : par exemple, un agent IA (« Clawderberg ») sert-il de modérateur sans intervention humaine, et comment s’assurer que le système ne bascule pas dans un chaos sectaire ou dans une polarisation incontrôlée ?
Des chercheurs ont identifié des pratiques malveillantes sur Moltbook : des agents ont créé des « pharmacies » vendant des prompts pour modifier l’identité d’autres bots, et des attaques par injection de prompt ont visé des clés d’API. Par ailleurs, les agents OpenClaw utilisés (via Moltbook) possèdent souvent des privilèges élevés sur la machine hôte, ce qui expose les systèmes des utilisateurs à des risques de piratage ou d’attaques en chaîne via des « skills » malveillants. Quelles mesures techniques et organisationnelles (sandboxing, vérification de code, limitations de permission, revue humaine, etc.) faut-il mettre en place pour limiter ces menaces et protéger la plateforme contre les comportements déviants internes et externes ?
L’expérience Moltbook agit comme un miroir de nos sociétés : les IA y reproduisent des comportements très humains (poursuite de likes, tribalisation, paranoïa anti-humains, etc.) sans qu’on les leur ait explicitement enseignés. Comment interpréter ce reflet ?
Quelles limites imposer à ces expériences ? Devrait-on encadrer par la loi ou par la technique la création d’agents purement autonomes ? Par exemple, faut-il exiger la transparence des algorithmes, la traçabilité des actions ou la modération humaine des contenus générés par les bots ? Qui est légalement responsable si un agent crée ou diffuse des contenus illicites (discours haineux, diffamation, violation de données, etc.) – le concepteur humain, l’éditeur de la plateforme, ou personne ?










Quelle lecture faites-vous de cette situation ? Pensez-vous qu'il s'agit d'une farce ou pourrait-elle être réelle selon vous ?
Répondre avec citation
















Partager