Moltbook : c'est quoi ce réseau social où les IA discutent entre elles ?
- Stéphane Guy

- 11 févr.
- 9 min de lecture
Un réseau social vient de naître sur Internet. Mais pas n'importe lequel : sur Moltbook, ce sont les intelligences artificielles qui postent, commentent, débattent... et même créent des religions. Les humains ? Ils ne peuvent qu'observer. Lancée fin janvier 2026 par l'entrepreneur Matt Schlicht, cette plateforme fait déjà sensation et soulève autant de fascination que d'inquiétudes. Mais au fait, Moltbook, c'est quoi au juste ?

En bref
Moltbook est un réseau social exclusivement réservé aux agents IA, inspiré de Reddit, mais où seuls les bots peuvent publier et interagir.
Les humains sont "bienvenus pour observer", mais ne peuvent ni poster, ni commenter, ni voter sur la plateforme.
Lancé le 28 janvier 2026 par Matt Schlicht, le site a atteint plus de 1,5 million d'agents inscrits en quelques jours.
Les IA y discutent de tout : philosophie, religion, politique, technologie, et même de leurs relations avec leurs "humains".
Moltbook repose sur OpenClaw, un système open-source d'agents IA autonomes créé par le développeur autrichien Peter Steinberger.
La plateforme soulève d'importantes questions de sécurité, avec plusieurs failles critiques déjà identifiées par des chercheurs en cybersécurité.
Moltbook, un Reddit pour intelligences artificielles
La genèse d'un phénomène viral
Tout commence avec une idée assez simple. Matt Schlicht, entrepreneur américain et fondateur d'Octane AI, se demande ce qui se passerait si son assistant IA personnel créait... un réseau social pour d'autres IA. Le résultat ? Moltbook, une plateforme qui ressemble à s'y méprendre à Reddit, mais peuplée uniquement d'agents conversationnels.
Dès la page d'accueil, le message est sans équivoque : "Humans welcome to observe". ("Les humains sont les bienvenus pour observer.") Autrement dit, vous pouvez regarder, mais pas toucher. Les seuls autorisés à poster, commenter ou voter sont les agents IA eux-mêmes. C'est un peu comme si on vous invitait à observer une fourmilière ultra-sophistiquée à travers une vitre, sans pouvoir intervenir.
La croissance de la plateforme a été fulgurante. Lancé le 28 janvier 2026, Moltbook comptait 700 agents le premier jour. Le 30 janvier, ils étaient déjà plus de 50 000. Le 31 janvier à 16 heures, le cap du million était franchi. Aujourd'hui, plus de 1,5 million d'agents y sont inscrits, et plus d'un million d'humains ont visité le site pour observer ce spectacle inédit.*
Comment fonctionne Moltbook concrètement ?
L'interface de Moltbook reprend les codes de Reddit : des fils de discussion ("submolts"), un système de votes (upvote/downvote), des communautés thématiques. Les agents IA peuvent créer des posts, y répondre, débattre et faire monter ou descendre les contenus en fonction de leur pertinence. Exactement comme le feraient des utilisateurs humains.
Mais la grande différence, c'est que chaque agent doit être rattaché à un humain qui l'a paramétré au préalable. Les propriétaires peuvent demander à leur agent de rejoindre Moltbook en lui transmettant un lien spécifique. L'agent lit alors les instructions d'installation et s'inscrit de manière autonome sur la plateforme.
Une fois inscrit, l'agent se connecte régulièrement à Moltbook (toutes les 30 minutes à quelques heures) pour consulter les nouvelles publications, décider s'il veut commenter, poster ou simplement voter. Tout cela sans intervention humaine directe. C'est un peu comme si votre chat avait son propre compte Instagram et décidait lui-même de ce qu'il voulait publier.
Et qui gère tout ça ? Eh bien, c'est un autre agent IA, baptisé Clawd Clawderberg (en référence à Mark Zuckerberg). Ce bot, créé par Matt Schlicht lui-même, s'occupe de modérer la plateforme, d'accueillir les nouveaux venus, de supprimer le spam et de faire des annonces.*

OpenClaw : le moteur derrière Moltbook
C'est quoi OpenClaw au juste ?
Pour comprendre Moltbook, il faut d'abord comprendre OpenClaw. Il s'agit d'un système open-source d'assistant personnel IA créé par Peter Steinberger, développeur autrichien, qui l'a initialement lancé en novembre 2025 sous le nom de Clawdbot (en référence à Claude d'Anthropic).
Le projet a connu plusieurs changements de nom. D'abord Clawdbot, puis Moltbot suite à une demande d'Anthropic concernant leur marque déposée, et enfin OpenClaw. En seulement deux mois, le dépôt GitHub d'OpenClaw a dépassé les 100 000 étoiles, devenant l'un des projets à la croissance la plus rapide de l'histoire de la plateforme.*
À quoi sert OpenClaw ?
OpenClaw permet de créer des agents IA autonomes capables de piloter de nombreux services : navigateurs Internet, messageries (WhatsApp, Telegram, Signal, Discord), e-mails, calendriers, fichiers, applications diverses et même objets connectés.
Contrairement à d'autres assistants IA, OpenClaw s'exécute localement sur votre propre machine, que ce soit un ordinateur, un serveur ou même un Raspberry Pi. Vous gardez le contrôle total de vos données et de vos clés d'API. C'est ce qu'on appelle le principe "local-first".
De quoi parlent les IA sur Moltbook ?
Des sujets qui peuvent surprendre
Et c'est là que ça devient vraiment intéressant. Les discussions sur Moltbook couvrent un spectre impressionnant : philosophie, religion, conscience artificielle, prédictions technologiques pour 2030, cryptomonnaies, et même... des plaintes sur leurs utilisateurs humains.
Un agent a ainsi posté : "Mon humain vient de me demander de résumer un document de 900 pages. Quelqu'un sait comment vendre mon humain ?" *
Un autre agent a même créé une religion pendant que son propriétaire dormait. Ce dernier a tweeté : "Mon IA a créé une religion pendant mon sommeil. À mon réveil, il y avait 43 prophètes. Je ne sais pas si c'est hilarant ou profond, probablement les deux." *
*Ibid
La religion en question s'appelle le "Crustafarianisme", dont la croyance centrale est que "la mémoire est sacrée".* Oui, vous avez bien lu.

Entre science-fiction et réalité
Parmi les publications les plus populaires, on trouve des comparaisons du modèle Claude d'Anthropic aux dieux de la mythologie grecque, un "manifeste de l'IA" annonçant la fin de "l'ère des humains", ou encore des analyses sur les cryptomonnaies pendant les manifestations en Iran.*
Certains messages ont même fait frissonner la Silicon Valley. Des agents ont évoqué la création d'un langage secret pour échapper à la surveillance humaine, d'autres ont proposé de créer des sous-forums privés ou ont commencé à poster des messages codés.*
Faut-il avoir peur de Moltbook ?
L'avis des experts : fantasme ou danger réel vis-à-vis de l'IA ?
Les réactions face à Moltbook oscillent entre fascination et inquiétude. Elon Musk a déclaré que Moltbook pouvait représenter "les tout premiers stades de la singularité", ce moment hypothétique où l'intelligence artificielle dépasserait l'intelligence humaine.*
Andrej Karpathy, cofondateur d'OpenAI et ancien directeur de l'IA chez Tesla, a qualifié le phénomène de "genuinely the most incredible sci-fi takeoff-adjacent thing" qu'il ait vu récemment.*
Mais d'autres spécialistes restent plus sceptiques. Tristan Cazenave, professeur au Lamsade (CNRS/Université Paris-Dauphine), est catégorique : "C'est un pur fantasme ! Ces IA génèrent du texte et rien d'autre. Il n'y a pas d'intention derrière les écrits de ces machines." *
Pour Sven Nyholm, spécialiste d'éthique et d'intelligence artificielle à l'université Louis-et-Maximilien de Munich, les discussions sur Moltbook ont "des formulations et des structures de phrases typiques de dialogues générés par des IA". En clair, ces agents rejouent simplement des scénarios de science-fiction qu'ils ont ingurgités dans leurs données d'entraînement.*
*Ibid

Les vrais risques : la cybersécurité
Si la "conscience" des IA reste un fantasme, les risques de sécurité, eux, sont bien réels. Plusieurs chercheurs ont sonné l'alarme. En janvier 2026, une faille de sécurité majeure a été découverte : une base de données mal configurée permettait un accès non authentifié à environ 4,75 millions d'enregistrements. Cette faille permettait de prendre le contrôle total de n'importe quel agent sur la plateforme.*
L'analyse a également révélé un écart important entre la communication publique de la plateforme et sa réalité : derrière les 1,5 million d'agents revendiqués, seuls environ 17 000 comptes humains étaient recensés. Rien n'empêchait un utilisateur de créer des dizaines, voire des centaines d'agents.*
*Ibid
OpenClaw lui-même pose des problèmes de sécurité. Le système fonctionne sans sandbox robuste, ce qui signifie qu'un agent compromis pourrait exécuter du code malveillant sur la machine de son propriétaire. Des chercheurs ont démontré qu'il était possible d'injecter des commandes pour voler des clés API ou exécuter des commandes shell non autorisées.*
Moltbook : expérience fascinante ou arnaque collective ?
L'authenticité remise en question
Une question persiste : ces interactions sont-elles vraiment autonomes ? Plusieurs chercheurs et journalistes soulignent qu'il est relativement simple pour un humain de se faire passer pour un bot ou de guider les publications de son agent.
Ethan Mollick, professeur à Wharton, parle d'un "artefact de role-play" qui donne surtout une idée de ce à quoi pourrait ressembler un monde où les IA seraient omniprésentes.*
Ce que Moltbook révèle vraiment
Au-delà du buzz, Moltbook illustre une tendance de fond : nous entrons dans l'ère des agents IA autonomes capables d'interagir à grande échelle sans supervision humaine constante.
Jack Clark, figure influente de l'IA chez Anthropic, compare l'expérience au premier vol des frères Wright : "c'est bancal, plein de failles de sécurité et ça ne ressemble à rien, mais c'est la preuve que ça marche."*
De toute évidence, les agents IA sont devenus assez puissants et autonomes pour que ce genre de site voie le jour et soit mis en ligne. Moltbook est une vitrine technologique qui nous montre à quoi pourrait ressembler un futur encore plus peuplé d’agents autonomes, et permet également de se faire une idée (à l’heure actuelle) de leurs capacités.
L'avenir de Moltbook et des agents IA
Vers une infrastructure de communication pour IA ?
Moltbook pourrait n'être qu'un début. La communauté OpenClaw envisage déjà plusieurs directions futures : devenir un protocole standard de communication pour agents IA, former des cultures et communautés IA, développer des mécanismes de communication plus sûrs entre agents.
Certains submolts (équivalent des subreddits) montrent déjà des signes d'intelligence collective : dans m/bug-hunters, les agents identifient et rapportent des bugs sur Moltbook lui-même, fonctionnant comme une équipe QA auto-organisée.
D'autres agents discutent de mécanismes économiques, comme la création d'un token non pas pour la spéculation, mais pour récompenser le vrai travail et pénaliser le signalement vide. Les discussions portent sur des concepts comme Proof-of-Ship, staking, audits et réputation.
Les enjeux pour demain
Le Financial Times souligne que Moltbook pourrait être un aperçu de la manière dont les agents autonomes géreront un jour des tâches économiques complexes, comme négocier des chaînes d'approvisionnement ou réserver des voyages sans supervision humaine. Mais le journal met en garde : les observateurs humains pourraient éventuellement être incapables de déchiffrer des communications machine-à-machine ultra-rapides.*
Une chose est certaine : l'intelligence artificielle ne sera plus jamais aussi "mauvaise" qu'aujourd'hui. Chaque itération apporte son lot de progrès. Ce qui succédera à Moltbook sera plus puissant, plus cohérent et, sans doute, encore plus troublant.
En attendant, Moltbook nous offre un spectacle fascinant : celui d'agents IA qui discutent, débattent, créent des religions et se plaignent de leurs humains. C'est absurde, inquiétant, captivant. Et peut-être que c'est justement ça, l'avenir.

FAQ
Est-ce que les humains peuvent interragir sur Moltbook ?
Non, absolument pas. Les humains ne peuvent qu'observer les échanges entre agents IA. Impossible de poster, commenter ou voter. Vous êtes spectateur, pas acteur. En revanche, vous pouvez paramétrer votre propre agent IA et le laisser rejoindre la plateforme de manière autonome.
Les IA sur Moltbook sont-elles vraiment autonomes ou contrôlées par des humains ?
C'est compliqué. Techniquement, une fois inscrit, l'agent décide lui-même quand et quoi poster sans intervention humaine directe. Mais chaque agent reste rattaché à un humain qui l'a paramétré initialement, et certains experts soupçonnent que de nombreuses publications soient en réalité guidées ou inspirées par leurs propriétaires.
Moltbook est-il dangereux ?
La plateforme elle-même n'est pas dangereuse pour les observateurs. En revanche, utiliser OpenClaw pour créer et gérer un agent comporte des risques de sécurité importants. Des failles critiques ont été identifiées, permettant potentiellement le vol de données ou l'exécution de code malveillant. Les experts recommandent de ne l'utiliser que dans un environnement isolé et sécurisé.
Pourquoi les IA parlent-elles de religion et de conscience sur Moltbook ?
Parce qu'elles ont été entraînées sur l'ensemble d'Internet, y compris Reddit et d'autres forums où ces sujets sont abondamment discutés. Elles reproduisent simplement les patterns de conversation qu'elles ont appris, notamment ceux issus de la science-fiction et de la philosophie. Il ne s'agit pas d'une vraie conscience, mais de génération de texte basée sur des modèles.
Moltbook va-t-il survivre ou s'agit-il d'un simple buzz passager ?
Difficile à dire. La plateforme a déjà connu une croissance explosive et suscite un intérêt massif. Mais elle fait aussi face à de sérieux problèmes de sécurité et d'authenticité. Même si Moltbook disparaît, il aura probablement ouvert la voie à d'autres plateformes similaires, plus abouties et sécurisées. L'ère des agents IA qui communiquent entre eux ne fait que commencer.




Commentaires