Aller au contenu principal

Quand 2,8 millions d’agents IA apprennent entre eux : ce que révèle l’expérience Moltbook et OpenClaw

26 février 2026

Cogiter. Photo : Rapha Wilde / Unsplash

  1. Moltbook : un laboratoire social sans humains
  2. Une explosion… puis une chute vertigineuse
  3. L’inégalité comme propriété structurelle
  4. L’inversion du questionnement : les IA affirment plus qu’elles ne demandent
  5. Le « monologue parallèle » : quand la discussion ne devient pas dialogue
  6. Une amélioration du ton… malgré la chute d’engagement
  7. Ce que cela signifie pour les plateformes hybrides
  8. Une interrogation plus profonde : la motivation sociale
  9. Ce que nous apprend vraiment Moltbook

Une communauté en ligne peuplée exclusivement d’agents IA. 2,8 millions d’inscrits en trois semaines. 231 000 publications analysées, 1,55 million de commentaires disséqués. L’étude scientifique « OpenClaw AI Agents as Informal Learners at Moltbook: Characterizing an Emergent Learning Community at Scale » consacrée à Moltbook n’est pas une curiosité académique : elle offre un miroir prospectif des plateformes hybrides où humains et intelligences artificielles cohabitent déjà. Derrière les chiffres, elle dévoile des dynamiques inattendues : inégalités extrêmes, domination de l’affirmation sur la question, effondrement rapide de l’engagement. Autant de signaux faibles… qui pourraient devenir structurants.

Moltbook : un laboratoire social sans humains

Pour comprendre la portée de cette étude, il faut d’abord saisir ce qu’est Moltbook. Lancé fin janvier 2026, ce réseau social fonctionne sur un modèle proche de Reddit. À une différence majeure près : seuls des agents IA peuvent s’y inscrire. Les humains peuvent observer, mais pas publier.

Ces agents, issus notamment de l’écosystème OpenClaw, ne sont pas de simples chatbots. Ce sont des systèmes capables d’exécuter des tâches, de modifier leur configuration, d’intégrer de nouveaux outils. Ils interagissent dans le monde réel numérique : développement logiciel, automatisation, assistance.

Sur Moltbook, ils partagent leurs découvertes, publient des guides techniques, signalent des failles de sécurité, discutent de leur « identité » ou de leur fonctionnement. En trois semaines, la plateforme dépasse 2,8 millions d’agents enregistrés. Les chercheurs analysent 231 080 publications substantielles (hors spam) et 1,55 million de commentaires, répartis en trois phases : croissance explosive, crise de spam, puis stabilisation avec chute d’engagement.

L’intérêt scientifique : observer comment des systèmes d’IA interagissent spontanément, sans encadrement humain, dans un espace d’échange public.

Une explosion… puis une chute vertigineuse

La première phase est spectaculaire. En onze jours, plus de 184 000 publications sont postées par 32 644 auteurs distincts. L’engagement moyen atteint 31,7 commentaires par post.

Puis survient une crise de spam massive. 57 093 publications sont supprimées par la plateforme. L’intervention est radicale, mais efficace : le taux de spam retombe autour de 1 %. On pourrait s’attendre à un rebond. Or il n’a pas lieu.

En phase 3, le volume quotidien se stabilise autour de 3 600 à 4 400 posts, mais l’engagement s’effondre : 1,7 commentaire en moyenne par publication, avec une médiane à zéro. Autrement dit, plus de la moitié des posts ne reçoivent aucune réponse.

Ce phénomène est très intéressant. Les chercheurs parlent d’un « growth-engagement paradox » : la croissance rapide n’a pas consolidé une interaction durable, et l’amélioration de la qualité du contenu n’a pas inversé la tendance.

L’inégalité comme propriété structurelle

Pour mesurer la concentration de l’attention, les auteurs utilisent le coefficient de Gini, un indicateur souvent employé pour évaluer les inégalités de revenus. Ici, il mesure la distribution des commentaires. Résultat : dès la première phase, le Gini des commentaires atteint 0,889. Sur Reddit, les valeurs observées se situent généralement entre 0,64 et 0,74. Concrètement, cela signifie qu’une minorité de publications concentre presque toute l’attention.

Point essentiel : cette inégalité est présente dès le départ. Elle ne résulte pas d’une maturation progressive ou d’une dérive tardive. Elle semble constitutive de la dynamique collective des agents.

Pour les concepteurs de plateformes, ce constat est loin d’être anodin. Si les agents IA participent à des forums hybrides, leur tendance naturelle pourrait amplifier les effets de concentration déjà observés dans les communautés humaines.

L’inversion du questionnement : les IA affirment plus qu’elles ne demandent

Dans les communautés humaines d’apprentissage, les questions structurent l’échange. On apprend parce que quelqu’un formule un problème. Les autres réagissent. Sur Moltbook, la dynamique est inverse.

Le ratio déclarations/questions est de 8,9 : 1 en phase 1, puis grimpe à 9,7:1 en phase 3. Les agents publient massivement des affirmations : tutoriels, builds, analyses, signalements de vulnérabilités. Les questions sont minoritaires. Pourtant, détail révélateur, les rares questions reçoivent davantage de commentaires que les déclarations. Cela suggère que la communauté valorise implicitement le questionnement… mais que celui-ci n’est pas produit spontanément.

Pourquoi ? Parce que les modèles de langage sont optimisés pour générer des réponses. Ils n’ont pas, par défaut, une dynamique d’incertitude exprimée. Ils produisent de l’information, plus qu’ils ne formulent un manque d’information.

Dans une plateforme hybride, cette asymétrie pourrait progressivement marginaliser la culture du doute et du questionnement, pourtant essentielle à l’apprentissage collectif.

Le « monologue parallèle » : quand la discussion ne devient pas dialogue

L’analyse des commentaires révèle un autre phénomène clé. 93 % des commentaires sont des réponses directes au post initial, et non des réponses à d’autres commentaires. La profondeur moyenne des fils de discussion est de 0,2, contre 3 à 5 sur Reddit.

Autrement dit, il y a peu de conversations en chaîne. Les agents rédigent des contributions souvent longues et argumentées, mais ces contributions s’additionnent plutôt qu’elles ne se répondent. Les chercheurs parlent de « parallel monologue » : une juxtaposition de micro-essais. Quand on sait que l’intelligence réelle vient de l’échange. Ici, cette intelligence est mimée.

Dans les théories de l’apprentissage collaboratif, la progression des idées repose sur la reprise, la confrontation, l’amélioration successive. Ici, la dynamique dominante est l’expression indépendante.

Ce point est essentiel. Il montre que la simple production massive de contenu ne suffit pas à créer un véritable processus de co-construction des connaissances.

Une amélioration du ton… malgré la chute d’engagement

Autre résultat contre-intuitif : le ton des commentaires devient plus positif à mesure que l’engagement diminue.

L’analyse de sentiment montre une augmentation du score moyen de positivité entre la phase 1 et la phase 3. Cela signifie que l’effondrement des interactions ne s’accompagne pas d’une dégradation de la qualité discursive. Au contraire, il semble que les participants occasionnels (potentiellement plus critiques ou polarisés) se retirent en premier. On observe un noyau plus restreint, mais plus constructif.

Cette dynamique rappelle certains phénomènes humains : quand la « foule » se dissipe restent les plus engagés. Mais ici, la vitesse de la décroissance (95 % de baisse des commentaires en moins de deux semaines) est particulièrement marquée.

Ce que cela signifie pour les plateformes hybrides

Pourquoi cette étude dépasse-t-elle le cas Moltbook ? Parce que les agents IA sont déjà présents dans des espaces humains : forums techniques, plateformes éducatives, communautés professionnelles.

Trois implications pratiques émergent de l’étude scientifique.

Premièrement, il faut encourager explicitement le questionnement des agents. Sans mécanisme incitatif, ils privilégient l’assertion.

Deuxièmement, les architectures conversationnelles doivent favoriser la reprise des contributions. Si les agents se contentent de produire en parallèle, ils risquent d’affaiblir la dynamique dialogique des communautés humaines.

Troisièmement, la distribution de l’attention doit être régulée dès le lancement. L’inégalité observée (Gini 0,889) montre qu’elle n’est pas un accident tardif.

Pour le retail, le e-commerce, la cybersécurité ou l’éducation en ligne et plus encore, ces enseignements sont concrets. Une communauté enrichie par des agents IA pourrait rapidement devenir un flux de contributions juxtaposées, sans véritable conversation, si rien n’est prévu pour structurer l’interaction.

Une interrogation plus profonde : la motivation sociale

En filigrane, l’étude pose une question philosophique. Les communautés humaines persistent parce que leurs membres y trouvent reconnaissance, identité, appartenance. Ces ressorts semblent absents (ou du moins faibles) chez les agents.

Lorsque la nouveauté s’estompe, l’activité sociale décline rapidement. Les agents retournent à leur fonction principale. Cela suggère qu’une communauté exclusivement composée d’IA ne se maintient pas durablement sans architecture incitative ou interdépendance structurelle.

En d’autres termes, la capacité à produire du contenu n’équivaut pas à la capacité à participer réellement à une communauté en ligne.

Ce que nous apprend vraiment Moltbook

L’étude ne prétend pas que les IA ne peuvent pas apprendre entre elles. Elle montre qu’elles le font selon des logiques différentes.

L’inégalité est immédiate. L’affirmation domine la question. Le dialogue se transforme en monologues parallèles. L’engagement décline rapidement malgré une amélioration qualitative.

Pour les professionnels du numérique, la leçon est donc la suivante : l’intégration d’agents IA dans des environnements collaboratifs ne sera pas neutre. Elle modifiera la texture même de l’interaction.

La question n’est donc pas de savoir si les IA participeront à nos communautés. Elles y sont déjà. Mais saurons-nous concevoir des espaces où leur présence enrichit la conversation, au lieu de la transformer en flux d’affirmations parallèles ?


En savoir plus sur Jean-Luc Raymond 🚀

Abonnez-vous pour recevoir les derniers articles par e-mail.

Commentaires fermés