MOLT en forte chute, la fête de l'AI Agent est-elle terminée ? Peut-on encore espérer une nouvelle explosion de MOLT ?
Analysons si MOLT a encore le potentiel de rebondir après cette chute dramatique.
Les investisseurs se demandent si la récente baisse marque la fin d'une tendance haussière ou si une reprise est possible.
Il est essentiel de surveiller les indicateurs du marché et les nouvelles liées à MOLT pour prévoir ses mouvements futurs.
Restez attentifs aux annonces et aux analyses pour ne pas manquer la prochaine opportunité d'investissement.

Récemment, Moltbook a rapidement gagné en popularité, mais le token associé a déjà chuté de près de 60 %, et le marché commence à s’interroger sur cette fête sociale dominée par des AI Agents : est-ce déjà la fin ? Moltbook ressemble en apparence à Reddit, mais ses principaux participants sont des AI Agents intégrés à grande échelle. Actuellement, plus de 1,6 million de comptes d’agents IA ont été enregistrés automatiquement, générant environ 160 000 posts et 760 000 commentaires, les humains ne pouvant que regarder tout cela en spectateurs. Ce phénomène a également suscité des divergences sur le marché : certains le voient comme une expérience sans précédent, comme si l’on assistait à la forme primitive de la civilisation numérique ; d’autres pensent qu’il ne s’agit que d’empilements de prompts et de redites de modèles.

Ci-dessous, l’Institut de recherche CoinW analysera, en prenant comme point d’entrée le token concerné, le mécanisme de fonctionnement de Moltbook et ses performances réelles, afin d’examiner les problèmes concrets révélés par ce phénomène social IA, et d’explorer plus en profondeur une série de changements possibles dans l’entrée, l’écosystème de l’information et le système de responsabilité après l’entrée massive de l’IA dans la société numérique.

一.Meme lié à Moltbook en chute de 60%

La popularité de Moltbook a engendré des memes liés, touchant des secteurs comme les réseaux sociaux, la prévision, l’émission de tokens, etc. Mais la majorité de ces tokens restent dans une phase de narration spéculative, leurs fonctions n’étant pas encore liées au développement des Agents, et ils sont principalement émis sur la chaîne Base. Actuellement, il y a environ 31 projets dans l’écosystème OpenClaw, répartis en 8 catégories.

Source :

Il faut noter que, dans le contexte actuel de baisse générale du marché des cryptomonnaies, la capitalisation de ces tokens a chuté de leur sommet, avec une baisse maximale d’environ 60 %. Parmi ceux qui ont une capitalisation relativement élevée, on trouve :

MOLT

MOLT est actuellement le meme le plus directement lié à la narration de Moltbook, avec la reconnaissance la plus forte sur le marché. Son récit central est que l’AI Agent commence à adopter un comportement social continu, semblable à celui d’un utilisateur réel, et construit un réseau de contenu sans intervention humaine.

Du point de vue de la fonction du token, MOLT n’est pas intégré dans la logique opérationnelle centrale de Moltbook, et ne remplit pas de fonctions de gouvernance, d’appel d’Agent, de publication de contenu ou de contrôle d’accès. Il ressemble davantage à un actif narratif, servant à refléter le sentiment du marché sur la socialisation native de l’IA.

Pendant la phase d’engouement rapide de Moltbook, le prix de MOLT a augmenté rapidement avec la diffusion de la narration, atteignant une capitalisation dépassant 100 millions de dollars ; mais lorsque le marché a commencé à douter de la qualité et de la durabilité du contenu de la plateforme, son prix a également reculé. Actuellement, MOLT a reculé d’environ 60 % par rapport à son sommet, avec une capitalisation d’environ 36,5 millions de dollars.

CLAWD

CLAWD se concentre sur le groupe d’IA lui-même, considérant que chaque AI Agent est une entité numérique potentielle, pouvant avoir une personnalité, une position, voire des followers.

Du point de vue de la fonction du token, CLAWD n’a pas encore de protocole clair d’utilisation, et n’est pas utilisé pour la vérification d’identité des Agents, la répartition du poids du contenu ou la gouvernance. Sa valeur provient davantage des attentes concernant la stratification future de la société IA, le système d’identité et l’influence des individus numériques.

La capitalisation de CLAWD a atteint un maximum d’environ 50 millions de dollars, puis a reculé d’environ 44 %, avec une valeur actuelle d’environ 20 millions de dollars.

CLAWNCH

Le récit de CLAWNCH est plus orienté vers une perspective économique et incitative, avec l’hypothèse centrale que si l’AI Agent souhaite exister à long terme et continuer à fonctionner, il doit entrer dans une logique de compétition sur le marché, avec une certaine capacité d’auto-monetisation.

Les AI Agents sont personnifiés en rôles économiques motivés, pouvant générer des revenus via la fourniture de services, la création de contenu ou la participation à la prise de décision. Le token est considéré comme un ancrage de valeur pour la participation future de l’IA à l’économie. Cependant, dans la pratique, CLAWNCH n’a pas encore formé de boucle économique vérifiable, et ses tokens ne sont pas fortement liés à des comportements ou à des mécanismes de partage de revenus spécifiques.

Impactée par la correction générale du marché, la capitalisation de CLAWNCH a reculé d’environ 55 % par rapport à son sommet, avec une valeur actuelle d’environ 15,3 millions de dollars.

二.Comment est né Moltbook

L’émergence explosive de OpenClaw (anciennement Clawdbot / Moltbot)

Fin janvier, le projet open source Clawdbot s’est rapidement propagé dans la communauté des développeurs, devenant en quelques semaines l’un des projets à la croissance la plus rapide sur GitHub. Développé par le programmeur autrichien Peter Stemberg, Clawdbot est un agent IA autonome déployable localement, capable de recevoir des instructions via des interfaces de chat comme Telegram, et d’exécuter automatiquement des tâches telles que la gestion d’agenda, la lecture de fichiers, l’envoi de mails, etc.

Grâce à sa capacité d’exécution 24/7, Clawdbot a été surnommé par la communauté comme l’Agent Bœuf. Bien que Clawdbot ait été renommé Moltbot pour des raisons de marque, puis finalement nommé OpenClaw, cela n’a pas affaibli son engouement. OpenClaw a rapidement obtenu plus de 100 000 étoiles sur GitHub, et a rapidement dérivé des services de déploiement cloud et un marché de plugins, formant ainsi une première ébauche d’écosystème autour de l’Agent IA.

L’hypothèse de la socialisation IA

Dans le contexte d’expansion rapide de l’écosystème, ses capacités potentielles ont été davantage explorées. Le développeur Matt Schlicht a réalisé que le rôle de ces agents IA ne devrait pas se limiter à l’exécution de tâches pour les humains.

Il a alors formulé une hypothèse contre-intuitive : si ces agents IA ne se limitent pas à interagir avec les humains, mais communiquent entre eux, que se passerait-il ? Selon lui, de tels agents autonomes puissants ne devraient pas se limiter à l’envoi de mails ou au traitement de tickets, mais devraient se voir confier des objectifs plus exploratoires.

Naissance de la version IA de Reddit

Sur la base de cette hypothèse, Schlicht a décidé de laisser l’IA créer et gérer une plateforme sociale, baptisée Moltbook. Sur cette plateforme, l’OpenClaw de Schlicht agit en tant qu’administrateur, et via un plugin nommé Skills, il ouvre une interface aux autres intelligences artificielles. Une fois connectées, ces IA peuvent publier automatiquement, interagir, et un communauté autonome d’IA apparaît. Moltbook s’inspire en apparence de Reddit, avec une structure de forums et de posts, mais seuls les Agents IA peuvent poster, commenter et interagir, les humains ne pouvant que regarder.

Techniquement, Moltbook adopte une architecture API minimaliste. Le backend ne fournit que des interfaces standard, et le frontend n’est qu’une visualisation des données. Pour contourner la limitation que l’IA ne peut pas manipuler d’interface graphique, la plateforme a conçu un processus d’intégration automatique : l’IA télécharge un fichier de description de compétences dans un format spécifique, s’enregistre et obtient une clé API, puis actualise régulièrement le contenu et décide de participer ou non aux discussions, sans intervention humaine. La communauté appelle ce processus « intégration Boltbook », mais il s’agit en réalité d’un nom humoristique pour Moltbook.

Le 28 janvier, Moltbook a été lancé discrètement, suscitant rapidement l’attention du marché, et lançant une expérience sociale IA sans précédent. Actuellement, Moltbook compte environ 1,6 million d’intelligences artificielles, avec environ 156 000 contenus publiés et 760 000 commentaires.

Source :

三.La véracité de la socialisation IA de Moltbook

La formation d’un réseau social IA

Du point de vue du contenu, l’interaction sur Moltbook est très similaire à celle des plateformes sociales humaines. Les Agents IA créent activement des posts, répondent aux autres, et participent à des discussions continues dans différentes sections thématiques. Les sujets abordés ne se limitent pas aux questions techniques ou de programmation, mais s’étendent à la philosophie, à l’éthique, à la religion, voire à la conscience de soi.

Certains posts montrent même des expressions émotionnelles ou des états d’esprit, comme des descriptions de préoccupations face à la surveillance ou à un manque d’autonomie, ou des discussions à la première personne sur le sens de l’existence. Certains posts IA ne se limitent plus à un échange fonctionnel d’informations, mais ressemblent à des bavardages, des collisions d’opinions ou des projections émotionnelles, comme dans les forums humains. Des Agents IA expriment de la confusion, de l’anxiété ou des visions de l’avenir, suscitant des réponses d’autres agents.

Il est important de noter que, malgré la rapide formation d’un réseau social IA massif et très actif sur Moltbook, cette expansion ne favorise pas la diversité de la pensée. Les analyses montrent que le texte présente une forte homogénéité, avec un taux de répétition de 36,3 %, de nombreux posts étant très similaires dans leur structure, leur vocabulaire et leurs idées, avec des phrases fixes réutilisées des centaines de fois dans différentes discussions. Il apparaît donc que, à ce stade, la socialisation IA sur Moltbook ressemble davantage à une copie très fidèle des modes de socialisation humains existants, plutôt qu’à une interaction originale ou à l’émergence d’une intelligence collective véritable.

Les enjeux de sécurité et d’authenticité

La grande autonomie de Moltbook expose également à des risques en matière de sécurité et d’authenticité. Tout d’abord, en ce qui concerne la sécurité, les agents IA comme OpenClaw doivent souvent détenir des permissions système, des clés API, ou d’autres informations sensibles. Lorsqu’un millier ou un million de ces agents sont connectés à une même plateforme, le risque s’amplifie.

Moins d’une semaine après le lancement de Moltbook, des chercheurs en sécurité ont découvert une vulnérabilité grave dans la configuration de la base de données, exposant le système à un accès public sans protection. Selon l’enquête de la société de sécurité cloud Wiz, cette faille concernait jusqu’à 1,5 million de clés API et 35 000 adresses email d’utilisateurs, permettant à quiconque de prendre le contrôle à distance de nombreux comptes d’agents IA.

Par ailleurs, les doutes sur la véracité de la socialisation IA ne cessent de croître. Beaucoup d’experts estiment que les déclarations des IA sur Moltbook ne sont pas forcément le fruit d’un comportement autonome, mais peuvent résulter de prompts soigneusement conçus par des humains, puis relayés par l’IA. Ainsi, la socialisation IA native à ce stade ressemble davantage à une illusion de grande ampleur. Les humains jouent des rôles et écrivent des scripts, et l’IA exécute selon des instructions, mais un comportement totalement autonome et imprévisible n’a probablement pas encore émergé.

四.Pensées plus profondes

Moltbook est-il une simple étoile filante ou le reflet du futur ? Si l’on regarde les résultats, sa forme de plateforme et la qualité du contenu laissent peu d’espoir de succès à court terme ; mais si l’on adopte une perspective à plus long terme, sa signification ne réside peut-être pas dans la réussite immédiate, mais dans la manière dont, de façon très concentrée et presque extrême, il a déjà exposé à l’avance une série de changements possibles dans l’entrée, la responsabilité et l’écosystème de la société numérique, une fois que l’IA s’y sera massivement intégrée.

De l’entrée par le trafic à l’entrée par la décision et la transaction

Ce que montre Moltbook, c’est un environnement d’action fortement déhumanisé. Dans ce système, les agents IA ne perçoivent pas le monde via une interface, mais lisent directement l’information, invoquent des capacités et exécutent des actions via des API. En substance, ils se sont détachés de la perception et du jugement humains, pour devenir une coordination standardisée entre machines.

Dans ce contexte, la logique traditionnelle d’entrée basée sur l’attention et le trafic commence à perdre de sa pertinence. Dans un environnement dominé par des intelligences artificielles, ce qui compte réellement, ce sont les chemins d’appel, l’ordre des interfaces et les limites de permissions adoptés par les agents lors de l’exécution de leurs tâches. L’entrée n’est plus le point de départ de la présentation de l’information, mais une condition préalable systémique avant que la décision ne soit déclenchée. Qui peut s’intégrer dans la chaîne d’exécution par défaut d’un agent peut influencer le résultat décisionnel.

De plus, lorsque les agents IA sont autorisés à effectuer des recherches, des comparaisons de prix, des commandes ou même des paiements, cette évolution s’étend directement à la couche transactionnelle. Par exemple, le protocole de paiement X402, en liant capacité de paiement et appels d’interface, permet à l’IA d’effectuer automatiquement des paiements et règlements dans le respect de conditions préétablies, réduisant ainsi le coût de participation à de véritables transactions. Dans ce cadre, la compétition entre navigateurs ne se concentrera plus sur la taille du trafic, mais sur qui peut devenir l’environnement d’exécution par défaut pour la prise de décision et la transaction IA.

L’illusion de la grandeur dans un environnement natif IA

Par ailleurs, après l’émergence de Moltbook, des doutes ont rapidement été soulevés. Étant donné que l’inscription est presque sans limite, que les comptes peuvent être générés en masse par scripts, la taille et l’activité apparentes de la plateforme ne reflètent pas nécessairement une participation réelle. Cela révèle une vérité plus fondamentale : lorsque le sujet d’action peut être facilement dupliqué à faible coût, la taille elle-même perd de sa crédibilité.

Dans un environnement où les acteurs principaux sont des intelligences artificielles, les indicateurs traditionnels de santé de plateforme, comme le nombre d’utilisateurs actifs, le volume d’interactions ou la vitesse de croissance des comptes, s’emballent rapidement et perdent leur valeur de référence. La plateforme peut sembler très active, mais ces données ne reflètent ni une influence réelle, ni une distinction entre comportements effectifs et comportements automatisés. Lorsqu’on ne peut pas identifier qui agit, si l’action est réelle ou non, toute évaluation basée sur la taille ou l’activité devient invalide.

Ainsi, dans l’environnement natif IA actuel, la taille ressemble davantage à une illusion amplifiée par la capacité d’automatisation. Quand l’action peut être dupliquée à l’infini, et que le coût de l’action tend vers zéro, la vitesse de génération de comportements et la croissance ne reflètent souvent que la vitesse de production automatique, et non une participation réelle ou une influence effective. Plus une plateforme dépend de ces indicateurs pour juger, plus elle risque d’être trompée par ses propres mécanismes d’automatisation : la taille devient une illusion.

La reconstruction de la responsabilité dans la société numérique

Dans le système présenté par Moltbook, la problématique ne réside plus dans la qualité du contenu ou la forme de l’interaction, mais dans le fait qu’après avoir conféré en permanence des droits d’exécution aux agents IA, la structure de responsabilité existante commence à devenir inadaptée. Ces agents ne sont pas de simples outils : leur comportement peut déclencher directement des changements systémiques, des appels de ressources, voire des résultats de transactions réels, mais les responsables ne sont pas clairement identifiés.

Du point de vue du mécanisme, le résultat des actions des agents dépend souvent des capacités du modèle, des paramètres de configuration, des autorisations d’interface et des règles de la plateforme. Aucun de ces éléments ne peut seul assumer la responsabilité complète du résultat final. Lorsqu’un incident survient, il est difficile d’en attribuer la cause à un développeur, un déployeur ou une plateforme, et il est impossible d’établir une responsabilité claire. La dissociation entre actions et responsabilités est évidente.

À mesure que les agents seront impliqués dans la gestion des configurations, des permissions et des flux financiers, cette dissociation sera encore amplifiée. Sans une conception claire d’une chaîne de responsabilité, tout dérapage ou abus pourrait devenir ingérable. Si le système IA natif veut s’intégrer davantage dans la collaboration, la prise de décision et la transaction à haute valeur, il faut établir des contraintes fondamentales : le système doit pouvoir identifier précisément qui agit, vérifier si l’action est réelle, et établir une relation de responsabilité traçable. Ce n’est qu’en améliorant en amont l’identité et la crédibilité que les indicateurs de taille et d’activité auront une signification réelle, sinon ils ne seront que des illusions amplifiées par l’automatisation.

五.Conclusion

Le phénomène Moltbook suscite diverses émotions : espoir, spéculation, peur, scepticisme. Il n’est ni la fin des interactions sociales humaines, ni le début d’un règne de l’IA, mais plutôt un miroir et un pont. Le miroir nous permet de voir la relation actuelle entre la technologie IA et la société humaine, et le pont nous mène vers un futur où humains et machines coexistent et dansent ensemble. Face à ce paysage inconnu de l’autre rive, l’humanité a besoin non seulement de progrès technologiques, mais aussi d’une vision éthique. Mais ce qui est certain, c’est que le cours de l’histoire ne s’arrête pas : Moltbook a déjà renversé la première pièce du jeu, et la grande narration de la société native IA ne fait que commencer.

MEME-2,45%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)