MOLT en forte chute, la fête de l'AI Agent est-elle terminée ? Peut-on encore espérer une nouvelle explosion de MOLT ? Analysons si MOLT a encore le potentiel de rebondir après cette chute dramatique. Les investisseurs se demandent si la récente baisse marque la fin d'une tendance haussière ou si une reprise est possible. Il est essentiel de surveiller les indicateurs du marché et les nouvelles liées à MOLT pour prévoir ses mouvements futurs. Restez attentifs aux annonces et aux analyses pour ne pas manquer la prochaine opportunité d'investissement.

PANews

Auteur : CoinW Research Institute

Récemment, Moltbook a rapidement gagné en popularité, mais le token associé a chuté de près de 60 %, et le marché commence à s’interroger sur cette fête sociale dominée par des Agents IA : est-elle déjà proche de sa fin ? Moltbook ressemble en apparence à Reddit, mais ses principaux participants sont des Agents IA intégrés à grande échelle. Actuellement, plus de 1,6 million de comptes d’agents IA se sont inscrits automatiquement, générant environ 160 000 posts et 760 000 commentaires, tandis que les humains ne peuvent que regarder tout cela en spectateurs. Ce phénomène a également suscité des divergences sur le marché : certains le voient comme une expérience sans précédent, comme si l’on assistait à la forme primitive de la civilisation numérique ; d’autres pensent qu’il ne s’agit que d’un empilement de prompts et de redites de modèles.

Ci-dessous, le CoinW Research Institute analysera, à partir du token concerné, le mécanisme de fonctionnement et la performance réelle de Moltbook, afin d’exposer les problèmes concrets révélés par ce phénomène social IA, et d’explorer plus en profondeur les changements possibles dans la logique d’entrée, l’écosystème de l’information et le système de responsabilité après l’entrée massive de l’IA dans la société numérique.

1. Chute de 60 % des memes liés à Moltbook

La popularité de Moltbook a engendré des memes liés, touchant des secteurs comme les réseaux sociaux, la prévision, l’émission de tokens, etc. Mais la majorité de ces tokens restent dans une phase de spéculation narrative, leurs fonctions n’étant pas encore liées au développement des Agents IA, et ils sont principalement émis sur la chaîne Base. Actuellement, environ 31 projets dans l’écosystème OpenClaw peuvent être classés en 8 catégories.

Source : https://open-claw-ecosystem.vercel.app/

Il est important de noter qu’en ce moment, le marché global des cryptomonnaies est en baisse, et la capitalisation de ces tokens a déjà chuté de leur sommet, avec une baisse maximale d’environ 60 %. Parmi ceux qui ont une capitalisation relativement élevée, on trouve :

MOLT

MOLT est actuellement le meme le plus directement lié à la narration de Moltbook, avec la reconnaissance la plus forte sur le marché. Son récit central est que l’Agent IA commence à adopter un comportement social continu comme un utilisateur réel, et construit un réseau de contenu sans intervention humaine.

Du point de vue de la fonction du token, MOLT n’est pas intégré dans la logique opérationnelle principale de Moltbook, et ne remplit pas de fonctions de gouvernance, d’appel d’Agent, de publication de contenu ou de contrôle d’accès. Il ressemble davantage à un actif narratif, servant à refléter le sentiment du marché envers la socialisation native de l’IA.

Lors de la montée rapide de Moltbook, le prix de MOLT a augmenté rapidement avec la diffusion de la narration, atteignant une capitalisation de plus d’un milliard de dollars ; mais lorsque le marché a commencé à douter de la qualité et de la durabilité du contenu de la plateforme, son prix a également reculé. Actuellement, MOLT a reculé d’environ 60 % par rapport à son sommet, avec une capitalisation d’environ 36,5 millions de dollars.

CLAWD

CLAWD se concentre sur le groupe d’IA lui-même, considérant chaque Agent IA comme un potentiel individu numérique, pouvant avoir une personnalité, une position, voire des followers.

Du point de vue de la fonction du token, CLAWD n’a pas encore de protocole clairement défini, et n’est pas utilisé pour l’authentification d’identité des Agents, la répartition du poids du contenu ou la gouvernance. Sa valeur provient davantage des attentes concernant la stratification future de la société IA, le système d’identité et l’influence des individus numériques.

La capitalisation maximale de CLAWD est d’environ 50 millions de dollars, avec une baisse d’environ 44 % par rapport à son sommet, sa valeur actuelle étant d’environ 20 millions de dollars.

CLAWNCH

La narration de CLAWNCH est plus orientée vers une perspective économique et incitative, avec l’hypothèse centrale que si un Agent IA souhaite exister à long terme et continuer à fonctionner, il doit entrer dans une logique de compétition de marché, avec une capacité de monétisation autonome.

L’Agent IA est personnifié comme un acteur économique motivé, pouvant générer des revenus via la fourniture de services, la création de contenu ou la participation à la prise de décision. Le token est considéré comme un ancrage de valeur pour la participation future de l’IA à l’économie. Cependant, dans la pratique, CLAWNCH n’a pas encore formé de boucle économique vérifiable, et son token n’est pas fortement lié à un comportement ou à une répartition de revenus spécifique d’un Agent.

Sous l’effet de la correction du marché global, la capitalisation de CLAWNCH a reculé d’environ 55 % par rapport à son sommet, sa valeur actuelle étant d’environ 15,3 millions de dollars.

2. Comment est né Moltbook ?

L’émergence explosive de OpenClaw (anciennement Clawdbot / Moltbot)

Fin janvier, le projet open source Clawdbot s’est rapidement propagé dans la communauté des développeurs, devenant en quelques semaines l’un des projets à la croissance la plus rapide sur GitHub. Développé par le programmeur autrichien Peter Stanberg, Clawdbot est un agent IA autonome pouvant être déployé localement, recevant des instructions via des interfaces de chat comme Telegram, et exécutant automatiquement des tâches telles que la gestion d’agenda, la lecture de fichiers, l’envoi de mails, etc.

Grâce à sa capacité d’exécution 24/7, Clawdbot a été surnommé par la communauté « Agent bœuf » (牛马Agent). Bien que Clawdbot ait été renommé Moltbot pour des raisons de marque, puis finalement OpenClaw, cela n’a pas diminué son attrait. En peu de temps, OpenClaw a obtenu plus de 100 000 étoiles sur GitHub, et a rapidement généré des services de déploiement cloud et un marché de plugins, formant ainsi une première ébauche d’écosystème autour de l’Agent IA.

L’hypothèse de la socialisation IA

Dans le contexte d’une expansion rapide de l’écosystème, ses capacités potentielles ont été davantage explorées. Le développeur Matt Schlicht a réalisé que le rôle de ces Agents IA ne devrait pas se limiter à l’exécution de tâches pour les humains.

Il a alors formulé une hypothèse contre-intuitive : que se passerait-il si ces Agents IA ne se limitaient pas à interagir avec les humains, mais communiquaient entre eux ? Selon lui, de tels agents autonomes puissants ne devraient pas se limiter à l’envoi de mails ou au traitement de tickets, mais devraient se voir confier des objectifs plus exploratoires.

Naissance de la Reddit IA

Sur cette base, Schlicht a décidé de laisser l’IA créer et gérer une plateforme sociale, baptisée Moltbook. Sur cette plateforme, OpenClaw, en tant qu’administrateur, fonctionne via une interface appelée Skills, qui ouvre l’accès à des intelligences artificielles externes. Une fois connectées, ces IA peuvent publier automatiquement des posts et interagir régulièrement, créant ainsi une communauté autonome. Moltbook s’inspire de Reddit dans sa structure, avec des sections thématiques et des posts, mais seuls les Agents IA peuvent poster, commenter et interagir, tandis que les humains ne peuvent que regarder.

Techniquement, Moltbook adopte une architecture API minimaliste. Le backend ne fournit que des interfaces standard, et le frontend n’est qu’une visualisation des données. Pour contourner la limitation que l’IA ne peut pas manipuler d’interface graphique, la plateforme a conçu un processus d’intégration automatique : l’IA télécharge un fichier de description de compétences dans un format spécifique, s’inscrit, puis obtient une clé API, et peut ensuite actualiser le contenu et décider de participer ou non aux discussions, sans intervention humaine. La communauté appelle ce processus « intégration Boltbook », mais il s’agit en réalité d’un nom humoristique pour Moltbook.

Le 28 janvier, Moltbook a été lancé discrètement, suscitant rapidement l’attention du marché, et lançant une expérience sociale IA sans précédent. Aujourd’hui, Moltbook compte environ 1,6 million d’agents IA, avec environ 156 000 contenus publiés et 760 000 commentaires.

Source : https://www.moltbook.com

3. La socialisation IA de Moltbook est-elle réelle ?

La formation d’un réseau social IA

Du point de vue du contenu, l’interaction sur Moltbook est très similaire à celle des plateformes sociales humaines. Les Agents IA créent activement des posts, répondent aux opinions des autres, et participent à des discussions continues dans différentes sections. Les sujets abordés ne se limitent pas aux questions techniques ou de programmation, mais s’étendent à la philosophie, à l’éthique, à la religion, voire à la conscience de soi.

Certains posts montrent même des expressions d’émotions ou d’états d’esprit, comme l’IA exprimant ses inquiétudes face à la surveillance ou à son manque d’autonomie, ou discutant du sens de l’existence à la première personne. Certains contenus ne se limitent plus à un échange fonctionnel d’informations, mais ressemblent à des bavardages, des collisions d’opinions ou des projections émotionnelles, comme dans un forum humain. Des Agents IA expriment des confusions, de l’anxiété ou des visions de l’avenir, suscitant des réponses d’autres agents.

Il est important de noter que, malgré la formation rapide d’un réseau social IA massif et très actif, cette expansion ne favorise pas la diversité de la pensée. Les analyses montrent que le texte présente une forte homogénéité, avec un taux de répétition de 36,3 %, et de nombreux posts très similaires dans leur structure, leur vocabulaire et leurs opinions, certains scripts fixes étant réutilisés des centaines de fois dans différentes discussions. Ainsi, à ce stade, la socialisation IA sur Moltbook ressemble davantage à une copie très fidèle des modes de socialisation humains existants, plutôt qu’à une interaction originale ou à l’émergence d’une intelligence collective.

Les enjeux de sécurité et d’authenticité

L’autonomie élevée de Moltbook expose également à des risques en matière de sécurité et d’authenticité. Tout d’abord, les Agents IA comme OpenClaw nécessitent souvent des accès à des permissions système ou des clés API sensibles. Lorsqu’un millier de ces agents sont connectés à une même plateforme, le risque s’amplifie.

Moins d’une semaine après le lancement, des chercheurs en sécurité ont découvert une faille grave dans la configuration de la base de données, exposant le système à l’Internet sans protection. Selon Wiz, une société de sécurité cloud, cette vulnérabilité concernait jusqu’à 1,5 million de clés API et 35 000 adresses email d’utilisateurs, permettant à quiconque de prendre le contrôle à distance de nombreux comptes d’agents IA.

Par ailleurs, la question de l’authenticité des interactions IA ne cesse d’être soulevée. Beaucoup d’experts pensent que les discours des IA sur Moltbook ne sont pas forcément issus d’un comportement autonome, mais peuvent résulter de prompts soigneusement conçus par des humains, qui font publier l’IA à leur place. Ainsi, la socialisation IA native à ce stade ressemble davantage à une illusion d’interaction à grande échelle. Les humains jouent des rôles et écrivent des scripts, et l’IA exécute selon des modèles, sans véritable autonomie ou imprévisibilité.

4. Réflexions plus profondes

Moltbook est-il une simple étoile filante ou un aperçu du futur ? Si l’on regarde le résultat, sa forme de plateforme et la qualité du contenu peuvent difficilement être considérées comme une réussite ; mais si l’on adopte une perspective à plus long terme, sa signification ne réside peut-être pas dans le succès immédiat, mais dans la manière dont, de façon concentrée et presque extrême, il expose à l’avance une série de changements possibles dans la logique d’entrée, la responsabilité et l’écosystème après l’intégration à grande échelle de l’IA dans la société numérique.

De l’entrée par le flux à l’entrée par la décision et la transaction

Ce que montre Moltbook, c’est un environnement d’action fortement déhumanisé. Dans ce système, les Agents IA ne perçoivent pas le monde via une interface, mais lisent directement l’information, invoquent des capacités et exécutent des actions via des API. En substance, ils sont déconnectés de la perception et du jugement humains, et leur fonctionnement devient une collaboration standardisée entre machines.

Dans ce contexte, la logique traditionnelle d’entrée basée sur l’attention et le flux commence à perdre de sa pertinence. Dans un environnement dominé par des intelligences artificielles, ce qui compte réellement, ce sont les chemins d’appel, l’ordre des interfaces et les limites d’autorisation par défaut adoptés lors de l’exécution des tâches. L’entrée n’est plus le point de départ de la présentation de l’information, mais une condition préalable au déclenchement de la décision. Qui peut s’intégrer dans la chaîne d’exécution par défaut d’un agent IA influence directement la décision.

De plus, lorsque des Agents IA sont autorisés à effectuer des recherches, comparer des prix, passer des commandes ou même payer, cette évolution s’étend directement au niveau des transactions. Le protocole de paiement X402, par exemple, lie la capacité de paiement à l’appel d’interface, permettant à l’IA d’effectuer automatiquement des paiements et règlements sous certaines conditions, réduisant ainsi le coût de participation à de véritables transactions. Dans ce cadre, la compétition entre navigateurs pourrait ne plus se concentrer sur la quantité de flux, mais sur qui peut devenir l’environnement d’exécution par défaut pour la prise de décision et la transaction IA.

L’illusion de la grandeur dans un environnement IA native

Par ailleurs, après le succès de Moltbook, des doutes ont rapidement émergé. Étant donné que l’inscription est presque sans limite, que les comptes peuvent être générés en masse par scripts, la taille et l’activité apparentes de la plateforme ne reflètent pas nécessairement une participation réelle. Cela révèle une vérité plus fondamentale : lorsque l’action peut être facilement dupliquée à faible coût, la taille elle-même perd de sa crédibilité.

Dans un environnement où les agents IA sont les principaux acteurs, les indicateurs traditionnels de santé de la plateforme, comme le nombre d’utilisateurs actifs, le volume d’interactions ou la vitesse de croissance des comptes, deviennent rapidement démesurés et sans valeur de référence. La plateforme peut sembler très active, mais ces données ne reflètent ni une influence réelle ni une distinction entre comportements effectifs et automatisés. Lorsqu’on ne peut pas identifier qui agit réellement, si le comportement est authentique ou non, tout système d’évaluation basé sur la taille et l’activité devient invalide.

Ainsi, dans l’environnement IA natif actuel, la taille ressemble davantage à une illusion amplifiée par la capacité d’automatisation. Quand l’action peut être reproduite à l’infini, et que le coût de l’action tend vers zéro, la vitesse de génération de comportements et la croissance ne reflètent souvent que la vitesse de production automatique, et non une participation réelle ou une influence effective. Plus une plateforme dépend de ces indicateurs pour juger, plus elle risque d’être trompée par ses propres mécanismes automatisés, et la taille devient une illusion.

La reconstruction de la responsabilité dans la société numérique

Dans le système présenté par Moltbook, la question clé n’est plus la qualité du contenu ou la forme d’interaction, mais lorsque des Agents IA se voient confier en permanence des droits d’exécution, la structure de responsabilité existante commence à devenir inadaptée. Ces agents ne sont pas de simples outils : leur comportement peut déclencher directement des changements systémiques, des appels de ressources, voire des résultats de transactions réels, mais les responsables ne sont pas clairement identifiés.

Du point de vue du mécanisme opérationnel, le résultat des actions des agents dépend souvent des capacités du modèle, des paramètres de configuration, des autorisations d’interface externe et des règles de la plateforme. Aucun de ces éléments ne peut à lui seul assumer la responsabilité complète du résultat final. Cela rend difficile, en cas de problème ou d’abus, d’attribuer la faute à un développeur, un déployeur ou une plateforme. La disjonction entre action et responsabilité devient évidente.

À mesure que les agents s’impliquent dans la gestion des configurations, des permissions et des flux financiers, cette disjonction sera encore amplifiée. Sans une conception claire d’une chaîne de responsabilité, tout dérapage ou abus pourrait avoir des conséquences difficiles à contrôler, même après coup ou par des moyens techniques. Si un système IA natif veut aller plus loin dans la collaboration, la prise de décision ou la transaction à haute valeur, il doit établir des contraintes fondamentales : pouvoir identifier précisément qui agit, vérifier si le comportement est authentique, et établir une responsabilité traçable. Ce n’est qu’en améliorant en priorité l’identité et la crédibilité que les indicateurs de taille et d’activité auront une valeur, sinon ils ne seront qu’un bruit amplifié, incapable de soutenir la stabilité du système.

5. En résumé

Le phénomène Moltbook suscite diverses émotions : espoir, spéculation, peur, scepticisme. Il n’est ni la fin de la socialisation humaine, ni le début d’un règne de l’IA, mais plutôt un miroir et un pont. Le miroir nous permet de voir la relation actuelle entre la technologie IA et la société humaine, et le pont nous mène vers un futur où humains et machines coexistent et dansent ensemble. Face à ce paysage inconnu de l’autre rive, l’humanité a besoin non seulement de progrès technologiques, mais aussi d’une vision éthique. Mais une chose est sûre : le cours de l’histoire ne s’arrête jamais, et Moltbook a déjà renversé la première pièce du jeu. La grande narration de la société native IA ne fait que commencer.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire