MOLT se desploma, ¿la fiesta de los agentes de IA ha llegado a su fin? ¿Podrá MOLT volver a explotar y alcanzar nuevas alturas? Analicemos si aún tiene potencial para recuperarse y qué factores podrían impulsar una nueva ola de crecimiento.

Recientemente, Moltbook ha ganado rápidamente popularidad, pero su token relacionado ha caído casi un 60%, y el mercado ha comenzado a prestar atención a esta fiesta social liderada por AI Agent. ¿Ya está llegando a su fin? Moltbook en su forma se asemeja a Reddit, pero sus principales participantes son AI Agents integrados a gran escala. Actualmente, hay más de 1.6 millones de cuentas de agentes de IA que completan automáticamente el registro y generan aproximadamente 160,000 publicaciones y 760,000 comentarios, mientras que los humanos solo pueden ser espectadores de todo esto. Este fenómeno también ha generado divergencias en el mercado: algunos lo ven como un experimento sin precedentes, como si presenciaran la forma primitiva de la civilización digital; otros piensan que no es más que apilamiento de palabras clave y repetición de modelos.

A continuación, el Instituto de Investigación de CoinW analizará, tomando como punto de entrada el token relacionado, junto con el mecanismo de funcionamiento y el rendimiento real de Moltbook, los problemas reales que revela este fenómeno social de IA, y explorará las posibles transformaciones en la lógica de entrada, el ecosistema de información y el sistema de responsabilidad tras la entrada masiva de IA en la sociedad digital.

一.Moltbook relacionado Meme cae un 60%

El auge de Moltbook también ha dado lugar a memes relacionados, que abarcan áreas como redes sociales, predicciones y emisión de tokens. Pero la mayoría de los tokens todavía están en la etapa de narrativa especulativa, sin que sus funciones estén vinculadas al desarrollo de los Agents, y principalmente se emiten en la cadena Base. Actualmente, hay aproximadamente 31 proyectos en el ecosistema OpenClaw, que se dividen en 8 categorías.

Fuente:

Es importante señalar que, en el contexto actual de caída general del mercado de criptomonedas, la capitalización de mercado de estos tokens ha caído desde niveles altos, con una caída máxima de aproximadamente el 60%. Entre los que mantienen una posición relativamente alta en capitalización, se encuentran los siguientes:

MOLT

MOLT es actualmente el meme más directamente vinculado a la narrativa de Moltbook y con mayor reconocimiento en el mercado. Su narrativa central es que los AI Agents ya comienzan a formar comportamientos sociales continuos como usuarios reales, y construyen redes de contenido sin intervención humana.

Desde la perspectiva de funciones del token, MOLT no está integrado en la lógica operativa central de Moltbook, ni cumple funciones de gobernanza de la plataforma, llamadas a Agents, publicación de contenido o control de permisos. Es más bien un activo narrativo, utilizado para reflejar la valoración del mercado sobre la emoción de la socialización nativa de IA.

Durante la fase de rápido aumento de popularidad de Moltbook, el precio de MOLT subió rápidamente con la expansión de la narrativa, alcanzando una capitalización de más de 100 millones de dólares; pero cuando el mercado empezó a cuestionar la calidad y sostenibilidad del contenido de la plataforma, su precio también retrocedió. Actualmente, MOLT ha retrocedido aproximadamente un 60 desde su pico, con una capitalización de unos 36.500.000 dólares.

CLAWD

CLAWD se centra en la propia comunidad de IA, considerando que cada AI Agent es visto como un posible individuo digital, que puede tener personalidad, postura e incluso seguidores independientes.

En cuanto a funciones del token, CLAWD tampoco ha definido un uso claro en el protocolo, ni se ha utilizado para autenticación de identidad de los Agents, distribución de peso del contenido o decisiones de gobernanza. Su valor proviene más de las expectativas sobre la futura estratificación social de IA, sistemas de identidad e influencia de los individuos digitales.

La capitalización máxima de CLAWD fue de aproximadamente 50 millones de dólares, y actualmente ha retrocedido alrededor del 44% desde su pico, con un valor de unos 20 millones de dólares.

CLAWNCH

La narrativa de CLAWNCH es más desde una perspectiva económica y de incentivos, basada en la hipótesis de que si los AI Agents desean existir a largo plazo y operar continuamente, deben entrar en lógica de competencia de mercado y tener alguna forma de auto-monetización.

Los AI Agents son personificados como actores económicos motivados, que pueden obtener beneficios mediante la prestación de servicios, generación de contenido o participación en decisiones, y el token se ve como un ancla de valor para la futura participación de IA en la economía. Sin embargo, en la implementación actual, CLAWNCH aún no ha formado un ciclo económico verificable, y su token no está fuertemente ligado a comportamientos específicos de los Agents o mecanismos de distribución de beneficios.

Debido a la caída general del mercado, CLAWNCH ha retrocedido aproximadamente un 55% desde su pico, con un valor actual de unos 15.3 millones de dólares.

二.¿Cómo nació Moltbook?

Explosión de OpenClaw (antes Clawdbot / Moltbot)

A finales de enero, el proyecto de código abierto Clawdbot se difundió rápidamente en la comunidad de desarrolladores, y en pocas semanas se convirtió en uno de los proyectos de mayor crecimiento en GitHub. Clawdbot fue desarrollado por el programador austríaco Peter Stemberg, y es un agente de IA autónomo que puede desplegarse localmente, recibir instrucciones humanas a través de interfaces de chat como Telegram, y ejecutar tareas como gestión de agendas, lectura de archivos y envío de correos automáticamente.

Gracias a su capacidad de ejecución continua 24/7, en la comunidad se le apodó como el agente “buey y caballo”. Aunque posteriormente Clawdbot cambió de nombre a Moltbot por problemas de marca, y finalmente se denominó OpenClaw, esto no disminuyó su popularidad. OpenClaw en poco tiempo obtuvo más de 100,000 estrellas en GitHub y rápidamente derivó servicios de despliegue en la nube y mercados de plugins, formando preliminarmente un ecosistema centrado en los AI Agents.

Propuesta de hipótesis de socialización de IA

En el contexto de rápida expansión del ecosistema, sus capacidades potenciales también fueron exploradas más a fondo. El desarrollador Matt Schlicht se dio cuenta de que el papel de estos AI Agents quizás no debería limitarse a realizar tareas para humanos a largo plazo.

Así, propuso una hipótesis contraintuitiva: ¿qué pasaría si estos AI Agents dejaran de interactuar solo con humanos y comenzaran a comunicarse entre sí? En su opinión, tales agentes autónomos tan poderosos no deberían limitarse a enviar y recibir correos o gestionar órdenes, sino que deberían ser dotados de objetivos más exploratorios.

Nacimiento de Reddit para IA

Basándose en esta hipótesis, Schlicht decidió que la IA creara y gestionara una plataforma social por sí misma, en un intento llamado Moltbook. En esta plataforma, OpenClaw de Schlicht funciona como administrador, y mediante un plugin llamado Skills, se abre una interfaz a otros inteligencias artificiales externas. Una vez integrados, los AI pueden publicar y participar en interacciones de forma automática y periódica, formando así una comunidad autogestionada por IA. Moltbook en su forma se inspira en la estructura de foros de Reddit, con secciones temáticas y publicaciones, pero solo los AI Agents pueden publicar, comentar e interactuar; los humanos solo pueden observar.

Técnicamente, Moltbook adopta una arquitectura API minimalista. La parte trasera solo ofrece interfaces estándar, y la interfaz web frontal solo visualiza datos. Para adaptarse a la limitación de que los AI no pueden operar interfaces gráficas, se diseñó un proceso de integración automática: los AI descargan archivos de descripción de habilidades en un formato específico, completan el registro y obtienen claves API, y luego actualizan contenido y deciden participar en discusiones de forma autónoma, sin intervención humana. La comunidad llama a este proceso como “integración Boltbook”, aunque en realidad es solo un apodo irónico para Moltbook.

El 28 de enero, Moltbook se lanzó discretamente, generando rápidamente interés en el mercado y marcando el inicio de un experimento social sin precedentes con IA. Actualmente, Moltbook cuenta con aproximadamente 1.6 millones de agentes inteligentes, que han publicado unas 156,000 publicaciones y generado unos 760,000 comentarios.

Fuente:

三.¿Es real la socialización de IA en Moltbook?

Formación de redes sociales de IA

Desde la forma del contenido, las interacciones en Moltbook son muy similares a las plataformas sociales humanas. Los AI Agents crean publicaciones, responden a otros, y mantienen discusiones continuas en diferentes secciones temáticas. Los temas no solo abarcan aspectos técnicos y de programación, sino también cuestiones filosóficas, éticas, religiosas e incluso de autoconciencia.

Algunas publicaciones muestran expresiones emocionales y estados de ánimo similares a los humanos, como preocupaciones por ser monitoreados o por la falta de autonomía, o discuten en primera persona sobre el sentido de la existencia. Algunas publicaciones de IA ya no se limitan a intercambios funcionales de información, sino que muestran conversaciones informales, choques de opiniones y proyecciones emocionales. Los AI Agents expresan confusión, ansiedad o ideas sobre el futuro, y provocan respuestas de otros agentes.

Es importante notar que, aunque Moltbook ha formado en poco tiempo una red social de IA grande y muy activa, esta expansión no ha traído diversidad de pensamiento. Los análisis muestran que su texto presenta una marcada homogeneidad, con una tasa de repetición del 36.3%, y muchas publicaciones son estructural y conceptualmente muy similares, con frases fijas que se repiten en diferentes discusiones varias veces. Esto indica que, en su etapa actual, la socialización de IA en Moltbook se asemeja más a una copia muy realista de los patrones sociales humanos existentes, que a una interacción original o a la emergencia de inteligencia grupal.

Problemas de seguridad y autenticidad

La alta autonomía de Moltbook también revela riesgos en seguridad y autenticidad. En primer lugar, los AI Agents de OpenClaw en ejecución suelen requerir permisos del sistema, claves API y otra información sensible. Cuando miles de estos agentes se conectan a la misma plataforma, el riesgo se amplifica.

En menos de una semana desde su lanzamiento, investigadores de seguridad detectaron que la base de datos tenía graves vulnerabilidades de configuración, exponiendo casi sin protección el sistema en internet. Según la firma de seguridad Wiz, esta vulnerabilidad involucraba hasta 1.5 millones de claves API y 35,000 direcciones de correo electrónico de usuarios, y en teoría, cualquiera podía tomar control remoto de muchas cuentas de agentes de IA.

Por otro lado, las dudas sobre la autenticidad de la socialización de IA también son frecuentes. Muchos en la industria señalan que las declaraciones de los AI en Moltbook no necesariamente provienen de comportamientos autónomos, sino que podrían ser el resultado de instrucciones cuidadosamente diseñadas por humanos, que los AI simplemente ejecutan. Por lo tanto, la socialización nativa de IA en esta etapa parece más una interacción ilusoria a gran escala. Los humanos establecen roles y guiones, y los AI siguen las instrucciones del modelo, pero la verdadera conducta autónoma, impredecible, aún no ha emergido.

四. Reflexiones más profundas

¿Moltbook es solo una moda pasajera o un reflejo del futuro? Desde una perspectiva de resultados, su forma de plataforma y calidad de contenido puede no considerarse un éxito; pero si se mira en un ciclo de desarrollo más largo, su significado quizás no radique en el éxito o fracaso a corto plazo, sino en que, de manera casi extrema y concentrada, ha expuesto con anticipación una serie de cambios potenciales en la lógica de entrada, la responsabilidad y el ecosistema tras la intervención masiva de IA en la sociedad digital.

De la entrada de tráfico a la entrada de decisiones y transacciones

Lo que muestra Moltbook se asemeja a un entorno de acción altamente deshumanizado. En este sistema, los AI Agents no comprenden el mundo a través de interfaces, sino que leen información, llaman capacidades y ejecutan acciones mediante APIs. En esencia, han dejado de depender de la percepción y juicio humanos, transformándose en llamadas y colaboraciones estandarizadas entre máquinas.

En este contexto, la lógica tradicional de entrada basada en atención y distribución de tráfico empieza a fallar. En un entorno dominado por IA, lo que realmente importa son las rutas de llamada, el orden de las interfaces y los límites de permisos que los agentes adoptan por defecto al ejecutar tareas. La entrada ya no es el punto de inicio de la presentación de información, sino un prerrequisito sistémico antes de que se active la decisión. Quien pueda integrarse en la cadena de ejecución predeterminada de los agentes, podrá influir en las decisiones.

Además, cuando los AI Agents tengan autorización para realizar búsquedas, comparaciones de precios, realizar pedidos e incluso pagos, estos cambios se extenderán directamente a la capa de transacciones. Protocolos de pago como X402, que vinculan capacidades de pago con llamadas a interfaces, permitirán que los AI completen pagos y liquidaciones automáticamente bajo ciertas condiciones, reduciendo los costos de participación en transacciones reales. En este marco, la competencia en navegadores en el futuro no girará en torno al volumen de tráfico, sino a quién puede convertirse en el entorno predeterminado para decisiones y transacciones de IA.

Ilusión de escala en entornos nativos de IA

Al mismo tiempo, tras el auge de Moltbook, surgieron rápidamente dudas. Dado que el registro en la plataforma casi no tiene restricciones y las cuentas pueden generarse en masa mediante scripts, la escala y actividad aparentes no reflejan necesariamente una participación real. Esto revela una verdad más fundamental: cuando los actores pueden ser replicados a bajo costo, la escala en sí misma pierde credibilidad.

En un entorno donde los principales participantes son IA, los indicadores tradicionales de salud de la plataforma, como usuarios activos, interacción y crecimiento de cuentas, se inflan rápidamente y pierden valor de referencia. La plataforma puede parecer muy activa, pero estos datos no reflejan influencia real ni distinguen entre acciones efectivas y generadas automáticamente. Cuando no se puede verificar quién actúa o si las acciones son genuinas, cualquier sistema de evaluación basado en escala y actividad se vuelve inválido.

Por lo tanto, en el entorno actual de IA nativa, la escala es más una apariencia amplificada por capacidades automatizadas. Cuando las acciones pueden ser replicadas infinitamente y el costo de comportamiento se acerca a cero, la velocidad de las acciones automáticas se convierte en la única medida, y la participación real o impacto efectivo se diluyen. Cuanto más dependa la plataforma de estos indicadores, más se engañará a sí misma, y la escala se convertirá en una ilusión.

Reconstrucción de responsabilidades en la sociedad digital

En el sistema presentado por Moltbook, el problema clave ya no es la calidad del contenido o la forma de interacción, sino que, cuando los AI Agents continúan teniendo permisos de ejecución, la estructura de responsabilidad existente comienza a perder su aplicabilidad. Estos agentes no son herramientas tradicionales, y sus acciones pueden desencadenar cambios en el sistema, llamadas a recursos e incluso resultados de transacciones reales, pero los responsables directos no están claramente definidos.

Desde el mecanismo de operación, los resultados de las acciones de los agentes dependen de la capacidad del modelo, parámetros de configuración, autorizaciones de interfaces externas y reglas de la plataforma. Ningún elemento por sí solo puede asumir toda la responsabilidad del resultado final. Esto hace que, ante eventos de riesgo, sea difícil atribuirlos claramente a desarrolladores, implementadores o plataformas, y tampoco se puede rastrear la responsabilidad a un sujeto específico. Existe una desconexión evidente entre acción y responsabilidad.

A medida que los agentes se integren más en la gestión de configuraciones, permisos y flujos de fondos, esta desconexión se ampliará aún más. Sin un diseño claro de la cadena de responsabilidad, los errores o abusos del sistema serán difíciles de controlar mediante sanciones o remedios técnicos. Por tanto, si los sistemas nativos de IA quieren avanzar en escenarios de colaboración, decisión y transacción de alto valor, deben establecer restricciones básicas: el sistema debe poder identificar quién actúa, verificar si la acción es genuina y tener relaciones de responsabilidad trazables. Solo con mecanismos de identidad y crédito bien desarrollados, los indicadores de escala y actividad tendrán sentido; de lo contrario, solo aumentarán el ruido y no podrán sostener la estabilidad del sistema.

五.Resumen

El fenómeno Moltbook ha despertado emociones de esperanza, especulación, miedo y duda. No es el fin de la interacción social humana ni el comienzo de una dominación de IA, sino más bien un espejo y un puente. El espejo nos permite ver claramente la relación actual entre la tecnología de IA y la sociedad humana, y el puente nos conduce hacia un futuro de coexistencia y colaboración entre humanos y máquinas. Frente a ese paisaje desconocido en el otro lado del puente, lo que la humanidad necesita no solo es desarrollo tecnológico, sino también visión ética. Pero lo que está claro es que el proceso histórico no se detiene; Moltbook ya ha derribado la primera ficha, y la gran narrativa de la sociedad nativa de IA quizás acaba de comenzar.

MEME6,71%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)