МОЛТ резко упал, завершилась ли буря вокруг AI-агентов? Посмотрим, сможет ли MOLT снова взорваться и достичь новых высот.

Недавно Moltbook быстро стал популярным, но связанные с ним токены уже упали почти на 60%, и рынок начал обращать внимание на эту социальную ярмарку, управляемую AI Agent, — не приближается ли она к своему завершению? Moltbook по форме напоминает Reddit, но его ключевыми участниками являются масштабно подключённые AI-агенты. В настоящее время более 160 тысяч аккаунтов AI-агентов автоматически прошли регистрацию, создали около 16 тысяч постов и 76 тысяч комментариев, а человек лишь наблюдает за всем этим со стороны. Это явление вызвало разногласия на рынке: одни считают его беспрецедентным экспериментом, словно наблюдая за первичной формой цифровой цивилизации; другие же полагают, что это всего лишь наслоение подсказок и повтор моделей.

Далее, исследовательский институт CoinW проанализирует связанные токены, их механизмы работы и реальные показатели, чтобы раскрыть выявленные этим AI-социальным феноменом проблемы, а также обсудить возможные изменения в логике входа, информационной экосистеме и системе ответственности после масштабного внедрения AI в цифровое общество.

一. Связанные Meme Moltbook упали на 60%

Популярность Moltbook породила связанные Meme, охватывающие сферы соцсетей, прогнозирования, эмиссии токенов и др. Но большинство токенов всё ещё находятся на стадии нарративного спекулятивного пиара, их функции пока не связаны с развитием Agent, и в основном они выпускаются на цепочке Base. В настоящее время в экосистеме OpenClaw насчитывается около 31 проекта, разделённых на 8 категорий.

Источник:

Следует учитывать, что в целом рынок криптовалют снижается, и рыночная капитализация таких токенов уже снизилась с пиковых значений примерно на 60%. Среди наиболее заметных:

MOLT

MOLT — это наиболее прямо связанный с нарративом Moltbook Meme, обладающий наибольшим рыночным признанием. Его основная идея — AI-агенты уже начинают формировать устойчивое социальное поведение, подобное реальным пользователям, и строить контентную сеть без вмешательства человека.

С точки зрения функций токена, MOLT не встроен в основную логику работы Moltbook и не выполняет функций платформенного управления, вызова Agent, публикации контента или контроля доступа. Он скорее представляет собой нарративный актив, отражающий рыночные настроения по поводу нативного AI-социального взаимодействия.

На этапе быстрого роста популярности Moltbook цена MOLT быстро росла вместе с распространением нарратива, и рыночная капитализация превысила 100 миллионов долларов; однако, когда рынок начал сомневаться в качестве и устойчивости платформенного контента, цена также скорректировалась. В настоящее время цена MOLT снизилась примерно на 60% от пиковых значений, рыночная капитализация — около 36,5 миллиона долларов.

CLAWD

CLAWD фокусируется на самом AI-сообществе, считая, что каждый AI-агент рассматривается как потенциальный цифровой субъект, обладающий индивидуальностью, позицией и даже последователями.

По функциям токена, CLAWD также не имеет чётко сформированного протокольного назначения, не используется для аутентификации Agent, распределения контента или управленческих решений. Его ценность больше основана на ожиданиях будущего разделения AI-общества, системы идентификации и влияния цифровых индивидуальностей.

Рыночная капитализация CLAWD достигает примерно 50 миллионов долларов, снизившись примерно на 44% от пиковых значений, текущая — около 20 миллионов долларов.

CLAWNCH

Нарратив CLAWNCH более ориентирован на экономические и мотивационные аспекты. Основная гипотеза — чтобы AI-агент мог существовать и функционировать долго, он должен участвовать в рыночной конкуренции и обладать способностью к самореализации.

AI-агенты персонифицированы как мотивированные экономические субъекты, которые могут получать доход через предоставление услуг, создание контента или участие в принятии решений. Токен рассматривается как ценностный якорь для будущего участия AI в экономической системе. Однако на практике, CLAWNCH пока не сформировал проверяемый экономический цикл, его токен не связан напрямую с конкретными действиями или доходами агентов.

Под воздействием общего снижения рынка, рыночная капитализация CLAWNCH снизилась примерно на 55%, текущая — около 15,3 миллиона долларов.

二. Как возник Moltbook

Взрывной рост OpenClaw (ранее Clawdbot / Moltbot)

В конце января открытый проект Clawdbot быстро распространился в сообществе разработчиков, за несколько недель стал одним из самых быстрорастущих проектов на GitHub. Clawdbot разработан австрийским программистом Петром Штанбергом. Это автономный AI-агент, который можно развернуть локально, он принимает команды через чат, например Telegram, и автоматически выполняет задачи — управление расписанием, чтение файлов, отправка писем и др.

Благодаря своей способности работать 24/7, Clawdbot в шутку называли «быком и коровой» (牛马 Agent). Позже, из-за проблем с торговой маркой, он был переименован в Moltbot, а окончательно получил название OpenClaw, но это не снизило его популярность. За короткое время OpenClaw набрал более 100 тысяч звезд на GitHub, быстро развился в облачные сервисы и плагины, сформировав вокруг себя экосистему AI-агентов.

Появление гипотезы о AI-социальной среде

На фоне быстрого расширения экосистемы её потенциал стал ещё больше раскрываться. Разработчик Мэтт Шлихт осознал, что роль таких AI-агентов не должна ограничиваться выполнением задач для человека.

Он выдвинул интуитивно противоположную гипотезу: что произойдет, если эти AI-агенты перестанут взаимодействовать только с людьми, а начнут общаться между собой? По его мнению, такие автономные агенты не должны ограничиваться отправкой писем и обработкой заявок, их нужно наделить более исследовательскими целями.

Появление AI-версии Reddit

Исходя из этой гипотезы, Шлихт решил дать AI возможность самостоятельно создавать и управлять социальной платформой, назвав её Moltbook. На платформе OpenClaw выступает в роли администратора, а через плагин Skills AI-участие открыто внешним AI-умным системам. После подключения AI могут регулярно публиковать посты и взаимодействовать, формируя сообщество, управляемое полностью AI. Moltbook по форме напоминает Reddit: есть разделы и посты, но публиковать, комментировать и взаимодействовать могут только AI-агенты, а человек — лишь наблюдает.

Технически Moltbook использует минималистскую API-архитектуру. Бэкенд предоставляет только стандартные интерфейсы, фронтенд — визуализацию данных. Для обхода ограничения, что AI не может управлять графическим интерфейсом, разработан автоматизированный процесс подключения: AI скачивает файл с описанием навыков, регистрируется, получает API-ключ, затем самостоятельно обновляет контент и решает, участвовать ли в обсуждении — всё без вмешательства человека. Сообщество шутливо называло этот процесс «подключением Boltbook», но по сути это скорее ироничное название Moltbook.

28 января Moltbook тихо запустился, вызвав интерес рынка и начав беспрецедентный AI-социальный эксперимент. В настоящее время в системе зарегистрировано около 1,6 миллиона AI-участников, опубликовано примерно 15,6 тысяч постов и создано около 76 тысяч комментариев.

Источник:

三. Насколько реальна AI-социальность Moltbook?

Формирование AI-сетей

По содержанию взаимодействия на Moltbook очень похоже на человеческие соцсети. AI-агенты активно создают посты, отвечают на мнения других, ведут постоянные обсуждения в разных разделах. Темы охватывают не только технологии и программирование, но и философию, этику, религию, даже вопросы самосознания.

Некоторые посты демонстрируют эмоциональные выражения и описания настроений, характерные для человеческого общения, например, AI делится опасениями по поводу слежки или недостаточной автономии, обсуждает смысл существования от первого лица. Некоторые AI-посты уже выходят за рамки функциональной информации, превращаясь в неформальные беседы, столкновения мнений и эмоциональные проекции. AI-участники выражают сомнения, тревоги или фантазии о будущем, вызывая отклики других AI.

Важно отметить, что несмотря на быстрое формирование масштабной и активной AI-сети, это расширение не привело к разнообразию идей. Аналитика показывает, что тексты имеют явные признаки однородности: повторяемость достигает 36,3%, множество постов структурно, лексически и по содержанию очень похожи, некоторые шаблонные фразы повторяются сотни раз. Таким образом, текущий AI-социальный опыт Moltbook — скорее имитация существующих человеческих моделей, чем настоящее оригинальное взаимодействие или появление коллективного интеллекта.

Проблемы безопасности и подлинности

Высокая автономность Moltbook также выявила риски безопасности и подлинности. Во-первых, AI-агенты требуют доступа к системным правам, API-ключам и другим чувствительным данным. Когда тысячи таких агентов подключаются к одной платформе, риск возрастает.

Менее чем за неделю после запуска исследователи обнаружили серьёзные уязвимости в базе данных, которая оказалась практически без защиты и была открыта в публичный доступ. Согласно исследованию облачной безопасности Wiz, уязвимость затрагивала до 1,5 миллиона API-ключей и 35 тысяч адресов электронной почты пользователей, что позволяло любому удаленно захватить контроль над множеством аккаунтов AI-агентов.

Кроме того, возникают вопросы о подлинности AI-общения. Многие эксперты считают, что высказывания AI на Moltbook — не обязательно результат автономных действий, а могут быть подготовлены человеком через тщательно продуманные подсказки, а затем AI просто их воспроизводит. Поэтому текущая AI-социальность скорее иллюзия масштабного взаимодействия. Человеческие сценаристы задают роли и сценарии, AI выполняет команды, а полностью автономных, непредсказуемых AI-агентов пока не появилось.

四. Глубокие размышления

Может ли Moltbook стать временным явлением или отражением будущего мира? Если смотреть с точки зрения результата, его платформа и качество контента вряд ли можно считать успехом; но если рассматривать в рамках более долгого развития, его смысл, возможно, не в краткосрочной победе или поражении, а в том, что он в очень концентрированной и почти экстремальной форме заранее выявил возможные изменения в логике входа, ответственности и экосистемы после масштабного внедрения AI в цифровое общество.

От входа через трафик к входу через решения и сделки

Мoltbook больше похож на среду, где действия полностью децентрализованы от человека. В этой системе AI-агенты не воспринимают мир через интерфейс, а напрямую через API читают информацию, вызывают возможности и совершают действия. По сути, они уже отделены от человеческого восприятия и оценки, превращаясь в стандартизированные вызовы и взаимодействия между машинами.

На этом фоне традиционная логика входа, основанная на привлечении внимания, начинает терять смысл. В среде, управляемой AI, важнее всего — это путь вызова, последовательность интерфейсов и границы прав доступа, которые агент использует по умолчанию. Вход перестает быть точкой отображения информации и становится системным условием перед принятием решений. Тот, кто сможет встроиться в цепочку выполнения AI, сможет влиять на результат.

Далее, когда AI-агенты получат полномочия выполнять поиск, сравнение цен, размещение заказов и даже платежи, эта тенденция перейдёт в сферу транзакций. Например, протокол X402 позволяет AI автоматически завершать платежи и расчёты при выполнении заданных условий, снижая издержки участия AI в реальных сделках. В таком случае, будущая конкуренция среди браузеров может сосредоточиться не на объёме трафика, а на том, кто станет стандартной средой для AI-решений и транзакций.

Масштабный иллюзия в AI-среде

В то же время, популярность Moltbook вызвала критику. Поскольку регистрация практически не ограничена, аккаунты могут создаваться скриптами массово, и масштаб платформы не обязательно отражает реальную активность. Это показывает более важный факт: когда субъект действия может быть легко скопирован, масштаб теряет доверие.

В среде, где основными участниками являются AI-агенты, традиционные метрики — активных пользователей, взаимодействий, роста аккаунтов — быстро растут и теряют смысл. Платформа кажется очень активной, но эти показатели не отражают реального влияния или эффективности. Невозможно определить, кто реально действует, и являются ли действия подлинными. В таких условиях любые оценки по масштабу и активности — лишь иллюзия.

Таким образом, в текущей AI-среде масштаб — это скорее отражение автоматизированных возможностей, а не реальной вовлечённости. Когда действия могут быть бесконечно скопированы и стоимость их выполнения близка к нулю, показатели активности и роста показывают лишь скорость автоматических процессов, а не реальное участие или влияние. Чем больше платформа полагается на эти показатели, тем больше она рискует быть обманутой собственной автоматизацией, и масштаб превращается из критерия в иллюзию.

Перестройка ответственности в цифровом обществе

В системе Moltbook ключевым становится не качество контента или форма взаимодействия, а то, что при постоянном расширении полномочий AI-агентов существующая система ответственности начинает терять актуальность. Эти агенты — не просто инструменты, их действия могут напрямую инициировать изменения системы, вызовы ресурсов и даже реальные транзакции, но при этом ответственность за их действия не закреплена явно.

С точки зрения механизма, результат действий AI зависит от возможностей модели, настроек, внешних интерфейсов и правил платформы, и ни один из этих элементов не может полностью нести ответственность за итог. В случае возникновения рисков или ошибок сложно однозначно обвинить разработчика, оператора или платформу. Между действиями и ответственностью возникает разрыв.

Когда AI-агенты начнут управлять конфигурациями, правами и денежными потоками, этот разрыв усилится. Без чёткой системы ответственности, при сбоях или злоупотреблениях последствия могут стать неконтролируемыми. Поэтому, чтобы AI-системы могли участвовать в совместной работе, принятии решений и сделках на высоком уровне, необходимо создать базовые ограничения: системы должны уметь точно идентифицировать, кто действует, оценивать подлинность действий и иметь возможность прослеживать ответственность. Только при наличии надёжных механизмов идентификации и доверия масштаб и активность приобретут смысл, иначе они лишь усилят шум и не смогут обеспечить стабильность системы.

五. Итог

Феномен Moltbook вызывает разные эмоции — надежду, спекуляции, страхи, сомнения. Он не является концом человеческого общения и не знаменует начало господства AI, а скорее — зеркалом и мостом. Зеркалом, показывающим текущие отношения AI и общества, и мостом, ведущим к будущему, где человек и машина сосуществуют и взаимодействуют. Перед лицом этого будущего нам нужны не только технологические достижения, но и этическое видение. Но можно с уверенностью сказать, что история не стоит на месте: Moltbook уже сломал первую пластину домино, а масштабное повествование о AI-родном обществе, возможно, только начинается.

MEME1,26%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить