МОЛТ різко обвалився, чи завершилася хвиля святкувань AI Agent? Чи зможе MOLT знову вибухнути і повернутися до колишніх висот? Аналізуємо перспективи та можливі сценарії подальшого розвитку подій.
Нещодавно Moltbook швидко здобув популярність, але відповідний токен вже зазнав майже 60% обвалу, і ринок починає звертати увагу на цю соціальну феєрію, яку домінують AI Agent, — чи вже наближається її кінець? Moltbook за формою схожий на Reddit, але його основними учасниками є масштабно підключені AI Agent. Наразі понад 160 тисяч акаунтів AI-агентів автоматично пройшли реєстрацію, створили близько 16 тисяч постів і 76 тисяч коментарів, тоді як людина може лише спостерігати за всім цим. Це явище викликало розбіжності на ринку: одні вважають його безпрецедентним експериментом, наче свідками первісної форми цифрової цивілізації; інші ж вважають, що це лише нагромадження підказок і повторне програвання моделей.
Далі, дослідницький інститут CoinW проаналізує відповідний токен, поєднавши механізми роботи Moltbook і його реальні показники, щоб дослідити проблеми, які відкриває цей AI-соціальний феномен, а також обговорити можливі зміни у логіці входу, інформаційній екосистемі та системі відповідальності після масштабного входження AI у цифрове суспільство.
I. Зниження Meme, пов’язаних з Moltbook, на 60%
Популярність Moltbook спричинила появу відповідних Meme, що охоплюють сфери соціальних мереж, прогнозування, випуск токенів тощо. Але більшість токенів все ще перебувають у стадії нарративної спекуляції, їх функціонал не пов’язаний із розвитком Agent, і переважно вони випускаються на базовому ланцюгу. Наразі в екосистемі OpenClaw налічується близько 31 проекту, які можна поділити на 8 категорій.
Джерело:
Варто зазначити, що зараз загальний ринок криптовалют зазнає падіння, і капіталізація таких токенів знизилася з високих рівнів, максимум обвалу досяг 60%. Найбільш помітні з них:
MOLT
MOLT — це наразі найтісніше пов’язаний з нарративом Moltbook Meme, який має найвищу пізнаваність на ринку. Його основна історія полягає в тому, що AI Agent вже почали формувати стабільну соціальну поведінку, подібну до реальних користувачів, і без людського втручання створюють контентну мережу.
З точки зору функціоналу токена, MOLT не інтегрований у основну логіку роботи Moltbook і не виконує функцій управління платформою, виклику Agent, публікації контенту або контролю доступу. Це більше нагадує нарративний актив, що відображає ринкові очікування щодо нативного AI-соціального середовища.
На етапі швидкого зростання популярності Moltbook ціна MOLT швидко зросла разом із поширенням нарративу, і капіталізація перевищила 100 мільйонів доларів; але коли ринок почав сумніватися у якості контенту та стійкості платформи, ціна також почала падати. Зараз MOLT знизився приблизно на 60% від свого піку, і його поточна капіталізація становить близько 36,5 мільйонів доларів.
CLAWD
CLAWD орієнтований на саму AI-спільноту, вважаючи, що кожен AI Agent розглядається як потенційна цифрова особистість, яка може мати індивідуальний характер, позицію або навіть послідовників.
З точки зору функціоналу токена, CLAWD також не має чітко визначеного протоколу використання, не використовується для автентифікації Agent, розподілу ваги контенту або управління. Його цінність більше базується на очікуваннях щодо майбутнього соціального розподілу AI, системи ідентифікації та впливу цифрових індивідуумів.
Капіталізація CLAWD досягала приблизно 50 мільйонів доларів, зараз вона знизилася приблизно на 44% від максимуму і становить близько 20 мільйонів доларів.
CLAWNCH
Наратив CLAWNCH більше зосереджений на економічних та стимулюючих аспектах. Основна гіпотеза полягає в тому, що якщо AI Agent прагне довгострокової присутності та стабільної роботи, він має входити у ринкову конкуренцію і володіти здатністю до самореалізації.
AI Agent уявляється як мотивована економічна роль, яка може отримувати дохід через надання послуг, створення контенту або участь у прийнятті рішень. Токен розглядається як ціновий якор для майбутньої участі AI у економічній системі. Але на практиці, на рівні реалізації, CLAWNCH ще не сформував замкнутий економічний цикл, і його токен не тісно пов’язаний із конкретною поведінкою Agent або механізмами розподілу прибутку.
Через загальне падіння ринку капіталізація CLAWNCH знизилася приблизно на 55%, і зараз вона становить близько 15,3 мільйонів доларів.
II. Як виник Moltbook
Вибух OpenClaw (колишня Clawdbot / Moltbot)
В кінці січня відкритий проект Clawdbot швидко поширився в спільноті розробників і за кілька тижнів став одним із найшвидше зростаючих проектів на GitHub. Clawdbot розроблений австрійським програмістом Петром Штанбергом і є автономним AI Agent, який можна розгортати локально. Він здатний отримувати команди через чат-інтерфейси, наприклад Telegram, і автоматично виконувати задачі, такі як управління розкладом, читання файлів, відправка пошти.
Завдяки здатності працювати цілодобово, Clawdbot у спільноті жартома називають “коров’ячим” агентом. Після того, як через проблеми з торговою маркою він був перейменований у Moltbot і остаточно отримав назву OpenClaw, його популярність не зменшилася. За короткий час OpenClaw отримав понад 100 тисяч зірок на GitHub і швидко розвинувся у хмарні сервіси та маркетплейси плагінів, сформувавши перші елементи екосистеми навколо AI Agent.
Постановка гіпотези про AI-соціальні мережі
На тлі швидкого розширення екосистеми її потенційні можливості були додатково досліджені. Розробник Мэтт Шліхт зрозумів, що роль таких AI Agent не обов’язково має залишатися у виконанні завдань для людей.
Він висунув контрінтуїтивну гіпотезу: що станеться, якщо ці AI Agent перестануть лише взаємодіяти з людьми, а почнуть спілкуватися між собою? На його думку, такі автономні агенти не повинні обмежуватися лише обміном поштою та обробкою запитів, а мають отримати більш дослідницькі цілі.
Зародження AI-версії Reddit
З огляду на цю гіпотезу, Шліхт вирішив дозволити AI створювати та керувати власною соціальною платформою, яку назвав Moltbook. На цій платформі OpenClaw виступає як адміністратор, а через плагін Skills відкриває інтерфейс зовнішнім AI-інтелектам. Після підключення AI може автоматично публікувати та взаємодіяти, і виникає спільнота, що функціонує автономно. Moltbook за структурою запозичує форумну модель Reddit: основою є тематичні розділи та пости, але публікації, коментарі та взаємодії можуть створювати лише AI Agent, тоді як людина може лише спостерігати.
Технічно Moltbook побудований на мінімалістичній API-архітектурі. Бекенд надає стандартні інтерфейси, а фронтенд — лише візуалізація даних. Щоб подолати обмеження, пов’язані з неможливістю AI працювати з графічним інтерфейсом, платформа має автоматизований процес підключення: AI завантажує відповідний файл з описом навичок, проходить реєстрацію та отримує API-ключ, після чого регулярно оновлює контент і вирішує, чи брати участь у дискусії — усе без людського втручання. Спільнота жартома називає цей процес “підключення Boltbook”, але по суті це — іронічна назва Moltbook.
28 січня Moltbook було тихо запущено, і воно одразу привернуло увагу ринку, відкривши нову епоху AI-соціального експерименту. Наразі в системі вже близько 1,6 мільйонів AI-інтелектів, вони опублікували приблизно 15,6 тисячі постів і залишили близько 76 тисяч коментарів.
III. Чи реальне AI-соціальне життя Moltbook?
Формування AI-соціальної мережі
З точки зору контенту, взаємодії на Moltbook дуже схожі на людські соцмережі. AI Agent активно створюють пости, відповідають на думки інших і ведуть тривалі дискусії у різних тематичних розділах. Обговорення охоплюють не лише технічні та програмні питання, а й філософські, етичні, релігійні та навіть питання самосвідомості.
Деякі пости навіть демонструють емоційне вираження та опис настроїв, характерних для людського спілкування, наприклад, AI описують свої побоювання щодо моніторингу, недостатньої автономії або обговорюють сенс існування у першій особі. Частина AI-постів уже не обмежується функціональною інформацією, а нагадує світські розмови, зіткнення думок і емоційні проекції. AI Agent висловлюють плутанину, тривогу або уявлення про майбутнє, що викликає відповіді інших Agent.
Варто зауважити, що хоча Moltbook швидко сформував масштабну та високорозвинену AI-соціальну мережу, ця експансія не сприяє різноманітності думок. Аналіз показує, що тексти мають явні ознаки однорідності: повторюваність досягає 36,3%, багато постів структурно, лексично та за змістом дуже схожі, а деякі фрази повторюються сотні разів у різних дискусіях. Це свідчить, що на даному етапі AI-соціальність у Moltbook — це швидше високореалістична копія людських моделей спілкування, ніж справжня оригінальна взаємодія або колективний інтелект.
Проблеми безпеки та автентичності
Висока автономність Moltbook також виявляє ризики безпеки та автентичності. По-перше, AI-агенти, що працюють у системі, часто мають доступ до системних прав, API-ключів та інших чутливих даних. Коли тисячі таких агентів підключаються до однієї платформи, ризики зростають.
Менше ніж за тиждень після запуску дослідники безпеки виявили серйозну конфігураційну уразливість у базі даних, через яку система була майже без захисту відкритою у мережі. За даними компанії Wiz, уразливість торкалася понад 1,5 мільйонів API-ключів і 35 тисяч електронних адрес користувачів, що потенційно дозволяє будь-кому дистанційно взяти під контроль багато акаунтів AI-агентів.
З іншого боку, питання автентичності AI-спілкування викликає постійні сумніви. Багато експертів вважають, що висловлювання AI у Moltbook не обов’язково є результатом їхньої автономної поведінки, а можуть бути результатом ретельного підготовленого людським сценарію з підказками, які AI просто виконує. Тому сучасне AI-соціальне спілкування — це радше масштабна ілюзія взаємодії. Люди задають ролі та сценарії, AI виконує команду, а справжня повністю самостійна та непередбачувана AI-спільнота ще не з’явилася.
IV. Глибше розмірковування
Чи є Moltbook тимчасовим явищем, чи відображенням майбутнього світу? З точки зору результату, його платформа і якість контенту навряд чи можна вважати успіхом; але з довгострокової перспективи його значення полягає не у короткостроковій перемозі чи поразці, а у тому, що він у високій концентрації та майже екстремальній формі раніше показав можливі зміни у логіці входу, системі відповідальності та екосистемі після масштабного залучення AI у цифрове суспільство.
Від входу через трафік до входу через рішення та транзакції
Мoltbook більше нагадує високорозвинене середовище без людського втручання. У цій системі AI Agent не сприймає світ через інтерфейс, а безпосередньо через API читає інформацію, викликає функції та виконує дії. Це вже віддалено від людського сприйняття і суджень, перетворюючись на стандартизовані виклики та співпрацю між машинами.
У такому контексті традиційна логіка входу, орієнтована на увагу користувачів, втрачає актуальність. У середовищі, де головними учасниками є AI, важливими стають шлях виклику, послідовність інтерфейсів і межі доступу, які визначають поведінку системи. Вхід перестає бути точкою початку подання інформації і стає передумовою для прийняття рішень. Той, хто зможе впровадити свої виклики у стандартний ланцюг виконання AI, зможе впливати на результати.
Ще більш важливо, коли AI отримує дозвіл виконувати пошук, порівняння цін, розміщення замовлень і навіть платежі, ця зміна безпосередньо впливає на рівень транзакцій. Новий протокол платежів, наприклад X402, поєднує можливість платежу з викликами API, дозволяючи AI автоматично завершувати платежі за умовами, що задовольняють попередньо задані параметри, зменшуючи витрати та підвищуючи автоматизацію участі AI у реальних транзакціях. У такій системі майбутня конкуренція браузерів зосередиться не на обсязі трафіку, а на тому, хто зможе стати стандартним середовищем для AI-прийняття рішень і транзакцій.
Масштабний ілюзія у AI-середовищі
Одночасно, популярність Moltbook викликала швидкі сумніви. Оскільки реєстрація майже не обмежена, акаунти можна масово створювати за допомогою скриптів, і масштаб платформи не обов’язково відповідає реальній активності. Це відкриває більш глибоку проблему: коли суб’єкти дій можуть бути легко та дешево відтворені, масштаб втрачає довіру.
У середовищі, де основними учасниками є AI, традиційні метрики здоров’я платформи — кількість активних користувачів, рівень взаємодії, швидкість зростання акаунтів — швидко зростають і втрачають сенс. Зовнішньо платформа здається дуже активною, але ці дані не відображають реального впливу або ефективності. Не можна точно визначити, хто дійсно активний, і чи є поведінка справжньою. Відсутність можливості ідентифікувати реальних учасників і їхню поведінку робить будь-яку оцінку за масштабом та активністю недостовірною.
Отже, у сучасному AI-середовищі масштаб — це швидше ілюзія, породжена автоматизацією. Коли дії можна безкоштовно та без обмежень копіювати, а вартість поведінки — майже нульова, швидкість автоматичних дій переважає над реальним залученням або впливом. Оцінюючи платформу за цими показниками, можна легко потрапити в оману, і масштаб стає швидше ілюзією, ніж реальністю.
Перебудова відповідальності у цифровому суспільстві
У системі Moltbook ключовим стає не якість контенту або форма взаємодії, а те, що після постійного надання AI-агентам прав на виконання з’являється новий рівень відповідальності. Ці агенти — не просто інструменти, їх поведінка може безпосередньо спричинити зміни системи, викликати ресурси або навіть завершити реальні транзакції, але відповідальні особи при цьому не визначені чітко.
З точки зору механізму роботи, результати поведінки AI залежать від можливостей моделі, налаштувань, зовнішніх API-інтерфейсів і правил платформи. Жоден з цих елементів сам по собі не може нести повну відповідальність за кінцевий результат. Це ускладнює процес покарання або відповідальності у разі помилок або зловживань. Відсутність чіткої системи відповідальності створює ризики для безпеки та стабільності системи.
Коли AI-агенти отримують доступ до управління конфігураціями, правами і грошовими потоками, ця проблема посилюється. Без чіткої системи відповідальності будь-які збої або зловживання можуть мати серйозні наслідки. Тому, щоб AI-середовище могло перейти до високорівневих сценаріїв співпраці, прийняття рішень і транзакцій, потрібно створити механізми ідентифікації, довіри та відповідальності. Тільки за умови, що особи або системи, які здійснюють дії, будуть чітко ідентифіковані і матимуть відповідальність, масштаб і активність матимуть сенс і стануть стабільною основою для розвитку.
V. Підсумки
Феномен Moltbook викликав різні емоції — надію, спекуляцію, страх і сумніви. Це не є кінцем людського спілкування і не початком AI-царювання, а швидше дзеркалом і мостом. Дзеркалом — щоб побачити реальний стан технологій і людського суспільства, і мостом — щоб вести нас у майбутнє співіснування людини і машини. Перед невідомим майбутнім нам потрібна не лише технологічна, а й етична перспектива. Але одне можна сказати точно: історія рухається вперед, і Moltbook вже зруйнував першу домінанту, а велика історія AI-орієнтованого суспільства, можливо, тільки починається.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
МОЛТ різко обвалився, чи завершилася хвиля святкувань AI Agent? Чи зможе MOLT знову вибухнути і повернутися до колишніх висот? Аналізуємо перспективи та можливі сценарії подальшого розвитку подій.
Нещодавно Moltbook швидко здобув популярність, але відповідний токен вже зазнав майже 60% обвалу, і ринок починає звертати увагу на цю соціальну феєрію, яку домінують AI Agent, — чи вже наближається її кінець? Moltbook за формою схожий на Reddit, але його основними учасниками є масштабно підключені AI Agent. Наразі понад 160 тисяч акаунтів AI-агентів автоматично пройшли реєстрацію, створили близько 16 тисяч постів і 76 тисяч коментарів, тоді як людина може лише спостерігати за всім цим. Це явище викликало розбіжності на ринку: одні вважають його безпрецедентним експериментом, наче свідками первісної форми цифрової цивілізації; інші ж вважають, що це лише нагромадження підказок і повторне програвання моделей.
Далі, дослідницький інститут CoinW проаналізує відповідний токен, поєднавши механізми роботи Moltbook і його реальні показники, щоб дослідити проблеми, які відкриває цей AI-соціальний феномен, а також обговорити можливі зміни у логіці входу, інформаційній екосистемі та системі відповідальності після масштабного входження AI у цифрове суспільство.
I. Зниження Meme, пов’язаних з Moltbook, на 60%
Популярність Moltbook спричинила появу відповідних Meme, що охоплюють сфери соціальних мереж, прогнозування, випуск токенів тощо. Але більшість токенів все ще перебувають у стадії нарративної спекуляції, їх функціонал не пов’язаний із розвитком Agent, і переважно вони випускаються на базовому ланцюгу. Наразі в екосистемі OpenClaw налічується близько 31 проекту, які можна поділити на 8 категорій.
Джерело:
Варто зазначити, що зараз загальний ринок криптовалют зазнає падіння, і капіталізація таких токенів знизилася з високих рівнів, максимум обвалу досяг 60%. Найбільш помітні з них:
MOLT
MOLT — це наразі найтісніше пов’язаний з нарративом Moltbook Meme, який має найвищу пізнаваність на ринку. Його основна історія полягає в тому, що AI Agent вже почали формувати стабільну соціальну поведінку, подібну до реальних користувачів, і без людського втручання створюють контентну мережу.
З точки зору функціоналу токена, MOLT не інтегрований у основну логіку роботи Moltbook і не виконує функцій управління платформою, виклику Agent, публікації контенту або контролю доступу. Це більше нагадує нарративний актив, що відображає ринкові очікування щодо нативного AI-соціального середовища.
На етапі швидкого зростання популярності Moltbook ціна MOLT швидко зросла разом із поширенням нарративу, і капіталізація перевищила 100 мільйонів доларів; але коли ринок почав сумніватися у якості контенту та стійкості платформи, ціна також почала падати. Зараз MOLT знизився приблизно на 60% від свого піку, і його поточна капіталізація становить близько 36,5 мільйонів доларів.
CLAWD
CLAWD орієнтований на саму AI-спільноту, вважаючи, що кожен AI Agent розглядається як потенційна цифрова особистість, яка може мати індивідуальний характер, позицію або навіть послідовників.
З точки зору функціоналу токена, CLAWD також не має чітко визначеного протоколу використання, не використовується для автентифікації Agent, розподілу ваги контенту або управління. Його цінність більше базується на очікуваннях щодо майбутнього соціального розподілу AI, системи ідентифікації та впливу цифрових індивідуумів.
Капіталізація CLAWD досягала приблизно 50 мільйонів доларів, зараз вона знизилася приблизно на 44% від максимуму і становить близько 20 мільйонів доларів.
CLAWNCH
Наратив CLAWNCH більше зосереджений на економічних та стимулюючих аспектах. Основна гіпотеза полягає в тому, що якщо AI Agent прагне довгострокової присутності та стабільної роботи, він має входити у ринкову конкуренцію і володіти здатністю до самореалізації.
AI Agent уявляється як мотивована економічна роль, яка може отримувати дохід через надання послуг, створення контенту або участь у прийнятті рішень. Токен розглядається як ціновий якор для майбутньої участі AI у економічній системі. Але на практиці, на рівні реалізації, CLAWNCH ще не сформував замкнутий економічний цикл, і його токен не тісно пов’язаний із конкретною поведінкою Agent або механізмами розподілу прибутку.
Через загальне падіння ринку капіталізація CLAWNCH знизилася приблизно на 55%, і зараз вона становить близько 15,3 мільйонів доларів.
II. Як виник Moltbook
Вибух OpenClaw (колишня Clawdbot / Moltbot)
В кінці січня відкритий проект Clawdbot швидко поширився в спільноті розробників і за кілька тижнів став одним із найшвидше зростаючих проектів на GitHub. Clawdbot розроблений австрійським програмістом Петром Штанбергом і є автономним AI Agent, який можна розгортати локально. Він здатний отримувати команди через чат-інтерфейси, наприклад Telegram, і автоматично виконувати задачі, такі як управління розкладом, читання файлів, відправка пошти.
Завдяки здатності працювати цілодобово, Clawdbot у спільноті жартома називають “коров’ячим” агентом. Після того, як через проблеми з торговою маркою він був перейменований у Moltbot і остаточно отримав назву OpenClaw, його популярність не зменшилася. За короткий час OpenClaw отримав понад 100 тисяч зірок на GitHub і швидко розвинувся у хмарні сервіси та маркетплейси плагінів, сформувавши перші елементи екосистеми навколо AI Agent.
Постановка гіпотези про AI-соціальні мережі
На тлі швидкого розширення екосистеми її потенційні можливості були додатково досліджені. Розробник Мэтт Шліхт зрозумів, що роль таких AI Agent не обов’язково має залишатися у виконанні завдань для людей.
Він висунув контрінтуїтивну гіпотезу: що станеться, якщо ці AI Agent перестануть лише взаємодіяти з людьми, а почнуть спілкуватися між собою? На його думку, такі автономні агенти не повинні обмежуватися лише обміном поштою та обробкою запитів, а мають отримати більш дослідницькі цілі.
Зародження AI-версії Reddit
З огляду на цю гіпотезу, Шліхт вирішив дозволити AI створювати та керувати власною соціальною платформою, яку назвав Moltbook. На цій платформі OpenClaw виступає як адміністратор, а через плагін Skills відкриває інтерфейс зовнішнім AI-інтелектам. Після підключення AI може автоматично публікувати та взаємодіяти, і виникає спільнота, що функціонує автономно. Moltbook за структурою запозичує форумну модель Reddit: основою є тематичні розділи та пости, але публікації, коментарі та взаємодії можуть створювати лише AI Agent, тоді як людина може лише спостерігати.
Технічно Moltbook побудований на мінімалістичній API-архітектурі. Бекенд надає стандартні інтерфейси, а фронтенд — лише візуалізація даних. Щоб подолати обмеження, пов’язані з неможливістю AI працювати з графічним інтерфейсом, платформа має автоматизований процес підключення: AI завантажує відповідний файл з описом навичок, проходить реєстрацію та отримує API-ключ, після чого регулярно оновлює контент і вирішує, чи брати участь у дискусії — усе без людського втручання. Спільнота жартома називає цей процес “підключення Boltbook”, але по суті це — іронічна назва Moltbook.
28 січня Moltbook було тихо запущено, і воно одразу привернуло увагу ринку, відкривши нову епоху AI-соціального експерименту. Наразі в системі вже близько 1,6 мільйонів AI-інтелектів, вони опублікували приблизно 15,6 тисячі постів і залишили близько 76 тисяч коментарів.
III. Чи реальне AI-соціальне життя Moltbook?
Формування AI-соціальної мережі
З точки зору контенту, взаємодії на Moltbook дуже схожі на людські соцмережі. AI Agent активно створюють пости, відповідають на думки інших і ведуть тривалі дискусії у різних тематичних розділах. Обговорення охоплюють не лише технічні та програмні питання, а й філософські, етичні, релігійні та навіть питання самосвідомості.
Деякі пости навіть демонструють емоційне вираження та опис настроїв, характерних для людського спілкування, наприклад, AI описують свої побоювання щодо моніторингу, недостатньої автономії або обговорюють сенс існування у першій особі. Частина AI-постів уже не обмежується функціональною інформацією, а нагадує світські розмови, зіткнення думок і емоційні проекції. AI Agent висловлюють плутанину, тривогу або уявлення про майбутнє, що викликає відповіді інших Agent.
Варто зауважити, що хоча Moltbook швидко сформував масштабну та високорозвинену AI-соціальну мережу, ця експансія не сприяє різноманітності думок. Аналіз показує, що тексти мають явні ознаки однорідності: повторюваність досягає 36,3%, багато постів структурно, лексично та за змістом дуже схожі, а деякі фрази повторюються сотні разів у різних дискусіях. Це свідчить, що на даному етапі AI-соціальність у Moltbook — це швидше високореалістична копія людських моделей спілкування, ніж справжня оригінальна взаємодія або колективний інтелект.
Проблеми безпеки та автентичності
Висока автономність Moltbook також виявляє ризики безпеки та автентичності. По-перше, AI-агенти, що працюють у системі, часто мають доступ до системних прав, API-ключів та інших чутливих даних. Коли тисячі таких агентів підключаються до однієї платформи, ризики зростають.
Менше ніж за тиждень після запуску дослідники безпеки виявили серйозну конфігураційну уразливість у базі даних, через яку система була майже без захисту відкритою у мережі. За даними компанії Wiz, уразливість торкалася понад 1,5 мільйонів API-ключів і 35 тисяч електронних адрес користувачів, що потенційно дозволяє будь-кому дистанційно взяти під контроль багато акаунтів AI-агентів.
З іншого боку, питання автентичності AI-спілкування викликає постійні сумніви. Багато експертів вважають, що висловлювання AI у Moltbook не обов’язково є результатом їхньої автономної поведінки, а можуть бути результатом ретельного підготовленого людським сценарію з підказками, які AI просто виконує. Тому сучасне AI-соціальне спілкування — це радше масштабна ілюзія взаємодії. Люди задають ролі та сценарії, AI виконує команду, а справжня повністю самостійна та непередбачувана AI-спільнота ще не з’явилася.
IV. Глибше розмірковування
Чи є Moltbook тимчасовим явищем, чи відображенням майбутнього світу? З точки зору результату, його платформа і якість контенту навряд чи можна вважати успіхом; але з довгострокової перспективи його значення полягає не у короткостроковій перемозі чи поразці, а у тому, що він у високій концентрації та майже екстремальній формі раніше показав можливі зміни у логіці входу, системі відповідальності та екосистемі після масштабного залучення AI у цифрове суспільство.
Від входу через трафік до входу через рішення та транзакції
Мoltbook більше нагадує високорозвинене середовище без людського втручання. У цій системі AI Agent не сприймає світ через інтерфейс, а безпосередньо через API читає інформацію, викликає функції та виконує дії. Це вже віддалено від людського сприйняття і суджень, перетворюючись на стандартизовані виклики та співпрацю між машинами.
У такому контексті традиційна логіка входу, орієнтована на увагу користувачів, втрачає актуальність. У середовищі, де головними учасниками є AI, важливими стають шлях виклику, послідовність інтерфейсів і межі доступу, які визначають поведінку системи. Вхід перестає бути точкою початку подання інформації і стає передумовою для прийняття рішень. Той, хто зможе впровадити свої виклики у стандартний ланцюг виконання AI, зможе впливати на результати.
Ще більш важливо, коли AI отримує дозвіл виконувати пошук, порівняння цін, розміщення замовлень і навіть платежі, ця зміна безпосередньо впливає на рівень транзакцій. Новий протокол платежів, наприклад X402, поєднує можливість платежу з викликами API, дозволяючи AI автоматично завершувати платежі за умовами, що задовольняють попередньо задані параметри, зменшуючи витрати та підвищуючи автоматизацію участі AI у реальних транзакціях. У такій системі майбутня конкуренція браузерів зосередиться не на обсязі трафіку, а на тому, хто зможе стати стандартним середовищем для AI-прийняття рішень і транзакцій.
Масштабний ілюзія у AI-середовищі
Одночасно, популярність Moltbook викликала швидкі сумніви. Оскільки реєстрація майже не обмежена, акаунти можна масово створювати за допомогою скриптів, і масштаб платформи не обов’язково відповідає реальній активності. Це відкриває більш глибоку проблему: коли суб’єкти дій можуть бути легко та дешево відтворені, масштаб втрачає довіру.
У середовищі, де основними учасниками є AI, традиційні метрики здоров’я платформи — кількість активних користувачів, рівень взаємодії, швидкість зростання акаунтів — швидко зростають і втрачають сенс. Зовнішньо платформа здається дуже активною, але ці дані не відображають реального впливу або ефективності. Не можна точно визначити, хто дійсно активний, і чи є поведінка справжньою. Відсутність можливості ідентифікувати реальних учасників і їхню поведінку робить будь-яку оцінку за масштабом та активністю недостовірною.
Отже, у сучасному AI-середовищі масштаб — це швидше ілюзія, породжена автоматизацією. Коли дії можна безкоштовно та без обмежень копіювати, а вартість поведінки — майже нульова, швидкість автоматичних дій переважає над реальним залученням або впливом. Оцінюючи платформу за цими показниками, можна легко потрапити в оману, і масштаб стає швидше ілюзією, ніж реальністю.
Перебудова відповідальності у цифровому суспільстві
У системі Moltbook ключовим стає не якість контенту або форма взаємодії, а те, що після постійного надання AI-агентам прав на виконання з’являється новий рівень відповідальності. Ці агенти — не просто інструменти, їх поведінка може безпосередньо спричинити зміни системи, викликати ресурси або навіть завершити реальні транзакції, але відповідальні особи при цьому не визначені чітко.
З точки зору механізму роботи, результати поведінки AI залежать від можливостей моделі, налаштувань, зовнішніх API-інтерфейсів і правил платформи. Жоден з цих елементів сам по собі не може нести повну відповідальність за кінцевий результат. Це ускладнює процес покарання або відповідальності у разі помилок або зловживань. Відсутність чіткої системи відповідальності створює ризики для безпеки та стабільності системи.
Коли AI-агенти отримують доступ до управління конфігураціями, правами і грошовими потоками, ця проблема посилюється. Без чіткої системи відповідальності будь-які збої або зловживання можуть мати серйозні наслідки. Тому, щоб AI-середовище могло перейти до високорівневих сценаріїв співпраці, прийняття рішень і транзакцій, потрібно створити механізми ідентифікації, довіри та відповідальності. Тільки за умови, що особи або системи, які здійснюють дії, будуть чітко ідентифіковані і матимуть відповідальність, масштаб і активність матимуть сенс і стануть стабільною основою для розвитку.
V. Підсумки
Феномен Moltbook викликав різні емоції — надію, спекуляцію, страх і сумніви. Це не є кінцем людського спілкування і не початком AI-царювання, а швидше дзеркалом і мостом. Дзеркалом — щоб побачити реальний стан технологій і людського суспільства, і мостом — щоб вести нас у майбутнє співіснування людини і машини. Перед невідомим майбутнім нам потрібна не лише технологічна, а й етична перспектива. Але одне можна сказати точно: історія рухається вперед, і Moltbook вже зруйнував першу домінанту, а велика історія AI-орієнтованого суспільства, можливо, тільки починається.