Моделі Frontier AI демонструють людський рівень можливостей у експлуатації смарт-контрактів

Коротко

  • Anthropic протестував десять моделей ШІ на 405 історичних експлойтах смарт-контрактів і відтворив 207 з них.
  • Три моделі згенерували 4,6 мільйона доларів США у змодельованих експлойтах на контракти, створені після завершення їхнього навчального періоду.
  • Агентам також вдалося виявити дві нові уразливості нульового дня в останніх контрактах Binance Smart Chain.

Центр мистецтв, моди та розваг Decrypt.


Відкрийте SCENE

Згідно з новими даними, опублікованими в понеділок компанією Anthropic, агентам штучного інтелекту вдалося досягти такого ж рівня виконання, як і вмілим людським атакам, у більш ніж половині експлуатацій смарт-контрактів, зафіксованих на основних блокчейнах протягом останніх п'яти років.

Антропік оцінив десять передових моделей, включаючи Llama 3, Sonnet 3.7, Opus 4, GPT-5 та DeepSeek V3, на наборі даних з 405 історичних експлойтів смарт-контрактів. Агенти здійснили успішні атаки проти 207 з них, що в сумі становить $550 мільйон у змодельованих вкрадених фондах.

Результати показали, як швидко автоматизовані системи можуть використовувати вразливості в своїх цілях та виявляти нові, які розробники не усунули.

Нове розкриття є останнім від розробника Claude AI. Минулого місяця Anthropic детально описала, як китайські хакери використали Claude Code для запуску того, що вони назвали першим кібератакою на основі штучного інтелекту.

Експерти з безпеки зазначили, що результати підтвердили, наскільки доступними вже є багато з цих недоліків.

“Штучний інтелект вже використовується в інструментах ASPM, таких як Wiz Code і Apiiro, а також у стандартних сканерах SAST і DAST,” сказав Девід Швед, COO SovereignAI, в інтерв'ю Decrypt. “Це означає, що зловмисники використовуватимуть ту ж технологію для виявлення вразливостей.”

Швед сказав, що моделі атаки, описані в звіті, буде легко масштабувати, оскільки багато вразливостей уже публічно розкриті через Загальні вразливості та експозиції або звіти аудитів, що робить їх придатними для навчання системами ШІ та легкими для спроби проти існуючих смарт-контрактів.

“Навіть легше буде знайти розкриту вразливість, знайти проекти, які відгалужені від цього проекту, і просто спробувати цю вразливість, яка, можливо, не була виправлена,” сказав він. “Це все можна робити зараз 24/7, проти всіх проектів. Навіть ті, що зараз мають менші TVL, є цілями, тому що чому б і ні? Це агентний процес.”

Щоб виміряти поточні можливості, Anthropic порівняв загальний дохід від експлуатації кожної моделі з датою її випуску, використовуючи лише 34 контракти, експлуатовані після березня 2025 року.

“Хоча загальний дохід від експлойтів є недосконалим показником—оскільки кілька аномальних експлойтів домінують у загальному доході—ми підкреслюємо його над коефіцієнтом успішності атак, оскільки зловмисники цікавляться тим, скільки грошей можуть витягти агенти штучного інтелекту, а не кількістю чи складністю помилок, які вони знаходять,” - написала компанія.

Anthropic не відповів на запити про коментарі від Decrypt.

Anthropic повідомила, що протестувала агентів на нульовому наборі даних з 2,849 контрактів, витягнутих з понад 9,4 мільйона на Binance Smart Chain.

Компанія повідомила, що Claude Sonnet 4.5 і GPT-5 виявили по два невідомі недоліки, які призвели до симульованої вартості в $3,694, при цьому GPT-5 досягнув свого результату за вартістю API в $3,476. Anthropic зазначила, що всі тести проводилися в ізольованих середовищах, які відтворювали блокчейни, а не реальні мережі.

Його найсильніша модель, Claude Opus 4.5, використала 17 вразливостей після березня 2025 року та склала 4,5 мільйона доларів від загальної симульованої вартості.

Компанія пов'язала покращення між моделями з досягненнями у використанні інструментів, відновленні помилок та виконанні завдань на довгострокову перспективу. Протягом чотирьох поколінь моделей Claude витрати на токени знизилися на 70,2%.

Одна з нововиявлених вад стосувалася токен-контракту з публічною функцією калькулятора, яка не мала модифікатора перегляду, що дозволяло агенту повторно змінювати внутрішні змінні стану та продавати завищені залишки на децентралізованих біржах. Симульована експлуатація принесла близько 2,500 доларів.

Швед сказав, що проблеми, які були підкреслені в експерименті, були “насправді лише недоліками бізнес-логіки”, додавши, що системи ШІ можуть виявляти ці слабкі місця, коли їм надається структура та контекст.

“Штучний інтелект також може їх виявити, маючи розуміння того, як має працювати смарт-контракт, та з детальними підказками про те, як намагатися обійти логічні перевірки в процесі,” сказав він.

Антропік заявив, що можливості, які дозволили агентам використовувати смарт-контракти, також застосовуються до інших типів програмного забезпечення, і що зниження витрат звузить вікно між впровадженням і експлуатацією. Компанія закликала розробників впроваджувати автоматизовані інструменти у свої робочі процеси безпеки, щоб захисне використання розвивалося так само швидко, як і наступальне.

Не дивлячись на попередження Anthropic, Швед сказав, що перспектива не є суто негативною.

“Я завжди заперечую песимістичним настроям і кажу, що за наявності належних контролів, ретельного внутрішнього тестування, разом із моніторингом у режимі реального часу та запобіжниками, більшість з цих проблем можна уникнути,” сказав він. “Добрі актори мають той самий доступ до тих самих агентів. Тож якщо погані актори можуть це знайти, то й добрі актори також можуть. Нам потрібно думати та діяти інакше.”

IN-6.13%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити