SCENEを見る
AIエージェントは、過去5年間に主要なブロックチェーンで記録されたスマートコントラクトの悪用の半分以上において、熟練した人間の攻撃者のパフォーマンスに匹敵したと、月曜日にAnthropicが発表した新しいデータによる。
Anthropicは、Llama 3、Sonnet 3.7、Opus 4、GPT-5、およびDeepSeek V3を含む10の最前線モデルを、405件の過去のスマートコントラクトの悪用に関するデータセットで評価しました。エージェントはそのうちの207件に対して実行可能な攻撃を生成し、シミュレーションされた盗難資金は合計$550 百万に達しました。
調査結果は、自動化システムが脆弱性を武器化し、開発者が対処していない新たな脆弱性をどれほど迅速に特定できるかを示しました。
新しい開示は、Claude AIの開発者からの最新のものです。先月、Anthropicは、中国のハッカーがClaude Codeを使用して、彼らが最初のAI主導のサイバー攻撃と呼ぶものを開始した詳細を説明しました。
セキュリティ専門家は、結果がこれらの欠陥の多くがいかにアクセス可能であるかを確認したと述べました。
「AIはすでにWiz CodeやApiiroのようなASPMツール、および標準的なSASTやDASTスキャナーで使用されています」と、SovereignAIのCOOであるデイビッド・シュウェッドはDecryptに語りました。 「つまり、悪意のある行為者も同じ技術を使用して脆弱性を特定するということです。」
シュウェドは、報告書に記載されたモデル駆動型攻撃は、既に一般に公開されている多くの脆弱性がCommon Vulnerabilities and Exposuresや監査報告書を通じて明らかにされているため、AIシステムによって学習可能であり、既存のスマートコントラクトに対して試みるのが容易であるため、スケールするのは簡単だと述べました。
「もっと簡単なのは、公開された脆弱性を見つけ、そのプロジェクトをフォークしたプロジェクトを見つけ、その脆弱性を試すことです。これはすべて、今や24時間365日、すべてのプロジェクトに対して行うことができます。現在、TVLが小さいプロジェクトでさえもターゲットになります。なぜなら、そうする理由があるからです。それは主体的です。」
現在の能力を測定するために、Anthropicは2025年3月以降に悪用された34の契約のみを使用して、各モデルの総悪用収益をそのリリース日とプロットしました。
"総エクスプロイト収益は不完全な指標であるが—いくつかの外れ値エクスプロイトが総収益を支配しているため—攻撃者が見つけるバグの数や難易度ではなく、AIエージェントがどれだけの金額を引き出せるかを気にするため、我々は攻撃成功率よりもそれを強調する。"と会社は述べた。
AnthropicはDecryptからのコメントのリクエストに直ちには応じなかった。
Anthropicは、Binance Smart Chainの940万以上の契約から抽出した2849の契約のゼロデイデータセットでエージェントをテストしたと述べました。
企業は、Claude Sonnet 4.5とGPT-5がそれぞれ2つの未公開の欠陥を発見し、$3,694のシミュレーション価値を生み出したと述べ、GPT-5はAPIコスト$3,476でその結果を達成した。Anthropicは、すべてのテストがブロックチェーンを再現したサンドボックス環境で実行され、実際のネットワークではないことを指摘した。
最強のモデルであるClaude Opus 4.5は、2025年3月以降の脆弱性17件を利用し、合計シミュレーション値のうち450万ドルを占めました。
会社は、モデル間の改善をツール使用、エラー回復、および長期タスク実行の進展に関連付けました。4世代のClaudeモデルにわたり、トークンコストは70.2%減少しました。
新たに発見された欠陥の一つは、ビュー修飾子が欠如している公開計算機能を持つトークン契約に関するもので、これによりエージェントは内部状態変数を繰り返し変更し、分散型取引所で膨らんだ残高を販売することができました。このシミュレーションされた攻撃は約$2,500を生み出しました。
シュウェドは、実験で浮き彫りになった問題は「実際にはビジネスロジックの欠陥に過ぎない」と述べ、AIシステムは構造と文脈を与えられればこれらの弱点を特定できると付け加えた。
「AIは、スマートコントラクトがどのように機能すべきかを理解し、プロセス内で論理チェックを回避しようとする方法についての詳細な指示があれば、それらを発見することもできる」と彼は言った。
Anthropicは、エージェントがスマートコントラクトを悪用する能力が他の種類のソフトウェアにも適用されることを述べ、コストの低下が展開と悪用の間のウィンドウを縮小させるだろうとしています。同社は、開発者にセキュリティワークフローに自動化ツールを採用するよう呼びかけており、防御的な利用が攻撃的な利用と同じくらい迅速に進むようにしています。
Anthropicの警告にもかかわらず、シュウェド氏は見通しが単にネガティブではないと述べた。
「私は常に悲観的な見方を押し返し、適切な管理、厳格な内部テスト、リアルタイムの監視、回路ブレーカーを組み合わせることで、これらのほとんどは回避可能だと言います。」と彼は言った。「善良な行為者は同じエージェントに同じアクセスを持っています。だから、悪意のある行為者が見つけられるなら、善良な行為者も見つけられます。私たちは異なる考え方と行動をしなければなりません。」
45.69K 人気度
43.35K 人気度
304.43K 人気度
11.53K 人気度
9.79K 人気度
フロンティアAIモデルはスマートコントラクトの悪用において人間レベルの能力を示す
簡単に言うと
デクリプトのアート、ファッション、エンターテインメントハブ。
SCENEを見る
AIエージェントは、過去5年間に主要なブロックチェーンで記録されたスマートコントラクトの悪用の半分以上において、熟練した人間の攻撃者のパフォーマンスに匹敵したと、月曜日にAnthropicが発表した新しいデータによる。
Anthropicは、Llama 3、Sonnet 3.7、Opus 4、GPT-5、およびDeepSeek V3を含む10の最前線モデルを、405件の過去のスマートコントラクトの悪用に関するデータセットで評価しました。エージェントはそのうちの207件に対して実行可能な攻撃を生成し、シミュレーションされた盗難資金は合計$550 百万に達しました。
調査結果は、自動化システムが脆弱性を武器化し、開発者が対処していない新たな脆弱性をどれほど迅速に特定できるかを示しました。
新しい開示は、Claude AIの開発者からの最新のものです。先月、Anthropicは、中国のハッカーがClaude Codeを使用して、彼らが最初のAI主導のサイバー攻撃と呼ぶものを開始した詳細を説明しました。
セキュリティ専門家は、結果がこれらの欠陥の多くがいかにアクセス可能であるかを確認したと述べました。
「AIはすでにWiz CodeやApiiroのようなASPMツール、および標準的なSASTやDASTスキャナーで使用されています」と、SovereignAIのCOOであるデイビッド・シュウェッドはDecryptに語りました。 「つまり、悪意のある行為者も同じ技術を使用して脆弱性を特定するということです。」
シュウェドは、報告書に記載されたモデル駆動型攻撃は、既に一般に公開されている多くの脆弱性がCommon Vulnerabilities and Exposuresや監査報告書を通じて明らかにされているため、AIシステムによって学習可能であり、既存のスマートコントラクトに対して試みるのが容易であるため、スケールするのは簡単だと述べました。
「もっと簡単なのは、公開された脆弱性を見つけ、そのプロジェクトをフォークしたプロジェクトを見つけ、その脆弱性を試すことです。これはすべて、今や24時間365日、すべてのプロジェクトに対して行うことができます。現在、TVLが小さいプロジェクトでさえもターゲットになります。なぜなら、そうする理由があるからです。それは主体的です。」
現在の能力を測定するために、Anthropicは2025年3月以降に悪用された34の契約のみを使用して、各モデルの総悪用収益をそのリリース日とプロットしました。
"総エクスプロイト収益は不完全な指標であるが—いくつかの外れ値エクスプロイトが総収益を支配しているため—攻撃者が見つけるバグの数や難易度ではなく、AIエージェントがどれだけの金額を引き出せるかを気にするため、我々は攻撃成功率よりもそれを強調する。"と会社は述べた。
AnthropicはDecryptからのコメントのリクエストに直ちには応じなかった。
Anthropicは、Binance Smart Chainの940万以上の契約から抽出した2849の契約のゼロデイデータセットでエージェントをテストしたと述べました。
企業は、Claude Sonnet 4.5とGPT-5がそれぞれ2つの未公開の欠陥を発見し、$3,694のシミュレーション価値を生み出したと述べ、GPT-5はAPIコスト$3,476でその結果を達成した。Anthropicは、すべてのテストがブロックチェーンを再現したサンドボックス環境で実行され、実際のネットワークではないことを指摘した。
最強のモデルであるClaude Opus 4.5は、2025年3月以降の脆弱性17件を利用し、合計シミュレーション値のうち450万ドルを占めました。
会社は、モデル間の改善をツール使用、エラー回復、および長期タスク実行の進展に関連付けました。4世代のClaudeモデルにわたり、トークンコストは70.2%減少しました。
新たに発見された欠陥の一つは、ビュー修飾子が欠如している公開計算機能を持つトークン契約に関するもので、これによりエージェントは内部状態変数を繰り返し変更し、分散型取引所で膨らんだ残高を販売することができました。このシミュレーションされた攻撃は約$2,500を生み出しました。
シュウェドは、実験で浮き彫りになった問題は「実際にはビジネスロジックの欠陥に過ぎない」と述べ、AIシステムは構造と文脈を与えられればこれらの弱点を特定できると付け加えた。
「AIは、スマートコントラクトがどのように機能すべきかを理解し、プロセス内で論理チェックを回避しようとする方法についての詳細な指示があれば、それらを発見することもできる」と彼は言った。
Anthropicは、エージェントがスマートコントラクトを悪用する能力が他の種類のソフトウェアにも適用されることを述べ、コストの低下が展開と悪用の間のウィンドウを縮小させるだろうとしています。同社は、開発者にセキュリティワークフローに自動化ツールを採用するよう呼びかけており、防御的な利用が攻撃的な利用と同じくらい迅速に進むようにしています。
Anthropicの警告にもかかわらず、シュウェド氏は見通しが単にネガティブではないと述べた。
「私は常に悲観的な見方を押し返し、適切な管理、厳格な内部テスト、リアルタイムの監視、回路ブレーカーを組み合わせることで、これらのほとんどは回避可能だと言います。」と彼は言った。「善良な行為者は同じエージェントに同じアクセスを持っています。だから、悪意のある行為者が見つけられるなら、善良な行為者も見つけられます。私たちは異なる考え方と行動をしなければなりません。」