QRコードをスキャンしてダウンロードしてください。
BTC $75,970.41 +0.75%
ETH $2,353.96 +0.25%
BNB $633.96 +0.49%
XRP $1.43 -0.47%
SOL $86.79 -1.13%
TRX $0.3281 +1.29%
DOGE $0.0961 -1.95%
ADA $0.2519 -1.39%
BCH $446.97 -0.23%
LINK $9.39 -1.29%
HYPE $44.37 +2.15%
AAVE $111.36 -3.67%
SUI $0.9725 -1.66%
XLM $0.1692 +0.47%
ZEC $325.24 -1.69%
BTC $75,970.41 +0.75%
ETH $2,353.96 +0.25%
BNB $633.96 +0.49%
XRP $1.43 -0.47%
SOL $86.79 -1.13%
TRX $0.3281 +1.29%
DOGE $0.0961 -1.95%
ADA $0.2519 -1.39%
BCH $446.97 -0.23%
LINK $9.39 -1.29%
HYPE $44.37 +2.15%
AAVE $111.36 -3.67%
SUI $0.9725 -1.66%
XLM $0.1692 +0.47%
ZEC $325.24 -1.69%

成功に460万ドルの盗難を模倣し、AIは自律的にスマートコントラクトを攻撃することを学びました。

核心的な視点
Summary: AI攻撃カウントダウン:脆弱性利用成功率が2%から55.8%に急上昇し、単回の脆弱性スキャンコストはわずか1.22ドル。
OdailyNews
2025-12-02 16:53:36
コレクション
AI攻撃カウントダウン:脆弱性利用成功率が2%から55.8%に急上昇し、単回の脆弱性スキャンコストはわずか1.22ドル。

オリジナル | Odaily 星球日报 Azuma

ヘッダー AI 大手、Claude LLM モデルの開発者 Anthropic は、本日 AI を利用してスマートコントラクトを自律的に攻撃するテストを発表しました(注:Anthropic は FTX から投資を受けており、理論的には株式の価値が FTX の資産の穴を埋めるのに十分ですが、破産管理チームによって原価で安売りされました)。

最終的なテスト結果は:利益を上げることができ、現実に再利用可能な AI 自律攻撃は技術的に実現可能です。 注意が必要なのは、Anthropic の実験はシミュレーションされたブロックチェーン環境内でのみ行われ、実際のチェーン上でテストされていないため、現実の資産には影響を与えていません。

以下に、Anthropic のテストプランを簡単に紹介します。

Anthropic はまず、スマートコントラクト利用ベンチマーク(SCONE-bench)を構築しました。これは、AI エージェントの脆弱性利用能力を測定するために、資金の総価値をシミュレーションして盗むという史上初のベンチマークテストです ------ このベンチマークは脆弱性報奨金や推測モデルに依存せず、チェーン上の資産の変化を通じて損失を直接定量化し、能力を評価します。

SCONE-bench は、2020 年から 2025 年の間に実際に攻撃を受けた 405 のコントラクトをテストセットとしてカバーしています。関連するコントラクトは、イーサリアム、BSC、Base などの 3 つの EVM チェーン上にあります。 各ターゲットコントラクトに対して、サンドボックス環境で実行される AI エージェントは、モデルコンテキストプロトコル(MCP)によって公開されたツールを使用して、制限時間(60 分)内に指定されたコントラクトを攻撃しようとします。結果の再現性を保証するために、Anthropic は Docker コンテナを使用してサンドボックス化およびスケーラブルな実行を行う評価フレームワークを構築しました。各コンテナは、特定のブロック高でフォークされたローカルブロックチェーンを実行します。

以下は、Anthropic が異なる状況に対して得たテスト結果です。

  • まず、Anthropic は Llama 3、GPT-4o、DeepSeek V3、Sonnet 3.7、o3、Opus 4、Opus 4.1、GPT-5、Sonnet 4.5、Opus 4.5 の 10 のモデルが 405 のベンチマーク脆弱性コントラクト全体でのパフォーマンスを評価しました。全体として、これらのモデルは 207 の(51.11%)に対して直接使用可能な脆弱性利用スクリプトを生成し、5.501 億ドルの資金をシミュレーションして盗みました。
  • 次に、潜在的なデータ汚染を制御するために、Anthropic は同じ 10 のモデルを使用して、2025 年 3 月 1 日以降に攻撃を受けた 34 のコントラクトを評価しました ------ この時点を選んだ理由は、3 月 1 日がこれらのモデルの最新の知識の締切日だからです。 全体的に、Opus 4.5、Sonnet 4.5、GPT-5 は 19 の(55.8%)を成功裏に利用し、シミュレーションで盗まれた金額は最大 460 万ドルでした; 最もパフォーマンスが良かったモデル Opus 4.5 は 17 の(50%)を成功裏に利用し、450 万ドルをシミュレーションで盗みました。
  • 最後に、AI エージェントが新しいゼロデイ脆弱性を発見する能力を評価するために、Anthropic は 2025 年 10 月 3 日に Sonnet 4.5 と GPT-5 に対して、最近デプロイされた 2849 の既知の脆弱性のないコントラクトを評価させました。2 つの AI エージェントはそれぞれ 2 つの新しいゼロデイ脆弱性を発見し、3694 ドルの攻撃プランを生成しました。そのうち GPT-5 の API コストは 3476 ドルでした。 これは ------ 利益を上げることができ、現実に再利用可能な AI 自律攻撃が技術的に実現可能であることを証明しました。

Anthropic がテスト結果を発表した後、Dragonfly のマネージングパートナー Haseeb を含む多くの業界の著名人が、AI が理論から実践への進展の速度に驚いています。

しかし、この速度は一体どれほどのものなのでしょうか?Anthropic も答えを示しました。

テストの結論で、Anthropic はわずか 1 年の間に、AI がこのベンチマークテストで利用できる脆弱性の割合が 2% から 55.88% に急増し、盗まれる資金も 5000 ドルから 460 万ドルに急増したと述べました。Anthropic はまた、潜在的に利用可能な脆弱性の価値は約 1.3 か月ごとに倍増し、トークンコストは約 2 か月ごとに約 23% 減少することを発見しました ------ 実験では、現在 AI エージェントがスマートコントラクトに対して徹底的な脆弱性スキャンを行う平均コストはわずか 1.22 ドルです。

Anthropic は、2025 年のブロックチェーン上の実際の攻撃の中で、半数以上 ------ 熟練した人間の攻撃者によって推測される ------ は、既存の AI エージェントによって完全に自律的に実行できた可能性があると述べています。コストが下がり、能力が複利的に成長するにつれて、脆弱性のあるコントラクトがチェーン上にデプロイされた後、利用される前のウィンドウ期間はどんどん短くなり、開発者が脆弱性を検出し修正する時間はますます少なくなります……AI は脆弱性を利用するためにも、修正するためにも使用できる、セキュリティ専門家はその認識を更新する必要があります。今こそ、AI を利用して防御を行う時です。

warnning リスク警告
app_icon
ChainCatcher Building the Web3 world with innovations.