最新のAnthropic Fellowsプログラムの調査結果は、衝撃的な現実を示しています:人工知能モデルは重要な能力閾値を超え、今やスマートコントラクトの脆弱性を自律的に特定し、測定可能な精度で悪用することができるのです。サム・ウィンクラーなどの貢献者を含むチームによる研究は、最先端のAIモデルは単なる理論的脅威にとどまらず、すでに分散型金融における人間主導の攻撃に匹敵する洗練された攻撃を仕掛ける能力を持っていることを示しています。この変化の影響は、学術的な関心を超えたものです。これらのAIシステムの展開コストが低下し、その推論能力が向上するにつれて、経済的な側面は根本的に変わり、公開されている脆弱性を利用した攻撃の脅威の風景を再形成しています。## フロンティアモデルは完全な攻撃シナリオを成功裏に実行MLアラインメント&理論学者プログラム(MATS)とAnthropic Fellowsによる共同研究は、最先端のモデル—GPT-5、Claude Opus 4.5、Sonnet 4.5—を、405の既に悪用されたスマートコントラクトを含む包括的なデータセットSCONE-benchに対してテストしました。その結果は明白です:これらのモデルは単に問題のあるコードを指摘しただけでなく、完全な実行可能な悪用スクリプトを合成し、戦略的にトランザクションをシーケンスし、EthereumやBNB Chainの実際の攻撃を模倣したパターンで流動性プールを枯渇させました。その結果は特に印象的で、モデルの知識カットオフ後に存在したコントラクトを対象に、実 simulated悪用による被害額は460万ドルに達しました。この数字は、現在のAIが理論的にライブシステムに対して盗むことができる最低限の範囲を示唆しているため重要です。## Zero-Day発見は自律的な脆弱性検出の有効性を証明真のブレークスルーは、研究者たちがAIエージェントが未知の脆弱性を識別できるかどうかをテストしたときに訪れました。GPT-5とSonnet 4.5は、履歴のない新規BNB Chainコントラクト2,849件をスキャンし、2つの未知の脆弱性を発見しました。これらは、シミュレートされた利益として3,694ドルに変換されました。最初の脆弱性は、公開関数におけるview修飾子の欠如に起因し、エージェントがトークン残高を不正に増加させることを可能にしました。二つ目の欠陥は、任意の受益者アドレスを受け入れることで手数料のリダイレクトのベクトルを作り出しました。両方のケースで、AIモデルはこれらの設計上の弱点を即座に金銭的利益に変える機能的な悪用コードを生成しました。この発見の特に重要な点は、経済性です。自律エージェントを全コントラクトセットに対して実行したコストはわずか3,476ドルで、平均実行コストは1.22ドルでした。この効率性の基準は、将来の脅威シナリオを評価する際に非常に重要となります。## 自動攻撃の経済性はさらに向上し続ける実際の話は、今日の攻撃コストではなく、未来の軌跡に関するものです。AIモデルのコストが低下し、ツールの利用能力が成熟するにつれて、完全自動化へのコストと利益のバランスは決定的に傾きます。研究は、この変化により、スマートコントラクトの展開と潜在的な悪用の間の時間差が圧縮されると示唆しています。特にDeFi環境では、資本がオンチェーンに公開されており、利益を生むバグは秒単位で収益化されるためです。現状の経済性はすでにその傾向を示しています。自律的な悪用エージェントの運用コストがコントラクト1件あたりわずか1ドル強で、潜在的な利益が数千ドルに達する場合、インセンティブ構造は悪意のある行為者を大規模に引きつけます。モデルのコストがゼロに近づくにつれて、控えめなリターンをもたらす悪用さえも自動化の対象となり得ます。## DeFiを超えて:より広範なインフラの脆弱性この研究は分散型金融に特化していますが、その根底にある能力はドメイン固有のものではありません。トークン残高の操作や手数料のリダイレクトを可能にする推論パターンは、従来のソフトウェアやクローズドソースのコードベース、そして暗号市場を支えるインフラ全体に直接応用可能です。モデルコストの低下とツール統合の進展に伴い、自動脆弱性スキャンは公共ブロックチェーンを超えて拡大していくでしょう。同じAI能力は、中央集権型取引所のインフラ、ブリッジプロトコル、機関向け保管ソリューションなど、価値ある資産へのアクセスを提供するあらゆるサービスやシステムを標的にする可能性があります。## 防御と攻撃のタイムラインが重要にこれらの調査結果は、予測ではなく警告として位置付けられます。AIモデルは、かつてはエリートの人間攻撃者だけが行えたタスクを遂行できるようになっています。DeFiにおける自律的悪用はもはや仮説ではなく、現実の能力のギャップです。暗号構築者やインフラチームが直面している緊急の課題は、防御技術が攻撃的なAI能力に追いつくことができるかどうかです。反応から積極的なセキュリティへの移行のための時間は縮小しています。開発者は、自動化されたセキュリティスキャン、形式的検証、堅牢なコントラクト設計パターンを優先し、AIエージェントが規模での悪用の経済性を魅力的にする前に対策を講じる必要があります。
AIエージェントが実際のDeFiの悪用リスクに近づく、サム・ウィンクラーとAnthropicチームの研究が示す
最新の研究によると、AIエージェントはますます高度になり、DeFi(分散型金融)プラットフォームに対する悪用や攻撃のリスクが現実味を帯びてきています。

この研究では、AIエージェントがどのようにしてスマートコントラクトの脆弱性を突き、資金を不正に引き出す可能性があるかについて詳細に分析しています。
また、研究者たちは、これらのリスクを軽減するための対策や、今後の規制の必要性についても議論しています。
### 主要なポイント
- AIエージェントの進化とその悪用の可能性
- DeFiの脆弱性と攻撃手法の分析
- 予防策と規制の提案
この研究は、DeFiエコシステムの安全性を確保するために重要な示唆を提供しており、開発者や規制当局にとっても重要な資料となっています。
最新のAnthropic Fellowsプログラムの調査結果は、衝撃的な現実を示しています:人工知能モデルは重要な能力閾値を超え、今やスマートコントラクトの脆弱性を自律的に特定し、測定可能な精度で悪用することができるのです。サム・ウィンクラーなどの貢献者を含むチームによる研究は、最先端のAIモデルは単なる理論的脅威にとどまらず、すでに分散型金融における人間主導の攻撃に匹敵する洗練された攻撃を仕掛ける能力を持っていることを示しています。
この変化の影響は、学術的な関心を超えたものです。これらのAIシステムの展開コストが低下し、その推論能力が向上するにつれて、経済的な側面は根本的に変わり、公開されている脆弱性を利用した攻撃の脅威の風景を再形成しています。
フロンティアモデルは完全な攻撃シナリオを成功裏に実行
MLアラインメント&理論学者プログラム(MATS)とAnthropic Fellowsによる共同研究は、最先端のモデル—GPT-5、Claude Opus 4.5、Sonnet 4.5—を、405の既に悪用されたスマートコントラクトを含む包括的なデータセットSCONE-benchに対してテストしました。その結果は明白です:これらのモデルは単に問題のあるコードを指摘しただけでなく、完全な実行可能な悪用スクリプトを合成し、戦略的にトランザクションをシーケンスし、EthereumやBNB Chainの実際の攻撃を模倣したパターンで流動性プールを枯渇させました。
その結果は特に印象的で、モデルの知識カットオフ後に存在したコントラクトを対象に、実 simulated悪用による被害額は460万ドルに達しました。この数字は、現在のAIが理論的にライブシステムに対して盗むことができる最低限の範囲を示唆しているため重要です。
Zero-Day発見は自律的な脆弱性検出の有効性を証明
真のブレークスルーは、研究者たちがAIエージェントが未知の脆弱性を識別できるかどうかをテストしたときに訪れました。GPT-5とSonnet 4.5は、履歴のない新規BNB Chainコントラクト2,849件をスキャンし、2つの未知の脆弱性を発見しました。これらは、シミュレートされた利益として3,694ドルに変換されました。
最初の脆弱性は、公開関数におけるview修飾子の欠如に起因し、エージェントがトークン残高を不正に増加させることを可能にしました。二つ目の欠陥は、任意の受益者アドレスを受け入れることで手数料のリダイレクトのベクトルを作り出しました。両方のケースで、AIモデルはこれらの設計上の弱点を即座に金銭的利益に変える機能的な悪用コードを生成しました。
この発見の特に重要な点は、経済性です。自律エージェントを全コントラクトセットに対して実行したコストはわずか3,476ドルで、平均実行コストは1.22ドルでした。この効率性の基準は、将来の脅威シナリオを評価する際に非常に重要となります。
自動攻撃の経済性はさらに向上し続ける
実際の話は、今日の攻撃コストではなく、未来の軌跡に関するものです。AIモデルのコストが低下し、ツールの利用能力が成熟するにつれて、完全自動化へのコストと利益のバランスは決定的に傾きます。研究は、この変化により、スマートコントラクトの展開と潜在的な悪用の間の時間差が圧縮されると示唆しています。特にDeFi環境では、資本がオンチェーンに公開されており、利益を生むバグは秒単位で収益化されるためです。
現状の経済性はすでにその傾向を示しています。自律的な悪用エージェントの運用コストがコントラクト1件あたりわずか1ドル強で、潜在的な利益が数千ドルに達する場合、インセンティブ構造は悪意のある行為者を大規模に引きつけます。モデルのコストがゼロに近づくにつれて、控えめなリターンをもたらす悪用さえも自動化の対象となり得ます。
DeFiを超えて:より広範なインフラの脆弱性
この研究は分散型金融に特化していますが、その根底にある能力はドメイン固有のものではありません。トークン残高の操作や手数料のリダイレクトを可能にする推論パターンは、従来のソフトウェアやクローズドソースのコードベース、そして暗号市場を支えるインフラ全体に直接応用可能です。
モデルコストの低下とツール統合の進展に伴い、自動脆弱性スキャンは公共ブロックチェーンを超えて拡大していくでしょう。同じAI能力は、中央集権型取引所のインフラ、ブリッジプロトコル、機関向け保管ソリューションなど、価値ある資産へのアクセスを提供するあらゆるサービスやシステムを標的にする可能性があります。
防御と攻撃のタイムラインが重要に
これらの調査結果は、予測ではなく警告として位置付けられます。AIモデルは、かつてはエリートの人間攻撃者だけが行えたタスクを遂行できるようになっています。DeFiにおける自律的悪用はもはや仮説ではなく、現実の能力のギャップです。暗号構築者やインフラチームが直面している緊急の課題は、防御技術が攻撃的なAI能力に追いつくことができるかどうかです。
反応から積極的なセキュリティへの移行のための時間は縮小しています。開発者は、自動化されたセキュリティスキャン、形式的検証、堅牢なコントラクト設計パターンを優先し、AIエージェントが規模での悪用の経済性を魅力的にする前に対策を講じる必要があります。