アントロピックからイランまで:誰が戦争や監視におけるAIの使用制限を設定しているのか?

(MENAFN- The Conversation) 先進的なAI企業であるAnthropicは、最近、米国軍が「すべての合法的な目的」のために同社の技術に「無制限のアクセス」を許可するペンタゴンとの契約に署名しないことを決定しました。署名には、AnthropicのCEOダリオ・アモデイが明確に二つの例外を求めました:アメリカ人の大量監視を行わないこと、そして人間の監督なしに完全自律型兵器を使用しないことです。

その翌日、米国とイスラエルはイランに対して大規模な攻撃を開始しました。

これにより、多くの人々が疑問を抱いています。完全自律型兵器を備えた戦争はどのように異なるのか?アモデイが「赤線」として言及した完全自律兵器や大量監視の倫理的決定はどれほど重要だったのか?これらの「赤線」は他国にとって何を意味するのか?

この決定は、Anthropicにとって非常に大きな代償をもたらしました。米国大統領ドナルド・トランプは、すべての米国機関に対し、Anthropicの高度な大規模言語モデル(LLMs)や会話型チャットボットのClaudeの使用を停止するよう命じました。米国防長官のピート・ヘグセスは、Anthropicを「サプライチェーンリスク」として指定し、今後の契約の可能性に影響を与える可能性があるとしました。一方、ライバルのOpenAIは迅速にペンタゴンと契約を結びました。

完全自律型兵器のリスク

AIチャットボットは通常、単体の兵器ではありませんが、兵器システムの一部となる可能性があります。ミサイルを発射したりドローンを制御したりはしませんが、より大きな軍事システムに組み込むことができます。

これらは、情報を素早く要約し、ターゲットの候補リストを作成し、最優先の脅威をランク付けし、攻撃を推奨することが可能です。重要なリスクは、センサーからのデータの取得からAIによる解釈、ターゲット選定、兵器の起動までの過程が、人間の制御や気づきなしに進行することです。

完全自律型兵器は、起動後に人間の介入なしに自律的に軍事作戦を行うプラットフォームです。カメラやレーダー、AIアルゴリズムなどのセンサーを用いて環境を分析し、ターゲットを探索・選定・攻撃します。

例えば、高度なヘリコプターはすでに人間の介入なしで運用されています。完全自律兵器では、人間の制御と監督が消え、AIが最終的な攻撃や戦場の決定を行います。

これは懸念される点です。最近の研究では、高度なAIモデルが模擬戦争ゲームで95%のケースで核兵器の使用を選択したことが示されています。

大量監視のリスク

最先端のAIモデルは、大量のデータセットを迅速に要約し、弱い関連性からでも疑わしい人物や活動の兆候を自動的にパターン化できます。アモデイは、戦争省との議論に関して、「AI駆動の大量監視は、我々の基本的自由に対して深刻で新たなリスクをもたらす」と述べました。

これらのシステムは、記録や通信、メタデータを分析して、集団全体をスキャンします。自動的に質問されたり、入国を拒否されたり、仕事を拒否されたりする人々のリストやブリーフィングを作成することも可能です。これらのシステムは、ソーシャルメディアアカウントやカメラ、顔認識と組み合わせてリアルタイムで人々を追跡し、プライバシーにリスクをもたらします。

AIモデルは誤りを犯すこともあります。小さな誤った関連付けでも、何百万もの人々に対して運用されると危険な規模に拡大します。

また、AIモデルは不透明です。データの分析方法や結論に至る過程を完全に理解することは難しく、そのため出力に異議を唱えるのも困難です。

「すべての合法的な目的」

「すべての合法的な目的」という表現は、安全のための制限のように聞こえますが、実際には、政府が合法とみなすすべての目的にAIを使用できることを意味し、契約上の制約はほとんどありません。

これは重要です。なぜなら、合法性は変動するものであり、法律は変わりやすく、急速に進化する技術にリアルタイムで対応できるわけではなく、解釈も変わる可能性があるからです。

この点で、AIの安全性と倫理に特化して設立されたOpenAIの元社員たちが創設したAnthropicは、AIを用いた大量監視は新たなリスクであり、「合法的な目的」だけでは安定した規制を提供できないと主張しています。

Anthropicは、Claudeの動作やクエリの解釈、自律的な意思決定を理解するための内部研究所を持っています。LLMsの不透明性と能力の急速な進展を考えると、こうした取り組みは重要です。

より高いリスクを伴うProject Maven?

この話は一部で馴染み深いものです。技術企業は長い間、革新の最前線に立ち、進歩の約束とともに誤用や悪影響のリスクも伴ってきました。最も近い歴史的な例は、2018年のGoogleのProject Mavenです。

Googleは、ドローン監視映像の分析を支援する契約をペンタゴンと結んでいました。4000人のGoogle社員がこのプロジェクトに抗議し、監視は企業の使命にふさわしくないと主張しました。GoogleはMavenの契約を更新しないと発表し、その後、武器や監視に関するコミットメントを含むAI原則を発表しました。

この事例は、従業員の活動と公共の圧力の力を示す重要なケースとなりました。

しかし、Project Mavenの例はまた、企業の倫理とAI安全性が変動しやすいものであることも思い起こさせます。2025年初頭、Googleは新たな防衛契約獲得のために、武器や監視にAIを使わないという誓約をひそかに撤回しました。

Anthropicの現状は、ある意味でGoogleのProject Mavenと似ています。軍事利用に対して制限を設けようとする企業とそのリーダーの姿勢を示しています。これは、企業の掲げる価値観と政府や国家安全保障の要求が衝突する際に生じる緊張を浮き彫りにしています。

また、2026年の生成AIは、数年前と比べてはるかに強力になっています。Project Mavenはドローン映像の分析だけでしたが、現在のモデルは多くのタスクに利用でき、そのリスクも拡大しています。

ClaudeのようなLLMsは、ユーザーの修正から自己改善し、反復的なフィードバックループを通じて行動を洗練させることが可能です。無制限のClaudeとそのクライアントであるペンタゴンが何をしたかは、懸念されるところです。

誰が制限を設定するのか?

これらの出来事は、Anthropicが特に原則的であるとか、ペンタゴンが特に要求が厳しいという話ではありません。重要なのは、AIの力が増す中で繰り返し浮上する問題です。それは、国家安全保障に関わる場合に、AIの使用に関する制限を誰が設定するのかという問題です。

「すべての合法的な目的」が標準となる場合、その規制は政治や法的解釈に依存することになります。カナダや他国にとっても、規制の枠組みは重要です。倫理は契約交渉や企業の良心だけに委ねられるべきではありません。

これらの事例は、AI倫理を実践する際の複雑さを示しています。AI倫理の原則や宣言は重要で多く存在しますが、実際には、契約や調達ルール、関係者の行動や監督を通じて設定されることが多いのです。

カナダの防衛・公共部門はAI能力を構築しており、米国の防衛・情報機関とも密接に連携しています。これにより、調達の言葉や基準は他国にも伝播します。もし「すべての合法的な目的」が米国の国家安全保障市場で標準的な表現となれば、カナダや他国も同様の条件を採用せざるを得なくなる可能性があります。

安心材料としては、カナダには強化・拡張できるガバナンスツールがあります。自動意思決定に関する指令は、システムの透明性、説明責任、公平性を確保するために設計されています。影響評価や公的報告も義務付けられています。

また、「アルゴリズム影響評価」は、指令に基づく必須のリスク評価ツールです。

しかし、カナダの関係者は、調達基準に禁止事項を明記し、監査や独立した監督を求めるなど、継続的な動向に注意を払い、規制の枠組みが特定の政府や大手企業だけに依存しないようにすべきです。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン