米司法省が2025年5月、AI開発企業Anthropicを国防サプライチェーンリスクに指定した措置を正当化。同社のClaude AIモデルの軍事利用制限が理由。Anthropicは最大数十億ドルの収益損失の可能性。
米政府、Anthropicの軍事AI利用制限を「安全保障上の脅威」と主張
米司法省は2025年5月13日、AI開発企業Anthropicに対する制裁措置を擁護する文書を連邦裁判所に提出しました。この措置は、国防総省がAnthropicを「サプライチェーンリスク」に指定したもので、同社の防衛契約を事実上禁止する内容です。政府は、Anthropicが自社のClaude AIモデルの軍事利用に制限を設けようとしたことが、国家安全保障上の懸念を引き起こしたと主張しています。
Anthropicは、自社のAIモデルが米国民の広範な監視に使われることや、完全自律型兵器に搭載されることに反対する立場を表明していました。しかし政府側は、このような制限を一方的に課そうとする行為が、軍事システムへの「妨害行為」や「意図的な機能不全の導入」につながる可能性があると警告しています。
この対立は、AI技術の軍事利用をめぐる企業の倫理的判断と、政府の安全保障上の要求との間の緊張関係を浮き彫りにしています。Anthropicは今年、最大で数十億ドルの収益を失う可能性があり、訴訟の行方が注目されています。次回の審理は5月20日に予定されており、裁判所が制裁措置の一時停止を認めるかどうかが焦点となります。
政府の主張:Anthropicは「信頼できない契約者」
司法省の弁護士は、国防総省とその他の政府機関を代表して提出した文書の中で、Anthropicの懸念を「法的に不十分」と一蹴しました。政府は、Anthropicが政府技術システムへのアクセスを維持した場合の「将来的な行動への懸念」が制裁の動機だったと説明しています。
特に重要な主張は、ピート・ヘグセス国防長官が「Anthropicのスタッフが国家安全保障システムの設計、完全性、運用を妨害、悪意を持って望ましくない機能を導入、またはその他の方法で破壊する可能性がある」と合理的に判断したという点です。これは、AI開発企業が自社製品の使用方法に制限を設けることを、政府が安全保障上の脅威と見なしていることを示しています。
政府側の文書では、「AIシステムは操作に対して極めて脆弱であり、Anthropicは自社の企業的な『レッドライン』が越えられたと判断した場合、進行中の戦闘作戦の前または最中に、自社技術を無効化したり、モデルの動作を事前に変更したりする可能性がある」と警告しています。この主張は、民間AI企業が軍事システムに組み込まれた後も、自社の倫理基準に基づいて機能を制限できる可能性を、政府が深刻な脅威と捉えていることを意味します。
Anthropicの立場:倫理的な使用制限
Anthropicは、自社のClaude AIモデルに対して、特定の軍事用途での使用を制限する方針を示していました。同社が特に懸念しているのは、米国民に対する広範な監視活動への利用と、完全自律型兵器システムへの搭載です。
完全自律型兵器とは、人間の判断を介さずに攻撃対象を選択し、攻撃を実行できる兵器システムのことです。例えば、AIが独自に敵と判断した対象を自動的に攻撃するドローンなどが該当します。Anthropicは、現在のAI技術の信頼性では、このような重大な判断を任せるには不十分だと考えています。
また、広範な監視活動とは、大量の市民データを収集・分析して個人の行動を追跡するシステムを指します。Anthropicは、自社のAIがこうした目的に使われることで、市民のプライバシーが侵害されることを懸念していました。
同社は、これらの制限が憲法修正第1条で保護される表現の自由の一部だと主張していますが、政府側は「修正第1条は政府に一方的に契約条件を課す免許ではない」と反論しています。
背景と経緯
この対立の背景には、AI技術の急速な軍事利用の拡大があります。国防総省は近年、データ分析、意思決定支援、自律システムなど、さまざまな分野でAI技術の導入を進めてきました。Anthropicは、これらの用途の一部に自社のClaude AIモデルを提供していました。
特に重要な利用例は、Palantirのデータ分析ソフトウェアを通じた活用です。Palantirとは、政府機関や軍事組織向けに大規模データ分析プラットフォームを提供する企業で、その中でClaude AIが使用されていました。関係者によれば、これは軍におけるClaudeの主要な用途の一つでした。
Anthropicは現在、国防総省の機密システムで使用が承認されている唯一のAIモデルであり、高強度の戦闘作戦でも利用されています。このため、政府側は「単純にスイッチを切り替えることはできない」と主張し、代替システムへの移行には時間が必要だとしています。
トランプ政権は、Anthropicに対する制裁措置を決定した後、Google、OpenAI、xAIなどの競合企業のAIシステムを代替として導入する作業を進めています。この移行は今後数カ月以内に完了する予定です。
法的な争点と今後の展開
Anthropicは、サンフランシスコとワシントンD.C.の2つの連邦裁判所で、政府の制裁措置に異議を申し立てています。同社は、トランプ政権が権限を逸脱して制裁を適用し、同社の技術が国防総省内で使用されることを不当に妨げていると主張しています。
複数の法律専門家は、Anthropicの主張には強い根拠があると指摘しています。特に、政府による制裁が違法な報復措置に当たる可能性があるという点です。報復措置とは、企業が正当な権利を行使したことに対して、政府が不利益な扱いをすることを指します。
しかし、裁判所は国家安全保障に関する政府の主張を支持する傾向があります。国防総省の当局者は、Anthropicを「暴走した契約者」と表現し、同社の技術は信頼できないと述べています。
サンフランシスコの訴訟を担当するリタ・リン判事は、5月20日に審理を予定しており、訴訟が解決するまで制裁措置を一時停止するというAnthropicの要請を認めるかどうかを判断します。政府側は、Anthropicの事業損失の懸念は「法的に不十分で、回復不能な損害を構成しない」として、一時停止を拒否するよう求めています。
注目すべきは、AI研究者、Microsoft、連邦職員労働組合、元軍事指導者など、多くの企業や団体がAnthropicを支持する法廷意見書を提出している一方で、政府を支持する意見書は一つも提出されていないという点です。これは、AI業界や関連分野の専門家の多くが、政府の措置に疑問を持っていることを示しています。
Anthropicは5月16日までに、政府の主張に対する反論を提出する予定です。
できること・できないこと
現在の状況では、政府の制裁措置により、Anthropicは国防総省との新規契約を結ぶことができません。また、既存の契約も終了または制限される可能性があります。これは、同社が軍事分野で自社のAI技術を提供し、収益を得る機会を失うことを意味します。
一方で、Anthropicは民間市場では引き続きClaude AIモデルを提供できます。企業や個人向けのサービスには影響がなく、研究開発活動も継続できます。ただし、政府機関全体との取引が制限される可能性があり、その場合は影響範囲がさらに拡大します。
裁判所がAnthropicの一時停止要請を認めた場合、訴訟が解決するまでの間、同社は国防総省との取引を継続できる可能性があります。しかし、政府側は「高強度の戦闘作戦が進行中」であることを理由に、安全保障上のリスクを強調しており、裁判所がこの主張を重視する可能性もあります。
長期的には、この訴訟の結果が、AI企業が自社製品の使用方法に倫理的な制限を設ける権利を持つかどうかの重要な先例となります。政府が勝訴すれば、軍事契約を結ぶAI企業は、製品の使用方法について政府の判断を受け入れざるを得なくなるでしょう。逆にAnthropicが勝訴すれば、企業が倫理的な理由で特定の用途を拒否する権利が認められることになります。
私たちへの影響
このニュースは、AI技術の開発と利用に関わるすべての人々に重要な意味を持ちます。特に、技術企業で働く人々、AI研究者、そして市民のプライバシーや安全保障に関心を持つ人々にとって、注目すべき展開です。
短期的な影響としては、AI企業が政府との契約を検討する際に、自社の倫理基準と政府の要求との間でどのようにバランスを取るかという難しい判断を迫られることになります。Anthropicの事例は、倫理的な立場を取ることが、数十億ドル規模の事業機会の損失につながる可能性を示しています。これにより、他のAI企業が同様の制限を設けることをためらう可能性があります。
中長期的な影響としては、AI技術の軍事利用に関する規範や法的枠組みの形成に大きな影響を与えるでしょう。もし政府の主張が認められれば、軍事契約を結ぶAI企業は、製品がどのように使用されるかについて発言権を持たなくなる可能性があります。これは、完全自律型兵器や広範な監視システムの開発が加速する可能性を意味します。
一方で、Anthropicが勝訴すれば、AI企業が倫理的な理由で特定の用途を拒否する権利が確立され、技術の責任ある開発を促進する先例となるでしょう。これは、AI技術が社会に与える影響について、企業が一定の責任を持つという考え方を支持することになります。
ただし、この問題には簡単な答えはありません。国家安全保障と企業の倫理的判断のバランスをどう取るかは、民主主義社会における重要な課題です。今後の裁判の展開と、それに対する社会の反応を注意深く見守る必要があります。また、AI技術の軍事利用については、より広範な公的議論と、透明性のある政策決定プロセスが求められるでしょう。
