米国防総省がAI企業Anthropicに金曜までに軍事利用制限の緩和を要求。拒否すれば国防生産法の発動も。AI技術の軍事利用と企業の倫理方針が対立する異例の事態に発展。
米国防総省、AnthropicにAI制限緩和を最後通告―拒否なら強制措置も
2026年2月24日、米国防総省がAI企業のAnthropicに対し、金曜日までにAIモデルの軍事利用制限を緩和するよう最後通告を出しました。国防長官のピート・ヘグセス氏は火曜日の朝、Anthropic CEOのダリオ・アモデイ氏との会談で、要求に応じなければ同社を「サプライチェーンリスク」に指定するか、国防生産法を発動すると伝えました。国防生産法とは、大統領が国家安全保障のために企業に生産の優先や拡大を強制できる法律のことです。新型コロナウイルスのパンデミック時には、ゼネラルモーターズに人工呼吸器の製造を、3Mにマスクの製造を命じる際に使われました。Anthropicは、自社の技術が米国民の大規模監視や完全自律型兵器に使われることを望まないという方針を長年掲げており、この点での妥協を拒否しています。この対立は、AI技術の軍事利用をめぐる企業の倫理方針と政府の権限という、新しい問題を浮き彫りにしています。
国防総省の要求内容と期限
国防総省は、Anthropicが提供するAIモデルへの無制限アクセスを求めています。現在、Anthropicは自社のAI技術の使用に関して明確な制限を設けており、特に米国民への大規模監視や完全自律型兵器への利用を禁じています。完全自律型兵器とは、人間の判断を介さずにAIが攻撃対象を選定し実行する兵器のことです。
ヘグセス国防長官は、金曜日の夕方までに回答するよう期限を設定しました。期限までに要求に応じない場合、国防総省は2つの選択肢を検討しています。1つ目は、Anthropicを「サプライチェーンリスク」に指定することです。この指定は通常、中国やロシアなどの外国の敵対勢力に対して使われるもので、米国企業に適用されるのは極めて異例です。2つ目は、国防生産法を発動し、軍のニーズに合わせたバージョンのAIモデルを作るよう強制することです。
Anthropicの立場と対応
Anthropicは、国防総省の要求に対して譲歩しない姿勢を示しています。ロイター通信の報道によれば、同社は使用制限を緩和する計画はないとしています。
同社の方針は、AI技術の倫理的な使用を重視する姿勢に基づいています。特に、プライバシーの侵害や人間の判断を排除した致命的な決定にAIが使われることへの懸念から、明確な使用制限を設けてきました。Anthropicは、これらの制限が自社の企業理念の中核であり、政府の圧力があっても変更しないという立場です。
一方、国防総省の関係者は、軍による技術の使用は米国の法律と憲法上の制限によって管理されるべきであり、民間企業の使用ポリシーによって制限されるべきではないと主張しています。この主張は、国家安全保障における政府の権限と、企業の自主的な倫理基準との間の緊張関係を示しています。
背景と経緯
この対立の背景には、複数の要因があります。まず、Anthropicは現在、機密レベルの国防総省システムへのアクセスを持つ唯一の最先端AI企業です。つまり、国防総省は現時点でAnthropicに大きく依存しており、代替手段がほとんどない状況にあります。
トランプ政権のAI担当顧問を務めたディーン・ボール氏は、国防総省がバイデン政権末期に出された国家安全保障メモランダムの要件を満たしていないと指摘しています。このメモランダムは、連邦機関が単一の機密対応可能な最先端AIシステムに依存することを避けるよう指示しています。しかし、国防総省は現在、Anthropic以外の選択肢を持っていません。
報道によれば、国防総省はxAI社のGrokを機密システムで使用する契約を結んだとされていますが、これはまだ実用段階には至っていないようです。この単一ベンダー状況が、国防総省の強硬な姿勢の一因となっている可能性があります。
また、政権内の一部、特にAI担当のデビッド・サックス氏などは、Anthropicの安全性ポリシーを「ウォーク」(過度に進歩的)だと公然と批判しています。この対立には、技術的な問題だけでなく、イデオロギー的な摩擦も含まれています。
国防生産法の適用について
国防生産法をAIの安全ガードレールをめぐる紛争に使用することは、この法律の現代的な使用範囲を大きく拡大することになります。国防生産法は1950年に制定され、朝鮮戦争時に国防に必要な物資の生産を確保するために作られました。
近年では、新型コロナウイルスのパンデミック時に医療機器の生産を命じる際に使われました。しかし、企業の製品設計や使用ポリシーを変更させるために使われた例はほとんどありません。AIの安全性方針という、企業の倫理的判断に関わる領域でこの法律を適用することは、前例のない措置となります。
ボール氏は、この措置が政府による企業への圧力の新しい形態を示していると警告しています。「これは基本的に、政府が『我々と政治的に意見が合わなければ、あなたのビジネスを潰そうとする』と言っているようなものです」と彼は述べています。
できること・できないこと
国防総省が国防生産法を発動した場合、Anthropicに対して軍のニーズに合わせたAIモデルのバージョンを開発するよう法的に強制することができます。例えば、現在の使用制限を取り除いたバージョンや、軍事作戦に特化した機能を持つバージョンの開発を命じることが可能です。また、「サプライチェーンリスク」に指定された場合、政府機関との取引が制限され、同社のビジネスに深刻な影響を与える可能性があります。
一方で、Anthropicが法的手段に訴えることも考えられます。国防生産法の適用が適切かどうか、また「サプライチェーンリスク」の指定が妥当かどうかについて、裁判所で争うことができます。ただし、法廷闘争には時間がかかり、その間に同社のビジネスや評判に影響が出る可能性があります。また、投資家や顧客の信頼にも影響を与えるでしょう。
金曜日の期限までに何らかの妥協案が見つかる可能性もありますが、現時点では双方とも譲歩する姿勢を見せていません。この対立がどのように解決されるかは、今後のAI産業と政府の関係に大きな影響を与えることになります。
私たちへの影響
このニュースは、AI技術を開発する企業や、AI産業に投資する人々、そして技術政策に関心を持つすべての人に影響を与えます。最も直接的な影響は、米国におけるビジネス環境の予測可能性に対する懸念です。
ボール氏は、「合理的で責任ある投資家や企業経営者は、これを見て、米国はもはやビジネスを行う安定した場所ではないと考えるでしょう」と述べています。彼は、この措置が「米国を世界的な商業の重要な拠点にしているものの核心を攻撃している」と警告しています。米国は長年、安定した予測可能な法制度を持つことで知られてきましたが、このような政府の介入は、その評判を損なう可能性があります。
短期的には、AI企業が政府との契約を結ぶ際に、より慎重になる可能性があります。特に、自社の倫理方針や使用制限を重視する企業は、政府との取引がビジネスリスクになり得ることを認識するでしょう。また、投資家も、政府の介入リスクを考慮に入れて投資判断を行うようになるかもしれません。
中長期的には、この対立の結果が、AI技術の軍事利用に関する規範や、企業の自主規制と政府の権限のバランスについての議論に影響を与えるでしょう。もし政府が強制措置を実行し、それが成功すれば、他の企業も同様の圧力に直面する可能性があります。逆に、Anthropicが立場を守り通せば、企業の倫理的判断が政府の要求よりも優先される前例となるかもしれません。
ただし、この問題は単純な善悪の問題ではありません。国家安全保障は重要な関心事であり、政府が必要な技術へのアクセスを確保しようとすることには正当な理由があります。一方で、AI技術の倫理的な使用を確保することも、社会全体にとって重要です。この対立は、これらの価値観のバランスをどう取るかという、より大きな問題の一部です。
