トランプ大統領、AI企業Anthropicの政府利用禁止を指示―軍事利用制限めぐり対立

トランプ米大統領が2月、AI企業Anthropicの政府利用を禁止する指示を発表。国防総省がAIの軍事利用制限の撤廃を求めたことに同社が反発したため。AI技術の軍事利用をめぐる企業と政府の対立が表面化しました。

トランプ大統領、AI企業Anthropicの政府利用禁止を指示―軍事利用制限めぐり対立

2025年2月、ドナルド・トランプ米大統領は、すべての連邦政府機関に対してAI企業Anthropic(アンソロピック)のツール使用を「直ちに停止」するよう指示しました。Anthropicとは、対話型AI「Claude」を開発する米国のスタートアップ企業です。この措置は、国防総省とAnthropicが数週間にわたってAIの軍事利用をめぐって対立していたことを受けたものです。国防総省は、昨年7月に結んだ契約の条件を変更し、AIの使用制限を撤廃して「すべての合法的な用途」を認めるよう求めました。しかしAnthropicは、この変更により完全自律型の殺傷兵器の制御や米国市民への大規模監視にAIが使われる可能性があるとして反対しました。この対立は、急速に軍事分野へ進出するシリコンバレーのテック企業と、国家安全保障を担う政府機関との間で、AI技術の適切な利用範囲をめぐる根本的な意見の相違を浮き彫りにしています。今回の措置は、民間企業が軍事技術の使用方法に制限を設けることの是非という、新たな論点を提起しました。

トランプ大統領の発表内容と経緯

トランプ大統領は2月の金曜日、自身のSNS「Truth Social」に投稿し、「Anthropicの左翼的な連中が国防総省を強引に従わせようとして悲惨な過ちを犯した」と述べました。大統領令では、Anthropicを使用している政府機関に対して6カ月の段階的廃止期間を設けるとしています。この期間は、政府とAnthropicの間でさらなる交渉を行う余地を残すものと見られます。

この対立の発端は、国防総省が昨年7月にAnthropicや他のAI企業と結んだ契約の条件変更を求めたことにあります。国防総省は、AIの展開方法に関する制限を撤廃し、代わりに技術の「すべての合法的な使用」を許可する内容への変更を要求しました。Anthropicはこの変更に異議を唱え、完全自律型の殺傷兵器の制御や米国市民への大規模監視にAIが使用される可能性があると主張しました。

Anthropicと国防総省の契約関係

Anthropicは、米軍と協力する最初の主要AI研究所となりました。昨年、国防総省と2億ドル(約300億円)規模の契約を締結し、通常版よりも制限の少ない「Claude Gov」と呼ばれるカスタムモデルを複数作成しました。GoogleやOpenAI、xAIも同時期に同様の契約を結びましたが、機密システムで現在作業しているのはAnthropicだけです。

Claude Govは、Palantir(パランティア)が提供するプラットフォームや、軍事機密作業用のAmazonクラウドプラットフォームを通じて利用可能です。現在、このモデルは主に報告書の作成や文書の要約といった日常的な業務に使われていますが、情報分析や軍事計画にも活用されています。匿名の関係者によれば、これらの用途は公には議論が許可されていない機密事項です。

対立が表面化したきっかけ

国防総省とAnthropicの公的な対立は、米メディアAxiosがある報道をしたことで始まりました。報道によると、米軍指導者がベネズエラのニコラス・マドゥロ大統領を捕獲する作戦の計画にClaudeを使用したとされています。作戦後、Palantirのある従業員が、Anthropicのスタッフからモデルの使用方法に関する懸念を米軍指導者に伝えました。ただし、Anthropic自身は懸念を提起したことや、国防総省による技術使用に干渉したことを否定しています。

この論争は最近数日間でエスカレートし、政府当局者とAI企業がソーシャルメディア上で公然と非難し合う事態となりました。ピート・ヘグセス国防長官は今週初めにAnthropicのCEOダリオ・アモデイ氏と会談し、金曜日までに契約条件を変更してモデルの「すべての合法的な使用」を認めることを約束するよう求めました。会談でヘグセス長官はAnthropicの製品を称賛し、国防総省は同社との協力を継続したいと述べたとされています。

シリコンバレーと軍事産業の関係変化

近年、シリコンバレーは防衛関連の仕事を大きく避ける姿勢から、それを積極的に受け入れ、最終的には本格的な軍事請負業者になる方向へと変化してきました。Anthropicと国防総省の対立は、この変化の限界を試すものとなっています。今週、OpenAIとGoogleの数百人の従業員が公開書簡に署名し、Anthropicを支持するとともに、自社がAIの軍事利用に関する制限を撤廃する決定を下したことを批判しました。

OpenAIのサム・アルトマンCEOは本日スタッフに送ったメモで、同社もAnthropicと同意見であり、大規模監視と完全自律型兵器を「レッドライン(越えてはならない一線)」と見なしていると述べました。アルトマン氏は、軍との協力を継続できる合意を国防総省と結ぶよう努力すると付け加えたと、ウォール・ストリート・ジャーナルが報じています。

専門家の見解と今後の展望

一部の専門家は、この論争は具体的なAI展開方法の相違というよりも、雰囲気や印象をめぐる衝突に過ぎないと指摘しています。軍事AI利用の専門家で元国防総省新興技術担当次官補のマイケル・ホロウィッツ氏は、「これは私の意見では不必要な論争です。現時点では検討されていない理論上の使用例についての議論です」と述べています。

ホロウィッツ氏は、Anthropicがこれまで国防総省が提案してきた技術の使用方法すべてを支持してきたと指摘します。「私の理解では、国防総省とAnthropicは現時点で、技術がまだ実用段階に達していない使用例について合意しています」と同氏は付け加えています。つまり、両者の対立は実際の使用方法ではなく、将来的な可能性をめぐる原則論に集中しているということです。

Anthropicの企業理念と安全性への姿勢

Anthropicは、AIを安全性を核として構築すべきだという理念のもとに設立されました。1月、アモデイCEOは強力な人工知能のリスクについてブログ記事を執筆し、完全自律型のAI制御兵器の危険性に触れました。「これらの兵器は民主主義の防衛において正当な用途もあります。しかし、扱うには危険な武器です」とアモデイ氏は書いています。この発言は、同社が軍事利用そのものを否定しているわけではなく、特定の危険な用途に慎重な姿勢を示していることを表しています。

できること・できないこと

現在のClaude Govにより、軍事機関は報告書の作成、文書の要約、情報分析、軍事計画の補助といった業務を効率化できます。例えば、膨大な情報を短時間で整理したり、複雑な状況の分析を支援したりする使い方が実際に行われています。これらは人間の判断を補助するツールとしての活用です。

一方で、完全自律型の殺傷兵器の制御や、米国市民への大規模監視といった用途については、Anthropicが強く反対しています。現在の国防総省もこれらの方法でAIを使用しておらず、そうする計画もないと述べています。しかし、契約条件から制限を撤廃することで、将来的にこうした用途が可能になることをAnthropicは懸念しています。技術的には可能でも、倫理的・社会的に許容すべきでない使用方法が存在するという立場です。

私たちへの影響

このニュースは、AI技術の発展と社会への影響に関心を持つすべての人々に重要な意味を持ちます。民間企業が開発した技術を政府や軍がどのように使用すべきか、そして企業はその使用方法にどこまで制限を設けられるのかという根本的な問いが提起されています。

短期的には、米国政府機関がAnthropicのAIツールを使用できなくなることで、業務効率に影響が出る可能性があります。6カ月の段階的廃止期間中に代替ツールへの移行が必要となるでしょう。また、他のAI企業であるOpenAIやGoogleも同様の圧力に直面する可能性があり、業界全体の動向に影響を与えるかもしれません。

中長期的には、AI技術の軍事利用に関する明確なガイドラインや規制の必要性が高まると考えられます。今回の対立は、技術の進歩が倫理的・法的枠組みを上回る速度で進んでいることを示しています。民主主義社会において、強力な技術をどのように管理し、誰がその使用方法を決定すべきかという議論が、今後さらに活発化するでしょう。

ただし、専門家が指摘するように、この対立は実際の使用方法ではなく理論上の可能性をめぐるものです。国防総省とAnthropicは現時点での具体的な使用方法については概ね合意しているとされ、交渉による解決の余地は残されています。今後の展開を注視する必要があります。

出典:Trump moves to ban Anthropic from the US government(arstechnica.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です