米国防総省、AI企業に機密データでの訓練環境提供を計画

米国防総省が、AI企業に機密データで軍事特化型モデルを訓練させる計画を進めています。現在は質問応答のみですが、訓練により精度向上が期待される一方、機密情報漏洩の新たなリスクも懸念されています。

米国防総省、AI企業に機密データでの訓練環境提供を計画

米国防総省が、生成AI企業に対して機密データを使った訓練環境を提供する計画を進めていることが、MIT Technology Reviewの取材で明らかになりました。これは2025年3月に報じられたもので、OpenAIやイーロン・マスク氏のxAIなどの企業が対象となります。現在、AnthropicのClaudeのようなAIモデルは、イランの標的分析など機密環境での質問応答に使われていますが、機密データで訓練することは新しい段階です。国防総省の関係者によれば、機密データでの訓練により、特定の軍事任務でモデルの精度と効果が向上すると期待されています。しかし、この計画は機密情報がモデル自体に組み込まれることを意味し、これまでにない独特のセキュリティリスクをもたらします。ピート・ヘグセス国防長官が1月に発表した方針に基づき、国防総省はAI活用を急速に拡大しており、イランとの緊張が高まる中で「AI優先の戦闘力」を目指しています。

訓練計画の具体的な内容

訓練は、政府の機密プロジェクトを扱う認定を受けた安全なデータセンターで実施される予定です。この施設では、AIモデルのコピーと機密データが組み合わされます。データの所有権は国防総省が保持しますが、適切なセキュリティクリアランスを持つAI企業の担当者が、まれにデータにアクセスする可能性があると、国防総省関係者は説明しています。

訓練を開始する前に、国防総省は商用衛星画像のような非機密データで訓練したモデルの精度と効果を評価する計画です。この段階的なアプローチにより、機密データを使う前にリスクを評価できます。訓練に使われる機密データには、監視報告書や戦場評価、諜報機関が収集する膨大な量のテキスト、音声、画像、動画などが含まれる可能性があります。これらは多言語にわたる情報です。

背景と経緯

軍は長年、コンピュータビジョンモデルという古い形式のAIを使用してきました。これは、ドローンや航空機から収集した画像や映像の中の物体を識別するものです。連邦機関は、このようなコンテンツでAIモデルを訓練する契約を企業に発注してきました。

また、大規模言語モデルとチャットボットを構築するAI企業は、政府業務向けに調整されたモデルを作成してきました。例えば、AnthropicのClaude Govは、より多くの言語で動作し、安全な環境で使用できるよう設計されています。しかし、OpenAIやxAIのような大規模言語モデルを構築する企業が、機密データで直接政府専用版を訓練できるという示唆は、今回が初めてです。

この動きは、1月にヘグセス国防長官が発表した方針によって加速しています。国防総省はAIの組み込みを急いでおり、生成AIは戦闘で標的リストをランク付けし、どれを最初に攻撃すべきか推奨するために使われています。また、契約書や報告書の作成といった管理業務にも使用されています。

技術的な詳細と仕組み

現在使われているAIモデルと、機密データで訓練されるモデルの違いは、学習内容にあります。現在のモデルは一般的なデータで訓練され、機密情報については質問に答えるだけです。これに対し、機密データで訓練されたモデルは、その情報を学習して自身の知識として組み込みます。

具体的には、人間のアナリストが現在行っている多くの作業を、AIモデルに学習させることが想定されています。例えば、画像の中の微妙な手がかりをアナリストのように識別すること、新しい情報を歴史的な文脈と結びつけることなどです。これらの作業には、機密データへのアクセスが必要になります。

訓練環境は、Palantirのようなセキュリティ企業が構築した安全なシステムを基盤とします。Palantirは、政府職員がAIモデルに機密トピックについて質問できる環境を構築する大型契約を獲得しています。この環境では、情報がAI企業に送り返されることはありません。しかし、訓練に使用することは新しい課題です。

できること・できないこと

この技術により、軍事特有の複雑な分析作業の精度が向上することが期待されています。例えば、多言語の諜報情報を迅速に処理して重要なパターンを見つけ出すこと、衛星画像から通常では見逃しがちな変化を検出すること、過去の作戦データと現在の状況を組み合わせて戦略的な推奨を行うことなどが考えられます。人間のアナリストが何時間もかけて行う作業を、数分で完了できる可能性があります。

一方で、まだ難しいこともあります。最大の課題は、機密情報の漏洩リスクです。モデルが訓練で学んだ機密情報を、アクセス権限のない部門のユーザーに提供してしまう可能性があります。また、どの軍事任務に機密データでの訓練が必要かは明確ではありません。国防総省は、自国の能力を他国に知られたくないため、この情報を機密にしておく強い動機があるからです。完全なリスク軽減は困難であり、特に複数の軍事部門が同じAIモデルを共有する場合には注意が必要です。

私たちへの影響

このニュースは、AI技術と国家安全保障の関係に関心を持つ人々、そしてAI企業の倫理的責任を考える人々に重要な意味を持ちます。AI企業が軍事利用に深く関与することで、技術開発の方向性が変わる可能性があります。

短期的な影響については、OpenAIやxAIなどの主要AI企業が国防総省との関係を深めることで、これらの企業の製品開発の優先順位が変わる可能性があります。また、トランプ大統領政権とAI企業の結びつきに対する反発も起きており、ChatGPTの購読をキャンセルする「QuitGPT」キャンペーンなどの動きが見られます。中長期的な影響としては、軍事AIの能力向上により国際的な軍事バランスが変化し、他国も同様の技術開発を加速させる可能性が考えられます。

ただし、この計画はまだ評価段階であり、実際に機密データでの訓練が開始されるかどうか、またその時期については明らかになっていません。セキュリティリスクの評価結果によっては、計画が変更される可能性もあります。一般市民への直接的な影響は限定的ですが、AI技術の軍事利用が進むことで、技術倫理や国際関係に関する議論が活発化するでしょう。

出典:The Pentagon is planning for AI companies to train on classified data, defense official says(www.technologyreview.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です