トランプ政権によるAI企業Anthropicのブラックリスト指定、連邦控訴裁が差し止め却下

米連邦控訴裁判所が、トランプ政権によるAI企業Anthropicのブラックリスト指定を差し止める緊急申し立てを却下。同社は自律兵器や大規模監視への技術提供を拒否したことで報復を受けたと主張。5月19日に口頭弁論が予定されています。

トランプ政権によるAI企業Anthropicのブラックリスト指定、連邦控訴裁が差し止め却下

米連邦控訴裁判所は4月、トランプ政権によるAI企業Anthropicのブラックリスト指定を差し止める緊急申し立てを却下しました。Anthropicは、自社のAIモデル「Claude」を自律兵器や米国民の大規模監視に使用させることを拒否したところ、トランプ大統領とピート・ヘグセス国防長官から報復としてブラックリスト指定を受けたと主張しています。

この決定を下したのは、コロンビア特別区連邦控訴裁判所の3人の判事で、全員が共和党大統領によって任命されました。そのうち2人はトランプ大統領自身が任命したグレゴリー・カツァス判事とネオミ・ラオ判事です。カツァス判事はトランプ政権第1期で大統領副顧問を務め、ラオ判事は行政管理予算局で勤務していました。

トランプ大統領は全連邦機関に対してAnthropicの技術使用を停止するよう指示し、ヘグセス国防長官はAnthropicを「国家安全保障へのサプライチェーンリスク」と位置づけ、軍事契約業者が同社と取引することを禁止しました。Anthropicは、これが憲法修正第1条で保護される言論の自由を行使したことへの報復だと訴えています。

ただし裁判所は、この訴訟を迅速に進めることには同意し、5月19日に口頭弁論を開くことを決定しました。Anthropicは別途カリフォルニア州の連邦地裁でも訴訟を起こしており、そちらでは3月に予備的差し止め命令を勝ち取っています。今回の決定は、AI企業と政府の関係、そして技術の軍事利用をめぐる倫理的判断が法的にどう扱われるかという重要な問題を提起しています。

裁判所の判断内容と理由

コロンビア特別区連邦控訴裁判所は、Anthropicが差し止めを求める緊急申し立てを却下しましたが、その理由は訴訟の本質的な是非ではなく、利害のバランスにあると説明しています。裁判所は「Anthropicが差し止めがなければ何らかの回復不能な損害を被る可能性が高い」ことを認めました。しかし、その損害は「主に金銭的な性質のもの」だと判断しました。

一方で、差し止めを認めた場合の政府側への影響について、裁判所は重大な懸念を示しました。「米軍は、重要な軍事紛争の最中に、望まない重要なAIサービスのベンダーとの取引を延長せざるを得なくなる」と指摘しています。国防総省は現在「国防省」ではなく「戦争省」と名乗っており、実際の軍事作戦が進行中であることを強調しています。

裁判所はまた、AnthropicのCEOが国防総省の声明を「完全に虚偽」「まったくの嘘」と公に批判するなど、両者の関係が著しく悪化していることにも言及しました。このような状況下で、軍にAnthropicの技術使用を強制することは「軍事作戦への重大な司法介入」になると判断したのです。

背景と経緯

この問題の発端は、Anthropicが自社のAIモデル「Claude」の使用方法に制限を設けたことにあります。Anthropicは、Claudeを自律兵器システムや米国民の大規模監視に使用することを拒否しました。これは、AI技術の倫理的な使用を重視する同社の方針に基づく判断でした。

しかし、トランプ政権はこの決定に強く反発しました。トランプ大統領は全連邦機関に対してAnthropicの技術使用を停止するよう指示し、ヘグセス国防長官はAnthropicを「国家安全保障へのサプライチェーンリスク」と正式に指定しました。この指定により、軍事契約業者もAnthropicと取引できなくなりました。

サプライチェーンリスクの指定とは、通常は外国の敵対勢力に対して使われる措置です。中国企業などが米国の安全保障を脅かす可能性がある場合に適用されるもので、米国企業に対して使われるのは極めて異例です。コンピュータ・通信産業協会(CCIA)は、「サプライチェーンリスクの指定は通常、外国の敵対勢力のために確保されているツールであり、慎重かつ適切な手続きで使用されるべきだ」と指摘しています。

2つの訴訟の状況

Anthropicはトランプ政権を相手取って2つの訴訟を起こしています。1つは今回判決が出たコロンビア特別区での訴訟、もう1つはカリフォルニア州北部地区連邦地裁での訴訟です。

カリフォルニア州での訴訟では、Anthropicはより良い結果を得ています。バイデン大統領が任命したリタ・リン判事は3月、Anthropicの予備的差し止め命令の申し立てを認めました。リン判事は、Anthropicのブラックリスト指定を「憲法修正第1条に違反する報復」だと明確に述べています。トランプ政権はこの判決を不服として、第9巡回区控訴裁判所に上訴しています。

今回のコロンビア特別区での判決は、差し止めの緊急申し立てを却下したものの、訴訟自体の本質的な判断はまだ下されていません。裁判所は「Anthropicの申し立ては新規かつ困難な問題を提起している」と認めており、5月19日の口頭弁論で詳しく審理される予定です。争点には、何がサプライチェーンリスクに該当するのか、どのような場合に国家安全保障上の緊急の利益が簡略化された手続きを正当化するのか、といった問題が含まれます。

政府と企業の主張

トランプ政権は今回の判決を歓迎しています。トッド・ブランシュ司法長官代行は、この判決を「軍事即応性にとっての圧倒的な勝利」と呼びました。ブランシュ氏は「Anthropicの技術が我々の機密システムに統合されている場合、軍はそのモデルへの完全なアクセスを必要とする。軍事権限と作戦統制は、最高司令官と戦争省に属するものであり、テック企業に属するものではない」と述べています。

一方、Anthropicは声明で「裁判所がこれらの問題を迅速に解決する必要があると認めたことに感謝している」と述べました。同社は「最終的には、これらのサプライチェーン指定が違法であったことに裁判所が同意すると確信している」としています。また「この訴訟はAnthropicと顧客、パートナーを守るために必要だったが、我々の焦点は、すべての米国民が安全で信頼できるAIの恩恵を受けられるよう、政府と生産的に協力することにある」と強調しました。

コンピュータ・通信産業協会(CCIA)のマット・シュルーアーズCEOは、「政治的考慮が連邦調達を動かすことができるかどうかについての曖昧さが長引く」と懸念を表明しています。同氏は「米国のAI企業が外国のAI企業と競争する中で、政府がその企業との取引を不当に阻害することを許せば、米国のイノベーションと競争にとってリスクとなる」と警告しました。

技術の軍事利用をめぐる倫理的問題

この訴訟の背景には、AI技術の軍事利用をめぐる倫理的な問題があります。Anthropicは、自社のAIモデルが自律兵器や大規模監視に使われることを拒否しました。自律兵器とは、人間の判断を介さずにAIが攻撃対象を選択し、攻撃を実行する兵器システムのことです。大規模監視とは、政府が市民の通信や行動を広範囲にわたって監視することを指します。

多くのAI研究者や倫理学者は、これらの用途には重大な倫理的問題があると指摘しています。自律兵器は、生死に関わる判断を機械に委ねることになり、誤った判断による民間人の犠牲や、戦争のハードルを下げる可能性があります。大規模監視は、プライバシーの侵害や言論の自由の萎縮につながる恐れがあります。

Anthropicは、こうした倫理的懸念から技術提供を拒否したと主張しています。同社は、これが憲法修正第1条で保護される言論の自由の行使であり、政府がこれに対して報復することは違憲だと訴えています。憲法修正第1条は、政府が市民の言論を理由に不利益を与えることを禁じています。

AI業界への影響と今後の展開

この訴訟は、AI業界全体に大きな影響を与える可能性があります。政府が企業の倫理的判断に対して報復措置を取ることが許されるのか、企業は自社技術の使用方法について制限を設ける権利があるのか、という根本的な問題が問われているからです。

短期的には、Anthropicは政府機関や軍事契約業者との取引ができない状態が続きます。これは同社にとって大きな財政的損失となる可能性があります。裁判所も「主に金銭的な性質の回復不能な損害」を認めています。ただし、カリフォルニア州での訴訟では予備的差し止め命令が出ているため、状況は複雑です。

中長期的には、この訴訟の結果が他のAI企業の行動にも影響を与えるでしょう。もし政府の報復が合法と判断されれば、企業は倫理的懸念があっても政府の要求を受け入れざるを得なくなるかもしれません。逆に、Anthropicの主張が認められれば、企業は自社技術の使用方法についてより強い発言権を持つことができます。

5月19日の口頭弁論では、サプライチェーンリスクの指定が適切だったか、国家安全保障上の緊急性が簡略化された手続きを正当化するか、といった法的問題が詳しく審理されます。また、カリフォルニア州での訴訟も第9巡回区控訴裁判所で継続しており、2つの訴訟の結果が異なる可能性もあります。最終的には、最高裁判所での判断が必要になるかもしれません。

ただし、この問題は単なる法的争いにとどまりません。AI技術が急速に発展し、軍事や安全保障の分野でも広く使われるようになる中で、技術の倫理的使用をどう確保するか、企業と政府の関係をどう構築するか、という社会全体の課題でもあります。今後の展開が注目されます。

出典:Trump-appointed judges refuse to block Trump blacklisting of Anthropic AI tech(arstechnica.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です