米スタートアップSmack Technologiesが軍事作戦計画用AI開発で3200万ドル調達。戦場での作戦立案を自動化する専門AIモデルを訓練中。軍事AI利用の境界線が議論に。
軍事作戦計画用AI開発のSmack、3200万ドル調達―戦場での意思決定自動化へ
米国のスタートアップ企業Smack Technologiesが今週、3200万ドル(約48億円)の資金調達を発表しました。同社は軍事作戦の計画と実行に特化したAIモデルを開発しており、近い将来、一般的なAIモデルであるClaudeの能力を軍事分野で上回ると主張しています。この発表は、AI企業Anthropicが米国防総省との契約条件をめぐって対立し、軍事利用の制限を求めた直後に行われました。Smack社のCEOアンディ・マーコフ氏は元米海兵隊特殊作戦司令部の指揮官で、イラクとアフガニスタンでの作戦経験を持ちます。同氏は「技術を倫理的に使用する責任は、制服を着た軍人が負うべきだ」と述べ、軍事AI利用の制限には慎重な姿勢を示しています。この動きは、シリコンバレーにおける軍事AI利用の議論を再燃させ、技術開発と倫理的制約のバランスという難題を浮き彫りにしています。
Smack Technologiesの開発内容と技術的特徴
Smack Technologiesは、戦場での作戦計画を自動化するための専門AIモデルを開発しています。同社のAIは、試行錯誤を通じて最適な作戦計画を学習する仕組みです。これは2017年にGoogleが開発した囲碁プログラム「AlphaGo」と似た手法で、様々な戦争ゲームシナリオを実行し、専門アナリストからのフィードバックを受けて戦略の有効性を判断します。
マーコフCEOによれば、同社は大手AI研究所ほどの予算はないものの、最初のAIモデルの訓練に数百万ドルを投じています。同社は元海兵隊員のクリント・アラニス氏と、マッチングアプリTinderの元技術担当副社長だったコンピュータ科学者ダン・グールド氏が共同創業しました。この組み合わせは、軍事専門知識と最先端の技術開発能力を融合させたものです。
Anthropicとの対立が浮き彫りにした問題
軍事AI利用は、米国防総省とAI企業Anthropicの間で約2億ドルの契約をめぐる対立が表面化したことで、シリコンバレーの注目トピックとなりました。対立の主な争点の一つは、Anthropicが自社のAIモデルを自律型兵器に使用することを制限したいと望んだことです。この交渉決裂により、ピート・ヘグセス国防長官はAnthropicを「サプライチェーンリスク」と宣言しました。
マーコフ氏は、この騒動が重要な事実を覆い隠していると指摘します。現在の大規模言語モデル、つまりChatGPTやClaudeのような汎用AIは、軍事用途に最適化されていないのです。これらのモデルは報告書の要約には優れていますが、軍事データで訓練されておらず、物理世界の人間レベルの理解を欠いているため、物理的なハードウェアの制御には適していません。マーコフ氏は「これらのモデルは標的識別には全く対応できない」と断言しています。
軍事作戦計画の現状と自動化の必要性
現在、軍事作戦の計画立案は依然として手作業で行われています。マーコフ氏によれば、ホワイトボードとメモ帳を使った従来の方法が主流です。Smackのモデルは、作戦計画の立案に伴う単調な作業の多くを自動化し、指揮官を支援することを目的としています。
マーコフ氏は、もし米国がロシアや中国のような「対等な相手」と戦争になった場合、自動化された意思決定は米国に必要な「意思決定の優位性」を提供できると主張します。ただし、彼自身も「実際の作戦で計画通りに50パーセント以上進んだことは一度もない」と認めており、戦場の混沌とした性質から自律性には限界が必要だと述べています。
自律型兵器の現状と懸念
米国や他の軍隊は、すでに特定の状況で自律型兵器を使用しています。例えば、人間の反応速度を超える速さで対応する必要があるミサイル防衛システムなどです。リッチモンド大学法学部の自律型兵器に関する法的問題の専門家レベッカ・クルートフ氏によれば、「米国と30カ国以上が、完全自律型と定義できるものを含む、様々な自律度を持つ兵器システムをすでに配備している」とのことです。
しかし、AIの軍事利用には深刻な懸念も存在します。キングス・カレッジ・ロンドンの研究者による最近の実験では、大規模言語モデルが戦争ゲームにおいて核紛争をエスカレートさせる傾向があることが示されました。この結果は、高度なAIでも戦略的判断において予測不可能な行動を取る可能性を示唆しています。
自律型AI兵器の開発に反対する非営利団体Future of Life InstituteでAIガバナンスを担当するアンナ・ヘヒア氏は、「AIは信頼性、予測可能性、説明可能性に欠けるため、このような高リスクのシナリオでの使用には適していない」と主張します。彼女は「これらのシステムは、誰が戦闘員で誰が子供なのか、ましてや降伏の行為を認識することができない」と警告しています。
できること・できないこと
Smackが開発するAIモデルにより、軍事作戦の計画立案プロセスが大幅に効率化される可能性があります。例えば、複数の作戦シナリオを短時間で評価したり、過去の作戦データから最適な戦術パターンを抽出したりすることが考えられます。指揮官は単調な計画作業から解放され、より戦略的な判断に集中できるようになるでしょう。
一方で、このAIにもできないことがあります。マーコフ氏自身が認めるように、実際の戦場は極めて予測不可能で、計画通りに進むことはほとんどありません。また、現時点では標的の識別や、戦闘員と民間人の区別といった重要な判断をAIに任せることはできません。マーコフ氏は「国防総省で完全に自動化されたキルチェーン(致死的武力使用の意思決定プロセス)について話している人は、私の知る限りいない」と述べています。今後数年間は、AIは人間の指揮官を支援するツールとしての役割にとどまるでしょう。
私たちへの影響
このニュースは、AI技術の軍事利用という倫理的に複雑な問題を一般市民にも突きつけます。技術開発者、政策立案者、そして納税者である私たちすべてが、AIがどのように戦争に使われるべきかという問いに向き合う必要があります。
短期的な影響については、民間AI企業と軍事組織の関係が再定義される可能性があります。Anthropicのような企業が軍事利用に制限を設ける一方で、Smackのような専門企業が台頭することで、軍事AI開発は専門化された企業に集中していくかもしれません。これは技術開発の透明性や民主的な監視という観点から、新たな課題を生み出します。
中長期的な影響としては、AI技術が戦争の性質そのものを変える可能性があります。ロシアとウクライナの紛争では、商用ハードウェアとソフトウェアで構築された低コストの半自律システムの重要性が浮き彫りになりました。将来の紛争では、AIによる意思決定の速度が勝敗を分ける要因になるかもしれません。
ただし、AIの軍事利用には明確な境界線が必要です。現在締結されている契約の条件は曖昧で、将来的にAIがどのように統合されるかは不透明です。技術の進歩が倫理的・法的枠組みを上回るスピードで進んでいることが、最大の懸念材料と言えるでしょう。
