メタ元AI責任者ヤン・ルカン氏が新会社AMIを設立し、10億ドル超を調達。言語ではなく物理世界を理解するAI「ワールドモデル」を開発。製造業や医療など幅広い産業への応用を目指す。
メタ元AI責任者ルカン氏、物理世界を理解するAI開発に10億ドル調達
2025年3月、人工知能研究の第一人者であるヤン・ルカン氏が、新会社AMI(Advanced Machine Intelligence)を設立し、10億ドル(約1500億円)以上の資金調達を発表しました。ルカン氏は2018年にチューリング賞を受賞した研究者で、2025年11月までメタ社(旧フェイスブック)のAI研究部門の責任者を務めていました。AMIは、ChatGPTのような言語モデルとは異なるアプローチで、物理世界を理解する「ワールドモデル」と呼ばれるAI技術の開発を目指します。ルカン氏は「大規模言語モデルを拡張すれば人間レベルの知能に到達するという考えは完全にナンセンスだ」と主張し、人間の推論の大部分は言語ではなく物理世界に基づいていると説明します。この資金調達により、AMIの企業価値は35億ドル(約5250億円)と評価されました。この新しいアプローチは、製造業、医療、ロボット工学など、データを大量に扱う産業に大きな影響を与える可能性があります。
AMIの設立と資金調達の詳細
AMIはパリを拠点とする新会社で、2025年3月に正式に発表されました。資金調達はCathay Innovation、Greycroft、Hiro Capital、HV Capital、Bezos Expeditionsなどの投資会社が共同で主導しました。著名な投資家としては、実業家のマーク・キューバン氏、グーグル元CEOのエリック・シュミット氏、フランスの通信事業家ザビエ・ニエル氏などが名を連ねています。
AMIという社名は、フランス語で「友人」を意味する言葉と同じ発音です。会社は設立当初からグローバル展開を掲げ、パリ、モントリオール、シンガポール、ニューヨークにオフィスを構えます。ルカン氏はニューヨーク大学の教授職を続けながら、AMIを率いることになります。これはルカン氏にとって、メタ社を離れて初めての商業的な取り組みとなります。
ワールドモデルとは何か
ワールドモデルとは、物理世界の仕組みや法則を理解し、予測できるAIシステムのことです。例えば、ボールを投げたらどこに落ちるか、物体を押したらどう動くか、といった物理的な因果関係を学習します。これは人間が赤ちゃんの頃から経験を通じて学ぶ能力と似ています。
現在主流の大規模言語モデル(LLMとは、ChatGPTのように大量のテキストデータから学習し、文章を生成するAIのことです)は、言葉の統計的なパターンを学習しますが、物理世界の実際の仕組みは理解していません。ルカン氏は、人間の推論の大部分は言語ではなく、物理世界での経験に基づいていると主張します。そのため、真に人間レベルの知能を持つAIを作るには、ワールドモデルが必要だと考えています。
ルカン氏はメタ社で長年ワールドモデルの研究を行い、JEPA(Joint-Embedding Predictive Architecture)と呼ばれる技術を開発してきました。これは画像や動画から物理世界の構造を学習する仕組みです。しかし、メタ社が言語モデルの開発に注力する方向に転換したため、ルカン氏は独立して研究を進めることを決断しました。
大規模言語モデルへの批判
ルカン氏は言語モデルの有用性自体は否定していません。コード生成など多くの応用分野で役立つことを認めています。しかし、OpenAI、Anthropic、さらには元勤務先のメタ社など、世界最大級のAI研究機関が信じている「言語モデルを大規模化すれば人間レベルの知能や超知能に到達する」という考え方には強く反対しています。
ルカン氏は「言語モデルが本当にコード生成が得意になっていることは事実で、コード生成が役立つ幅広い応用分野でさらに有用になるでしょう。それは多くの応用分野ですが、人間レベルの知能には全く到達しません」と述べています。彼は、言語モデルの成功が業界に「ある種の妄想」を生み出していると指摘します。
ルカン氏は2018年にチューリング賞(コンピュータ科学のノーベル賞とも呼ばれます)を受賞した現代AIの先駆者であり、率直な発言で知られています。そのため、彼の懐疑的な見解は業界で大きな重みを持っています。
AMIの具体的な応用分野
AMIは製造業、医療、ロボット工学など、大量のデータを扱う企業と協働することを目指しています。ルカン氏は具体例として、航空機エンジンの現実的なワールドモデルを構築し、製造業者と協力して効率の最適化、排出ガスの最小化、信頼性の確保を支援することを挙げています。
AMIの共同創業者には、ルカン氏とともにメタ社で働いていた複数のリーダーが含まれています。元研究科学ディレクターのマイケル・ラバット氏、元欧州担当副社長のローラン・ソリー氏、元AI研究シニアディレクターのパスカル・フン氏などです。CEOには、AI医療スタートアップNablaの元CEOアレクサンドル・ルブラン氏が就任し、最高科学責任者には元グーグルディープマインド研究者のサイニング・シエ氏が就任します。
会社は初期段階でトヨタやサムスンなどのパートナー企業と協力し、技術の応用方法を学びます。最終的には「ユニバーサル・ワールドモデル」の開発を目指しており、これは業界を問わず企業を支援できる汎用的な知能システムの基盤となります。ルカン氏は「非常に野心的です」と笑顔で語っています。
オープンソース戦略とAI統制の問題
AMIはオープンソース技術の構築を計画しています。オープンソースとは、ソフトウェアのソースコードを公開し、誰でも自由に使用、改変、配布できるようにすることです。ルカン氏は、人工知能はあまりにも強力なため、単一の民間企業が統制すべきではないと主張します。
この懸念は最近特に注目されています。2025年、米国防総省がAnthropicを事実上ブラックリストに載せる動きを見せました。これは、Anthropicが米軍によるAI使用に制限を設けようとしたためです。ルカン氏はトランプ政権をしばしば批判してきましたが、この問題では米国政府と珍しく意見が一致しています。
ルカン氏は「私もダリオ・アモデイ氏(Anthropic CEO)も、サム・アルトマン氏(OpenAI CEO)も、イーロン・マスク氏も、AIの良い使い方や悪い使い方を社会に代わって決定する正当性は持っていません」と述べています。技術は良いことにも悪いことにも使えるため、少なくとも自由民主主義国家では、民主的なプロセスがそれを決定すべきだと主張します。
ルカン氏は以前にもAIの安全性や倫理に関する問題に直面してきました。彼が開発に貢献した畳み込みニューラルネットワーク(人間の脳が視覚情報を処理する方法に着想を得た技術)は、現在、複数の国で自国民を監視する顔認識システムに使われています。ルカン氏は「私はこれらの技術の起源にいましたが、社会が技術をどう使うべきかを決めるのは私ではありません」と語ります。
約10年前、AI業界の一部のリーダーたちは自律兵器へのAI使用を禁止しようとしました。しかしその後、この技術は欧州の自由民主主義国家を守るために使われるようになったとルカン氏は指摘します。例えば、ウクライナはロシアの攻撃を防ぐために自律ドローンの使用を拡大しています。
できること・できないこと
AMIのワールドモデル技術により、物理世界のシミュレーションと予測が可能になります。例えば、製造業では機械の動作を仮想環境で試験し、最適な設定を見つけることができます。航空機エンジンの例では、さまざまな運転条件下での性能を予測し、燃費向上や排出ガス削減のための調整を事前に検証できます。医療分野では、薬物が体内でどう作用するかをモデル化し、治療法の開発を加速できる可能性があります。ロボット工学では、ロボットが物理環境をより深く理解し、複雑な作業を実行できるようになります。
一方で、この技術はまだ開発の初期段階にあります。ルカン氏自身が「非常に野心的」と認めているように、ユニバーサル・ワールドモデルの実現には長い時間がかかるでしょう。AMIは最初のAIモデルを迅速にリリースする予定ですが、ルカン氏は「ほとんどの人は気づかないだろう」と述べています。初期段階では特定のパートナー企業との協働を通じて技術を磨き、徐々に応用範囲を広げていく計画です。また、物理世界の複雑さは言語よりもはるかに大きいため、学習に必要なデータ量や計算資源も膨大になる可能性があります。
私たちへの影響
このニュースは、AI技術の方向性に関心を持つ人々、特に製造業、医療、ロボット工学などの分野で働く人々に大きな影響を与えます。AMIのアプローチが成功すれば、これらの産業でAIの活用方法が根本的に変わる可能性があります。
短期的な影響については、まだ限定的でしょう。AMIは特定の企業とのパートナーシップから始め、段階的に技術を発展させる計画です。一般消費者が直接この技術に触れる機会は当面少ないと考えられます。しかし、トヨタやサムスンなどの大企業がパートナーとして参加していることから、数年以内にこれらの企業の製品やサービスに何らかの形で組み込まれる可能性があります。
中長期的な影響としては、AIが言語処理だけでなく物理世界の理解においても人間に近づくことで、製造、設計、医療診断、ロボット制御など幅広い分野で革新が起こる可能性があります。特に、複雑な物理システムのシミュレーションや最適化が必要な産業では、大きな効率向上やコスト削減が期待できます。また、ルカン氏のような著名な研究者が大規模言語モデル一辺倒の流れに異を唱えることで、AI研究の多様性が保たれ、より幅広いアプローチが試されることになります。
ただし、この技術も他のAI技術と同様に、監視や軍事利用など倫理的に問題のある用途に使われる可能性があります。ルカン氏がオープンソース戦略を採用することで、技術の透明性は高まりますが、同時に悪用のリスクも増します。民主的なプロセスを通じて適切な規制や倫理基準を確立することが、今後ますます重要になるでしょう。
