スマホで動くAI、クラウド不要に―Multiverse Computingが圧縮技術を一般公開

スペインのMultiverse Computingが、AIモデルを圧縮してスマートフォンで動作させる技術を一般公開。クラウド不要でプライバシーを保護しながらAIを利用できる。企業向けAPI提供で産業用途への展開を加速。

スマホで動くAI、クラウド不要に―Multiverse Computingが圧縮技術を一般公開

スペインのMultiverse Computingは2026年3月19日、AIモデルを大幅に圧縮してスマートフォンなどの端末上で直接動作させる技術を一般公開しました。同社はOpenAI、Meta、DeepSeek、Mistral AIなどの大手AI企業のモデルを圧縮し、その能力を体験できるアプリ「CompactifAI」と、開発者向けのAPIポータルを公開しました。この技術により、インターネット接続やクラウドサービスに依存せず、端末内だけでAIを動作させることが可能になります。従来のChatGPTなどのAIサービスは、ユーザーの質問をクラウド上の巨大なデータセンターに送信して処理していましたが、Multiverse Computingの技術では端末内で処理が完結するため、データが外部に送信されることがありません。AI業界では計算資源を提供する企業の財務不安定性が問題となっており、外部インフラに依存しないこの技術は、企業にとって新たな選択肢となります。すでに100社以上の企業顧客を持つ同社は、ドローンや人工衛星など通信環境が不安定な場所でのAI活用を視野に入れています。

圧縮技術で実現する端末内AI処理

Multiverse Computingが開発した「CompactifAI」という技術は、大規模なAIモデルを大幅に圧縮し、スマートフォンやタブレットなどの端末上で直接動作させることを可能にします。同社が公開したアプリには「Gilda」という圧縮モデルが組み込まれており、インターネット接続がなくてもオフラインで質問に答えることができます。

従来のChatGPTやMistralのLe Chatといったサービスでは、ユーザーが質問を入力すると、その内容がインターネット経由でクラウド上のデータセンターに送信され、そこで処理された結果が返ってくる仕組みでした。これに対してCompactifAIでは、質問への回答処理がすべて端末内で完結します。データが外部に送信されないため、プライバシー保護の観点で大きな利点があります。

ただし、この技術を利用するには端末に十分なRAMとストレージ容量が必要です。古いiPhoneなど、メモリ容量が少ない端末では、アプリは自動的にクラウドベースのモデルに切り替わります。この切り替えは「Ash Nazg」という名前のシステムが自動的に処理しますが、クラウドに切り替わった時点でプライバシー保護という主要な利点は失われます。

背景と経緯

AI業界では現在、計算資源を提供する企業の財務不安定性が深刻な問題となっています。ベンチャーキャピタルのLux Capitalによると、民間企業のデフォルト率は9.2%を超え、ここ数年で最高水準に達しています。同社は最近、AI企業に対して計算資源の提供契約を必ず書面で確認するよう助言しました。口約束だけでは、サプライチェーンの混乱時に計算資源が確保できないリスクがあるためです。

このような状況下で、外部の計算インフラに依存しない選択肢として、端末上で動作する小型AIモデルへの注目が高まっています。Multiverse Computingはこれまで比較的低いプロファイルを保ってきましたが、AI効率化への需要が高まる中で、その存在感を増しています。

同社は2025年に2億1500万ドルのシリーズB資金調達を実施しており、現在は5億ユーロの新規資金調達を15億ユーロ以上の評価額で進めているとの噂があります。カナダ銀行、Bosch、Iberdrolaなど100社以上のグローバル企業がすでに顧客となっています。

技術的な詳細

Multiverse Computingの圧縮技術は「量子にインスパイアされた」手法を用いています。これは量子コンピューティングの原理を応用したもので、AIモデルのサイズを大幅に縮小しながら性能を維持することを目指しています。

同社の最新圧縮モデル「HyperNova 60B 2602」は、OpenAIの「gpt-oss-120b」というモデルをベースにしています。gpt-oss-120bとは、OpenAIが公開したコードをもとに構築されたモデルのことです。Multiverse Computingによると、HyperNova 60B 2602は元のモデルよりも高速な応答を低コストで実現しており、特にAIが自律的に複雑なプログラミングタスクを完了する「エージェント型コーディングワークフロー」において優位性があるとしています。

モバイル端末で動作するほど小型でありながら実用的な性能を維持することは大きな技術的課題です。Appleは「Apple Intelligence」でこの問題に対処するため、端末内モデルとクラウドモデルを組み合わせる方式を採用しました。Multiverse ComputingのCompactifAIアプリも必要に応じてgpt-oss-120bにAPIでリクエストを送ることができますが、主な目標はGildaのようなローカルモデルがコスト削減以外の利点を持つことを示すことにあります。

できること・できないこと

CompactifAI技術により、インターネット接続がない環境でもAIを利用できるようになります。例えば、機密性の高い医療データを扱う医師が、患者情報を外部サーバーに送信せずにAIの診断支援を受けることや、通信環境が不安定な山岳地帯や海上でドローンがAIを使って自律飛行することが可能になります。人工衛星に搭載すれば、地球との通信遅延がある宇宙空間でもリアルタイムでAI処理を実行できます。

企業向けには、データセンターの計算コストを削減しながら、データを社内に保持したままAIを活用できるという利点があります。今回公開されたAPIポータルでは、開発者が圧縮モデルに直接アクセスでき、リアルタイムで使用状況を監視できます。これにより、企業は計算コストを正確に把握し、予算管理を改善できます。

一方で、現時点では端末のハードウェア性能に大きく依存するという制約があります。十分なRAMとストレージを持たない古い端末では、結局クラウドモデルに頼ることになり、プライバシー保護という主要な利点が失われます。Sensor Towerのデータによると、CompactifAIアプリの過去1ヶ月のダウンロード数は5000件未満にとどまっており、一般消費者向けの大規模普及にはまだ時間がかかりそうです。ただし、同社はそもそも一般消費者ではなく企業顧客をターゲットにしている可能性があります。

私たちへの影響

このニュースは、AIを業務で活用する企業や開発者、そしてプライバシーを重視する一般ユーザーに影響を与えます。企業にとっては、外部のクラウドサービスに依存せずにAIを導入できる選択肢が増えることを意味します。特に、金融機関や医療機関など、データの外部流出を避けたい業界では重要な選択肢となるでしょう。

短期的な影響については、開発者がMultiverse ComputingのAPIポータルを通じて圧縮モデルにアクセスできるようになり、新しいアプリケーションやサービスの開発が加速する可能性があります。計算コストの削減は、特にスタートアップ企業にとって大きなメリットです。中長期的な影響としては、ドローン配送、自動運転車、産業用ロボットなど、通信環境が不安定な場所で動作する機器へのAI搭載が進むと予測されます。

ただし、この技術が広く普及するには、端末のハードウェア性能の向上が必要です。また、小型モデルは大型モデルに比べて複雑なタスクの処理能力が劣る場合があるため、用途に応じて適切なモデルを選択することが重要になります。Mistral AIが今週発表した「Mistral Small 4」のように、小型モデルの性能は向上していますが、すべての用途で大型モデルを置き換えられるわけではありません。

出典:Multiverse Computing pushes its compressed AI models into the mainstream(techcrunch.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です