OpenAI、Nvidia以外のチップで動作する超高速コーディングAIを発表―従来の15倍の速度を実現

OpenAIが2月、Nvidia以外のチップで動作する初の本番AIモデル「GPT-5.3-Codex-Spark」を発表。コード生成速度が従来の15倍に向上し、毎秒1,000トークンを処理。開発者の作業効率が大幅に改善される見込みです。

OpenAI、Nvidia以外のチップで動作する超高速コーディングAIを発表―従来の15倍の速度を実現

OpenAIは2月6日(木曜日)、Nvidia製以外のハードウェアで動作する初の本番向けAIモデル「GPT-5.3-Codex-Spark」を発表しました。このモデルは、Cerebras社製のチップ上で動作し、毎秒1,000トークン以上という驚異的な速度でコードを生成します。トークンとは、AIが処理するデータの小さな単位のことです。この速度は、従来のモデルと比較して約15倍も高速です。参考までに、競合のAnthropic社が提供する「Claude Opus 4.6」の高速モードでも、通常速度の約2.5倍である毎秒約170トークンにとどまっています。

この発表の背景には、OpenAIがNvidia製チップへの依存を減らそうとする戦略的な動きがあります。同社は2025年10月にAMDと大型契約を結び、11月にはAmazonと380億ドル規模のクラウドコンピューティング契約を締結しました。さらに、独自のAIチップの設計も進めています。コーディング支援AIの分野では、AnthropicやGoogleとの競争が激化しており、処理速度が開発者の作業効率を左右する重要な要素となっています。高速なモデルがあれば、開発者はアイデアを素早く試し、より短時間で製品を作り上げることができるのです。

GPT-5.3-Codex-Sparkの詳細と提供形態

GPT-5.3-Codex-Sparkは、月額200ドルのChatGPT Proサブスクリプション加入者向けに、研究プレビュー版として提供されています。利用者は、Codexアプリ、コマンドラインインターフェース、Visual Studio Code拡張機能を通じてこのモデルにアクセスできます。また、OpenAIは選ばれた設計パートナー企業に対して、API経由でのアクセスも段階的に提供しています。

このモデルは、128,000トークンのコンテキストウィンドウを備えています。コンテキストウィンドウとは、AIが一度に参照できる情報量のことで、128,000トークンは約10万語に相当します。これにより、大規模なコードベースを扱う際にも、十分な文脈を保持できます。ただし、リリース時点ではテキストのみに対応しており、画像などの他の形式には対応していません。

Sparkは、2月初旬に発表された完全版のGPT-5.3-Codexをベースに開発されました。完全版が複雑なコーディングタスクを処理するのに対し、Sparkは知識の深さよりも速度を優先するように調整されています。テキスト専用モデルとして構築され、汎用タスクではなくコーディングに特化しています。

背景と経緯―激化するAIコーディング競争

AIコーディング支援ツールは、2025年に大きな飛躍を遂げました。OpenAIのCodexやAnthropicのClaude Codeといったツールは、プロトタイプ、ユーザーインターフェース、定型コードを迅速に構築する上で、新たなレベルの有用性に到達しました。これらのツールを使えば、開発者は数時間かかっていた作業を数分で完了できるようになります。

OpenAI、Google、Anthropicの3社は、より高性能なコーディングエージェントの開発競争を繰り広げています。この競争において、処理速度が勝敗を分ける要因となっています。コードを生成する速度が速ければ速いほど、開発者は試行錯誤のサイクルを短縮でき、より効率的に作業を進められるからです。

Anthropicからの激しい競争圧力を受けて、OpenAIはCodexシリーズを急速に改良してきました。CEOのサム・アルトマン氏がGoogleからの競争圧力について社内で「コードレッド」(緊急事態)メモを発行した後、2024年12月にGPT-5.2をリリースし、その数日後にGPT-5.3-Codexを発表しました。今回のSparkは、その流れの中での最新の成果です。

Cerebrasチップの技術的特徴

Sparkが動作するCerebras社の「Wafer Scale Engine 3」は、通常のコンピュータチップとは大きく異なります。このチップは、ディナープレート(直径約25センチメートル)ほどの大きさがあり、従来のチップの数百倍の面積を持ちます。通常、半導体製造では小さなチップを多数作りますが、Cerebrasは1枚のウェハー全体を1つの巨大なチップとして使用する独自のアプローチを採用しています。

この巨大なチップには、膨大な数の処理コアとメモリが統合されており、データの移動距離が短くなるため、処理速度が大幅に向上します。Cerebrasは2022年頃からこの技術を中心にビジネスを展開してきました。OpenAIとCerebrasは2025年1月にパートナーシップを発表し、Codex-Sparkはその協力関係から生まれた最初の製品です。

興味深いことに、毎秒1,000トークンという速度は、Cerebrasの基準では実は控えめな数値です。同社は、Llama 3.1 70Bモデルで毎秒2,100トークン、OpenAIのオープンウェイトモデルgpt-oss-120Bで毎秒3,000トークンを記録しています。Sparkの速度が相対的に低いのは、モデルがより大規模で複雑であることを示唆しています。

OpenAIのNvidia依存脱却戦略

Sparkのハードウェアに関する話は、ベンチマークスコアよりも重要な意味を持つかもしれません。OpenAIは過去1年間、Nvidiaへの依存を体系的に減らしてきました。2025年10月にAMDと複数年にわたる大規模契約を締結し、11月にはAmazonと380億ドル規模のクラウドコンピューティング契約を結びました。さらに、TSMCによる製造を前提とした独自のカスタムAIチップの設計も進めています。

一方、Nvidiaとの1,000億ドル規模のインフラ契約は、これまでのところ実現していません。ただし、Nvidiaはその後200億ドルの投資を約束しています。ロイター通信の報道によれば、OpenAIは推論タスク(学習済みモデルを使って実際に予測や生成を行う処理)における一部のNvidiaチップの速度に不満を抱いていたとされています。Codex-Sparkは、まさにこの種の推論ワークロード向けに設計されたモデルです。

できること・できないこと

GPT-5.3-Codex-Sparkにより、開発者は従来よりもはるかに高速にコードを生成できるようになります。例えば、ウェブアプリケーションのユーザーインターフェースを作成する際、ボタンやフォームなどの定型的な部分を数秒で生成できます。また、データベース接続やAPI呼び出しといった繰り返しの多いコードも、待ち時間をほとんど感じることなく作成できます。コードエディタ内でAIの提案を待つ時間が大幅に短縮されるため、開発者の思考の流れが中断されにくくなります。

一方で、速度を優先したことによる制約もあります。Sparkは完全版のGPT-5.3-Codexと比べて知識の深さが浅いため、非常に複雑なアーキテクチャ設計や高度なアルゴリズムの実装には向いていません。また、テキストのみの対応であるため、画像やグラフを含むドキュメントの処理はできません。さらに、速度が速いということは、誤ったコードを生成する場合も素早く生成してしまう可能性があるため、開発者は生成されたコードを注意深く確認する必要があります。

OpenAIは今後、選ばれたパートナー企業へのAPI提供を拡大していく予定です。一般の開発者向けのより広範な提供時期については、まだ発表されていません。

私たちへの影響

このニュースは、ソフトウェア開発に携わる人々に直接的な影響を与えます。月額200ドルのChatGPT Proサブスクリプションに加入している開発者は、すぐにこの高速なコーディング支援を利用できます。日常的にコードを書く作業において、待ち時間が大幅に減少することで、1日の作業量が増え、より多くのアイデアを試すことができるようになります。

短期的な影響としては、OpenAIのCodexを使用している開発者の生産性が向上します。特に、プロトタイプの作成や定型コードの生成といった作業が加速します。競合他社も速度向上に注力すると予想されるため、AIコーディング支援ツール全体の性能が底上げされる可能性があります。中長期的な影響としては、ソフトウェア開発のワークフローそのものが変化するでしょう。開発者は、コードを一から書くのではなく、AIが生成したコードをレビューし、調整する役割にシフトしていくかもしれません。

ただし、速度が速いことが必ずしも良い結果につながるとは限りません。生成されたコードの品質を確認する時間を十分に取らないと、バグやセキュリティの脆弱性を見逃す危険性があります。また、月額200ドルという価格は個人開発者にとっては高額であり、企業向けのツールとしての性格が強いと言えます。AIに過度に依存することで、基礎的なプログラミングスキルが低下する懸念も指摘されています。開発者は、AIを便利な道具として活用しつつも、自身の技術力を維持することが重要です。

出典:OpenAI sidesteps Nvidia with unusually fast coding model on plate-sized chips(arstechnica.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です