エヌビディア、次世代AIチップ「Vera Rubin」の量産開始を発表―処理コスト10分の1に削減

エヌビディアのジェンセン・フアンCEOが次世代AIチップ「Vera Rubin」の量産開始を発表。AI処理コストを現行の10分の1に削減し、学習に必要なチップ数も4分の1に。2026年後半から顧客への提供開始予定。

エヌビディア、次世代AIチップ「Vera Rubin」の量産開始を発表―処理コスト10分の1に削減

エヌビディアのジェンセン・フアンCEOは2025年1月6日、ラスベガスで開催された技術見本市CESのプレスイベントで、次世代AIスーパーチッププラットフォーム「Vera Rubin」が量産段階に入ったと発表しました。同社は「Vera Rubinは現在、フル生産体制にある」と述べ、予定通り2026年後半から顧客への提供を開始する見込みです。Vera Rubinは、現行の最先端チップシステム「Blackwell」と比較して、AIモデルの実行コストを約10分の1に削減できるとされています。また、大規模モデルの学習に必要なチップ数も約4分の1に減らせるため、AI開発や運用にかかる費用を大幅に抑えられます。この技術革新により、エヌビディアは顧客企業が他社のハードウェアに移行する理由を減らし、自社プラットフォームの優位性をさらに強化する狙いです。マイクロソフトやコアウィーブなどの既存パートナー企業が、2026年後半からVera Rubinを搭載したサービスを提供する最初の企業になる予定です。

Vera Rubinの性能と技術仕様

Vera Rubinは、アメリカの天文学者ヴェラ・ルービン氏にちなんで名付けられました。ルービン氏は銀河の性質に関する科学者の理解を大きく変えた人物です。このチップシステムは6種類の異なるチップで構成されており、中核となるのはRubin GPUとVera CPUです。これらは台湾セミコンダクター・マニュファクチャリング・カンパニー(TSMC)の3ナノメートル製造プロセスで製造されています。3ナノメートルとは、チップ上の回路の幅を示す単位で、数字が小さいほど回路を細かく作れるため、性能が高く消費電力が少なくなります。

さらに、現在利用可能な最先端の帯域幅メモリ技術を採用しています。帯域幅メモリとは、チップとメモリの間でデータをやり取りする速度が非常に速いメモリのことです。AI処理では大量のデータを高速に読み書きする必要があるため、この技術が重要になります。エヌビディアの第6世代相互接続技術とスイッチング技術により、これらの複数のチップが効率的に連携して動作します。フアンCEOは「このチップシステムの各部品は完全に革命的で、その種類の中で最高のものだ」と述べました。

開発の背景と経緯

エヌビディアはVera Rubinシステムを数年前から開発してきました。フアンCEOは2024年の基調講演で初めてこのチップの開発を発表しました。その後、2025年には2026年後半からVera Rubinを搭載したシステムの提供を開始すると表明していました。今回のCESでの発表は、この計画が予定通り進んでいることを改めて確認するものです。

半導体業界アナリストのオースティン・ライオンズ氏によると、ウォール街ではRubin GPUの開発が遅れているという噂が流れていました。そのため、エヌビディアは今回の発表で、重要な開発段階とテストを完了し、2026年後半の量産拡大に向けて順調に進んでいることを投資家に示す狙いがあったと分析しています。実際、2024年にはエヌビディアの前世代チップ「Blackwell」が設計上の欠陥により出荷遅延を経験しました。サーバーラックに接続した際に過熱する問題が発生したためです。この問題は2025年半ばまでに解決され、出荷スケジュールは正常に戻りました。

パートナー企業との協力体制

エヌビディアは1月5日のアナリストおよびジャーナリスト向けの説明会で、既存パートナーであるマイクロソフトとコアウィーブが、2026年後半にVera Rubinチップを搭載したサービスを提供する最初の企業になると発表しました。マイクロソフトは現在、ジョージア州とウィスコンシン州に大規模なAIデータセンターを建設中で、これらの施設には最終的に数千個のRubinチップが導入される予定です。

また、エヌビディアの一部のパートナー企業は、すでに初期段階のRubinシステムで次世代AIモデルを実行し始めていると同社は述べています。さらに、銀行、自動車メーカー、航空会社、政府機関向けにオープンソースのエンタープライズソフトウェアを提供するレッドハットとも協力し、新しいRubinチップシステム上で動作する製品を増やしていく計画です。

できること・できないこと

Vera Rubinにより、AI開発企業やクラウドサービス事業者は、大規模なAIモデルの学習と実行にかかるコストを大幅に削減できます。例えば、現行のBlackwellシステムで100台のチップが必要だった学習作業が、Vera Rubinでは25台で済むようになります。また、AIモデルを実際に動かす際の運用コストも10分の1になるため、より多くの企業が高度なAI技術を手頃な価格で利用できるようになります。具体的には、大規模言語モデルを使ったチャットボットサービスや、画像生成AIサービスの提供コストが下がり、より多くのユーザーに提供しやすくなるでしょう。

一方で、Vera Rubinが実際に顧客の手元に届くのは2026年後半以降です。エヌビディアが「フル生産」と表現していますが、これは必ずしも大量生産が始まっているという意味ではありません。通常、このような先端チップの生産は、テストと検証を行いながら少量から始まり、後の段階で生産量を増やしていきます。そのため、初期段階では供給量が限られる可能性があります。2026年後半には生産規模が拡大する見込みですが、需要の高さを考えると、すぐにすべての顧客が必要な量を入手できるとは限りません。

私たちへの影響

このニュースは、AI技術を利用するすべての人々に長期的な影響を与えます。AI処理コストが大幅に下がることで、これまで大企業しか利用できなかった高度なAI技術が、中小企業や個人開発者にも手が届きやすくなります。例えば、高性能なAIチャットボットや画像生成サービスの利用料金が下がる可能性があります。

短期的な影響については、2026年後半まで実際の製品が市場に出ないため、すぐに恩恵を受けることはできません。しかし、AI業界全体にとっては、エヌビディアが技術革新を続けることで競争が促進され、他社も性能向上やコスト削減に取り組むきっかけになるでしょう。中長期的な影響としては、AI技術がより身近になり、医療診断、教育支援、創作活動など、さまざまな分野でAIを活用したサービスが増えることが予想されます。

ただし、注意すべき点もあります。AI業界では、オープンAIなどの大手企業が独自のカスタムチップ開発に投資しています。オープンAIはブロードコムと協力して次世代AIモデル用の専用チップを開発中です。これらの動きは、エヌビディアにとって長期的なリスクとなる可能性があります。顧客企業が独自チップを設計すれば、エヌビディアが提供しないレベルのハードウェア制御が可能になるためです。しかし、ライオンズ氏は、エヌビディアが単なるGPU提供企業から、計算処理、ネットワーク、メモリ階層、ストレージ、ソフトウェア調整を含む「完全なAIシステム設計者」へと進化していると指摘しています。大手クラウド事業者がカスタムチップに多額の投資をしても、エヌビディアの緊密に統合されたプラットフォームを置き換えることは難しくなっているとのことです。

出典:Jensen Huang Says Nvidia’s New Vera Rubin Chips Are in ‘Full Production'(www.wired.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です