NVIDIAが40ラックに1,152基のGPUを搭載したVera Rubin PODを発表。60エクサフロップスを実現し、Blackwellと比較してワットあたりの推論性能が10倍向上。(続きを読むNVIDIAが40ラックに1,152基のGPUを搭載したVera Rubin PODを発表。60エクサフロップスを実現し、Blackwellと比較してワットあたりの推論性能が10倍向上。(続きを読む

NVIDIA、エージェント型ワークロード向け40ラックAIスーパーコンピュータVera Rubin PODを発表

2026/03/17 03:48
10 分で読めます
本コンテンツに関するご意見・ご感想は、crypto.news@mexc.comまでご連絡ください。

NVIDIAがエージェントワークロード向けVera Rubin POD 40ラックAIスーパーコンピュータを発表

Iris Coleman 2026/3/16 19:48

NVIDIAは40ラックに1,152基のGPUを搭載したVera Rubin PODを発表し、60エクサフロップスとBlackwellの10倍の推論性能を提供します。

NVIDIAがエージェントワークロード向けVera Rubin POD 40ラックAIスーパーコンピュータを発表

NVIDIAは、これまでで最も野心的なAIインフラストラクチャのスペックを発表しました。Vera Rubin PODは40ラックに1,152基のRubin GPUを搭載し、60エクサフロップスの計算能力と毎秒10ペタバイトの総スケールアップ帯域幅を提供します。生産ユニットは2026年後半に出荷されます。

ここでの数字は驚異的です:1.2京個のトランジスタ、約20,000個のNVIDIAダイ、すべてが単一の一貫したスーパーコンピュータとして機能するように設計されています。NVIDIAは、現在のBlackwellアーキテクチャと比較して、トレーニング性能が4倍、ワットあたりの推論性能が10倍向上し、トークンコストが現在のレベルの10分の1に低下すると主張しています。

5つの専用ラックシステム

PODは5つの異なるラックスケールシステムを組み合わせており、それぞれが現代のAIワークロードの特定のボトルネックをターゲットにしています:

Vera Rubin NVL72は、コア計算エンジンとして機能します。各ラックは、NVLink 6を介して接続された72基のRubin GPUと36基のVera CPUを統合し、GPUあたり3.6 TB/sの帯域幅を提供します。これは、NVIDIAによると、グローバルインターネット全体よりも多い総帯域幅です。このシステムは、4つのAIスケーリング法則すべてをターゲットにしています:事前トレーニング、事後トレーニング、テスト時スケーリング、エージェントスケーリングです。

Groq 3 LPXラックは、レイテンシの問題に取り組みます。SRAMのみのアーキテクチャを使用して、ラックあたり256の言語処理ユニットを備えており、これらはNVL72とペアになって、NVIDIAが主張する35倍のトークンと、Blackwellと比較して1兆パラメータモデルで10倍の収益機会を提供します。

Vera CPUラックは、エージェントテスト用のサンドボックス環境を提供します。単一のラックは22,500以上の同時強化学習環境を維持します。これは、展開前にエージェントAI出力を検証するために重要です。

BlueField-4 STXラックは、CMXコンテキストメモリプラットフォームを通じて、NVIDIAが「AIネイティブストレージ」と呼ぶものを導入します。KVキャッシュを専用の高帯域幅ストレージにオフロードすることで、システムは従来のアプローチと比較して5倍高い毎秒トークン数と5倍優れた電力効率を主張しています。

Spectrum-6 SPXネットワーキングラックは、コパッケージ光学機器を備えた102.4 Tb/sスイッチですべてを結びつけます。

トークン経済の議論

NVIDIAは、特定の市場の現実を中心にこれをフレーム化しています:トークン消費は現在年間10京を超えており、人間-AIからAI-AI相互作用への移行は、その成長を劇的に加速させます。現代のエージェントシステムは、KVキャッシュ要件を拡大しながら、大量の推論トークン量を生成します。これは、このアーキテクチャがターゲットにするボトルネックです。

NVIDIAが引用したサードパーティのSemiAnalysis InferenceMaxベンチマークは、現在のBlackwellシステムがH200と比較して、ワットあたり50倍優れた性能とトークンあたり35倍低いコストをすでに提供していることを示しています。Vera Rubinは、そのリードを拡大することを目指しています。

熱および電力エンジニアリング

第3世代MGXラックアーキテクチャは、以前の世代よりも6倍多いラックレベルのエネルギー貯蔵(GPUあたり400ジュール)を備えたインテリジェント電力平滑化を導入します。これにより、ピーク電流需要が最大25%削減され、大規模なバッテリーパックの必要性がなくなります。

すべてのラックは45°Cの温水入口温度で動作し、多くの気候のデータセンターが周囲空気冷却を使用できるようにします。NVIDIAは、これにより同じ施設の電力予算でラックを10%追加するのに十分な電力が解放されると主張しています。

今後の展望

初期のPOD構成を超えて、NVIDIAは8ラックにわたって576基のGPUにスケーリングするVera Rubin Ultra NVL576と、ラックあたり144基のGPUを備えたNVL1152をターゲットにする次世代Kyberアーキテクチャをプレビューしました。ロードマップは、NVIDIAがマルチラックNVLinkドメインをAIインフラストラクチャの未来と見ていることを示唆しています。より大きなGPUだけでなく、根本的に異なるシステムアーキテクチャです。

AIインフラストラクチャへの投資を計画している企業にとって、メッセージは明確です:AIコンピューティングの経済学は、チップレベルから施設レベルの最適化にシフトしています。現在データセンターを構築している企業は、現世代のシステムと2026年後半のVera Rubinの利用可能性を待つことの間で選択に直面しています。

画像出典: Shutterstock
  • nvidia
  • AIインフラストラクチャ
  • vera rubin
  • データセンター
  • エンタープライズAI
免責事項:このサイトに転載されている記事は、公開プラットフォームから引用されており、情報提供のみを目的としています。MEXCの見解を必ずしも反映するものではありません。すべての権利は原著者に帰属します。コンテンツが第三者の権利を侵害していると思われる場合は、削除を依頼するために crypto.news@mexc.com までご連絡ください。MEXCは、コンテンツの正確性、完全性、適時性について一切保証せず、提供された情報に基づいて行われたいかなる行動についても責任を負いません。本コンテンツは、財務、法律、その他の専門的なアドバイスを構成するものではなく、MEXCによる推奨または支持と見なされるべきではありません。