NVIDIAは、次世代GPUであるブラックウェルを基盤としたデータセンタープラットフォームの設計を、オープンコンピュートプロジェクト(OCP)に提供した。この取り組みは、OCPメンバーがカスタム設計を行うための基盤を提供し、データセンターのAIインフラ整備を加速させる狙いがある。
NVIDIAはまた、パートナー企業と共同で、高性能なラック設計や冷却システムの改善を図り、ブラックウェルGPUの導入を効率化。これにより、データセンターの構築時間を最大50%短縮できるとしている。
NVIDIAの新たなオープン設計の概要
NVIDIAは、次世代GPU「ブラックウェル」を基盤とするサーバープラットフォーム設計をオープンコンピュートプロジェクト(OCP)に提供した。この設計には、最大72個のGB100またはGB200 GPUを搭載できるGB200 NVL72システムが含まれている。このシステムは、NVIDIAのモジュラーアーキテクチャであるMGXに基づいて構築されており、36基のGrace CPUと72基のブラックウェルGPUをラック規模で接続することが可能である。これにより、巨大な単一GPUとして動作する72-GPU NVLinkドメインを実現している。
さらに、この設計はデータセンターにおけるAIワークロードの処理能力を大幅に向上させるものであり、特に大規模なAI訓練や推論のためのインフラ整備に寄与するとされている。OCPのメンバーは、このNVIDIAの設計を基に独自のカスタムデザインを構築することができ、従来よりも効率的なデータセンター運営が可能になる。このようなオープンソース化は、AIインフラの進化を支える重要な要素となりつつある。
NVIDIAのこの貢献は、データセンター業界に新たな標準をもたらし、AIの進展を加速させるものとして注目されている。
ブラックウェルGPUを基盤とする次世代データセンター
ブラックウェルGPUを基盤とするGB200 NVL72システムは、次世代のデータセンター向けに設計されている。このシステムは、AIワークロードに特化しており、従来のデータセンターアーキテクチャを大幅に刷新するものだ。NVIDIAのMGXアーキテクチャを使用することで、柔軟な拡張性と高いモジュール性を持ち、AIのトレーニングや推論のための最適な環境を提供する。
特に、GB200 NVL72は、36基のGrace CPUと72基のブラックウェルGPUをラック内で統合することで、AIワークロードのスケールアップを実現する。このシステムは、従来のGPUよりも高い性能を発揮し、大規模なデータ処理が必要とされるAIアプリケーションにおいて、劇的なパフォーマンス向上が期待できる。さらに、NVIDIAのネットワーキング技術であるSpectrum-X Ethernetプラットフォームを統合することで、AIデータセンター間の高速なデータ通信も実現している。
これらの要素が組み合わさることで、次世代データセンターはこれまで以上に高効率で強力なAIインフラを構築できる。
AIインフラ構築を加速させるパートナーシップ
NVIDIAは、データセンターインフラの構築において、Vertiv社との協力を進めている。Vertivは、高密度コンピューティングに特化した電源および冷却ソリューションを提供しており、NVIDIAのブラックウェルGPUを基盤とするGB200 NVL72システムの導入を効率化する役割を担っている。具体的には、Vertivのソリューションを利用することで、電力管理や冷却効率を最大化し、データセンターの物理的なスペースを節約しながら、大規模なAIインフラを迅速に構築することが可能となる。
このパートナーシップにより、クラウドサービスプロバイダーやデータセンター運営者は、GB200 NVL72クラスターの導入時間を最大50%短縮できるとされている。これにより、世界中のデータセンターが迅速に高性能なAIインフラを展開できるようになる。NVIDIAとVertivの協力は、AIが主導する次世代の技術進化に向けた重要なステップであり、より多くの企業がAIワークロードに最適化された環境を手軽に構築できるようになるだろう。
このように、強力なパートナーシップがAIインフラの導入を加速させている。
オープンスタンダード化で広がるブラックウェルの可能性
NVIDIAは、ブラックウェルGPUと関連技術のオープンスタンダード化を推進している。これにより、OCPメンバーやパートナー企業は、NVIDIAの設計を基に独自のカスタムソリューションを構築しやすくなる。特に、Metaが開発したCatalina AIラックアーキテクチャは、GB200 NVL72システムを基盤にしており、OCPに貢献する形で提供されている。このような取り組みが、AIインフラのさらなる進化を促進している。
また、NVIDIAはOCPコミュニティと緊密に協力し、広範なデータセンターデベロッパーがその設計や仕様を利用できるようにしている。これにより、NVIDIAのブラックウェルGPUやConnectX-8 SuperNICといった技術が、OCP標準に基づく企業にも提供される。標準化された設計を用いることで、企業は従来の投資を維持しながら、最新のAIインフラに移行できるのが大きな利点である。
このように、オープンスタンダード化によって、ブラックウェルGPUの可能性はますます広がっていくことが期待されている。