NVIDIA GB200 NVL72は、NVIDIAのDGX SuperPODの一部で、生成AIタスクに特化したシステムです。このシステムは、NVIDIA Grace Blackwellアーキテクチャを採用しており、36個のGrace CPUと72個のBlackwell GPUを液冷ラック内に統合しています。GB200 NVL72は、大規模言語モデル(LLM)のトレーニングと推論に最適化されており、以前のモデルであるH100 Tensor Core GPUと比較して、推論性能が30倍、トレーニング性能が4倍に向上しています。
このシステムは、第5世代のNVIDIA NVLinkを採用しており、高速なGPU間の接続を実現しています。また、AI計算を強化するための高度なTensor Coresを備えています。このセットアップは、スケーラブルなAIスーパーコンピューティングをサポートしており、数兆パラメータのモデルを安定して扱うことができます [oai_citation:1,NVIDIA Blackwell Architecture Technical Overview](https://resources.nvidia.com/en-us-blackwell-architecture#:~:text=URL%3A%20https%3A%2F%2Fresources.nvidia.com%2Fen,100) [oai_citation:2,NVIDIA Grace CPU and Arm Architecture | NVIDIA](https://www.nvidia.com/en-us/data-center/grace-cpu/) [oai_citation:3,GB200 NVL72 | NVIDIA](https://www.nvidia.com/de-de/data-center/gb200-nvl72/)。