NVIDIA今天正式發布了Rubin AI平台,該平台將成為下一代資料中心的核心,其效能比Blackwell提升了5倍。
今天NVIDIA正式發布了Rubin平台,這真是令人意外,因為我們原本都期待在公司已宣布的GTC大會上看到相關更新。鑑於人工智慧領域的蓬勃發展以及CES上關於人工智慧的熱烈討論,NVIDIA決定提前發布其強大的AI平台。
NVIDIA的Rubin平台將由總共六款晶片組成,所有晶片都已從晶圓廠生產完畢,目前正在NVIDIA實驗室進行測試。這些晶片包括:
- Rubin GPU(擁有3,360億個電晶體)
- Vera CPU(擁有2270億個電晶體)
- NVLINK 6互連交換機
- CX9和BF4用於網路連接
- Spectrum-X 102.4T CPO用於矽光子學
所有這些晶片共同構成了Rubin平台,並應用於一系列DGX、HGX和MGX系統中。每個資料中心的核心是NVIDIA Vera Rubin超級晶片,它包含兩個Rubin GPU、一個Vera CPU以及大量的HBM4和LPDDR5x配置記憶體。 NVIDIA Rubin技術的主要亮點包括:
- 第六代NVLink(3.6TB/s擴充)
- Vera CPU(客製化Olympus核心)
- Rubin CPU(50 PF NVFP4 Transformer引擎)
- 第三代機密運算(首款機架級終端設備)
- 第二代RAS引擎(零停機時間健康檢查)
首先來看Rubin GPU,這款晶片採用兩個晶片,每個晶片都包含大量的運算核心和Tensor核心。該晶片專為AI密集型工作負載而設計,提供50 FLOPs的NVFP4推理性能和35 PFLOPs的NVFP4訓練性能,分別比Blackwell提升了5倍和3.5倍。此外該晶片還配備了HBM4,每個晶片的頻寬高達22TB/s,比Blackwell提升了2.8倍;每個CPU的NVLink頻寬高達3.6TB/s,比Blackwell提升了2倍。
NVIDIA為Vera CPU設計了代號為Olympus的下一代定制Arm架構,該晶片擁有88個核心、176個線程(支援NVIDIA空間多執行緒技術)、1.8TB/s的NVLink-C2C一致性記憶體互連、1.5TB的系統記憶體(是Grace的三倍)記憶體、1.2/CAM(MCAM的系統記憶體(MTB/CAM) LPDDR5X)以及機架級機密運算能力。這些優勢使其數據處理、壓縮和CI/CD性能比Grace提升了兩倍。
NVLink 6交換器在Rubin平台上提供網路架構,有400G SerDes、3.6TB/s每個CPU的總頻寬、28.8TB/s總頻寬、14.4 TFLOPS的網路內FP8運算能力以及100%液冷設計。
網路採用最新的ConnectX-9和BlueField-4模組。 ConnectX-9超級網路卡提供1.6TB/s的頻寬,配備200G PAM4 SerDes、可程式RDMA和資料路徑加速器、頂級安全性,並針對大規模AI進行了最佳化。
Bluefield-4是一款800G DPU,適用於智慧網卡和儲存處理器。它整合了64核心Grace CPU和ConnectX-9,與BlueField-3相比,網路功能提升2倍,運算能力提升6倍,記憶體頻寬提升3倍。
所有這些特性都體現在NVIDIA Vera Rubin NVL72機架中,與Blackwell相比,它提供了令人印象深刻的性能提升,詳情如下:
- 5倍NVFP4推理(3.6 EFLOPS)
- 3.5倍NVFP4訓練(2.5 EFLOPS)
- 2.5倍LPDDR5x容量(54TB)
- 1.5倍HBM4容量(20.7TB)
- 2.8倍HBM4頻寬(1.6PB/s)
- 2倍頻寬擴充(260TB/s)
NVIDIA同時發布了Spectrum-X乙太網路共封裝光元件解決方案,該方案提供102.4Tb/s的橫向擴展交換基礎設施,採用共封裝的200G矽光子裝置,並可在規模化部署時提供95%的有效頻寬。此系統效率提升5倍,可靠性提升10倍,應用運行時間提升5倍。
NVIDIA也為其Rubin SuperPOD推出了推理上下文記憶體儲存平台,該平台專為千兆級推理而打造,並與NVIDIA軟體解決方案(如Dynamo、NIXL和DOCA)完全整合。
總而言之NVIDIA將把Rubin平台部署在其最先進的DGX SuperPOD超級資料中心中,該資料中心配備8個Vera Rubin NVL72機架。但這還不是全部,NVIDIA也推出了主流資料中心的DGX Rubin NVL8。
憑藉這些先進技術,NVIDIA Rubin相較於Blackwell GB200,可將推理代幣成本降低10倍,並將訓練MoE模型所需的GPU數量減少4倍。 Rubin生態系統擁有眾多合作夥伴的支持,目前已全面投產,首批晶片將於今年稍後交付給客戶。
消息來源
|