上萬顆 NVIDIA GPU、NVIDIA Quantum-2 InfiniBand 及 NVIDIA 的完整 AI 軟體堆疊即將登陸 Azure;NVIDIA、微軟與全球企業將利用此平台, 以快速且符合成本效益的方式開發與部署人工智慧
NVIDIA (輝達) 今天宣布與微軟展開多年的合作計畫,共同打造全球最強大的人工智慧 (AI) 超級電腦之一,結合 Microsoft Azure 的先進超級運算基礎設施,以及 NVIDIA 的 GPU、網路技術和完整的 AI 軟體堆疊支援這台 AI 超級電腦,協助企業訓練、部署和擴展 AI,其中包括最先進的大型模型。
NVIDIA 將在本次的合作中運用 Azure 具擴充性的虛擬機器執行個體,推動研究並進一步加快推動生成式 AI (generative AI) 的進展。生成式 AI 是迅速崛起的 AI 領域,其中像是 Megatron Turing NLG 530B 這樣的基礎模型,是無監督、自我學習演算法的基礎,用於創造新的文字、程式碼、數位影像、影片或音訊。
雙方亦合作將微軟的 DeepSpeed 深度學習最佳化軟體調整到最佳狀態。NVIDIA 專為 Azure 進行最佳化調整的全堆疊AI 工作流程和軟體開發套件,將提供 Azure 的企業客戶使用。
NVIDIA 企業運算部門副總裁 Manuvir Das 表示:「AI 技術的進步加上產業採用的腳步不斷加快。基礎模型的突破性發展促進研究潮、培育出更多新創公司,並開發出新的企業應用。我們與微軟的合作將為研究人員及企業提供最先進的 AI 基礎設施和軟體,善加利用 AI 蘊含的顛覆性力量。」
微軟雲端運算與人工智慧事業群執行副總裁 Scott Guthrie 表示:「AI 將推動企業與工業運算的下一波自動化,讓企業在因應動盪的經濟局勢時能事半功倍。微軟攜手 NVIDIA 將打造出世界上最具擴充性的超級電腦平台,將為使用 Microsoft Azure 平台的所有企業提供最先進的 AI 功能。」
將 NVIDIA Compute 和 Quantum-2 InfiniBand 導入 Azure 平台,視尖峰使用情況調整效能 Microsoft Azure 上針對 AI 進行最佳化調整的虛擬機器執行個體建構於 NVIDIA 最先進的資料中心 GPU,是第一個採用 NVIDIA Quantum-2 400Gb/s InfiniBand 網路技術的公有雲執行個體。客戶可以在單一叢集中部署數千個 GPU,訓練最龐大的大型語言模型、大規模建立最複雜的推薦系統,以及大規模運用生成式 AI。
Azure 平台上的執行個體目前採用 NVIDIA Quantum 200Gb/s InfiniBand 網路技術和 NVIDIA A100 GPU,而這些執行個體日後將整合 NVIDIA Quantum-2 400Gb/s InfiniBand 網路技術及 NVIDIA H100 GPU。這些針對 AI 進行最佳化調整的產品,搭配 Azure 先進的雲端運算基礎設施、網路和儲存技術,將能為任何規模的 AI 訓練和深度學習推論作業負載,視尖峰使用情況調整效能。
加速 AI 開發與部署 此外,Azure 平台亦將支援眾多 AI 應用程式和服務,包括微軟的 DeepSpeed 及 NVIDIA AI Enterprise 軟體套件。
微軟的 DeepSpeed 將利用 NVIDIA H100 Transformer 引擎加快執行採用 Transformer 模型的速度,用於大型語言模型、生成式 AI 和電腦程式碼編寫等廣泛應用。這項技術將 8 位元浮點精度功能用於 DeepSpeed,以大幅加快採用 Transformer 模型的 AI 運算速度,其傳輸量是 16 位元運算的兩倍。
廣受全球採用的 NVIDIA AI 平台軟體 NVIDIA AI Enterprise,已在配備 NVIDIA A100 GPU 的 Microsoft Azure 執行個體上獲得認證和支援。在日後推出的軟體版本中亦將加入 NVIDIA H100 GPU 支援的 Azure 執行個體。
NVIDIA AI Enterprise 包含用於語音 AI 的 NVIDIA Riva 及 NVIDIA Morpheus 網路安全應用框架,能簡化 AI 工作流程中,從資料處理、AI 模型訓練、模擬及大規模部署等各個步驟。
敬請瀏覽我們的合作夥伴頁面,進一步瞭解 NVIDIA 用在 Azure 平台上的 AI 技術。
|