美光公司在HBM4架構方面取得了重大進展,該架構將堆疊12個DRAM晶片(12-Hi),每個封裝可提供36GB的容量。據公司代表稱首批工程樣品計劃在未來幾週內向主要合作夥伴發貨,為2026年初的全面量產奠定基礎。 HBM4設計採用美光公司成熟的DRAM單元1β(「one-beta」)製程,該製程自2022年起投入生產,同時公司也準備在今年稍後推出支援EUV技術的DDR5 1γ(「one-gamma」)。透過將界面寬度從每個堆疊1,024位元增加到2,048位元,每個HBM4晶片可實現2TB/s的持續記憶體頻寬,這意味著效率比現有的HBM3E標準提升了20%。
NVIDIA和AMD預計將成為美光HBM4的早期採用者。 NVIDIA計劃在2026年下半年將這些記憶體模組整合到即將推出的Rubin-Vera AI加速器中。 AMD預計將 HBM4整合到其下一代Instinct MI400系列中,更多資訊將在AMD的Advancing AI 2025大會上公佈。
HBM4更高的容量和頻寬將滿足生成式AI、高效能運算和其他資料密集型應用日益增長的需求。更大的堆疊高度和更寬的界面寬度可實現更有效率的資料移動,這是多晶片配置和記憶體一致性互連的關鍵因素。隨著美光公司開始量產HBM4,需要克服的主要障礙將是散熱性能和實際測試,這將決定這項新記憶體標準能否有效地支援最苛刻的AI工作負載。
消息來源 |