近年來人工智慧加速器的需求激增,這給供應商帶來了壓力,迫使他們提供更多高頻寬記憶體,以實現更快的訓練速度和更高的推理令牌吞吐量。為此Intel、軟銀和東京大學悄悄成立了一家名為Saimemory的新創公司,致力於開發一種替代現有HBM解決方案的方案,該方案同樣採用堆疊式DRAM。
知情人士透露原型晶片計畫於2027年推出,並計畫於2030年實現量產。該合資公司將結合Intel豐富的晶片設計經驗和東京大學的新型記憶體專利,而軟銀已承諾提供約30億日圓(約2,100萬美元)用於資助這項研究。理化學研究所和神光電氣工業也可能作為投資者或技術合作夥伴加入,該團隊計劃尋求政府支持以加速開發。
傳統的HBM依靠矽通孔(TSV)連接多個DRAM晶片,並使用寬匯流排中介層來實現1TB/s以上的資料速率。 Saimemory的設計重新組織了訊號路由和刷新管理,以提高能源效率、延遲和效能。
讀者可能還記得過去曾有研究嘗試導入一種競爭性的堆疊式DRAM 技術,但未能成功。例如三星和美光科技於2011年左右共同開發的混合儲存立方體(HMC) 承諾速度可達DDR3的15倍。儘管最初透過混合儲存立方體聯盟獲得了行業支持,但美光科技在HMC未能獲得市場認可後於2018年停止了其生產。
HMC的衰落表明取代HBM等根深蒂固的記憶體標準面臨挑戰。如果Saimemory成功,Intel很可能憑藉其即將推出的AI加速器成為首個採用該標準的廠商。該聯盟也可能與AMD和NVIDIA等其他公司接洽,以獲得試用晶片。不過大規模部署的可行性在很大程度上取決於可用性和良率。
消息來源 |