找回密碼註冊
作者: wu.hn8401
查看: 3102|回復: 0

+ MORE精選文章:

[處理器 主機板] 英特爾推出神經網路處理器Nervana:採用獨特的無緩存架構

[複製鏈接]| 回復
wu.hn8401 發表於 2017-10-18 09:49:37 | 顯示全部樓層 |閱讀模式
英特爾 CEO Brian Krzanich 剛剛在《華爾街日報》舉辦的 D.Live 大會上發佈了自家性能最強、專為深度學習而打造的神經網路處理器 Nervana 。其聲稱這顆 ASIC 晶片可用於處理人工智慧方面的工作(比如矩陣乘法和轉換),這是它與 CPU 和 GPU 這樣的通用計算硬體的最大區別。儘管當前英特爾在晶片架構上沒有太深入的動力,但 Nervana 創造者 Naveen Rao 在一篇單獨的博客文章中寫到:

英特爾推出神經網路處理器Nervana:採用獨特的無緩存架構 - XFastest - ead4c533de3541c.jpg

其從一開始就能理解所涉及的操作和資料動作,因此該晶片可以不像今日的 CPU 或 GPU 那樣需要一個標準的緩存層次結構。

相反,其記憶體管理顯然是 100% 在軟體中完成的。Rao 聲稱,與主打通用計算的競品相比,這意味著該晶片能夠更好地壓榨晶片性能。

在更早的一篇博客文章中,該公司表示,由於僅包含金酸相關的硬體,Nervana 可以省去與緩存控制和相干邏輯有關的電路,從而囊括更多的計算資源。

在那時,Nervana 還計畫為該晶片搭配高達 32GB 的四堆疊 HBM 運存,且暗示已通過某種形式實現了神經網路計算(NNP)。

NNP 的另一潛在創新,在於對某些資料類型的處理。英特爾聲稱 NNP 提供了一種全新的“拐點”(Flexpoint)數位格式。

該公司稱:“Flexpoint 允許通過固定點乘和加法來實現標量計算,也可借助共用指數來實現大動態範圍”。

該特性還使得 NNP 可以在給定核心面積上封裝進更多的操作部件,同時減少每個部件工作時的能耗。此外,每個 NNP 也可包含專門用於和其它神經網路處理器通訊的片內互聯晶片。

在過去有關 Nervana Engine ASIC 的描述中,該公司計畫為每顆晶片上具有彈性計算力的內部或互聯連結點引入“六個雙向高頻寬連結”—— 要麼增加用於任務的計算資源的數量、要麼增加 NNP 集群的規模大小。

Krzanich 表示,當前英特爾正在制定數代 Nervana NNP 產品。而該公司新聞稿中也提到,未來這些產品有助於在 2020 年將深度學習成績提升百倍的目標。

最後,在一個單獨的播客節目中,Rao 表示,隨著產品的成熟,該公司還與 Facebook 在 NNP 上展開了合作,更多細節可留意該他們的後續報導。

引用來源
 
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2017-11-25 15:36 , Processed in 0.434370 second(s), 19 queries , Memcache On.

專業網站主機規劃 威利 100HUB.COM

© 2001-2013 Comsenz Inc. Designed by ARTERY.cn

快速回復 返回頂部 返回列表