請選擇 進入手機版 | 繼續訪問電腦版
找回密碼註冊
作者: lin.sinchen
查看: 1570|回復: 0

文章標籤:

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

[XF網聚] PC聖誕趴 — 2019 台北 XF網

「PC 聖誕趴 — 2019 台北 XF網聚」年末玩一波! 邀您一起體驗PC社 ...

be quiet! Pure Base 500 機箱 玩家開箱體

無論是白的可愛,還是黑的有型, be quiet! Pure Base 500 都帶給玩家 ...

電鎧 elecArmor 煥彩風暴 玩家開箱體驗分享

此次帶給玩家開箱體驗產品是一個全新的品牌 【電鎧 elecArmor】,特 ...

Cooler Master深度玩家體驗會-台中場-得獎

會後分享文章網址: 第一名 林聖修 https://www.xfastest.com/thr ...

[業界新聞] NVIDIA 用 1,472 個 V100 GPU 加速 AI 語言模型 BERT 訓練效能

[複製鏈接]| 回復
lin.sinchen 發表於 2019-8-14 10:37:48 | 顯示全部樓層 |閱讀模式


如今已有不少基本的對話式回覆機器人或 AI 服務已存在多年,然而想要在提升聊天機器人、智慧個人助理服務,以人類理解力的水平運作還是相當困難,主要是無法即時部署超大規模的 AI 模型進行訓練與推論。

NVIDIA 的 AI 平台率先訓練目前最先進的 AI 語言模型,BERT(Bidirectional Encoder Representations from Transformers)是由 Google 所開發的人工智慧自然語言模型,用不到 1 小時即可完成訓練,並在 2ms 內完成 AI 推論。根據 Juniper Research 的報告,光是數位語音助理市場規模預計在未來 5 年內將從 25 億美元成長到 80 億美元。此外, Gartner 也預測 2021 年,15% 的客服互動將完全由 AI 執行,與 2017年相比增加 400%。

NVIDIA 採用內建 1,472 個 V100 GPU 所組成的 92 個 DGX-2HTM 系統 NVIDIA DGX SuperPOD,執行 AI 語言模型 BERT-Large,成功將 AI 訓練時間從先前的數日大幅縮短至僅 53 分鐘。此外,若只透過一台 NVIDIA DGX-2 系統也可在 2.8 天內就完成 BERT-Large 的訓練。




推論方面,可透過 NVIDIA T4 GPU 運行 TensorRT,在 BERT-Base SQuAD 資料集上僅用 2.2ms 就完成推論,不僅遠低於許多即時應用要求的 10ms 的處理門檻,也大幅領先以高度優化 CPU 程式碼執行的 40ms。

而 NVIDIA Research 在 Transformers 的基礎上著手建構與訓練全球最大的語言模型,並導入 BERT 採用的技術元件,以及許多其他自然語言的 AI 模型。NVIDIA的客製化模型擁有 83 億個參數,數量足足比 BERT-Large 多出 24 倍。



有興趣的開發者,可參考以下連結:
*NVIDIA BERT建置方案是熱門 Hugging Face repo程式庫的優化版本。


更多圖片 小圖 大圖
組圖打開中,請稍候......
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2019-10-20 13:59 , Processed in 0.207368 second(s), 66 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表