找回密碼註冊
作者: sxs112.tw
查看: 4055
回復: 0

文章分享:

+ MORE精選文章:

    + MORE活動推薦:

    Micron Crucial T710 SSD 玩家開箱體驗分享

    進入疾速前進! 快速邁向終局勝利 使用 Crucial® T710 Gen5 NVMe® ...

    COUGAR ULTIMUS PRO玩家開箱體驗分享活動

    ULTIMUS PRO 終極功能,無限連接 Ultimus Pro 採用簡潔的 98% 鍵盤佈 ...

    COUGAR AIRFACE 180 玩家開箱體驗分享活動

    AIRFACE 180 180mm 風扇,威力加倍 Airface 180 預裝兩顆 180mm PWM ...

    COUGAR GR 750/GR 850 玩家開箱體驗分享活

    ATX 3.1 兼容,穩定供電無憂 COUGAR GR 系列通過 80 PLUS 金牌認證 ...

    打印 上一主題 下一主題

    [顯示卡器] NVIDIA憑藉Blackwell GPU實現了創紀錄的Token速度,並憑藉Meta的Llama 4 Maverick突破了1,000 TPS障礙

    [複製鏈接]| 回復
    跳轉到指定樓層
    1#
    sxs112.tw 發表於 2025-5-24 19:47:47 | 只看該作者 |只看大圖 回帖獎勵 |倒序瀏覽 |閱讀模式
    NVIDIA透露他們已經成功利用Blackwell架構突破了AI性能障礙,這歸功於一輪優化和硬體能力。

    長期以來NVIDIA一直在人工智慧領域不斷取得進展,但該公司最近透過其Blackwell解決方案取得了更大進步。在一篇新的部落格文章中NVIDIA透露他們實現了 1,000 TPS,而使用配備八個NVIDIA Blackwell GPU的單一DGX B200節點也能實現這一目標。這是在Meta的4000億參數Llama 4 Maverick模型上完成的,該模型是該公司最大的產品之一,這表明NVIDIA的AI生態系統對該領域產生了巨大影響。
    hgx_b100-gtc24-press-1920x1080-1.jpg

    透過這種配置,NVIDIA現在可以在Blackwell伺服器中實現高達72,000 TPS,而且正如Jensen在Computex主題演講中所說公司現在可以透過展示他們在硬體上在Token輸出方面取得的進展來炫耀他們的人工智慧進步,而NVIDIA似乎完全專注於這方面。至於該公司如何突破TP/s障礙,據透露他們使用TensorRT-LLM和推測解碼草稿模型進行了廣泛的軟體優化,將效能提高了4倍。

    在他們的文章中NVIDIA團隊深入探討了他們如何針對大規模LLM優化Blackwell的幾個方面,但其中一個更重要的作用是推測解碼,這是一種技術,其中一個較小、較快的草稿模型預測前方的幾個標記,而主(較大)模型並行驗證它們。 NVIDIA對此的描述如下:
    推測解碼是一種流行的技術,用於加速LLM的推理速度,同時不影響生成文本的品質。它透過讓更小、更快的草稿模型預測一系列推測標記來實現這一目標,然後由更大的目標LLM並行驗證這些標記。

    加速來自於在一次目標模型更新中產生潛在的多個標記,但代價是額外的草稿模型開銷。

    - NVIDIA

    該公司採用了EAGLE3的架構,這是一種旨在加速大型語言模型推理的軟體級架構,而不是GPU硬體架構。 NVIDIA表示憑藉這一成就,他們展現了在AI領域的領導地位,而Blackwell現已針對與Llama 4 Maverick一樣大的LLM進行了優化。這無疑是一個巨大的成就,也是讓人工智慧互動更加無縫快速的第一步。

    消息來源
    您需要登錄後才可以回帖 登錄 | 註冊 |

    本版積分規則

    小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

    GMT+8, 2025-12-5 19:44 , Processed in 0.121545 second(s), 33 queries .

    專業網站主機規劃 威利 100HUB.COM

    © 2001-2018

    快速回復 返回頂部 返回列表