找回密碼註冊
作者: lin.sinchen
查看: 4131
回復: 0

文章標籤:

文章分享:

+ MORE精選文章:

    相關帖子

    + MORE活動推薦:

    Micron Crucial T710 SSD 玩家開箱體驗分享

    進入疾速前進! 快速邁向終局勝利 使用 Crucial® T710 Gen5 NVMe® ...

    COUGAR ULTIMUS PRO玩家開箱體驗分享活動

    ULTIMUS PRO 終極功能,無限連接 Ultimus Pro 採用簡潔的 98% 鍵盤佈 ...

    COUGAR AIRFACE 180 玩家開箱體驗分享活動

    AIRFACE 180 180mm 風扇,威力加倍 Airface 180 預裝兩顆 180mm PWM ...

    COUGAR GR 750/GR 850 玩家開箱體驗分享活

    ATX 3.1 兼容,穩定供電無憂 COUGAR GR 系列通過 80 PLUS 金牌認證 ...

    打印 上一主題 下一主題

    [業界新聞] OpenAI 全新 gpt-oss 開源模型可在 NVIDIA RTX GPU 加速運行

    [複製鏈接]| 回復
    跳轉到指定樓層
    1#


    NVIDIA 宣布與 OpenAI 合作,讓一般消費者能夠使用到全新 gpt-oss 開源模型系列產品,原本僅限於雲端資料中心的尖端 AI 技術,如今也能以驚人的速度在搭載 RTX 技術的 PC 及工作站上運行。

    此項發布象徵次世代裝置端 AI 技術透過 GeForce RTX GPU 與 PRO GPU 的強大運算能力,能夠在 PC 及工作站的本機端提供用戶更快速、更智慧的 AI 使用體驗。此次推出兩款專為支援整個 AI 生態系多元應用需求的全新版本:
    • 經過最佳化的 gpt-oss-20b 模型可在搭配至少 16GB VRAM 的 NVIDIA RTX AI PC 上,以最大效能極速運行,在 RTX 5090 GPU 上可達每秒 250 個 token 的運算速度。
    • 更高階的 gpt-oss-120b 模型則支援搭載 NVIDIA RTX PRO GPU 的專業工作站。

    這兩款使用 NVIDIA H100 GPU 完成訓練的模型,是首批在 NVIDIA RTX 上支援 MXFP4 精度的模型。相較於過去使用的技術,MXFP4 可在不增加效能成本的前提下,有效提升模型品質與準確度。這兩款模型皆支援長達 131,072 token 的上下文長度,在本地推論領域中的表現位居前列。兩款模型皆採用靈活的專業混合(MoE)架構,具有思維鏈功能,並支援指令跟隨與工具使用等功能。

    本週, RTX AI Garage 將重點介紹 AI 愛好者與開發者如何在 NVIDIA RTX GPU 上快速上手 OpenAI 的全新模型:
    • Ollama 應用程式:使用全新推出的 Ollama 應用程式,是最容易測試這些模型的方式。它的直覺式使用者介面內建支援 gpt-oss 模型,已針對 RTX GPU 進行最佳化。
    • cpp:NVIDIA 與開源社群合作,持續提升 RTX GPU 的運算效能,近期貢獻包括導入 CUDA Graphs 技術,有效降低系統開銷。開發者可透過 Llama.cpp 的 GitHub 儲存庫輕鬆開始使用。
    • Microsoft AI Foundry:Windows 開發者可透過 Microsoft AI Foundry Local(現為公開預覽階段)使用這些模型。只要在終端機執行指令 Foundry model run gpt-oss-20b,即可輕鬆啟動模型。

    若想進一步了解 NVIDIA 與 OpenAI 的合作詳情,請造訪 NVIDIA 官方部落格文章
    更多圖片 小圖 大圖
    組圖打開中,請稍候......
    您需要登錄後才可以回帖 登錄 | 註冊 |

    本版積分規則

    小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

    GMT+8, 2025-12-9 12:38 , Processed in 0.156622 second(s), 61 queries .

    專業網站主機規劃 威利 100HUB.COM

    © 2001-2018

    快速回復 返回頂部 返回列表