根據最新報道,蘋果將與Google合作,為今年稍後推出的產品功能(如Siri)提供人工智慧支援。
谷歌將透過Gemini模型和雲端技術,為蘋果未來的基礎模式提供動力。
蘋果在聲明中表示:“經過仔細評估,我們認為谷歌的技術為蘋果基礎模型提供了最強大的基礎,我們對它將為用戶帶來的創新體驗感到興奮。”
據悉,蘋果擬每年支付Google約10億美元,取得客製化Gemini模型使用權,核心版本為1.2兆參數的Gemini 2.5 Pro。
此模型將負責Siri的資訊摘要、任務規劃、複雜多步驟指令執行等核心功能,相較於目前Siri使用的1500億參數雲端模型,處理能力、上下文理解深度實現量級躍升,支援多模態交互與128K token超長文本處理。
升級後的Siri預計於2026年春季隨iOS 26.4系統推送,後續也將在2026年6月WWDC大會預覽的iOS 27、macOS 27等系統中進一步整合。
蘋果先前測試了GoogleGemini、OpenAI ChatGPT、Anthropic Claude三大主流模型,最終選擇Google的核心原因包括:財務成本更優、雙方長期合作基礎、Gemini 2.5 Pro目前在大型語言模型排行榜中表現領先。
Gemini採用混合專家架構,雖總參數超萬億,但每次查詢僅啟動部分參數,在確保高效能的同時降低運算成本與能耗,適配iPhone、Mac 等多裝置場景。
谷歌將為蘋果開發的AI模型將運行在蘋果私有雲運算伺服器上,Google無法取得蘋果用戶數據,消除用戶對資料外洩的擔憂。
另外,蘋果目前架構採用混合模式,GoogleGemini負責複雜雲端任務(如網頁搜尋摘要、多應用跨端任務排程),蘋果自研模型持續處理裝置端個人資料(如健康資訊、本機檔案互動),形成「雲端+本地」分層協作,既提升Siri智慧度,又保留核心資料控制權。
消息來源 |