Liabooks Home|PRISM News
Google發布FunctionGemma:專為邊緣運算而生的AI「函數調用」利器
Tech

Google發布FunctionGemma:專為邊緣運算而生的AI「函數調用」利器

Source

Google推出FunctionGemma,一款專為設備端「函數調用」設計的2.7億參數小型語言模型。它無需雲端即可將自然語言轉為可執行代碼,大幅提升邊緣AI的可靠性、隱私與速度。

PRISM Insight: AI戰略重心正從雲端轉向終端。Google的FunctionGemma不僅是一款新模型,更是推動混合式AI架構的關鍵棋子,讓AI從「對話工具」進化為可靠的「行動工具」。這預示著AI開發典範的根本轉變,追求在保障隱私與效能的前提下,讓智慧無縫融入日常生活。

在Gemini 3仍是熱議焦點之際,Google再度出擊,發布了一款專為解決現代應用程式開發瓶頸而生的AI模型——FunctionGemma。這是一款擁有2.7億參數的小型語言模型(SLM),其核心目標只有一個:在無需連接雲端的情況下,將用戶的自然語言指令,精準翻譯成應用程式與設備能夠執行的結構化程式碼。

此舉標誌著Google DeepMind與AI開發者團隊的重大戰略轉向。當業界仍在雲端競逐兆級參數規模時,FunctionGemma選擇深耕本地,專注於在手機、瀏覽器及物聯網設備上運行的「小型語言模型」。

核心優勢:小而精悍,效能躍進

FunctionGemma旨在彌補生成式AI的「執行落差」。傳統大型語言模型(LLM)擅長對話,但在資源受限的設備上觸發軟體操作時,可靠性往往不足。

根據Google內部名為「Mobile Actions」的評估,通用小型模型在執行「函數調用」(Function Calling)任務時,基準準確率僅為58%。然而,經過專門微調後,FunctionGemma的準確率飆升至85%,證明了專業化優於規模化,能以小博大,達到與巨型模型相當的成功率。

三大價值:隱私、速度、成本

這種「本地優先」的架構為開發者和用戶帶來三大實質好處:

  • 數據隱私:個人資料(如行事曆、聯絡人)永不離開設備,杜絕雲端洩漏風險。
  • 即時響應:無需等待伺服器往返,指令瞬間完成,延遲極低。
  • 成本效益:開發者無需為簡單的本地交互支付昂貴的API費用。

全新架構:邊緣端的「智慧路由器」

對企業開發者而言,FunctionGemma催生了一種從單體式AI轉向複合式系統的新模式。開發者不再需要將每個微小請求都發送到昂貴的雲端模型(如GPT-4),而是可以將FunctionGemma部署為設備端的「智慧流量控制器」。

在此架構下,FunctionGemma作為第一道防線,在用戶設備上即時處理常見指令(如導航、媒體控制)。只有當請求需要深度推理或廣泛知識時,它才會將請求路由到雲端的大型模型。這種混合模式能大幅降低雲端推論成本與延遲。

開放生態與授權條款

Google已在Hugging Face和Kaggle上提供FunctionGemma模型供開發者下載,並在Google Play商店推出「Google AI Edge Gallery」應用程式進行演示。此次發布不僅包含模型權重,還有一套完整的開發「配方」,包括訓練數據集和對主流函式庫的支援。

值得注意的是,FunctionGemma採用Google自訂的「Gemma 使用條款」。雖然官方稱其為「開放模型」,但它並非開放原始碼促進會(OSI)定義下的嚴格「開源」。該條款允許免費的商業使用、再分發和修改,但設有使用限制,禁止用於惡意目的。企業開發者在投入商業產品前,應詳細審閱相關條款。

人工智慧Google邊緣運算小型語言模型函數調用設備端AI

관련 기사