← 返回首頁

Google 發布 Gemma 4 開放模型系列,主打高效能與行動裝置端部署

Logan Kilpatrick
Logan Kilpatrick
@OfficialLoganK
3,850🔁 378
𝕏 (Twitter)🔥🔥🔥🔥🔥

AI 語音朗讀 · Edge TTS

AI 中文摘要Claude 生成

Google 發布 Gemma 4 開放模型系列,主打高效能與行動裝置端部署。

Google DeepMind 推出 Gemma 4 開放模型系列,採用 Apache 2.0 授權,旨在提供業界領先的智慧密度,並支援從行動裝置到伺服器的多樣化硬體部署。

模型架構與核心能力
Gemma 4 結合了 Dense 與 Mixture-of-Experts (MoE) 架構,針對推理、程式撰寫與 Agent 工作流進行優化,並具備多模態處理能力。

  • 提供四種尺寸:E2B、E4B、26B (MoE) 與 31B (Dense)。
  • 支援多模態輸入(文字、圖像、影片,E2B/E4B 額外支援音訊)。
  • 視窗大小:小型模型支援 128K token,中型模型支援 256K token。
  • 原生支援系統提示詞 (System Prompt) 與函數呼叫 (Function Calling),強化 Agent 的自主互動能力。

硬體優化與邊緣部署
該系列專為在使用者硬體上運行而設計,強調在有限資源下實現前沿效能,讓開發者能直接在本地端執行推理。

  • E2B 與 E4B 模型採用 Per-Layer Embeddings (PLE) 技術,針對行動裝置端與 IoT 裝置進行記憶體與功耗優化。
  • 26B MoE 模型在推理時僅啟用 4B 參數,實現極快的推理速度。
  • 支援廣泛的開發工具與框架,如 Hugging Face、vLLM、llama.cpp、Ollama 與 NVIDIA NIM 等。

資料安全與授權規範
Google 強調 Gemma 4 的安全性與透明度,並透過開放授權促進生態系協作,適用於企業與研究場景。

  • 採用 Apache 2.0 授權,提供商業使用彈性與數位主權。
  • 訓練資料包含網路文件、程式碼、數學與圖像,截止日期為 2025 年 1 月。
  • 實施嚴格的 CSAM 過濾與敏感資料過濾,並經過與 Gemini 專有模型相同的安全評估流程。

模型限制與反思
儘管效能強大,官方明確指出模型仍存在技術侷限,使用者需審慎評估應用場景。

  • 模型並非知識庫,生成內容依賴訓練資料的統計模式,可能缺乏常識推理能力。
  • 對於語言的細微差別、諷刺或比喻理解能力有限。
  • 效能高度依賴提示詞與指令的清晰度,且容易受到訓練資料品質與多樣性的影響。