Google 發布 Gemma 4 開放模型系列,主打高效能與行動裝置端部署
AI 語音朗讀 · Edge TTS
Google 發布 Gemma 4 開放模型系列,主打高效能與行動裝置端部署。
Google DeepMind 推出 Gemma 4 開放模型系列,採用 Apache 2.0 授權,旨在提供業界領先的智慧密度,並支援從行動裝置到伺服器的多樣化硬體部署。
模型架構與核心能力
Gemma 4 結合了 Dense 與 Mixture-of-Experts (MoE) 架構,針對推理、程式撰寫與 Agent 工作流進行優化,並具備多模態處理能力。
- 提供四種尺寸:E2B、E4B、26B (MoE) 與 31B (Dense)。
- 支援多模態輸入(文字、圖像、影片,E2B/E4B 額外支援音訊)。
- 視窗大小:小型模型支援 128K token,中型模型支援 256K token。
- 原生支援系統提示詞 (System Prompt) 與函數呼叫 (Function Calling),強化 Agent 的自主互動能力。
硬體優化與邊緣部署
該系列專為在使用者硬體上運行而設計,強調在有限資源下實現前沿效能,讓開發者能直接在本地端執行推理。
- E2B 與 E4B 模型採用 Per-Layer Embeddings (PLE) 技術,針對行動裝置端與 IoT 裝置進行記憶體與功耗優化。
- 26B MoE 模型在推理時僅啟用 4B 參數,實現極快的推理速度。
- 支援廣泛的開發工具與框架,如 Hugging Face、vLLM、llama.cpp、Ollama 與 NVIDIA NIM 等。
資料安全與授權規範
Google 強調 Gemma 4 的安全性與透明度,並透過開放授權促進生態系協作,適用於企業與研究場景。
- 採用 Apache 2.0 授權,提供商業使用彈性與數位主權。
- 訓練資料包含網路文件、程式碼、數學與圖像,截止日期為 2025 年 1 月。
- 實施嚴格的 CSAM 過濾與敏感資料過濾,並經過與 Gemini 專有模型相同的安全評估流程。
模型限制與反思
儘管效能強大,官方明確指出模型仍存在技術侷限,使用者需審慎評估應用場景。
- 模型並非知識庫,生成內容依賴訓練資料的統計模式,可能缺乏常識推理能力。
- 對於語言的細微差別、諷刺或比喻理解能力有限。
- 效能高度依賴提示詞與指令的清晰度,且容易受到訓練資料品質與多樣性的影響。
Introducing Gemma 4, our series of open weight (Apache 2.0 licensed) models, which are byte for byte the most capable open models in the world!
— Logan Kilpatrick (@OfficialLoganK) April 2, 2026
Gemma 4 is build to run on your hardware: phones, laptops, and desktops.
Frontier intelligence with a 26B MOE and a 31B Dense model! pic.twitter.com/PVtYRnKQW0
This is just the start of the Gemma 4 era : )
— Logan Kilpatrick (@OfficialLoganK) April 2, 2026
Download Gemma 4 on Kaggle: https://t.co/5dmyu19J7U
And read more in our blog: https://t.co/MeuwbQVAfa
