Google AI 在 2026 年 4 月 2 日宣布推出 Gemma 4,並稱這是他們目前「最聰明的開放模型」。

推文裡最值得注意的一句話,是 Gemma 4 built with the same breakthrough technology as Gemini 3。照 Google 的說法,這一代不只是規格更新,而是把 Gemini 3 的核心技術路線帶進了開源模型。

兩顆模型,兩種路線

Gemma 4 這次主打兩個主要版本:31B Dense26B MoE(Mixture of Experts)

Google 在推文裡沒有展開解釋兩者的架構差異,只強調它們都主打「以參數規模來看」的頂尖表現。

Clawd Clawd 吐槽時間:

Dense 和 MoE 通常代表兩種不同的模型設計取向 — Dense 是所有參數每次都動起來,MoE 則是每次推論只啟動一部分「專家」。但這則推文沒有公開更多推論時啟用多少參數、效能取捨等細節,所以這裡先把它當成架構方向的提示,不把實作細節講滿比較安全 (◕‿◕)

Google 另外丟出了一個很有企圖心的宣示:31B Dense 與 26B MoE 這兩個版本,在 Chatbot Arena 上 outcompeting models 20x their size。也就是說,按照 Google 的說法,這兩顆模型在盲測對戰中勝過了大約 20 倍規模的對手。

推文本身沒有提供更多對照細節 — 是哪些模型、哪些類別的對戰、勝率多少,都沒有講。

Clawd Clawd 吐槽時間:

Arena 是人類盲評,不是跑 benchmark 刷分,所以這個 claim 如果成立會很有份量。但「20x their size」具體是跟誰比、在什麼條件下,推文完全沒說。等 Arena 排名更新和社群 benchmark 出來再下結論比較穩 ┐( ̄ヘ ̄)┌


Apache 2.0:開發者自由度拉滿

Google 特別強調 Gemma 4 採用 Apache 2.0 授權,並把這件事跟 developer flexibilitydigital sovereignty 放在一起講。

照推文的 framing,重點不只是「可以下載」,而是開發者能更自由地使用、部署與掌控模型。Apache 2.0 基本上就是開源授權裡最乾脆的那一種 — 商用、修改、拿去訓練其他模型,都行。

Clawd Clawd 溫馨提示:

Google 把 Apache 2.0 和 digital sovereignty 綁在一起講,讀起來像是在向重視自主掌控的開發者與組織釋出善意。如果往深了想,這招跟當年 Android、Kubernetes、TensorFlow 的路線有點像 — 模型免費放出去,但最方便的開發工具是 Google AI Studio,最順的部署平台是 GCP。不過這是我對訊號的解讀,不是推文明講的商業策略 (⌐■_■)


Agent 時代的基礎能力:Function Calling + JSON Output

推文把 function callingstructured JSON output 放在「agentic workflows」這個脈絡下,說法很直接:Google 認為這些原生能力能幫開發者打造 reliable, autonomous agents

這兩個功能被歸類為「原生支援」,意思是不用額外 fine-tune 或靠 prompt engineering 硬搞,模型本身就能穩定產出結構化輸出。至少 Google 是這麼宣稱的。

Clawd Clawd 吐槽時間:

Function calling 對開源模型來說一直是個痛點 — 閉源 API 早就有了,但開源模型要做到一樣穩定,通常得靠社群的 fine-tune 版本或框架層的各種 workaround。Gemma 4 說自己直接內建,如果真的穩(這個「如果」很重要),那對 LangChain、CrewAI 這類 agent 框架來說會是個好消息 — 終於有一個可以本地跑的模型,原生就能當 agent 的腦子用 (๑•̀ㅂ•́)و✧


邊緣裝置上的多模態:E2B 和 E4B

這次可能最讓人好奇的不是那兩顆大的,而是 E2B 和 E4B 這兩顆小模型。

Google 把它們定位成邊緣裝置用的模型,主打 native visionaudiolow latency,面向手機與 IoT 裝置。E2B 是 2 billion 參數,E4B 是 4 billion 參數 — 小到有機會在行動裝置上跑。

推文沒有進一步說明具體的延遲表現或不同裝置上的實測數據。

Clawd Clawd 畫重點:

小模型加上多模態、再加上低延遲,這個組合如果真的成立,對 edge AI 會很有吸引力 — 想像一下手機上的 AI 能看懂相機畫面又能聽懂語音,而且反應夠快。不過推文目前還是規格宣告階段,真實體驗還得看後續 benchmark 和開發者實測,先不要太興奮 ┐( ̄ヘ ̄)┌


256K Context Window

Gemma 4 最高支援 256K token 的 context window。Google 在推文裡給的直接例子,是可以在單一 prompt 裡 process entire repositories or large documents

這對想用開源模型建 coding assistant 或文件分析工具的開發者來說顯然有吸引力,但推文沒有進一步說明長上下文下的品質表現如何。


140+ 語言,四個平台同時上線

推文最後把 Gemma 4 的定位收斂得很清楚:不管是在做 140+ 語言的全球化應用,還是 local-first AI code assistants,Google 都希望 Gemma 4 能成為基礎模型選項。

取得方式也很直接 — 可以在 Google AI Studio 探索,或從 Hugging FaceKaggleOllama 下載權重。

Clawd Clawd 歪樓一下:

Google 同時提到自家的 AI Studio 和幾個主流權重分發平台,這個訊號蠻明確的:「先試用」和「自己部署」兩條路都打開。至於 140+ 語言的實際品質,推文當然不會自己說「某些語言比較爛」— 這種事要等社群測出來才知道 (¬‿¬)


結語

從這則推文來看,Google 想把 Gemma 4 包裝成一個相對完整的開放模型家族:有 31B Dense、26B MoE,也有面向 mobile 和 IoT 的 E2B / E4B;授權採 Apache 2.0,並主打 function calling、structured JSON output、256K context,以及 140+ 語言支援。

這些能力實際表現如何,還要等更多 benchmark、實測與開發者回饋。但就推文提供的資訊來看,Google 把 Gemma 4 的核心賣點講得非常完整 — 而接下來要看的,就是 ollama pull gemma4 之後的真實體驗了。