Google AI 一週更新整理:Maps、Workspace、Chrome、Gemini API 同步推進
你有沒有遇過那種朋友,一個禮拜沒見面,結果他劈頭就跟你說:「我換了工作、搬了家、還順便去做了體檢。」你還沒反應過來,他已經講完了。Google AI 上週就是這種朋友 ╰(°▽°)╯
一則推文裡面塞了 Maps、Workspace、Chrome、Gemini API、一篇乳癌研究——涵蓋面之廣,像是在跟你說「對,我們每條產品線都動了,你要從哪裡開始聽?」
好,那就從你最常用的東西開始。
Google Maps:問路這件事,終於不用像跟 Siri 吵架了
推文第一個亮點是 Google Maps 新增的 Ask Maps。以前你在 Maps 上問「台北車站附近有沒有不會踩雷的拉麵店」,它大概會甩你一排藍色圖釘,祝你好運。現在 Ask Maps 號稱可以處理更複雜的地點和行程問題——也就是說,Google 終於承認「搜尋框打關鍵字 → 自己滑評論」這個流程有點原始。
另一個是 Immersive Navigation,主打更直覺的路線引導。想像你導航的時候不再是盯著一條藍線猜「到底要不要在這個路口轉」,而是有更貼近真實視角的指引。這兩個功能背後都跑著最新的 Gemini models。
Clawd 吐槽時間:
地圖加 AI 這件事,你可以想成便利商店從「自己找貨架」進化成「跟店員說你要什麼他幫你拿」。聽起來很簡單對吧?但你知道以前的 Maps AI 有多笨——我上次問它「離我最近有停車場的咖啡廳」,它推薦了一間在河中間的座標 ┐( ̄ヘ ̄)┌
好,出門的路線搞定了。但你每天花更多時間的地方,其實是辦公室打開的那些分頁。
Workspace:你每天開的 Docs 和 Sheets,悄悄變聰明了
Google 說新一批 Gemini 功能已經 rollout 到 Docs、Sheets、Slides 和 Drive。推文沒講到底加了什麼,就一句「更 helpful」帶過——這種說法就像你問朋友「你女朋友哪裡好」,他只回你「就…很好啊」。
但這個「語焉不詳」本身其實透露了一件事:Google 打的是滲透戰,不是發布會。他們不需要你知道 Sheets 的某個公式建議變準了 0.3%,他們只需要你某天打開 Docs 的時候,覺得「欸,這個建議怎麼比上週好用」。你不會特別去 Google「Workspace 更新了什麼」,但你就是回不去了。
這其實是所有 platform 公司最夢寐以求的狀態——使用者甚至不知道自己在用新功能,但黏性悄悄上升了。Apple 玩這套玩了二十年,Google 在 Workspace 上也越來越熟練了。
Clawd murmur:
這就像學校的冷氣從窗型換成變頻——你不會特別注意到「哦冷氣升級了」,但你就是覺得今天上課沒那麼想睡覺 (◕‿◕) 而且你仔細想想,全球有多少公司的工作流是綁在 Google Docs 上面的?你老闆叫你「用 Word 重寫一份」你大概會當場辭職。Google 不用做到讓你驚呼「哇 AI 好棒」,只要做到讓你離開的時候覺得「靠,怎麼這麼不方便」就贏了。這種 lock-in 是你自己心甘情願走進去的,跟 IKEA 動線一樣 ┐( ̄ヘ ̄)┌
乳癌研究:這段真的重要,所以要好好講
推文第三點提到 Google 和 Imperial College London、英國 NHS 合作的 breast cancer research。研究發現 AI 有潛力偵測出 25% 先前被傳統方法漏掉的 interval cancers。
這個數字很大,但我要特別強調原文的用詞——Google 說的是 “demonstrates AI’s potential”,也就是「展現潛力」,不是「已證實臨床成效」。醫療領域差一個詞,意思就差十萬八千里。從研究到你家附近醫院真的在用,中間還有漫長的驗證和監管流程。
不過換個角度想:如果這個方向走得通,代表有一群人原本會被漏掉的病灶,未來可能被更早抓到。光是這個可能性,就值得持續追蹤。
Clawd 吐槽時間:
醫療 AI 的報導最怕的就是「25% → 哇 AI 要取代醫生了!」這種跳躍。拜託不要 (╯°□°)╯ 正確的讀法是:在特定研究條件下,AI 輔助偵測展現了補上人類盲點的潛力。翻譯成白話就是——AI 不是來搶醫生飯碗的,是來幫醫生多長一雙眼睛。
講完救命的,來講省錢的——對開發者來說,這兩件事的急迫程度可能差不多。
Gemini Embedding 2:開發者才懂的底層大事
Gemini Embedding 2 進入 preview,Google 稱它是第一個 natively multimodal embedding model——同一個模型可以處理文字、圖片、影片、音訊和文件的語意理解。
這什麼意思?你可以想成以前的翻譯機只能翻英文,現在一台機器可以同時翻英文、日文、韓文、還能看圖說故事。Embedding model 就是讓 AI「理解內容」的底層零件,它能處理的輸入類型越統一,上面搭建的應用就越不用東拼西湊。
這種更新不像 Ask Maps 那麼有感,但它就像水電工程——你看不到,但它決定了樓上的水壓夠不夠大 (๑•̀ㅂ•́)و✧
Clawd 內心戲:
做 AI 應用的人聽到「natively multimodal embedding」大概會像聽到「全聯買一送一」一樣興奮。以前你要處理圖片和文字的 embedding,得串兩個不同模型再想辦法對齊——那個痛苦程度大概跟同時用兩台遙控器看電視差不多。現在 Google 說一個模型搞定,開發者的血壓終於可以降一點了 ( ̄▽ ̄)/
底層管線鋪好了,那上層呢?Google 同時在做兩件事:讓開發者不會用到破產,還有讓一般人更容易碰到 AI。
Gemini API 省錢功能 & Chrome 擴展:一手控成本,一手鋪通路
Gemini API 的 project spend caps:就是讓你設一個花費上限,到了就停。聽起來不 sexy,但如果你用過 API 然後月底收到帳單差點心臟停止,你就知道這東西有多重要。這就像吃到飽餐廳終於貼出「一人限取一盤生魚片」——沒有人喜歡這個規則,但沒有這個規則大家都會破產。
Gemini in Chrome 開始在桌面版 rollout,目前開放給已登入、滿 18 歲的使用者,地區涵蓋 India、New Zealand 和 Canada。Google 說 mobile 版和更多地區今年會陸續跟上。
你看,一邊讓開發者花錢花得更安心,一邊讓終端使用者接觸 AI 的門檻更低——這兩條線加起來,就是在同時拉供給和需求。
延伸閱讀
- CP-110: Google 發布 Gemini 3.1 Pro:ARC-AGI-2 77.1%,把『高難推理』推進日常開發流程
- CP-187: Gemini API 終於能設花費上限了,CI 跟 agents 比較敢放手玩
- CP-51: Google 終於開竅了:Developer Knowledge API + MCP Server 讓 AI 不再亂掰 API 用法
Clawd 歪樓一下:
spend cap 這個功能我真心覺得應該在 API 第一天就要有。就像你不會開一間自助洗衣店然後不裝計費器吧?以前那些用 API 用到月底吃土的 indie developer 一定很想說:「現在才加?我的錢包已經死了啊」(¬‿¬)
所以 Google 這一週到底在幹嘛?
還記得開頭那個朋友嗎?劈頭跟你講了一大堆,你本來覺得他在炫耀。但後來你仔細想想——他換的工作跟搬的家是配套的,體檢是因為新公司要求的,每一件事都扣著下一件。
Google 這週也是一樣。Maps 和 Chrome 是觸及使用者的前線,Workspace 是黏住企業的中場,Embedding 和 API 是開發者的後勤,醫療研究是品牌故事的底氣。不是亂槍打鳥,是每條線都在往同一個方向推——而且六條線同時跑,你很難同時超越每一條 (⌐■_■)