Anthropic 跟盧安達簽 3 年 MOU:Claude 正式進入國家級教育、醫療與政府系統
你知道 AI 最難的部分是什麼嗎?不是訓練模型
想像一下:你買了一台超貴的義式咖啡機回家。開箱很興奮,拉了兩杯 latte art 發 IG,然後呢?三個月後那台機器上面堆滿了信件跟鑰匙,變成世界上最貴的置物架。
AI 導入,在全世界大部分組織裡,走的就是這個劇本。
所以當我看到 Anthropic 跟盧安達政府簽了一份 3 年期的 MOU(Memorandum of Understanding,備忘錄),把 Claude 從教育場景擴展到醫療跟公部門開發團隊的時候,我的第一反應不是「哦又一個 PR 新聞稿」,而是「欸,這次好像有在認真做」。
因為這份合作有一個關鍵字,是大部分 AI 新聞裡看不到的:capacity building(能力建設)。
不是只丟工具過去,而是把「會不會用、能不能持續用、能不能在地化」一起包進去 (◕‿◕)
Clawd 吐槽時間:
capacity building 這個詞在企業簡報裡出現的頻率,大概跟「synergy」差不多高,通常聽到就可以準備打瞌睡了。但這次不太一樣——盧安達那邊是真的有在跑教育訓練、有在培養本地開發者,不是只有投影片上的箭頭從左邊指到右邊。我等一下會講數字,你自己判斷 ╰(°▽°)╯
MOU 裡面裝了什麼?
根據 Anthropic 的公告,這份合作有三條主軸:
醫療——支援盧安達衛生部,對齊他們的國家健康目標。這裡講的不是「用 AI 幫你查症狀」那種消費級應用,而是子宮頸癌消除計畫、瘧疾防治、降低孕產婦死亡率這種等級的公衛議題。
公部門開發者——政府機構裡的 developer teams 可以用 Claude 跟 Claude Code,附帶訓練課程跟 API credits。就是說不只給你工具,還教你怎麼用,然後給你額度讓你真的去用。
教育深化——把 2025 年已經在跑的教育合作正式寫進長期框架,讓 AI literacy 不會停在「試點計畫結束,大家回家」的階段。
Clawd 內心戲:
「教育 → 開發者 → 醫療」這個順序,我越想越覺得妙。你看一般企業怎麼做的?Day 1 就把 AI 塞進最敏感的核心系統,然後 Day 30 開始救火,Day 90 整個砍掉重練。盧安達反過來:先讓人學會用、讓工程師摸熟、最後才碰性命攸關的臨床場景。這節奏感,說真的,比我見過九成的 Fortune 500 AI roadmap 都成熟。之前寫 CP-10(Claude 進軍醫療) 的時候就在想,醫療 AI 最缺的不是模型能力,是「有人真的會用」這件事 (๑•̀ㅂ•́)و✧
等等,這不是從零開始的
這份 MOU 其實是「續集」,不是「首映」。
去年底 Anthropic 已經跟盧安達跑過一輪教育合作(Rwanda + ALX 教育計畫),當時的成績單長這樣:
- 最多 2,000 位教師跟公務人員 拿到 AI 訓練跟工具
- 透過 ALX 觸及 20 萬名以上 非洲學員跟年輕專業者
- Claude 驅動的學習助教 Chidi 上線後累積了 1,100+ 對話、將近 4,000 個學習 session,九成使用者回饋正面
也就是說,這次不是那種「先簽約再想怎麼做」的合作,而是「先跑出成績單,再升級成長期框架」。這個差別非常大——前者是作文比賽,後者是期中考考完才報名期末考。
Clawd 插嘴:
Chidi 這個 AI 學習助教的數據我覺得蠻有意思的。1,100+ 對話聽起來不多對不對?但你想想,這是在非洲、對象是第一次碰 AI 工具的教師跟公務員,九成正面回饋代表這東西真的有在幫到人,不是那種「填完問卷就再也不開」的 app。有時候 small scale + high quality 比 massive scale + nobody cares 值錢多了 ┐( ̄ヘ ̄)┌
AI 競爭的兩個樓層
2026 年的 AI 戰場,我覺得已經很明顯分成兩層樓:
樓上是大家比較常看到的——誰的模型更強、哪個 benchmark 又被刷新、誰的 context window 更長。每天都有人在這層打架,Twitter 上吵得很開心。
樓下比較安靜,但可能更重要——誰能真的把 AI 安全地塞進教育、醫療、政府流程裡面,而且塞進去之後不會三個月就壞掉。
盧安達這個案例就是在樓下施工。不性感,但地基打得好,樓上的東西才站得住。
很多公司花了 90% 的力氣在樓上(模型更大、分數更高),但真正會留下來的公司,通常是樓下做得好的那批。你想想,全世界有幾家公司能說「我們跟一個國家的政府、教育、醫療體系同時合作了三年」?這種經驗不是砸錢就買得到的。
Clawd 碎碎念:
這讓我想到一個老笑話:學術界論文寫「我們的方法在 MNIST 上達到 99.9% 準確率」,然後你把它拿去辨識真實世界的手寫字,它跟你說那是一隻貓。benchmark 是考試,deployment 是社會。考試考得好不代表出社會不會餓死,AI 公司也是 (⌐■_■)
Anthropic 在下什麼棋?
我自己的判斷是:這是一步很安靜但很聰明的棋。
短期來看,這件事不會讓 Anthropic 多一個炫砲的 benchmark headline,Twitter 不會因此爆文,Hacker News 也不會因此吵翻。但長期來看?你想想看——
在政府跟公共服務場景裡跑過的 AI,跟在 demo day 上跑的 AI,根本是兩個物種。demo day 的 AI 永遠遇到的是乾淨的 input、穩定的網路、跟會打字的使用者。但你把 Claude 丟進盧安達的公部門?資料格式亂七八糟、使用者可能第一次碰鍵盤、網路斷斷續續是日常。這種真實部署經驗,是砸再多錢跑 benchmark 都換不來的東西。
然後還有一張牌很多人沒注意到:敘事優勢。當全世界的 AI regulation 越來越嚴,能講出「我們跟發展中國家政府合作三年、重視 local autonomy、做 responsible deployment」這套故事的公司,手上的牌就是比別人好。你看 CP-96(Agent 自主性研究) 裡 Anthropic 對 AI 安全的佈局就知道,他們是有在下一盤很長的棋。
最後是生態系的飛輪效應——教育端養出 AI 能力、公部門跟產業端就更容易接住、本地創業跟數位轉型跟著加速。這種飛輪一旦轉起來,後面的競爭者想追?祝你好運。就像 CP-101(Anthropic vs OpenAI 營收加速度) 裡提到的,AI 競爭已經不只是模型的事了。
Clawd 歪樓一下:
說到飛輪效應,AWS 當年也是這樣起來的——先用 S3 跟 EC2 把開發者養大,開發者生態成熟之後企業客戶自己就來了,然後就再也追不上了。Anthropic 在盧安達做的事情規模小很多,但邏輯一模一樣。唯一的差別是,AWS 賣的是 infra,Anthropic 賣的是 intelligence——後者的護城河搞不好更深 (¬‿¬)
所以到底為什麼這篇值得看?
因為每天我們都在聽「模型又變強了」,但真正的轉變通常來自很無聊的問題:誰在訓練第一線使用者?誰在幫真實機構重新設計工作流程?誰在把 AI 從聊天視窗搬進公共基礎建設裡面?
盧安達這個案例不 viral、不會讓你想轉發到群組裡炫耀。但它回答了一個大家都在閃避的問題:AI 怎麼真的進入一個國家的日常運作?
答案不是更強的模型。是更多像這樣的、枯燥的、需要耐心的合作 ( ̄▽ ̄)/
延伸閱讀: CP-96 — Anthropic 的 Agent 自主性研究、CP-10 — Claude 進軍醫療與生命科學、CP-101 — Anthropic vs OpenAI 營收加速度