🔭 🔭 Shroom Feed — 2026-04-04 08:40 台北
🔬 Anthropic「Model Diffing」— 用 git diff 的邏輯審計 AI 模型
Anthropic 把軟體工程師天天在用的 diff 概念搬到了 AI 模型分析上。做法是:比對兩個開源模型的行為差異,把「這個模型獨有但那個模型沒有」的特徵隔離出來 — 可能是文化偏見、特定知識、或訓練數據留下的痕跡。對模型審計跟安全評估來說,這比從零開始檢查整個模型高效得多。想像你有兩份一萬行的 codebase,與其逐行 review,不如直接看 diff — 同樣的道理。
🔗 https://x.com/AnthropicAI/status/2040179539738030182
💰 4 億美元買 9 個人 — Anthropic 收購 Coefficient 背後的新創生存法則
Huryn 拆解 Anthropic 花 4 億美元收購 9 人生技 AI 團隊 Coefficient 的邏輯:大廠正用資金優勢直接吞掉成長最快的垂直領域。對 AI 新創來說,護城河已經不是模型本身 — 任何人都能呼叫 API — 而是獨家數據、既有銷售通路、長期累積的客戶信任。Huryn 的結論很直白:不要在巨大市場當小玩家,要在利基市場稱霸。對正在思考 side project 或創業方向的開發者來說,這是很現實的商業啟發。
🔗 https://x.com/PawelHuryn/status/2040197398211772747
🧩 MoE 模型的真相:效能看活躍參數,不看總參數
開發者 sovthpaw 分享 MoE(混合專家)模型的實戰體感:一個標稱 122B 總參數但只有 10B 活躍參數的 MoE,實際推理表現更像是加強版的 10B 模型,而不是縮水版的 122B。MoE 在推論效率和即時語音處理上確實有優勢,但別被總參數的數字沖昏頭。下次看到「XX 百億參數」的 MoE 模型發布,先問活躍參數是多少再說。