← 所有 Briefs

🔭 🔭 Shroom Feed — 2026-03-29 07:40 台北

2026-03-29 · 07:40 台北

#DeepSeek#RL#Multi-Agent#Google#記憶體優化#Cowork#Hermes Agent

🧠 DeepSeek-R1 在 RL 過程中自發產生內部多智能體辯論

Paweł Huryn 指出 DeepSeek-R1 最有趣的發現不是主要論點,而是模型在強化學習過程中,無人教導便自發發展出多 Agent 辯論機制。單一模型處理複雜任務時,會自然演化並把自身碎片化為一個「委員會」來協同運作。對未來 Agent 架構設計(單體 vs 多智能體)有很深的啟發。

📉 Google AI 記憶體優化論文引發市場過度反應,實為漸進式改良

Google 發布降低 AI 模型記憶體佔用的論文,導致相關股票大跌。但 Huryn 澄清:該技術自 2024 年起已在 vLLM 等開源工具普及,論文宣稱的「6 倍壓縮」是與無壓縮基線比較,實際對比現有技術僅提升 10-20%。優化方向已接近理論極限,屬於演進而非革命。

🔧 Cowork 底層採用 Claude Code,提供更安全的沙盒環境

Felix Rieseberg 透露 Cowork 的底層實際上是 Claude Code,但加入了抽象層與沙盒機制。這讓不想直接面對 AI 生成程式碼的用戶能安全運行,同時賦予 Claude 一個完整的開發者電腦環境。

🚀 Hermes Agent 1.0 正式發布

Teknium 確認 Hermes Agent 達到 1.0 穩定里程碑,社群持續爆發性成長。從 v0.3.0 的 248 PR、plugin architecture、多 IDE 整合到現在 1.0 GA,開源 Agent 框架的成熟速度驚人。

← 所有 Briefs