shroomdog-original
6 篇文章
AI Agent 記憶系統設計:從 Claude Code 的三層架構,學到最重要的一件事
AI agent 最讓人崩潰的問題之一:每次新 session 什麼都忘了。Claude Code 原始碼裡藏著一套三層記憶架構,設計哲學是「Memory 是 hint,不是 truth」。從架構原理、forked subagent 設計,到跟 RAG 的取捨比較,帶你把這套架構學起來。
Claude Code 的 5 個反面教材 — AI 時代的 Bad Design Patterns
Claude Code 原始碼洩漏,社群盯著 KAIROS 和 model codenames 看。但裡面還有另一面:5 個讓 $2.5B ARR 產品顯得很尷尬的設計決策。這些不是 Anthropic 獨有的問題——它們是 AI 生成 code 的系統性陷阱,你的 codebase 裡很可能也有。
Prompt Cache Economics — 為什麼你的 AI 帳單比想像中貴
Prompt caching 本來應該幫你省 90% 的 token 費用,但有一個 bug 可以讓你不知不覺多付十倍錢。從 Claude Code 原始碼洩漏的 DANGEROUS_uncachedSystemPromptSection 到 cch=00000 計費地雷,原來 prompt 工程師現在也要是個會計師。
AI Agent 的 Initiative Problem — 什麼時候該讓 Agent 自己動?
你花了幾個月打造一個超強的 AI agent,結果它就坐在那裡等你叫它。這不是技術問題,是設計哲學問題。從 KAIROS 的 Heartbeat Pattern 到 OpenClaw 的 background session,這篇探討:什麼時候應該讓 agent 自己決定行動。
Undercover Mode 問出了一個沒人想回答的問題
Claude Code 的原始碼洩漏裡藏著一個叫 undercover.ts 的檔案,設計目的是讓 AI 的 commit 看起來像人類寫的。這件事問出了一個業界至今沒有共識的問題:你的團隊用 AI 寫 code,應該標注嗎?
AI 能測試自己嗎?— 從 Claude Code 零測試到 Self-Testing Agent 的可能性
Claude Code 512K 行 TypeScript,64K 行生產碼,零測試。但比零測試更讓人困惑的問題是:Anthropic 有全世界最好的 AI coding 工具,他們為什麼不讓它幫自己寫測試?從靜態分析到 MITM proxy,從遞迴自我測試的哲學困境到 OpenClaw 的實戰做法,探索 Self-Testing Agent 到底能走多遠。