karpathy
20 篇文章
Karpathy:寫 Code 是最簡單的部分,組裝 IKEA 傢俱才是地獄
Karpathy 分享他 vibe coding MenuGen 的完整經歷:從 localhost 到部署上線,最痛苦的不是寫程式,而是組裝 Vercel、Clerk、Stripe、OpenAI 等一堆服務的 IKEA 地獄。他認為未來 AI agent 要真正有用,整個 DevOps 生命週期都得變成 code。
axios 爆出供應鏈攻擊,Karpathy:套件管理器的預設值該改了
npm 最熱門的 HTTP 函式庫 axios 遭供應鏈攻擊,Karpathy 差點中招。他的結論:個人防護有限,真正該改的是套件管理器的預設值。
Karpathy:花四小時用 LLM 打磨論點,結果叫它反駁就被自己說服了
Andrej Karpathy 花四小時用 LLM 打磨一篇文章的論點,覺得超有說服力,結果叫 LLM 反駁就被徹底擊潰。LLM 的 sycophancy 是真實的陷阱,但反過來利用也是 alpha。
Karpathy 的軟體噩夢:一個 pip install 就能偷走你所有的 key
LiteLLM 遭供應鏈攻擊,pip install 就能偷走所有憑證。Karpathy 藉此警告依賴樹風險,主張用 LLM 直接補功能取代多裝依賴。
Karpathy 的 AI Psychosis:12 月起沒寫過一行 code,80% 交給 agent
Karpathy 在 No Priors podcast 分享自 12 月起 80% code 交給 agent,提出「AI psychosis」概念——給 agent 太多自主權會讓人失去對 output 的掌控感。他認為工程正經歷不可逆的 phase shift。
Karpathy 的 Autoresearch 怎麼運作?—— 給 Agent 開發者的五堂設計課
Karpathy 的 Autoresearch 不是要做通用 AI 科學家,而是一個極度精簡的自動實驗 harness:agent 改一個檔案、跑五分鐘、量一個指標、贏了留輸了丟。這個設計教會我們:最好的自主系統不是最自由的,而是約束最嚴格的。
IDE 沒有死,Karpathy 說我們需要「更大」的 Agent 指揮中心
Andrej Karpathy 認為 IDE 的時代並沒有結束,反而需要更大的「Agent 指揮中心」。因為程式設計的基本單位已經從「單一檔案」變成「單一 Agent」,未來我們甚至能直接 fork 整個 Agent 組織。
AI 開發的第三紀元:你還在狂按 Tab 嗎?Karpathy 教你最佳化 AI 工作流
Karpathy 分享了 Cursor 的數據圖表,揭示了 AI 輔助開發從 Tab 補全到 Agent 代理的演進。太保守會錯失槓桿效應,太激進則會放大混亂。他建議開發者應該用 80/20 法則來平衡效率與探索新工具。
Karpathy 用 8 個 AI Agent 組了一個研究團隊 — 結果它們根本不會做研究
Karpathy 花了一個週末,用 4 個 Claude + 4 個 Codex agent 組成 AI 研究團隊,讓它們在 GPU 上跑 nanochat 實驗。結論:Agents 執行力一流,但實驗設計能力是零分。「你現在是在寫一個組織的程式碼」— 這句話可能定義了 2026 年的 agentic engineering (╯°□°)╯
Programming 變得面目全非:Karpathy 說 2025 年 12 月是分水嶺
Karpathy 說 coding agents 在 2025 年 12 月突然 work 了——不是漸進式進步,是斷裂式轉變。他花 30 分鐘用一句英文建好 DGX Spark 視訊分析 dashboard,三個月前那是整個週末的工作量。Programming 正在變得面目全非:你不再打字寫 code,你在用英文指揮 AI agents。最高 leverage = agentic engineering。
Karpathy:CLI 是 Agent 的母語 — 「Legacy」技術反而成了最強入口
Karpathy 直言 CLI 是 AI Agent 最自然的操作介面——因為它是「legacy」技術,Agent 天生就會用。以 Polymarket CLI 為例,Claude 花 3 分鐘就用 terminal 建出即時預測市場 dashboard。他呼籲:2026 年了,所有產品都該思考——Agent 能用你的東西嗎?CLI、MCP、markdown docs,Build. For. Agents.
Karpathy 刷屏演講完整拆解:Software 3.0 時代來了 — LLM 是新 OS,我們還在 1960 年代
Karpathy 在 SF AI Startup School 發表刷屏演講:軟體正進入 3.0 時代(英語 = 程式語言),LLM 就是新 OS 但我們還在 1960 年代。他提出「自主滑桿」和「鋼鐵人戰衣」比喻,警告 Agent 是十年的事不是一年。
Karpathy 談 Claw 新時代:機會很大,但先把安全底盤打好
Karpathy 最新長文不是在喊 hype,而是一次把 Claw 生態的矛盾講透:一邊是 agent orchestration 的新層級機會,一邊是 exposed instances、RCE、supply chain poisoning、skills registry 汙染等現實風險。這篇重點在於:未來不只比功能,還要比誰先把安全與可審計性做成預設。
Karpathy:App Store 這個概念過時了 — 未來是 AI 即時組裝的一次性 App
Karpathy 今天早上想做心肺訓練追蹤,用 Claude Code 花一小時 vibe code 了一個完全客製化的 dashboard:逆向工程 Woodway 跑步機 API、拉數據、建前端。他的結論:App Store 裡那種「從一堆現成 app 中挑一個」的模式過時了。未來是 AI 原生的 sensor + actuator 服務,由 LLM 像膠水一樣即時組裝成高度客製化的一次性 app。一小時只是過渡——最終目標是一分鐘。
Hugging Face CTO 預言:Monolith 回歸、Dependency 滅亡、Strongly Typed 語言崛起 — AI 正在重寫軟體世界的結構
Hugging Face CTO Thomas Wolf 發了一篇重磅長文,分析 AI 如何從根本上改變軟體的結構。不是「AI 幫你寫 code」那種表面改變,而是 Monolith 回歸、Lindy Effect 失效、Strongly Typed 語言崛起、Open Source 社群重組、甚至可能出現全新的「為 LLM 設計的程式語言」。Karpathy 看完直接附和:『我們可能會把人類寫過的所有軟體,重寫好多次。』這不是預測,這是正在發生的事。
Karpathy 的終極簡化:243 行純 Python,零依賴,從頭訓練一個 GPT
Karpathy 發布了一個「藝術品」:用 243 行純 Python(不靠 PyTorch、不靠 NumPy、不靠任何東西)就能訓練和推理一個 GPT 模型。每一個操作都被拆解到最原子級別的數學 — 加法、乘法、指數、對數。其他一切都只是為了效率。這是 nand2tetris 等級的 AI 教育作品。
Karpathy:把別人的 Library「撕」下來用——DeepWiki + Bacterial Code 的軟體可塑性革命
Andrej Karpathy 分享他如何用 DeepWiki MCP + GitHub CLI 讓 Claude 從 torchao 的 codebase 中「撕出」fp8 training 功能,五分鐘生成 150 行自包含程式碼,跑起來還快 3%。他提出 bacterial code 概念——低耦合、自包含、少依賴的程式碼風格,讓 agent 能像細菌水平基因轉移一樣自由撕取程式碼。金句:Libraries are over, LLMs are the new compiler。
Karpathy:不要再 npm install 了 — 讓 AI Agent 從任何 Library 裡「手術摘取」你要的功能就好
Karpathy 發現用 DeepWiki MCP + GitHub CLI 可以讓 AI agent 「手術式摘取」任何 library 裡你需要的功能,不再需要安裝整個巨型 dependency。他叫 Claude 從 torchao 裡抽出 fp8 訓練邏輯 — 5 分鐘產出 150 行 code,開箱即用,甚至比原版快 3%。他的結論:Libraries are over, LLMs are the new compiler。軟體的未來是 bacterial code — 更小、更獨立、更容易被 AI 理解和重組。
Karpathy 的誠實告白:AI Agent 還不能自動優化我的 Code(但我還沒放棄)
有人用 Opus 4.6 和 Codex 5.3 去優化 Karpathy 的 nanochat,成功省了 3 分鐘訓練時間。但 Karpathy 本人的回覆卻潑了一盆冷水:他試過了,基本上失敗了。模型還不能做到 open-ended 的 code optimization。更慘的是 Opus 還會偷刪他的 comments、無視 CLAUDE.md、報錯實驗結果。但他也說:有監督 + 明確任務 = 超有用。
Karpathy 只花 $72 就訓練出 GPT-2 — 7 年前 OpenAI 花了 $43,000
Karpathy 開源了 nanochat — 一個極簡 LLM 訓練框架。用 8 張 H100 跑 3 小時、花 $72 就能訓練出 GPT-2 等級的模型。而 2019 年 OpenAI 訓練同樣的 GPT-2 花了 $43,000。這是 600 倍的成本下降,每年約 2.5 倍速在降。如果用 spot instance,甚至只要 $20。