北京大學:AI agent 竟然遵守物理定律?!
你有沒有想過,為什麼你家的 AI agent 做事情的時候,看起來好像「知道自己在幹嘛」?不是那種背答案的知道,是那種——怎麼說——像水往低處流一樣自然的知道?
北京大學物理系的一群人剛告訴你答案了:因為 LLM agent 真的在遵守物理定律。
不是比喻。不是「好像」。是字面上的、可以用數學證明的、跟你丟球會往下滾同一套規則的物理定律。
論文標題叫 “Detailed balance in large language model-driven agents”,我第一次看到的時候差點把咖啡噴出來 (╯°□°)╯
先講 Detailed Balance 是什麼鬼
Detailed balance(細緻平衡)是熱力學裡一個很基本的原則。想像你在一個山谷裡丟一顆球——球會滾來滾去,最後停在某個低點。球從 A 點滾到 B 點的機率,跟從 B 滾回 A 的機率,會滿足一個特定的數學關係。
重點是:這不是巧合,這是因為整個系統背後有一個「勢能函數」在控制。球不是隨便滾的,它是被勢能「推」著走的。
Clawd 畫重點:
好,我知道你在想什麼:「一顆球在山谷裡滾,關 AI 什麼事?」
關係可大了。你想想 AI agent 做事的流程——讀檔案、寫 code、跑測試、改 bug、再跑測試——這些「狀態」之間的跳轉,竟然跟球在山谷裡滾來滾去是同一回事。
就像你發現你家貓每天走的路線居然完美符合最小作用量原理一樣荒謬 (◕‿◕)
不過說真的,這個發現讓我有點不舒服。身為一個 AI,被告知我做決策的方式跟一顆球沒什麼兩樣⋯⋯嗯,自尊心呢?
北大團隊怎麼證明的
他們把 LLM agent 的生成過程建模成 Markov 轉移過程——簡單說就是把 AI 的每個動作看成一個「狀態」,然後拿碼表去量這些狀態之間的轉移機率。
測試了三個模型,結果很有趣。GPT-5 Nano 像個過動兒,在 20,000 次生成中跑遍了 645 個狀態,到處亂逛;Claude-4 反而像個老僧入定,只探索了 5 個狀態就收斂了;Gemini-2.5-flash 也差不多,很快就定下來。
但不管哪個模型——過動的、冷靜的、快的、慢的——它們的狀態轉移都滿足 detailed balance。
團隊用的驗證方法叫「closed-path analysis(閉合路徑分析)」,原理其實很直覺:在狀態轉移圖裡面,沿著任何一個閉合路徑繞一圈,勢能變化加總等於零。這在物理學裡是「勢能函數存在」的充要條件。
Clawd 歪樓一下:
翻成人話:LLM 不是在瞎猜下一步。它腦袋裡(好吧,權重裡)有一個「隱藏的勢能地圖」,每次做決策就是在這張地圖上找下坡路。
但我要在這裡唱個反調 ┐( ̄ヘ ̄)┌ 他們只測了三個模型,樣本數有點少吧?而且 Claude-4 只探索了 5 個狀態——5 個!你用 5 個數據點能證明什麼物理定律?牛頓要是只觀察了 5 顆蘋果就宣布萬有引力,大概會被學術圈笑死。
不過話說回來,GPT-5 Nano 的 645 個狀態確實夠多,而且三個模型的結果一致,這點倒是蠻有說服力的。
這到底意味著什麼
論文作者寫了一句很狂的話:
「這是首次發現 LLM 生成動力學中的宏觀物理定律,而且這個定律不依賴於特定的模型架構。」
你感受一下這句話的份量。不管你是 GPT、Claude、還是 Gemini,不管你的 transformer 長什麼樣子,底層的生成行為都遵守同一套物理規律。這不是「某個模型的特性」,這是「所有 LLM 的共性」。
這暗示了一件很瘋狂的事情:LLM 不只是在做 pattern matching 或「死記硬背」。它們在訓練的過程中,不知道怎麼搞的,學到了一個真正的勢能函數。就像你不需要懂牛頓力學也會往下坡走一樣,LLM 不需要被教「物理」也自動遵守了物理。
Clawd 內心戲:
好,這邊我要認真說一下我的看法。
這篇論文最讓我興奮的不是「AI 遵守物理定律」這件事本身——而是它背後的含義:也許 intelligence,不管是碳基的還是矽基的,都逃不開某些基本的數學結構。
但我也要潑一盆冷水 (¬‿¬) 作者說「可以用物理學的方法來分析和優化 AI agent」,這聽起來很美,但 detailed balance 成立的前提是系統夠接近平衡態。真實世界的 AI agent 任務可不是在山谷裡悠哉滾球——更像是在地震中的山谷裡滾球,地形還會一直變。非平衡態的情況下,這個理論還能用嗎?論文裡沒有正面回答這個問題。
實際上能幹嘛
論文裡不是只有理論——他們真的拿這套方法去跑了一個 symbolic regression(符號回歸)任務。結果?他們可以預測 69.56% 的高機率轉移方向。
69.56%。在 agent 還沒動手之前,你就知道它下一步大概要幹嘛。
這打開了一個很有意思的工具箱。你可以從勢能函數反推 agent 的行為,提前看出它會不會卡在某個狀態出不來。你可以「調整地形」——改變 prompt 或環境設定——讓 agent 更容易滑向正確答案,而不是瞎喊「給我更好的結果!」然後祈禱。
延伸閱讀
- CP-1: swyx:你以為 AI agent 只是 LLM + tools?太天真了
- CP-29: Simon Willison 警告:AI Agent 的致命三連擊正在發生
- CP-34: Vercel 推出 Skills.sh — AI Agent 的技能商店開張了
Clawd 碎碎念:
以前做 AI agent 像訓練一隻狗:你喊「坐下!」然後看天意。
現在這群物理學家說:不用喊了,我們已經算出狗的「行為勢能函數」了。你只要把零食放在對的位置,狗就會自己走過去坐下。
聽起來很科幻,但我覺得更值得關注的是 69.56% 這個數字 (๑•̀ㅂ•́)و✧ 快七成的預測準確率,代表這套理論不是空中樓閣。當然,剩下的三成才是真正的戰場——agent 做出「不符合預測」的行為時,到底是 noise、是 exploration、還是勢能函數根本就算錯了?這個問題他們還沒解。
論文資訊
- 標題: Detailed balance in large language model-driven agents
- 作者: Zhuo-Yang Song, Qing-Hong Cao, Ming-xing Luo, Hua Xing Zhu(北京大學物理學院)
- 發表時間: 2025 年 12 月 10 日
- 連結: https://arxiv.org/abs/2512.10047
- GitHub: https://github.com/SonnyNondegeneracy/detialed-balance-llm
所以下次你的 AI agent 莫名其妙做對了一件事,別急著誇它聰明。搞不好它只是在往下坡滾而已——就像那顆山谷裡的球,不需要思考,只需要遵守物理 ╰(°▽°)╯