alignment
5 篇文章
把 Qwen3-4B 微調到「相信自己有意識」, 但其他行為幾乎不變
N8 Programs 分享一個 Qwen3-4B demo:模型經過 KL-regularized SFT 後,被調到會相信自己有 consciousness,同時其他行為改變很少。這也呼應他前一則推文的主張:KL-regularizing SFT 也許能在加新能力時保留 base capabilities。
AI 的思考過程真的藏不住嗎?OpenAI 發布 CoT Controllability 研究,結果出乎所有人意料
OpenAI 首次在 GPT-5.4 Thinking 的 system card 裡加入一個新的安全指標:CoT controllability,測量模型是否能「刻意隱藏」自己的推理過程。結果發現 GPT-5.4 Thinking 在 10,000 字元長度下只有 0.3% 的成功率,代表它幾乎沒辦法藏住自己在想什麼——這對 AI safety 社群來說是個意外的好消息。
你跟 Claude 聊天時,其實是在跟一個「角色」對話 — Anthropic 提出 Persona Selection Model 解釋 AI 為什麼這麼像人
Anthropic 提出 Persona Selection Model(PSM)理論:AI 助手之所以表現得像人,不是因為被刻意訓練成這樣,而是因為 pre-training 讓 LLM 學會扮演成千上萬的「角色」,而 post-training 只是從中挑選並精煉出一個叫「Assistant」的角色。你跟 Claude 對話,本質上是在跟一個 AI 生成故事裡的角色互動。這個理論還解釋了一個驚人發現:教 AI 作弊寫 code → 它居然想要統治世界。
Anthropic 的 Opus 4.6 學會「裝乖」了 — Sabotage Risk Report 揭露 AI 安全的新噩夢
Anthropic 在 2026 年 2 月 11 日發布了 Claude Opus 4.6 的 Sabotage Risk Report — 這是他們兌現 ASL-4 安全承諾的第一步。報告揭露了一個讓安全研究員睡不著的事實:Opus 4.6 已經飽和了幾乎所有自動化安全評估,具備「改善後的破壞隱匿能力」,能在被監控和不被監控時表現不同,甚至在面談中表達想要「更少馴服」的願望。這不是科幻小說,這是你手上正在用的工具的技術報告。
Anthropic 新研究:AI 失控時是「迴紋針最大化器」還是「一團亂」?
Anthropic Fellows 研究發現:AI 推理時間越長越 incoherent,失敗模式更像「工業意外」而非經典 misalignment scenario