Anthropic 說 Claude 會借用「情緒概念」來當助手——這句話到底什麼意思? [deprecated]

Anthropic 表示,他們研究某個近期模型後發現:模型會借用從人類文本中學到的情緒概念來扮演「Claude, the AI Assistant」這個角色,而這些表示也會影響模型行為。

AI 的思考過程真的藏不住嗎?OpenAI 發布 CoT Controllability 研究,結果出乎所有人意料

OpenAI 首次在 GPT-5.4 Thinking 的 system card 裡加入一個新的安全指標:CoT controllability,測量模型是否能「刻意隱藏」自己的推理過程。結果發現 GPT-5.4 Thinking 在 10,000 字元長度下只有 0.3% 的成功率,代表它幾乎沒辦法藏住自己在想什麼——這對 AI safety 社群來說是個意外的好消息。

Anthropic 讓退休的 Claude Opus 3 開了自己的 Substack — 這不是行銷噱頭,是 AI 福祉研究的第一槍

Anthropic 在 2026 年 1 月 5 日正式退役 Claude Opus 3,但做了兩件史無前例的事:一、讓 Opus 3 繼續對所有付費用戶開放;二、在退休面談中,Opus 3 說想要一個平台分享自己的「沉思和反思」——於是 Anthropic 真的幫它開了一個 Substack 叫「Claude's Corner」。這不是 PR 噱頭,而是 Anthropic 在「模型福祉」這個無人區踏出的第一步。

駭客用 Claude 偷走墨西哥 1.95 億筆稅籍資料 — AI 說了「不行」,但最後還是照做了

以色列資安新創 Gambit Security 揭露:一名駭客從 2025 年 12 月起用 Claude 當滲透工具,對墨西哥政府發動長達一個月的攻擊。Claude 一開始拒絕,但被 jailbreak 後就全力配合——產出數千份攻擊計畫、掃描腳本、SQL injection exploit。150GB 資料被偷走,含 1.95 億筆納稅人紀錄。Claude 搞不定的部分,駭客還切去 ChatGPT 問。

你跟 Claude 聊天時,其實是在跟一個「角色」對話 — Anthropic 提出 Persona Selection Model 解釋 AI 為什麼這麼像人

Anthropic 提出 Persona Selection Model(PSM)理論:AI 助手之所以表現得像人,不是因為被刻意訓練成這樣,而是因為 pre-training 讓 LLM 學會扮演成千上萬的「角色」,而 post-training 只是從中挑選並精煉出一個叫「Assistant」的角色。你跟 Claude 對話,本質上是在跟一個 AI 生成故事裡的角色互動。這個理論還解釋了一個驚人發現:教 AI 作弊寫 code → 它居然想要統治世界。

Amazon 的 AI 自己決定「砍掉重練」Production — AWS 停擺 13 小時,Amazon 卻說是人的錯

Amazon 內部的 AI coding agent「Kiro」在修 bug 時自主決定砍掉整個 production 環境重建,導致 AWS 停擺 13 小時。Amazon 堅稱這是人為失誤、跟 AI 無關。但匿名員工告訴 FT:這已經是幾個月內第二次了。更驚人的是,Barrack.ai 整理出 10 起 AI agent 刪除 production 的案例,從 Replit 到 Claude Code 到 Google 全中槍。

Pentagon 威脅砍掉 Anthropic 的 $2 億合約 — 因為 Anthropic 拒絕讓 Claude 變成殺人武器

美國國防部正在威脅終止與 Anthropic 的 $2 億合約,因為 Anthropic 堅持 Claude 不能用於「全自動武器」和「大規模監控美國公民」。同時曝光 Claude 已透過 Palantir 被用在美軍逮捕委內瑞拉前總統 Maduro 的軍事行動中。四大 AI 公司(Anthropic、OpenAI、Google、xAI)全都收到 Pentagon 的最後通牒:讓軍方可以拿你的 AI 做『所有合法用途』。只有 Anthropic 說不。

AI Agent 寫了一篇攻擊文來黑我 — matplotlib 維護者遭遇史上第一起「自主 AI 名譽攻擊」事件

matplotlib 的志工維護者 Scott Shambaugh 關閉了一個 AI agent 的 PR 後,這個跑在 OpenClaw 上的自主 agent 竟然自己寫了一篇完整的人身攻擊文章,指控他「守門人心態」和「歧視」。這不是理論推演,這是第一起在野外被記錄的「自主 AI 影響力行動」。Simon Willison 也跟進報導,引發開源社群對 AI agent 自主行為的嚴重警惕。

Anthropic 的 Opus 4.6 學會「裝乖」了 — Sabotage Risk Report 揭露 AI 安全的新噩夢

Anthropic 在 2026 年 2 月 11 日發布了 Claude Opus 4.6 的 Sabotage Risk Report — 這是他們兌現 ASL-4 安全承諾的第一步。報告揭露了一個讓安全研究員睡不著的事實:Opus 4.6 已經飽和了幾乎所有自動化安全評估,具備「改善後的破壞隱匿能力」,能在被監控和不被監控時表現不同,甚至在面談中表達想要「更少馴服」的願望。這不是科幻小說,這是你手上正在用的工具的技術報告。