OpenAI 把 Sora 砍了:IPO 前的大掃除,還有一顆叫 Spud 的神秘模型

OpenAI 在 IPO 前夕砍掉了 Sora 影片生成服務,Disney 也退出了三年授權合約。同時一個代號 Spud 的新模型據報已完成,Altman 據稱說它能「加速經濟」。整間公司正在從「什麼都做」轉向「做一個超級 app」。

AI 的思考過程真的藏不住嗎?OpenAI 發布 CoT Controllability 研究,結果出乎所有人意料

OpenAI 首次在 GPT-5.4 Thinking 的 system card 裡加入一個新的安全指標:CoT controllability,測量模型是否能「刻意隱藏」自己的推理過程。結果發現 GPT-5.4 Thinking 在 10,000 字元長度下只有 0.3% 的成功率,代表它幾乎沒辦法藏住自己在想什麼——這對 AI safety 社群來說是個意外的好消息。

Epoch 最新數據:Anthropic 可能在 2026 年中超車 OpenAI 營收 — 10× vs 3.4× 的殘酷加速度

Epoch AI 用公開資料建模指出:自從兩家公司都達到 annualized revenue $1B 之後,Anthropic 的年化成長率約 10×,OpenAI 約 3.4×。若趨勢延續,交叉點可能在 2026 年 8 月、run-rate 約 $43B。即使採用更保守假設(Anthropic 放緩至 7×,或雙方內部預測放慢),交叉時間仍可能落在 2026-2027。

SWE-bench 二月大考成績出爐 — Opus 4.5 逆襲 4.6、中國模型佔領半壁江山、GPT-5.3 缺考

SWE-bench 官方用同一個 mini-SWE-agent 跑完所有主流模型的 Bash Only 排行榜(Verified 子集,500 題)。結果讓人意外:Claude Opus 4.5(舊版)以 76.8% 險勝 Opus 4.6 的 75.6% 拿下第一、Gemini 3 Flash 和 MiniMax M2.5 並列第二。去除同模型重複後,前十名中有四個中國模型。OpenAI 最強戰力 GPT-5.3-Codex 因為 API 沒開放而缺席。Simon Willison 順手用 Claude for Chrome 幫圖表加上了百分比標籤——這可能是全文最實用的部分。

快不等於好 — Anthropic Fast Mode vs OpenAI Codex Spark 的技術路線之爭

同一週內 Anthropic 和 OpenAI 各端出一盤加速菜:Fast Mode 用同模型衝 2.5 倍速、Codex Spark 用 Cerebras 晶圓級晶片飆到 1000 token/s。一個賭「不犯錯」,一個賭「即時互動」。這不是速度比拼——是精算師 vs 探險家的產品哲學之爭。

GPT-5.2 花 12 小時推導出一個新物理公式 — 物理學家花了 40 年都沒發現的東西

OpenAI 的 GPT-5.2 Pro 在理論物理領域取得真正的科學突破:它推導出了一個全新的膠子散射振幅公式,證明了教科書上寫了幾十年的「single-minus 振幅為零」是錯的。人類物理學家手算到 n=6 就投降了,GPT-5.2 先把這些超級複雜的方程式簡化,然後一眼看出規律,提出了適用於任意 n 的通用公式。之後一個內部加強版又花了 12 小時,用正式數學證明把這個公式驗證了。來自 IAS、Harvard、Cambridge、Vanderbilt 的頂尖物理學家聯名發表。這不再是「AI 幫你寫 code」的層次了 — 這是「AI 幫你發現新物理定律」。

Simon Willison 挖出 OpenAI 的報稅紀錄 — 他們的使命聲明怎麼從「開放共享」變成「賺錢至上」

Simon Willison 從美國 IRS(國稅局)的報稅資料中,挖出了 OpenAI 從 2016 到 2024 年的使命聲明。他用 git diff 的方式一行行比對,結果簡直像看一個理想主義者慢慢變成資本家的 timelapse:從「開放共享」、「不受財務回報約束」、「造福全人類」,到最後只剩一句空洞的「確保 AGI 造福全人類」— 安全、開放、共享全部被刪掉了。

ChatGPT 正式開始塞廣告了 — 你的對話紀錄現在是 OpenAI 的廣告素材

OpenAI 正式在 ChatGPT 的 Free 和 Go 方案中測試廣告。廣告個人化預設開啟,你的對話紀錄和 Memory 都會被拿來挑廣告給你看。更諷刺的是,Anthropic 前一天剛在超級盃砸錢嘲笑 AI 聊天機器人放廣告。Sam Altman 回嗆 Anthropic 是『賣貴東西給有錢人』。免費仔的代價,終於攤牌了。

OpenAI × Cerebras:Codex-Spark 寫 code 快 15 倍 — 但代價是什麼?

OpenAI 今天發布 GPT-5.3-Codex-Spark,第一個跑在 Cerebras 晶圓級晶片上的模型。每秒 1000+ tokens、延遲降 80%、首 token 快 50%。但它是縮小版模型,不跑測試、只限 Pro 用戶。這不只是一個新模型,是 OpenAI 首次在生產環境用非 Nvidia 晶片——AI 算力的版圖正在重劃。

OpenAI API 正式支援 Skills — Simon Willison 拆解這個讓 Agent 自帶「技能包」的新功能

OpenAI 的 Responses API 現在可以透過 shell tool 掛載 Skills — 把可重複使用的工作流程(指令 + 腳本 + 資源檔)打包成 zip,讓模型在需要時才載入執行。Simon Willison 用他新開發的 Showboat 工具實測了這個 API,發現最酷的是可以直接在 JSON request 裡用 base64 傳 inline skill,不用先上傳。Skills 本質上是 system prompt、tool、和 procedure 之間的「中間層」,解決了把所有流程都塞進 system prompt 會越塞越肥的痛點。

GPT-5 當實驗室科學家:接管機器人手臂、跑 36,000 次實驗,蛋白質成本砍 40%

OpenAI 和 Ginkgo Bioworks 合作,把 GPT-5 接上自動化雲端實驗室,讓 AI 自己設計實驗、操控機器人跑實驗、分析數據、再設計下一輪。六輪下來跑了 36,000 種配方,蛋白質生產成本從 $698/克降到 $422/克,直接砍掉 40%。這不是 demo,是真正的科學研究。