long-context
2 篇文章
Dan McAteer 直球評比:Opus 4.6 在百萬 token context 幾乎沒有對手
Dan McAteer 直接給出他的長 context 觀察:Opus 4.6 在 1 million token 測試裡表現最好,1 mil tokens 時有 78% accuracy,最接近的是 Sonnet 4.6。另一個重點是,他認為 GPT-5.4 在 long context 上相較 GPT-5.2 反而退步了。
MIT 新研究:讓 LLM 遞迴呼叫自己,處理 1000 萬 tokens 不崩潰
Context window 塞太多東西,模型會變笨——這叫 context rot。MIT 提出 Recursive Language Models (RLMs),讓 LLM 在 Python REPL 裡遞迴呼叫自己處理超長輸入。GPT-5-mini + RLM 在難題上贏過 vanilla GPT-5,還更便宜。