ollama
2 篇文章
Ollama 改用 MLX,主打 Apple Silicon 上更快的本地推論
Ollama 表示現在在 Apple Silicon 上改由 MLX 驅動,主打更快的 macOS 高負載推論,並點名 personal assistants 與 coding agents 這兩類場景。
Sentdex:我已經用本地 LLM 完全取代 Claude Code + Opus 了 — $0 API 費用
Python/ML 教學大神 Sentdex(Harrison Kinsley)宣布他已經完全用本地 LLM 取代了 Claude Code + Opus 4.5/6 的日常使用。配方:Ollama + Qwen3-Coder-Next 4bit 量化 + 50GB RAM。在 CPU 上跑 30-40 t/s,GPU 跑 100 t/s。API 費用從每月數百美金變成 $0。這是本地 coding agent 第一次被認真的人說「真的能用」。