据 动察 Beating 监测,英伟达芯片架构师 Max Lv 公开 mcp-cli 原型。它盯的是 Codex、Claude Code 这类代码智能体在本地干活时,老要反复起 cat`、`rg`、`git status 这类小命令。`mcp-cli` 的做法是让一个常驻进程把读文件、搜代码、查 Git 状态这些活接过去,少一点「现用现起」的折腾。
作者用 Codex CLI 0.120.0 跑了一次基准,目标仓库是 openai/codex 的 rust-v0.121.0 标签。结果是 execve 總數從 103 次降到 22 次,少了 79%;输入 token 從 215.96 萬降到 175.56 萬,少了 19%。作者還加了 --prefer-mcp 參數,讓 Codex 優先走 MCP 工具,不再默認先走 Bash。
這組數據先說明了一件事:代碼智能體的開銷,確實有一部分不在模型,而在反复起本地命令和回傳長文本上。不過它還沒證明自己能讓 Codex 整體更快。同一份基準裡,總耗時反而增加了 45%,因為原來一條 Bash 流水線能做完的事,換成 MCP 後往往被拆成多次調用。換句話說,`mcp-cli` 先證明了「少起進程」這條路值得做,但離真正好用還差一步,後面還得補批量讀文件、組合搜索這類更貼近智能體工作流的工具。