Kimi Code 指南 v1 · 2026.04 For: Claude Code / Cursor / Codex 使用者
DEVELOPER HANDBOOK · Traditional Chinese

切到 Kimi Code 之前,
你應該先讀完這一頁。

這份指南假設你已經在 Claude Code、Cursor 或 Codex 裡寫過 code。我們不從零講起,而是把 Kimi Code 的差異、心智模型轉移、實戰技巧、社群踩過的坑,整理成一份能在 5 分鐘上手、也值得回頭翻的工程手冊。

模型 Kimi K2.5 / K2.6 Context 256K 輸出速度 ~100 tok/s 並行 sub-agents 最高 300 成本 ~10–20% Claude Code
目錄
  1. TL;DR
  2. 五分鐘上手
  3. 心智模型轉移
  4. 與其他工具差異
  5. 實戰工作流
  6. 進階技巧
  7. 社群實戰 tips
  8. 常見坑與解法
  9. 何時不要用
  10. 延伸資源

00TL;DR — 三分鐘判斷要不要切

如果你只看一段,看這段就好。

Kimi Code 是 Moonshot AI 推出的 CLI coding agent,定位上等同於 Claude Code 的競品:terminal first、支援 MCP、支援 skills、有自己的 AGENTS.md 專案上下文檔。它的賣點不在「比 Claude 聰明」,而在三件事——更快、更便宜、能開更多平行 sub-agents

SPEED

~100 tok/s

實測比 Claude Code 約快 25%。檔案 edit 與 tool call 反應上明顯感覺得到。

COST

10–20% 成本

同樣強度的工作,token 費用約是 Claude Code 的 1/5 到 1/10。

SWARM

最高 300 sub-agents

K2.6 可協調 4,000 步、300 個 sub-agent;Claude Code 為序列式處理,量級不同。

TRADE-OFF

Context 256K

面對單一巨型 repo(>500K token)時,仍輸給 Claude Opus 的 1M context。

i

誰最該切過來:需要長時間跑 agent、做 design-to-code、要平行展開很多任務、或團隊一個月燒掉四位數美金 Claude Code 額度的人。

誰先別切:單人、小專案、且重度依賴 Claude Code 已建立的 hooks / 自訂 skills / MCP 生態的人——遷移成本可能比省下的 token 錢還貴。

01五分鐘上手

假設你 Mac / Linux、Python >= 3.12,從零裝起。

1. 安裝

官方推薦兩種裝法。第一種一鍵 script,會先裝 uv(Python package manager)再裝 Kimi CLI:

$ curl -LsSf https://code.kimi.com/install.sh | bash

如果你已經有 Python 環境,更乾淨的做法是直接 pip:

$ pip install kimi-cli
# 或 pipx install kimi-cli  ← 推薦,避免污染 base env

2. 登入

第一次跑會要你選平台,輸入 /login,瀏覽器會開 OAuth 授權頁。Moonshot 帳號就能登入。設定完會自動寫進 ~/.config/kimi-cli/ 並 reload。

$ kimi
> /login
# 選 Kimi → 自動開瀏覽器 → 授權 → done

3. 第一次跑:先 /init

進到專案根目錄再啟動 kimi。如果還沒有 AGENTS.md,第一件事是叫它幫你生:

$ cd ~/code/your-project
$ kimi
> /init

AGENTS.md 等同於 Claude Code 的 CLAUDE.md——專案上下文 / 慣例 / 命令 / 風格的記憶體。每次 session 啟動都會自動讀。前期願意花 10 分鐘把這檔調好,後面省下的 token 跟錯誤率回報率會非常可觀。

4. 第一次提問

直接打就好。Kimi 與 Claude Code 一樣會自己 plan、call tools、edit files。建議第一個 prompt 不要太大,先確認權限與行為:

> 讀一下 src/auth/ 下面的檔案,告訴我目前用什麼方式做 session 管理,
  並指出三個你覺得最值得重構的地方。先不要動 code。

第一次 onboarding 的標準流程:裝 → /login/initAGENTS.md → 跑一個唯讀的探索 prompt → 再開始給寫入任務。跟 Claude Code 完全可以共用同一套肌肉記憶。

02心智模型轉移:從 Claude Code 來的人最快的對應

幾乎每個 Claude Code 的核心抽象,Kimi Code 都有對應物,但名字稍有不同。一張表看完:

概念Claude CodeKimi Code
專案上下文檔CLAUDE.mdAGENTS.md(用 /init 自動生)
初始化專案/init/init(一致)
切換模型 / 推理模式/model/model(互動選單,含 thinking mode 開關)
會話分叉 / 復原/rewind / /resume/undo(回到任一 turn 重打)/ /fork(複製整段對話另開 session)
Skills 系統SKILL.md + 自動觸發SKILL.md + /skill 載入;另有 /flow 跑 Agent Flow 圖
MCP 管理claude mcp ...kimi mcp add / list / remove / auth
外部編輯器$EDITOR/editor vim / /editor 互動選
Shell 內嵌Bash tool / ! 前綴Ctrl + X 切到 shell mode,當 terminal 用
IDE 整合協定專屬 IDE pluginACP(Agent Client Protocol)開放標準,Zed / VS Code / Cursor 直接接
i

最值得記住的差異:Kimi Code 是 ACP-first。它不是 Moonshot 自己寫一個 IDE plugin 餵給你,而是讓任何支援 ACP 的編輯器都能直接接。如果你已經在用 Zed,這幾乎是 zero-friction 的整合。

03與 Claude Code / Cursor / Codex 的差異

這張表看一眼就好,後面的判讀比表更重要。

面向 Kimi Code Claude Code Cursor Codex CLI
主介面 CLI + ACP 接 IDE CLI + 官方 IDE plugin IDE first(VS Code fork) CLI
底層模型 Kimi K2.5 / K2.6 Claude Opus / Sonnet 多模型(GPT, Claude, Gemini 等) OpenAI o-series / GPT
Context 上限 256K 最高 1M(Opus) 視所選模型 ~400K(GPT-5 系列)
輸出速度 ~100 tok/s ~80 tok/s 視所選模型 中速
並行 sub-agents 100–300(K2.6) 序列式為主 不是設計重點 有限制
價格 最便宜(~10–20% Claude Code) 偏高 訂閱制 中等
視覺 / Design-to-Code 業界最強之一(OCR + 文件理解) 看模型 中等
推理深度 中上 頂尖(深度推理任務) 看模型 頂尖(特定 benchmark)
生態 / 社群 新興(GitHub ~6k stars) 最成熟 中等
本地 / 開源 K2 模型有開源權重

判讀:什麼任務切過去最划算

  • 長跑任務(>30 分鐘的 agent loop):Kimi 的速度與成本優勢被乘數放大。
  • 大量平行子任務:例如「掃 200 個檔案,各自寫單元測試」——Kimi 的 swarm 是真正的設計重點。
  • 前端 / Design-to-Code:Figma 圖、screenshot 直接餵進去產 component,K2.5 的 OCR 是這條路徑的甜點。
  • token 預算敏感的 side project:同樣的探索量,能多跑 5–10 倍。

反向:什麼任務還是留在 Claude Code

  • 整顆 monorepo 一次塞進去推理(>500K token),Claude Opus 1M context 仍是現役第一。
  • 強推理 / 數學 / 演算法 debug,Claude / GPT-5 有時就是會比較深。
  • 已重度自訂 Claude Code hooks、sub-agents、SKILL 生態:你的 leverage 在那邊,不在工具便宜。

04實戰工作流

五個你應該至少跑過一次的場景。

4.1 Shell mode:把 CLI 當 terminal 用

Ctrl+X,輸入框會切到 shell mode,可以直接打 shell 指令,不用 ! 前綴、不用離開 session。再按一次切回 agent mode。

[agent]> 幫我看一下 main 分支與 origin/main 差幾個 commit
# Ctrl-X 切 shell
[shell]$ git rev-list --left-right --count main...origin/main
# 結果就回到 agent context,可以直接接著問
[agent]> 那幫我把這幾個 commit 整理成 release note

4.2 /undo/fork:分支思考的副本

Claude Code 老用戶最常找不到的功能。Kimi 把它做得更顯式:

  • /undo:跳出互動選單,列出歷史每個 turn(截斷 80 字),選一個就 fork 出新 session、預填那個 user message 給你重編輯。
  • /fork:完全複製當前 session,原 session 不動,新 session 變 active。適合「我想試另一個方向但又不想丟掉現在這條」。

實戰套路:每跑完一個重要里程碑(比如 agent 做完一輪 refactor)就 /fork 一份做為「保險點」,再繼續往前。出事就回那個 fork。

4.3 Sub-agent swarm:把任務切碎平行跑

K2.6 的賣點。當你有「一份對 N 個檔案做同樣的事」這種 embarrassingly parallel 任務時,與其叫主 agent 一個個處理,不如直接生 swarm:

> 對 src/components/ 下每個 .tsx 檔案,平行生一個 sub-agent,
  每個只做一件事:把所有 inline style 改成 Tailwind utility classes,
  保持行為一致,最後統一回報。

實作上 Kimi 會自己決定要拆幾個。經驗值:100 檔以下 swarm 大概 30–60 個 sub-agents;超過就會分批。

4.4 ACP 整合 Zed / VS Code

不想活在 terminal 也可以。任何支援 Agent Client Protocol 的編輯器都能把 Kimi Code 接到側邊欄。最常見的兩種:

  • Zed:原生支援,設定一行就好,agent 可以直接看到 buffer 與 selection。
  • VS Code / Cursor:透過 ACP extension。優勢是把 agent 拉進你已有的開發循環,而不是另開一個 terminal。

4.5 MCP server 接外部工具

把資料庫、文件系統、Slack、自家 API 接成 MCP server,agent 就能呼叫。新增方式:

$ kimi mcp add my-db --transport stdio --command "node ./mcp-db.js"
$ kimi mcp list
$ kimi mcp auth my-db
$ kimi mcp remove my-db

也支援 ad-hoc:跑 kimi 時用 CLI flag 指定一個 well-known MCP config,session 結束就丟掉,不會污染全域設定。適合 demo 與一次性任務。

05進階技巧

5.1 把 AGENTS.md 寫成「可被 grep 的記憶體」

新手會把 AGENTS.md 寫成散文。老鳥會把它寫成 agent 容易檢索的條目。建議結構:

# AGENTS.md

## Stack
- Frontend: Next.js 15 / React 19 / TypeScript / Tailwind
- Backend:  Node 22 / Hono / PostgreSQL 16
- Test:     Vitest + Playwright

## Commands
- dev:    `pnpm dev`
- test:   `pnpm test --run`
- lint:   `pnpm lint --fix`
- migrate: `pnpm db:migrate`

## House rules
- 不要用 default export(除了 Next.js page / layout)
- API 回 JSON 一律用 `Result<T, E>` 包,不丟 raw error
- 改 schema 要同步改 zod validator 與 OpenAPI doc

## Where things live
- 商業邏輯:src/lib/domain/**
- HTTP:   src/app/api/**
- DB:     src/lib/db/{schema,queries,migrations}

5.2 用 /flow 把高重複工作流固化下來

/skill 載入單一 skill;/flow 跑 flow skill——SKILL.md 裡內嵌一張 Agent Flow 圖(BEGIN → 節點 → END),agent 會照圖跑。適合:每週的 release 流程、bug triage SOP、「修一個 issue」的固定步驟。

i

把這想成「比 prompt template 更結構化、比寫一個 bash script 更聰明」的中間層。任何超過 3 步、有條件分支的工作流都值得固化。

5.3 視覺優先工作流:截圖 → component

K2.5 的 OCR 與文件理解是它的暗器。實戰流程:

  1. 把 Figma 區塊截圖丟到專案 ./design/
  2. 讓 Kimi 讀截圖 + 你現有的 design system tokens(在 AGENTS.md 標清楚 token 在哪)。
  3. 產出 component。比起純文字描述,這條路在「複雜 layout」上的命中率明顯高。

5.4 K2.6 開源權重:本地 / 私有部署

跟 Claude Code 最不一樣的地方:你不是只能用 cloud。Kimi K2 / K2.6 模型權重已開源,可以在自家 GPU、Unsloth 等框架上跑量化版本。

這對兩種人很重要:

  • 有合規要求、code 不能離開 VPC 的團隊。
  • 想做 fine-tune / domain adaptation 的研究團隊。

實際門檻仍高(K2.6 完整版要多卡 H100),但量化版(4-bit / 8-bit)是有人在 single-node 跑得動的。

06社群實戰 tips

從 Medium / GitHub discussions / Reddit 上整理的非官方但實用的玩法。

TIP 01

大型 repo:搭 ChromaDB 做向量索引

256K context 撐不住整顆 monorepo 時,社群常見做法是把 codebase 灌進 ChromaDB,讓 agent 透過 MCP 去檢索,而不是把整包丟進 context。

TIP 02

用 OpenCode 當 UI、Kimi K2 當引擎

不喜歡官方 CLI 互動感的人,常把 OpenCode(多模型 agent UI)接 Kimi K2 API,享受便宜的同時換更熟的介面。

TIP 03

從 IDE 啟動,不要從家目錄

把編輯器的 task 設成 cd $PROJECT && kimi。一進 session 就在對的目錄,相對路徑與 AGENTS.md 才會吃到。

TIP 04

thinking mode 不是預設開

記得用 /model 進去把 thinking mode 切開——做架構決策、debug 邏輯時值得多花一點時間,跑 swarm 時則建議關掉省 token。

TIP 05

/undo 當作 git rebase -i 用

每次 agent 走錯方向,比起跟它解釋哪裡錯,直接 /undo 退回上一個分歧點重打 prompt,常常更快。

TIP 06

第一週只用唯讀 prompt

切過來的第一週別急著讓它寫檔。先用「讀 / 解釋 / 比較」三類任務,建立你對它判斷力的信任曲線——和你當初接 Claude Code 時一樣。

07常見坑與解法

!

坑 1:Python 3.11 環境裝不起來

Kimi CLI 要 Python 3.12–3.14(官方推薦 3.13)。用 pyenvuv python install 3.13 升上去再裝。

!

坑 2:在子目錄啟動,agent 看不到 AGENTS.md

跟 Claude Code 一樣,AGENTS.md 要在啟動目錄或其上層。最簡單:永遠在 repo root 跑 kimi,搭配 IDE task 自動 cd

!

坑 3:MCP server 連線失敗、看不到報錯

kimi mcp list 看狀態;stdio server 的 stderr 通常被吞掉,自己加 logging file。OAuth 類 server 記得跑 kimi mcp auth <name>

!

坑 4:context 用爆但 agent 不告訴你

長 session 跑久了會悄悄踩 256K 上限,行為會變遲鈍但不一定報錯。長任務記得階段性 /fork,必要時開新 session 帶上摘要。

!

坑 5:Swarm 全部失敗連帶卡住主 agent

給 sub-agent 的任務描述太抽象 / 跨檔案依賴沒講清楚,會出現「主 agent 等 swarm、swarm 互卡」。解法:把可平行的任務寫成「明確邊界、無共享狀態」的單元,再交給 swarm。

08何時不要用 Kimi Code

誠實的工程判斷比省錢重要。以下情境,先別切:

  • 你的工作 80% 是「整顆 codebase 一次推理」——例如老 Java monorepo 跨包重構。1M context 仍是 Claude Opus 的舒適圈。
  • 你需要極端深度推理:複雜演算法、形式化證明、多步數學。Claude / GPT-5 在這類 benchmark 仍領先。
  • 你的工作流深度綁定 Anthropic 生態:自訂 hooks、Anthropic Skills 商城、Claude Sonnet 的特定指令集。遷移成本可能 > 12 個月省下的 token 費。
  • 合規場景但又不打算自架:Kimi cloud 服務由 Moonshot(中國)營運,跨境資料政策需自行 due diligence。要自架就用 K2 開源權重,但門檻比想像中高。
!

務實建議:不要替換,要並用。把 Kimi 拿去打「跑量、平行、視覺、便宜任務」,把 Claude Code / Codex 留給「深度推理、超長 context、最後一哩 polish」。兩個 CLI 同時開兩個 terminal,是 2026 年很多人實際的工作姿勢。

09延伸資源