Claude Code 是什么
Claude Code 是 Anthropic 推出的 AI 编程工具,它运行在你的终端里,能直接读写你项目里的文件、运行命令、执行测试。它不只是一个能回答代码问题的聊天机器人——它更像一个真正在你机器上干活的编程助手。
具体能做什么:
- 理解你的整个代码库(不只是一个文件),能跨文件分析和修改
- 自主执行任务:写代码 → 运行 → 看报错 → 修改 → 再运行,形成完整循环
- 帮你调试、重构、写测试、写文档
- 通过 Git 感知项目历史,理解上下文
和 ChatGPT / Claude.ai 对话的区别: 在网页聊天里,你把代码粘贴进去,AI 给你代码,你再手动复制回去。Claude Code 跳过了这个中间步骤——它直接在你的项目里操作,更像是结对编程,而不是问答。
前置要求检查
开始之前,确认以下都已就绪(前面几篇文章都讲过了):
| 需要 | 检查命令 | 期望结果 |
|---|---|---|
| Linux 终端(或 WSL) | uname -s |
Linux |
| Node.js ≥ 18 | node --version |
v18.x.x 或更高 |
| npm | npm --version |
有版本号即可 |
| Git | git --version |
有版本号即可 |
| 第三方 API 账号 | — | SiliconFlow 或 Kimi |
Claude Code 不支持在 Windows 原生 PowerShell / CMD 下运行。Windows 用户必须在 WSL 的 Ubuntu 终端里安装和使用。
安装步骤
第一步:安装 Claude Code CLI
在 Ubuntu/WSL 终端里运行:
$ npm install -g @anthropic-ai/claude-code
也可以使用官方安装方式:访问 Anthropic 官网下载安装包。不过官方方式需要完成繁琐的账号认证流程,对于国内用户来说比较麻烦。本文推荐使用 npm 安装 + 第三方 API 的方式,更简单直接。
安装完验证:
$ claude --version
1.x.x
第二步:跳过官方认证流程
安装完成后,如果直接运行 claude,它会要求你进行官方账号认证。我们可以通过创建配置文件来跳过这个步骤。
在你的家目录(~)下创建一个隐藏文件 .claude.json(注意:不是 .claude 目录,而是 .claude.json 文件):
$ echo '{
"hasCompletedOnboarding": true,
"forceLoginMethod": "console"
}' > ~/.claude.json
命令解释(适合 Linux 新手):
echo:输出文本内容'{ ... }':要写入的 JSON 配置内容>:重定向符号,把前面的内容写入文件~/.claude.json:目标文件路径(~代表你的家目录,如/home/ubuntu)
这个配置文件告诉 Claude Code:你已经完成了新手引导,并且使用控制台登录方式(而不是浏览器认证)。
验证文件是否创建成功:
$ cat ~/.claude.json
应该能看到刚才写入的 JSON 内容。
注意事项:
- 文件名必须是
.claude.json(以点开头的隐藏文件) - 位置必须在家目录
~(不是项目目录) - JSON 格式必须正确(花括号、引号、逗号都不能错)
使用第三方 API(推荐)
官方 Anthropic API 虽然稳定,但对国内用户不太友好(需要国际信用卡、可能有网络限制)。使用第三方 API 提供商可以:
- ✅ 支持国内支付方式(支付宝、微信)
- ✅ 网络访问更稳定
- ✅ 有免费额度可以试用
- ✅ 价格通常更便宜
什么是 API Key?
API Key 是一串密钥字符串,用来证明你的身份和授权你使用 API 服务。可以把它理解成:
- 🔑 门禁卡:有了它才能进入 AI 服务的大门
- 💳 会员卡:用来记录你的使用量和扣费
- 🆔 身份证:证明这个请求是你发出的
API Key 通常长这样:sk-xxxxxxxxxxxxxxxxxxxxxxxx(一串随机字符)
API Key 安全提示:
- ❌ 不要分享给任何人
- ❌ 不要提交到 Git 仓库
- ❌ 不要发布在公开网站或论坛
- ✅ 泄露后立即在平台上删除并重新生成
方案一:SiliconFlow(推荐新手)
SiliconFlow 是国内优质的 AI API 提供商,支持多种模型(Claude、GPT、国产大模型等),新用户有免费额度。
创建 API Key
登录后,进入控制台 → API 管理 → 创建新的 API Key
复制生成的 Key(只显示一次,务必保存好)
记录 API 端点地址
SiliconFlow 的 API 端点:https://api.siliconflow.cn
SiliconFlow 优势:支持Qwen,GLM,Kimi,Deepseek,MiniMax等多种模型,它们的性能对于普通任务完全够用,如果你关注海外AI社区,你会发现大部分人日常主力都是像kimiK2.5这样的模型。一个账号可以调用多种 AI。
方案二:Kimi 开放平台
Kimi(月之暗面)是国内知名 AI 公司,其Kimi K2.5性能逼近顶尖模型,提供稳定的 coding API 服务。
创建 API Key
在控制台创建 API Key 并保存
记录 API 端点地址
Kimi 的 Anthropic 兼容端点:https://api.moonshot.cn/anthropic
第三步:配置 API Key 和端点
获取 API Key 后,需要告诉 Claude Code 使用哪个端点和密钥。有两种方法,选一种即可:
两种方法的区别:
- 方法一(推荐):写入 Claude Code 的专属配置文件
~/.claude/settings.json,配置与工具绑定,整洁 - 方法二:写入
~/.bashrc,所有终端都能读到,配置更全局,但会混入通用 shell 配置
方法一:写入 ~/.claude/settings.json(推荐)
Claude Code 在 ~/.claude/ 目录下维护自己的配置文件,可以在 settings.json 中直接设置环境变量,Claude Code 启动时会自动读取。
如果使用 SiliconFlow:
# 创建目录(如果不存在)
$ mkdir -p ~/.claude
# 写入配置(SiliconFlow)
$ cat > ~/.claude/settings.json << 'EOF'
{
"env": {
"ANTHROPIC_API_KEY": "你的_SiliconFlow_API_Key",
"ANTHROPIC_BASE_URL": "https://api.siliconflow.cn",
"ANTHROPIC_MODEL": "Pro/moonshotai/Kimi-K2.5"
},
"alwaysThinkingEnabled": false
}
EOF
如果使用 Kimi:
# 写入配置(Kimi)
$ cat > ~/.claude/settings.json << 'EOF'
{
"env": {
"ANTHROPIC_API_KEY": "你的_Kimi_API_Key",
"ANTHROPIC_BASE_URL": "https://api.moonshot.cn/anthropic",
"ANTHROPIC_MODEL": "kimi-k2.5"
},
"alwaysThinkingEnabled": false
}
EOF
注意:如果 ~/.claude/settings.json 已有其他配置内容(比如模型设置),不要直接覆盖!用文本编辑器打开,在已有的 JSON 里添加 "env" 字段。
验证文件写入正确:
$ cat ~/.claude/settings.json
方法二:写入 ~/.bashrc
这是更传统的方式——把环境变量写进 shell 的启动文件,每次打开终端都自动生效。
如果使用 SiliconFlow:
# 追加到 ~/.bashrc
$ cat >> ~/.bashrc << 'EOF'
# Claude Code - 第三方 API 配置
export ANTHROPIC_API_KEY="你的_SiliconFlow_API_Key"
export ANTHROPIC_BASE_URL="https://api.siliconflow.cn"
export ANTHROPIC_MODEL="Pro/moonshotai/Kimi-K2.5"
EOF
# 立即在当前终端生效
$ source ~/.bashrc
如果使用 Kimi:
# 追加到 ~/.bashrc
$ cat >> ~/.bashrc << 'EOF'
# Claude Code - 第三方 API 配置
export ANTHROPIC_API_KEY="你的_Kimi_API_Key"
export ANTHROPIC_BASE_URL="https://api.moonshot.cn/anthropic"
export ANTHROPIC_MODEL="kimi-k2.5"
EOF
# 立即在当前终端生效
$ source ~/.bashrc
命令解释(Linux 新手必读):
mkdir -p ~/.claude:创建目录,-p表示目录已存在时不报错cat > 文件 << 'EOF':把后面多行内容覆盖写入文件,遇到EOF结束cat >> 文件 << 'EOF':把内容追加到文件末尾(>>是追加,>是覆盖)source ~/.bashrc:重新加载配置文件,让改动立即生效,无需重开终端
验证配置是否成功
检查环境变量是否已设置:
$ echo $ANTHROPIC_API_KEY
# 应该显示你的 API Key(不是空行)
$ echo $ANTHROPIC_BASE_URL
# 应该显示 https://api.siliconflow.cn 或 https://api.moonshot.cn/anthropic
检查要点:
- ✅ API Key 不为空
- ✅ API 端点地址正确(SiliconFlow 或 Kimi)
- ✅ 没有多余的空格或引号
- ✅ 方法二的话记得先
source ~/.bashrc
测试运行
现在可以试试运行 Claude Code 了:
$ cd ~/projects/my-project # 进入任意项目目录
$ claude
如果配置正确,应该能直接进入 Claude Code 的交互界面,不会再要求认证。
关于速率限制和使用量
使用第三方 API 时,需要了解几个关键指标,它们直接影响你的使用体验:
| 指标 | 说明 | 影响 |
|---|---|---|
| RPM (Requests Per Minute) |
每分钟请求次数限制 | 决定你能多快发送连续请求 |
| TPM (Tokens Per Minute) |
每分钟 token 数量限制 | 决定你能处理多大的上下文 |
| 并发数 | 同时进行的请求数 | 影响多任务处理能力 |
| 余额 | 账户剩余额度 | 用完需要充值才能继续使用 |
速率限制与充值的关系:大多数平台的速率限制(RPM/TPM)与你的充值金额或会员等级挂钩。充值越多,速率限制越宽松,使用体验越流畅。如果遇到频繁的速率限制错误,可以考虑充值提升等级。
进阶选择:官方 API 提供商
如果你需要更高的速率限制或更稳定的服务,可以考虑以下选项:
国内官方平台
Kimi / MiniMax / 智谱 GLM
这些平台的官方 API 服务通常有更高的速率限制和更稳定的响应速度,适合重度使用。
- Kimi:platform.moonshot.cn
- MiniMax:minimaxi.com
- 智谱 GLM:open.bigmodel.cn
国际聚合平台
OpenRouter / Groq
这些平台聚合了多个 AI 模型,提供更灵活的选择和更高的性能,但需要一定的网络条件。
- OpenRouter:openrouter.ai
- Groq:groq.com(超快推理速度)
它怎么工作的
理解这个能帮你更好地使用它:
- Claude Code 启动时会扫描你的项目结构(目录树、重要文件内容),建立对项目的理解
- 它有一个对话上下文窗口,你们的对话历史、读取的文件内容都在里面
- 它可以主动调用工具:读文件、写文件、执行终端命令、搜索代码……每次调用工具前会告诉你它要做什么
- 复杂任务它会自主规划步骤,一步一步执行,不需要你手动分解
Claude Code 在执行有破坏性操作(比如删除文件、修改重要配置、执行高危命令)时会先询问你的确认。这是安全机制,不要随意关掉。
基本使用方式
怎么跟它说话
启动后进入交互模式,像正常对话一样输入需求:
# 启动(在项目目录里)
$ claude
You: 帮我看看这个 Flask 应用为什么启动时报错
You: 在 src/auth.py 里添加 JWT token 刷新功能
You: 帮我写一个 pytest 测试文件,覆盖 UserService 的主要方法
You: 把项目里所有用 var 声明的变量改成 const 或 let
也可以直接传入任务,不进入交互模式(适合简单任务或脚本):
# 非交互式,执行完就退出
$ claude "解释一下 app.py 里 handle_error 函数的逻辑"
常用斜杠命令
在对话中输入 / 开头的命令来控制 Claude Code 的行为:
| 命令 | 作用 |
|---|---|
/help |
显示帮助信息和所有可用命令 |
/clear |
清空对话历史,开始新的上下文 |
/compact |
压缩对话历史(节省 token,对话太长时用) |
/status |
显示当前 token 用量和模型信息 |
/add 文件路径 |
手动把某个文件加入上下文 |
/exit |
退出 Claude Code |
让它高效工作的技巧
1. 说清楚「是什么」而不只是「怎么做」
不够好的提示:「帮我优化这段代码」
更好的提示:「这个函数在处理 10 万条记录时很慢,现在用了嵌套 for 循环,帮我用更高效的方法重写,要求兼容 Python 3.10+」
给的信息越具体,结果越准确。
2. 先让它分析,再让它动手
对于复杂任务,先问它的计划,确认思路对了再执行:
You: 我想给这个应用添加用户权限系统,你先说说你的实现思路,
等我确认后再开始写代码
Claude: 好的,我的思路是...
You: 方向对,但权限检查放在中间件层更好,按这个思路来
3. 充分利用它的工具调用能力
不用先把文件内容粘给它,直接告诉它文件在哪,它会自己去读:
You: 看一下 src/models/ 目录下所有的模型文件,
检查有没有缺少索引的外键字段
4. 和 Git 配合使用
开始让 Claude Code 做大改动前,先 git add . && git commit -m "checkpoint"。出了问题随时 git reset --hard HEAD 回到干净状态。
5. 任务失败时,给它更多信息
如果它做的不对,不要只说「不对」,把具体的报错信息、你期望的行为都告诉它:
You: 不对,运行后报了这个错:
TypeError: Cannot read properties of undefined (reading 'userId')
这个错误出现在 /api/profile 路由,用户已经登录了但 req.user 是 undefined,
问题应该出在 auth 中间件的顺序上
6. 长任务分段完成
一次性让它完成整个大项目通常效果不如分段来。把大任务分成几个阶段,每个阶段完成后检查、commit,再进行下一阶段。
费用说明
Claude Code 按 API 使用量计费,不是订阅制。
- 费用取决于你发送和接收的 token 数量(大约 1000 个中文字 ≈ 1500-2000 token)
- 日常轻度使用(写写脚本、调试、问问题),每月几美元到十几美元足够
- 重度使用(让它重构大型项目、长时间自主运行),费用会更高
- 在 Anthropic Console 的 Usage 页面可以实时看费用
控制费用的小技巧: 上下文太长时用 /compact 压缩,或者 /clear 开始新对话。避免让它反复读取整个大型项目的所有文件(用 /add 只添加相关文件)。
推荐的日常工作流
把前面几篇文章的内容整合起来,这是一个完整的 AI Coding 工作流:
打开 WSL 终端,进入项目
$ cd ~/projects/my-app
确认当前 Git 状态干净
$ git status
$ git pull # 拉取最新代码
创建功能分支(可选)
$ git switch -c feature/new-thing
启动 Claude Code,描述任务
$ claude
You: 我需要给 /api/posts 接口添加分页功能...
检查改动、测试、提交
$ git diff # 确认改了什么
$ python -m pytest # 跑测试
$ git add . && git commit -m "feat: 添加分页功能"
推送到 GitHub
$ git push
系列总结
到这里,这个系列的内容就完整了。回顾一下我们覆盖的内容:
操作系统 & WSL
知道为什么需要 Linux 环境,Windows 用户装好了 WSL。
Linux 终端
能自由导航文件系统,理解环境变量和 PATH。
Node.js & Python
两个运行时都装好,包管理器和虚拟环境会用。
Git & GitHub
版本控制不再陌生,代码有了安全的时光机。
Claude Code
装好了,会用了,知道怎么让它高效工作。
这些是 AI Coding 的地基,后续无论是深入某个框架、做某类项目,都建立在这套环境之上。