对于国内 OpenClaw 用户来说,Claude 和 ChatGPT 的 API 需要境外支付方式,且访问延迟较高;而 DeepSeek 作为国内自研顶级大模型,API 直接支持国内访问、人民币付款,价格仅为 Claude Sonnet 的 1/10 左右,综合性能跻身全球前列——是目前国内 OpenClaw 用户最受推荐的主力模型配置方案。本文手把手带你完成 OpenClaw + DeepSeek 的全流程接入配置。更多资源请访问 OpenClaw 中文版官网。
一、DeepSeek 为什么是国内用户的最佳选择?
在 OpenClaw 支持的所有模型中,DeepSeek 对国内用户有几个独特优势:
- 国内直连,无需翻墙:
api.deepseek.com在中国大陆可以直接访问,无延迟困扰 - 人民币付款:支持支付宝、微信支付充值,无需境外信用卡
- 价格极低:DeepSeek V3 输入约 ¥0.002/千 Token,比 Claude Sonnet 便宜约 15 倍
- 中文表现优秀:在中文理解、中文生成和中文代码注释等场景下表现出色
- OpenAI 兼容 API:接入 OpenClaw 的配置极为简单,与主流格式完全兼容
价格横向对比
| 模型 | 输入价格 | 输出价格 | 上下文 | 国内直连 |
|---|---|---|---|---|
| DeepSeek V3(deepseek-chat) | $0.28/M | $0.42/M | 128K | ✅ 是 |
| DeepSeek R1(deepseek-reasoner) | $0.55/M | $2.19/M | 128K | ✅ 是 |
| Claude Sonnet 4.6 | $3.00/M | $15.00/M | 200K | ❌ 需代理 |
| GPT-5.2 | $1.75/M | $14.00/M | 400K | ❌ 需代理 |
| Grok 4.1 Fast | $0.20/M | $0.50/M | 2M | ❌ 需代理 |
二、DeepSeek 模型选型:chat 还是 reasoner?
DeepSeek 目前提供两个主力模型,在 OpenClaw 中分别对应不同的使用场景:
deepseek-chat(V3)—— 日常任务首选
- 对应 DeepSeek V3 架构,价格最低,响应速度快
- 支持工具调用(Tool Use),与 OpenClaw 的技能系统兼容性好
- 适合:日常对话、邮件处理、文档整理、代码辅助、数据分析
- OpenClaw 日常使用首选
deepseek-reasoner(R1)—— 复杂推理场景
- 对应 DeepSeek R1 架构,具备深度链式思维推理能力
- 适合:数学解题、逻辑规划、复杂代码架构设计、长文本分析
- 价格约为 chat 的 5 倍,推理时间较长
- 建议按需临时切换,不要作为日常默认模型
三、获取 DeepSeek API Key
- 访问
platform.deepseek.com,用手机号注册账户 - 进入控制台,点击左侧 「API Keys」→「创建 API Key」
- 输入 Key 名称(如”OpenClaw”),点击创建,立即复制 Key(格式:
sk-xxxxxxxxxxxx) - 点击左侧 「充值」,选择支付宝或微信支付,建议初次充值 10~20 元
注意:DeepSeek 平台没有永久免费额度,新用户通常赠送少量体验 Token。生产使用前请确保账户有余额,否则 API 调用会返回 401 或 402 错误。
四、在 OpenClaw 中接入 DeepSeek
DeepSeek 目前不是 OpenClaw 的内置服务商,需要通过自定义服务商(Custom Provider)方式接入。但配置极为简单——DeepSeek 使用 OpenAI 兼容 API 格式,只需几行配置即可。
第一步:设置环境变量
在 ~/.openclaw/.env 中添加:
DEEPSEEK_API_KEY=sk-你的DeepSeek密钥
第二步:编辑 openclaw.json,添加 DeepSeek 服务商
打开 ~/.openclaw/openclaw.json,在文件中添加以下配置(注意与现有配置合并,不要覆盖整个文件):
{
"models": {
"mode": "merge",
"providers": {
"deepseek": {
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "${DEEPSEEK_API_KEY}",
"api": "openai-completions",
"models": [
{
"id": "deepseek-chat",
"name": "DeepSeek V3(日常任务)",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0.00000028,
"output": 0.00000042,
"cacheRead": 0.000000028,
"cacheWrite": 0.00000028
},
"contextWindow": 128000,
"maxTokens": 8192
},
{
"id": "deepseek-reasoner",
"name": "DeepSeek R1(深度推理)",
"reasoning": true,
"input": ["text"],
"cost": {
"input": 0.00000055,
"output": 0.00000219,
"cacheRead": 0.000000055,
"cacheWrite": 0.00000055
},
"contextWindow": 128000,
"maxTokens": 65536
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "deepseek/deepseek-chat",
"fallbacks": [
"deepseek/deepseek-reasoner"
]
},
"models": {
"deepseek/deepseek-chat": {
"alias": "ds"
},
"deepseek/deepseek-reasoner": {
"alias": "ds-r1"
}
}
}
}
}
第三步:重启 Gateway 并验证
# 重启 Gateway 使配置生效
openclaw daemon restart
# 验证 DeepSeek 模型已出现在列表中
openclaw models list
# 应看到:deepseek/deepseek-chat 和 deepseek/deepseek-reasoner
# 发送测试消息
# 在聊天中发送 /status,确认当前模型为 deepseek/deepseek-chat
# 运行健康检查
openclaw doctor
五、关键配置细节:避开最常见的三个坑
坑 1:Base URL 不加 /v1 导致连接失败
DeepSeek API 的正确 Base URL 是 https://api.deepseek.com/v1(带 /v1 后缀)。部分配置教程写的是 https://api.deepseek.com(不带 /v1),在某些情况下也能工作,但为了稳定性建议始终加上 /v1。
坑 2:上下文窗口被错误截断
OpenClaw 对未知服务商会使用较小的默认上下文值(有时仅 4096),这会导致长对话被过早压缩。在配置中务必显式设置 contextWindow: 128000,否则 OpenClaw 的记忆压缩会比预期更激进。
坑 3:模型 ID 使用了旧版格式
DeepSeek 的模型 ID 必须严格使用 deepseek-chat(而不是 deepseek-v3 或其他变体)。在 OpenClaw 配置中引用时,格式为 deepseek/deepseek-chat(服务商名/模型ID)。
六、国内中转方案:百炼、硅基流动、OpenRouter
如果你在 DeepSeek 官方平台遇到访问问题,或者希望通过统一渠道管理多个国产模型,以下是经过社区验证的国内中转方案:
方案一:阿里云百炼(推荐企业用户)
阿里云百炼大模型平台支持 DeepSeek V3 等多个主流模型,且与阿里云轻量服务器深度集成,可以一键在轻量服务器上部署 OpenClaw 并配置百炼 API Key:
{
"models": {
"providers": {
"bailian": {
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"apiKey": "${DASHSCOPE_API_KEY}",
"api": "openai-completions",
"models": [
{
"id": "deepseek-v3",
"name": "DeepSeek V3(百炼)",
"contextWindow": 64000,
"maxTokens": 8192
}
]
}
}
}
}
方案二:硅基流动(SiliconFlow)
硅基流动提供多个国产大模型的 API 中转,包含 DeepSeek、Qwen、GLM 等,且对新用户有赠送额度:
{
"models": {
"providers": {
"siliconflow": {
"baseUrl": "https://api.siliconflow.cn/v1",
"apiKey": "${SILICONFLOW_API_KEY}",
"api": "openai-completions",
"models": [
{
"id": "deepseek-ai/DeepSeek-V3",
"name": "DeepSeek V3(硅基流动)",
"contextWindow": 64000,
"maxTokens": 8192
}
]
}
}
}
}
方案三:通过 OpenRouter 访问(国际节点)
OpenRouter 是 OpenClaw 原生支持的路由平台,可以通过它访问 DeepSeek 及其他数百个模型,配置更简单:
{
"agents": {
"defaults": {
"model": {
"primary": "openrouter/deepseek/deepseek-chat"
}
}
},
"env": {
"OPENROUTER_API_KEY": "sk-or-你的密钥"
}
}
OpenRouter 提示:OpenRouter 是国际节点,国内访问可能需要代理。优先使用 DeepSeek 官方 API,其次考虑百炼或硅基流动等国内中转。
七、DeepSeek + 飞书:国内用户的黄金组合
在国内 OpenClaw 社区中,DeepSeek + 飞书 已经成为最主流的配置组合。DeepSeek 负责低成本高质量的中文 AI 能力,飞书提供企业级消息平台接入——两者结合,无需境外账号,纯国内环境即可完整使用。
如果你已经按照本文配置好 DeepSeek,可以参考以下飞书快速接入步骤:
# 确认飞书插件已内置加载(OpenClaw ≥ 2026.2 已内置)
openclaw plugins list | grep feishu
# 添加飞书渠道
openclaw channels add
# 选择 Feishu,输入 App ID 和 App Secret
# 重启并验证
openclaw daemon restart
openclaw channels list
配置完成后,在飞书中与你的机器人对话,即可使用 DeepSeek 驱动的 OpenClaw 助手,全程无需任何境外服务。
八、本地 DeepSeek 量化版:零 API 费用方案
如果你对数据隐私有极高要求,或者希望完全零成本运行,可以通过 Ollama 在本地运行 DeepSeek 量化模型:
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 拉取 DeepSeek-R1 蒸馏版(推荐 14B,需要约 10GB 显存或 16GB 内存)
ollama pull deepseek-r1:14b
# 在 openclaw.json 中配置 Ollama
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/deepseek-r1:14b"
}
}
}
}
本地方案的适用场景:
- 对话内容涉及敏感业务数据,不希望数据离开本地
- 网络环境受限,无法访问任何外部 API
- 轻度个人使用,希望零运营成本
注意:本地量化模型的能力显著弱于 API 版本,工具调用稳定性也较差(部分量化版不支持工具调用)。日常生产使用建议优先选择 DeepSeek 官方 API。
九、多模型混合策略:成本与质量最优解
社区实践证明,混合使用多个模型是 OpenClaw 国内用户降本增效的最优策略:
{
"agents": {
"defaults": {
"model": {
"primary": "deepseek/deepseek-chat",
"fallbacks": [
"deepseek/deepseek-reasoner",
"minimax/MiniMax-M2.7"
]
},
"models": {
"deepseek/deepseek-chat": { "alias": "ds" },
"deepseek/deepseek-reasoner": { "alias": "ds-r1" },
"minimax/MiniMax-M2.7": { "alias": "mm" }
}
}
}
}
推荐工作流:
- 日常对话、邮件整理、信息检索 → deepseek-chat(最低成本)
- 复杂逻辑规划、代码架构设计 →
/model ds-r1临时切换 deepseek-reasoner - 需要中文表达更精准的场景 →
/model mm切换 MiniMax M2.7
十、常见报错速查
报错:Unknown model: anthropic/deepseek-chat
这是最常见的配置错误——服务商前缀写成了 anthropic 而非 deepseek。检查 agents.defaults.model.primary,确认格式为 deepseek/deepseek-chat。
报错:401 Unauthorized
API Key 无效或账户余额为零。登录 platform.deepseek.com 检查 Key 状态和余额,确认 Key 已激活。
报错:context window too small(上下文被过早压缩)
配置中的 contextWindow 值偏小。确认已将 deepseek-chat 的 contextWindow 设置为 128000。
报错:API 请求超时
DeepSeek 在高峰期偶发 503 或超时。建议在配置中设置备用模型:
openclaw config set gateway.requestTimeout 60000 # 增加超时到 60 秒
同时在 fallbacks 中加入 MiniMax 或其他国内模型作为备用。
总结
对于国内 OpenClaw 用户而言,DeepSeek + 飞书 是目前综合性价比最高的配置组合:无需境外账号和支付方式,API 直连国内无延迟,价格仅为 Claude 的十分之一,中文表现同样出色。
配置核心只有三步:注册 DeepSeek 账号获取 API Key → 在 openclaw.json 添加自定义服务商配置 → 重启 Gateway 验证。整个流程 10 分钟内即可完成。
想了解更多 OpenClaw 国内生态配置指南,包括阿里云/腾讯云一键部署方案、国产模型横向评测,欢迎访问 OpenClaw 中文版官网。