对于国内 OpenClaw 用户来说,Claude 和 ChatGPT 的 API 需要境外支付方式,且访问延迟较高;而 DeepSeek 作为国内自研顶级大模型,API 直接支持国内访问、人民币付款,价格仅为 Claude Sonnet 的 1/10 左右,综合性能跻身全球前列——是目前国内 OpenClaw 用户最受推荐的主力模型配置方案。本文手把手带你完成 OpenClaw + DeepSeek 的全流程接入配置。更多资源请访问 OpenClaw 中文版官网

一、DeepSeek 为什么是国内用户的最佳选择?

在 OpenClaw 支持的所有模型中,DeepSeek 对国内用户有几个独特优势:

  • 国内直连,无需翻墙api.deepseek.com 在中国大陆可以直接访问,无延迟困扰
  • 人民币付款:支持支付宝、微信支付充值,无需境外信用卡
  • 价格极低:DeepSeek V3 输入约 ¥0.002/千 Token,比 Claude Sonnet 便宜约 15 倍
  • 中文表现优秀:在中文理解、中文生成和中文代码注释等场景下表现出色
  • OpenAI 兼容 API:接入 OpenClaw 的配置极为简单,与主流格式完全兼容

价格横向对比

模型 输入价格 输出价格 上下文 国内直连
DeepSeek V3(deepseek-chat) $0.28/M $0.42/M 128K ✅ 是
DeepSeek R1(deepseek-reasoner) $0.55/M $2.19/M 128K ✅ 是
Claude Sonnet 4.6 $3.00/M $15.00/M 200K ❌ 需代理
GPT-5.2 $1.75/M $14.00/M 400K ❌ 需代理
Grok 4.1 Fast $0.20/M $0.50/M 2M ❌ 需代理

二、DeepSeek 模型选型:chat 还是 reasoner?

DeepSeek 目前提供两个主力模型,在 OpenClaw 中分别对应不同的使用场景:

deepseek-chat(V3)—— 日常任务首选

  • 对应 DeepSeek V3 架构,价格最低,响应速度快
  • 支持工具调用(Tool Use),与 OpenClaw 的技能系统兼容性好
  • 适合:日常对话、邮件处理、文档整理、代码辅助、数据分析
  • OpenClaw 日常使用首选

deepseek-reasoner(R1)—— 复杂推理场景

  • 对应 DeepSeek R1 架构,具备深度链式思维推理能力
  • 适合:数学解题、逻辑规划、复杂代码架构设计、长文本分析
  • 价格约为 chat 的 5 倍,推理时间较长
  • 建议按需临时切换,不要作为日常默认模型

三、获取 DeepSeek API Key

  1. 访问 platform.deepseek.com,用手机号注册账户
  2. 进入控制台,点击左侧 「API Keys」→「创建 API Key」
  3. 输入 Key 名称(如”OpenClaw”),点击创建,立即复制 Key(格式:sk-xxxxxxxxxxxx
  4. 点击左侧 「充值」,选择支付宝或微信支付,建议初次充值 10~20 元

注意:DeepSeek 平台没有永久免费额度,新用户通常赠送少量体验 Token。生产使用前请确保账户有余额,否则 API 调用会返回 401 或 402 错误。

四、在 OpenClaw 中接入 DeepSeek

DeepSeek 目前不是 OpenClaw 的内置服务商,需要通过自定义服务商(Custom Provider)方式接入。但配置极为简单——DeepSeek 使用 OpenAI 兼容 API 格式,只需几行配置即可。

第一步:设置环境变量

~/.openclaw/.env 中添加:

DEEPSEEK_API_KEY=sk-你的DeepSeek密钥

第二步:编辑 openclaw.json,添加 DeepSeek 服务商

打开 ~/.openclaw/openclaw.json,在文件中添加以下配置(注意与现有配置合并,不要覆盖整个文件):

{
  "models": {
    "mode": "merge",
    "providers": {
      "deepseek": {
        "baseUrl": "https://api.deepseek.com/v1",
        "apiKey": "${DEEPSEEK_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-chat",
            "name": "DeepSeek V3(日常任务)",
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 0.00000028,
              "output": 0.00000042,
              "cacheRead": 0.000000028,
              "cacheWrite": 0.00000028
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          },
          {
            "id": "deepseek-reasoner",
            "name": "DeepSeek R1(深度推理)",
            "reasoning": true,
            "input": ["text"],
            "cost": {
              "input": 0.00000055,
              "output": 0.00000219,
              "cacheRead": 0.000000055,
              "cacheWrite": 0.00000055
            },
            "contextWindow": 128000,
            "maxTokens": 65536
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "deepseek/deepseek-chat",
        "fallbacks": [
          "deepseek/deepseek-reasoner"
        ]
      },
      "models": {
        "deepseek/deepseek-chat": {
          "alias": "ds"
        },
        "deepseek/deepseek-reasoner": {
          "alias": "ds-r1"
        }
      }
    }
  }
}

第三步:重启 Gateway 并验证

# 重启 Gateway 使配置生效
openclaw daemon restart

# 验证 DeepSeek 模型已出现在列表中
openclaw models list
# 应看到:deepseek/deepseek-chat 和 deepseek/deepseek-reasoner

# 发送测试消息
# 在聊天中发送 /status,确认当前模型为 deepseek/deepseek-chat

# 运行健康检查
openclaw doctor

五、关键配置细节:避开最常见的三个坑

坑 1:Base URL 不加 /v1 导致连接失败

DeepSeek API 的正确 Base URL 是 https://api.deepseek.com/v1(带 /v1 后缀)。部分配置教程写的是 https://api.deepseek.com(不带 /v1),在某些情况下也能工作,但为了稳定性建议始终加上 /v1

坑 2:上下文窗口被错误截断

OpenClaw 对未知服务商会使用较小的默认上下文值(有时仅 4096),这会导致长对话被过早压缩。在配置中务必显式设置 contextWindow: 128000,否则 OpenClaw 的记忆压缩会比预期更激进。

坑 3:模型 ID 使用了旧版格式

DeepSeek 的模型 ID 必须严格使用 deepseek-chat(而不是 deepseek-v3 或其他变体)。在 OpenClaw 配置中引用时,格式为 deepseek/deepseek-chat(服务商名/模型ID)。

六、国内中转方案:百炼、硅基流动、OpenRouter

如果你在 DeepSeek 官方平台遇到访问问题,或者希望通过统一渠道管理多个国产模型,以下是经过社区验证的国内中转方案:

方案一:阿里云百炼(推荐企业用户)

阿里云百炼大模型平台支持 DeepSeek V3 等多个主流模型,且与阿里云轻量服务器深度集成,可以一键在轻量服务器上部署 OpenClaw 并配置百炼 API Key:

{
  "models": {
    "providers": {
      "bailian": {
        "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
        "apiKey": "${DASHSCOPE_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-v3",
            "name": "DeepSeek V3(百炼)",
            "contextWindow": 64000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

方案二:硅基流动(SiliconFlow)

硅基流动提供多个国产大模型的 API 中转,包含 DeepSeek、Qwen、GLM 等,且对新用户有赠送额度:

{
  "models": {
    "providers": {
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "${SILICONFLOW_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-ai/DeepSeek-V3",
            "name": "DeepSeek V3(硅基流动)",
            "contextWindow": 64000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

方案三:通过 OpenRouter 访问(国际节点)

OpenRouter 是 OpenClaw 原生支持的路由平台,可以通过它访问 DeepSeek 及其他数百个模型,配置更简单:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "openrouter/deepseek/deepseek-chat"
      }
    }
  },
  "env": {
    "OPENROUTER_API_KEY": "sk-or-你的密钥"
  }
}

OpenRouter 提示:OpenRouter 是国际节点,国内访问可能需要代理。优先使用 DeepSeek 官方 API,其次考虑百炼或硅基流动等国内中转。

七、DeepSeek + 飞书:国内用户的黄金组合

在国内 OpenClaw 社区中,DeepSeek + 飞书 已经成为最主流的配置组合。DeepSeek 负责低成本高质量的中文 AI 能力,飞书提供企业级消息平台接入——两者结合,无需境外账号,纯国内环境即可完整使用。

如果你已经按照本文配置好 DeepSeek,可以参考以下飞书快速接入步骤:

# 确认飞书插件已内置加载(OpenClaw ≥ 2026.2 已内置)
openclaw plugins list | grep feishu

# 添加飞书渠道
openclaw channels add
# 选择 Feishu,输入 App ID 和 App Secret

# 重启并验证
openclaw daemon restart
openclaw channels list

配置完成后,在飞书中与你的机器人对话,即可使用 DeepSeek 驱动的 OpenClaw 助手,全程无需任何境外服务。

八、本地 DeepSeek 量化版:零 API 费用方案

如果你对数据隐私有极高要求,或者希望完全零成本运行,可以通过 Ollama 在本地运行 DeepSeek 量化模型:

# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 拉取 DeepSeek-R1 蒸馏版(推荐 14B,需要约 10GB 显存或 16GB 内存)
ollama pull deepseek-r1:14b

# 在 openclaw.json 中配置 Ollama
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/deepseek-r1:14b"
      }
    }
  }
}

本地方案的适用场景:

  • 对话内容涉及敏感业务数据,不希望数据离开本地
  • 网络环境受限,无法访问任何外部 API
  • 轻度个人使用,希望零运营成本

注意:本地量化模型的能力显著弱于 API 版本,工具调用稳定性也较差(部分量化版不支持工具调用)。日常生产使用建议优先选择 DeepSeek 官方 API。

九、多模型混合策略:成本与质量最优解

社区实践证明,混合使用多个模型是 OpenClaw 国内用户降本增效的最优策略:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "deepseek/deepseek-chat",
        "fallbacks": [
          "deepseek/deepseek-reasoner",
          "minimax/MiniMax-M2.7"
        ]
      },
      "models": {
        "deepseek/deepseek-chat": { "alias": "ds" },
        "deepseek/deepseek-reasoner": { "alias": "ds-r1" },
        "minimax/MiniMax-M2.7": { "alias": "mm" }
      }
    }
  }
}

推荐工作流:

  • 日常对话、邮件整理、信息检索 → deepseek-chat(最低成本)
  • 复杂逻辑规划、代码架构设计 → /model ds-r1 临时切换 deepseek-reasoner
  • 需要中文表达更精准的场景 → /model mm 切换 MiniMax M2.7

十、常见报错速查

报错:Unknown model: anthropic/deepseek-chat

这是最常见的配置错误——服务商前缀写成了 anthropic 而非 deepseek。检查 agents.defaults.model.primary,确认格式为 deepseek/deepseek-chat

报错:401 Unauthorized

API Key 无效或账户余额为零。登录 platform.deepseek.com 检查 Key 状态和余额,确认 Key 已激活。

报错:context window too small(上下文被过早压缩)

配置中的 contextWindow 值偏小。确认已将 deepseek-chat 的 contextWindow 设置为 128000

报错:API 请求超时

DeepSeek 在高峰期偶发 503 或超时。建议在配置中设置备用模型:

openclaw config set gateway.requestTimeout 60000  # 增加超时到 60 秒

同时在 fallbacks 中加入 MiniMax 或其他国内模型作为备用。

总结

对于国内 OpenClaw 用户而言,DeepSeek + 飞书 是目前综合性价比最高的配置组合:无需境外账号和支付方式,API 直连国内无延迟,价格仅为 Claude 的十分之一,中文表现同样出色。

配置核心只有三步:注册 DeepSeek 账号获取 API Key → 在 openclaw.json 添加自定义服务商配置 → 重启 Gateway 验证。整个流程 10 分钟内即可完成。

想了解更多 OpenClaw 国内生态配置指南,包括阿里云/腾讯云一键部署方案、国产模型横向评测,欢迎访问 OpenClaw 中文版官网