发布时间:2026年5月13日 预计阅读:5 分钟

把DeepSeek-V4 Pro 接进Claude Code

把 Claude Code 的请求入口切到 DeepSeek 的 Anthropic 兼容接口,再把主模型设成 deepseek-v4-pro[1m],就能在 Claude Code 里使用 DeepSeek V4 Pro 的长上下文和更高思考等级。

适合谁看?

  • 已经在用 Claude Code,但想试试 DeepSeek V4 Pro 的人
  • 想要更长上下文处理大项目的人
  • 想降低 AI 编程工具使用成本的人

这套方案的重点不是“安装一个新 IDE”,而是复用 Claude Code 的终端交互体验,把底层模型服务换成 DeepSeek

你可以把它理解成:

Claude Code 负责交互和工具调用体验
DeepSeek API 负责模型推理
环境变量负责把两边接起来

官方文档里给出的关键配置是这几个:

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=<你的 DeepSeek API Key>
export ANTHROPIC_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash
export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash
export CLAUDE_CODE_EFFORT_LEVEL=max

这里最值得注意的是两点:

  1. deepseek-v4-pro[1m]:主模型使用 1M 上下文版本,适合读大项目、大文件、多轮任务。
  2. CLAUDE_CODE_EFFORT_LEVEL=max:把 Claude Code 的思考等级拉到更高档位,适合复杂规划和多步骤代码任务。

照做流程

setup-flow

1. 准备 Claude Code

如果你还没有 Claude Code,先装 Node.js 18+,再安装 Claude Code:

npm install -g @anthropic-ai/claude-code

检查是否安装成功:

claude --version

2. 创建 DeepSeek API Key

进入 DeepSeek API 开放平台,创建一个 API Key。

地址:

https://platform.deepseek.com/api_keys

注意:API Key 只在创建时完整显示,建议放到密码管理器或本地安全环境变量里,不要写进公开仓库。

3. 配置 Claude Code 使用 DeepSeek

Mac / Linux 直接在终端执行:

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=<你的 DeepSeek API Key>
export ANTHROPIC_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash
export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash
export CLAUDE_CODE_EFFORT_LEVEL=max

如果你不想每次开终端都重新 export,可以写入 ~/.zshrc

nano ~/.zshrc

保存后刷新:

source ~/.zshrc

4. 进入项目运行

cd /path/to/my-project
claude

如果能正常进入 Claude Code,并且请求走 DeepSeek API,就说明接入完成。


这个配置真正解决什么问题?

cover

1. 大项目上下文更够用

普通代码助手经常卡在“只能看局部文件”。

1M 上下文的价值在于:它更适合让模型一次性理解更多代码、文档、错误日志和需求说明。

它不等于永远不会出错,但能明显减少“刚说过的背景又忘了”的情况。

2. Claude Code 的终端体验还能保留

Claude Code 的优势是命令行里的工程工作流:

  • 能在项目目录里理解文件结构
  • 能围绕任务拆解步骤
  • 能配合代码修改和验证
  • 比网页聊天更贴近真实开发现场

接入 DeepSeek 后,你保留的是这套工作方式,替换的是模型服务入口。

3. 子任务可以用更轻模型

配置里把主模型设成 deepseek-v4-pro[1m],把部分子任务模型设成 deepseek-v4-flash

这样做的思路很实用:

  • 复杂规划、架构理解、长上下文任务交给 Pro
  • 较轻的子任务交给 Flash
  • 在体验和成本之间做平衡

我建议你这样用

不要一上来就让它“重构整个项目”。

更稳的方式是先给它小目标:

先阅读这个项目结构,告诉我启动入口、核心模块和主要依赖。

然后再进入具体任务:

帮我定位这个报错来自哪里,只分析,不要改代码。

确认分析靠谱后,再让它动手:

按最小改动修复这个问题,并告诉我改了哪些文件。

这样用,比直接一句“帮我优化项目”更容易得到可靠结果。


风险提醒

这套方案虽然方便,但有几个点要注意:

  1. API Key 不要提交到 Git 仓库。
  2. 长上下文不等于免费上下文。 大项目输入越多,Token 消耗越高。
  3. Max 思考等级适合复杂任务。 日常小改动不一定需要一直开最高档。
  4. 涉及生产代码时,必须自己 review。 AI 能提速,但不能替代工程责任。
  5. 模型和接口名称可能变动。 真正使用前,以 DeepSeek 官方文档为准。

DeepSeek V4 Pro 已经可以接入 Claude Code。

核心就是把 Claude Code 的 Anthropic 接口地址换成:

https://api.deepseek.com/anthropic

然后把主模型设为:

deepseek-v4-pro[1m]

再把思考等级拉到:

max

这样你就可以继续用 Claude Code 的终端开发体验,同时让底层请求走 DeepSeek。

我觉得这个组合最适合三类任务:

  • 读大项目
  • 分析复杂报错
  • 做多文件代码改造

但别把它当魔法。API Key 要管好,Token 成本要看住,生产代码一定要 review。

继续浏览

这篇文章读完后,你可以从首页、当前专题或左侧列表继续深入阅读

左侧已经放入当前专题的文章列表,你可以直接跳到同专题的其他帖子,不需要回退浏览器重新找内容。

当前文章:把DeepSeek-V4 Pro 接进Claude Code 所属入口:开发相关 预计阅读:5 分钟
回到首页 查看同类文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

5 + 4 =