跳到主要内容

微语已支持 DeepSeek-V4:接入 deepseek-v4-flash 与 deepseek-v4-pro

· 阅读需 4 分钟
Jack Ning
Maintainer of Bytedesk

DeepSeek 已于 2026 年 4 月发布 DeepSeek-V4 预览版,正式推出 deepseek-v4-flash 与 deepseek-v4-pro 两个新模型。微语当前版本已经支持这两个最新模型,企业可以直接在微语管理后台完成切换与配置,无需改动集成方式。

DeepSeek-V4 带来了什么

根据 DeepSeek 官方发布说明,DeepSeek-V4 预览版重点带来了以下变化:

  • 支持 1M 超长上下文,更适合长文档问答、复杂知识库和多轮业务对话
  • Agent 能力进一步增强,在代码生成、文档生成和工具调用场景中表现更强
  • 提供更清晰的产品分层:deepseek-v4-pro 面向高质量复杂任务,deepseek-v4-flash 面向高性价比和更快响应场景

对于客服、智能问答、知识库检索和自动化流程这类业务来说,长上下文和 Agent 能力的提升都非常关键。尤其是在需要持续理解历史会话、工具调用结果和业务文档时,DeepSeek-V4 会比旧模型更稳定。

微语当前已支持的 DeepSeek 新模型

在微语的模型配置中,DeepSeek 供应商下已提供以下模型:

模型名说明适用场景
deepseek-v4-flash快速、经济、响应延迟更低在线客服、常见问题、批量问答
deepseek-v4-pro能力更强,适合复杂推理与 Agent 任务复杂业务流程、知识库深问、智能助手
deepseek-chat旧模型名,将于 2026-07-24 停止使用仅用于兼容旧配置
deepseek-reasoner旧模型名,将于 2026-07-24 停止使用仅用于兼容旧配置

也就是说,如果你此前已经在微语中使用 DeepSeek,现在只需要在 AI 模型配置页把模型切换为 deepseek-v4-flash 或 deepseek-v4-pro,即可开始使用最新能力。

旧模型名弃用说明

DeepSeek 官方已明确说明:

  • deepseek-chat 将于 2026-07-24 停止使用
  • deepseek-reasoner 将于 2026-07-24 停止使用

在当前过渡阶段,这两个旧模型名仍然可用,但它们主要用于兼容旧配置:

  • deepseek-chat 当前指向 deepseek-v4-flash 的非思考模式
  • deepseek-reasoner 当前指向 deepseek-v4-flash 的思考模式

如果你正在新建机器人、工作组或租户级 AI 配置,建议直接使用 deepseek-v4-flash 或 deepseek-v4-pro,不再继续依赖旧模型名。

微语中的推荐迁移方式

如果你已经在生产环境使用 DeepSeek,推荐按下面方式迁移:

1. 优先从旧模型名切换到新模型名

将默认模型从下列旧值替换为新值:

  • deepseek-chat -> deepseek-v4-flash
  • deepseek-reasoner -> deepseek-v4-pro 或 deepseek-v4-flash

如果你的场景更看重回复速度和成本,优先使用 deepseek-v4-flash;如果更看重复杂推理、长链路任务和 Agent 表现,优先使用 deepseek-v4-pro。

2. 保持 base URL 不变

DeepSeek-V4 的 API 接入方式没有改变,仍然使用原有 DeepSeek API 地址:

https://api.deepseek.com

迁移时主要修改的是 model 参数,而不是接入地址。

3. 在微语后台完成切换

你可以直接在微语管理后台中完成以下操作:

  1. 登录管理后台
  2. 进入 AI 模型配置页面
  3. 选择 DeepSeek 作为模型提供商
  4. 将默认模型切换为 deepseek-v4-flash 或 deepseek-v4-pro
  5. 保存并测试对话效果

整个过程不需要重新嵌入聊天代码,也不需要改动访客端接入方式。

选择建议

如果你不确定该如何选择,可以参考下面的实践建议:

  • 在线客服机器人默认首选 deepseek-v4-flash
  • 复杂业务问答、知识库深度问答、工作流助手优先选择 deepseek-v4-pro
  • 对历史配置做兼容保留时,可暂时保留 deepseek-chat 与 deepseek-reasoner,但应尽快迁移

总结

随着 DeepSeek-V4 发布,微语已经同步支持最新的 deepseek-v4-flash 与 deepseek-v4-pro。对于需要长上下文、复杂推理、Agent 协作和更高质量自动化客服体验的团队来说,这是一次值得尽快完成的升级。

如果你已经在使用微语对接 DeepSeek,建议尽快把默认模型从 deepseek-chat 或 deepseek-reasoner 迁移到新的 V4 模型名称,以避免后续弃用带来的影响。

相关资源