微语已支持 DeepSeek-V4:接入 deepseek-v4-flash 与 deepseek-v4-pro
DeepSeek 已于 2026 年 4 月发布 DeepSeek-V4 预览版,正式推出 deepseek-v4-flash 与 deepseek-v4-pro 两个新模型。微语当前版本已经支持这两个最新模型,企业可以直接在微语管理后台完成切换与配置,无需改动集成方式。
DeepSeek-V4 带来了什么
根据 DeepSeek 官方发布说明,DeepSeek-V4 预览版重点带来了以下变化:
- 支持 1M 超长上下文,更适合长文档问答、复杂知识库和多轮业务对话
- Agent 能力进一步增强,在代码生成、文档生成和工具调用场景中表现更强
- 提供更清晰的产品分层:deepseek-v4-pro 面向高质量复杂任务,deepseek-v4-flash 面向高性价比和更快响应场景
对于客服、智能问答、知识库检索和自动化流程这类业务来说,长上下文和 Agent 能力的提升都非常关键。尤其是在需要持续理解历史会话、工具调用结果和业务文档时,DeepSeek-V4 会比旧模型更稳定。
微语当前已支持的 DeepSeek 新模型
在微语的模型配置中,DeepSeek 供应商下已提供以下模型:
| 模型名 | 说明 | 适用场景 |
|---|---|---|
| deepseek-v4-flash | 快速、经济、响应延迟更低 | 在线客服、常见问题、批量问答 |
| deepseek-v4-pro | 能力更强,适合复杂推理与 Agent 任务 | 复杂业务流程、知识库深问、智能助手 |
| deepseek-chat | 旧模型名,将于 2026-07-24 停止使用 | 仅用于兼容旧配置 |
| deepseek-reasoner | 旧模型名,将于 2026-07-24 停止使用 | 仅用于兼容旧配置 |
也就是说,如果你此前已经在微语中使用 DeepSeek,现在只需要在 AI 模型配置页把模型切换为 deepseek-v4-flash 或 deepseek-v4-pro,即可开始使用最新能力 。
旧模型名弃用说明
DeepSeek 官方已明确说明:
- deepseek-chat 将于 2026-07-24 停止使用
- deepseek-reasoner 将于 2026-07-24 停止使用
在当前过渡阶段,这两个旧模型名仍然可用,但它们主要用于兼容旧配置:
- deepseek-chat 当前指向 deepseek-v4-flash 的非思考模式
- deepseek-reasoner 当前指向 deepseek-v4-flash 的思考模式
如果你正在新建机器人、工作组或租户级 AI 配置,建议直接使用 deepseek-v4-flash 或 deepseek-v4-pro,不再继续依赖旧模型名。
微语中的推荐迁移方式
如果你已经在生产环境使用 DeepSeek,推荐按下面方式迁移:
1. 优先从旧模型名切换到新模型名
将默认模型从下列旧值替换为新值:
- deepseek-chat -> deepseek-v4-flash
- deepseek-reasoner -> deepseek-v4-pro 或 deepseek-v4-flash
如果你的场景更看重回复速度和成本,优先使用 deepseek-v4-flash;如果更看重复杂推理、长链路任务和 Agent 表现,优先使用 deepseek-v4-pro。
2. 保持 base URL 不变
DeepSeek-V4 的 API 接入方式没有改变,仍然使用原有 DeepSeek API 地址:
https://api.deepseek.com
迁移时主要修改的是 model 参数,而不是接入地址。
3. 在微语后台完成切换
你可以直接在微语管理后台中完成以下操作:
- 登录管理后台
- 进入 AI 模型配置页面
- 选择 DeepSeek 作为模型提供商
- 将默认模型切换为 deepseek-v4-flash 或 deepseek-v4-pro
- 保存并测试对话效果
整个过程不需要重新嵌入聊天代码,也不需要改动访客端接入方式。
选择建议
如果你不确定该如何选择,可以参考下面的实践建议:
- 在线客服机器人默认首选 deepseek-v4-flash
- 复杂业务问答、知识库深度问答、工作流助手优先选择 deepseek-v4-pro
- 对历史配置做兼容保留时,可暂时保留 deepseek-chat 与 deepseek-reasoner,但应尽快迁移
总结
随着 DeepSeek-V4 发布,微语已经同步支持最新的 deepseek-v4-flash 与 deepseek-v4-pro。对于需要长上下文、复杂推理、Agent 协作和更高质量自动化客服体验的团队来说,这是一次值得尽快完成的升级。
如果你已经在使用微语对接 DeepSeek,建议尽快把默认模型从 deepseek-chat 或 deepseek-reasoner 迁移到新的 V4 模型名称,以避免后续弃用带来的影响。
