
2026年4月24日,深度求索公司的全新系列模型DeepSeek-V4预览版本正式上线并同步开源。DeepSeek-V4拥有百万字超长上下文,在Agent(智能体)能力、世界知识和推理性能上均实现国内与开源领域的领先。
即日起登录官网chat.deepseek.com或官方App,即可与最新的DeepSeek-V4 对话,探索1M超长上下文记忆的全新体验。
【性能比肩顶级闭源模型】
相比前代模型,DeepSeek-V4-Pro的智能体能力显著增强。在Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他智能体相关评测中同样表现优异。
DeepSeek-V4-Pro在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。
在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。
【大幅降低对计算和显存的需求】
相比 DeepSeek-V4-Pro,DeepSeek-V4-Flash在世界知识储备方面稍逊一筹,但展现出了接近的推理能力。而由于模型参数和激活更小,相较之下 V4-Flash 能够提供更加快捷、经济的应用程序接口(API)服务。
在智能体测评中,DeepSeek-V4-Flash在简单任务上与DeepSeek-V4-Pro旗鼓相当,但在高难度任务上仍有差距。
DeepSeek-V4开创了一种全新的注意力机制,在词元(token)维度进行压缩,实现了全球领先的长上下文能力,且相比于传统方法大幅降低了对计算和显存的需求。从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。
DeepSeek-V4 针对Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流的智能体产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。
目前,DeepSeek API已同步上线V4-Pro与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。

曼雅配资提示:文章来自网络,不代表本站观点。