DeepSeek-V4 预览版上线:百万上下文成为新基线,开源模型向高性能区间逼近

DeepSeek-V4 预览版上线:百万上下文成为新基线,开源模型向高性能区间逼近

大模型之家讯 4月24日,DeepSeek正式发布DeepSeek-V4预览版,并同步开放模型权重,试图在开源体系中推进“百万上下文”的普及化进程。

DeepSeek-V4 预览版上线:百万上下文成为新基线,开源模型向高性能区间逼近

此次发布的DeepSeek-V4系列,核心变化集中在上下文长度、推理能力以及Agent适配能力三条主线,其产品路径也呈现出更明确的分层结构。

百万上下文成为默认配置

DeepSeek-V4最直接的升级在于上下文窗口扩展至1M(百万级token),并被设定为官方服务的标准能力。这一设定意味着,大模型在处理长文档、复杂代码库乃至多轮任务链时,将不再依赖频繁截断或外部检索补偿。

从行业趋势来看,百万上下文此前更多停留在头部闭源模型或实验性能力中,而此次直接作为默认配置下放至开源体系,意味着长上下文正从“能力标签”转向“基础设施”。

性能对标闭源模型,分层策略更加清晰

DeepSeek-V4系列分为两个版本:V4-Pro与V4-Flash,对应不同的性能与成本区间。

技术层面,DeepSeek-V4引入了一种新的注意力机制,通过在token维度进行压缩,并结合DSA(DeepSeek Sparse Attention)稀疏注意力结构,在保证长上下文能力的同时降低计算与显存消耗。这种路径,本质上是在“上下文长度”与“推理成本”之间寻找新的平衡点。

DeepSeek-V4 预览版上线:百万上下文成为新基线,开源模型向高性能区间逼近

其中,V4-Pro被定位为高性能版本。根据官方披露,其在Agentic Coding(智能体编程)等评测中达到开源模型的领先水平,整体表现接近当前主流闭源模型区间。在世界知识测试中,V4-Pro已超越多数开源模型,仅与Gemini-Pro-3.1等顶级闭源模型存在差距;在数学、STEM及竞赛级代码等推理任务中,则实现了对开源模型的全面超越。

DeepSeek-V4 预览版上线:百万上下文成为新基线,开源模型向高性能区间逼近

对比参考中,DeepSeek方面提及其体验优于Claude Sonnet 4.5,并接近Claude Opus 4.6的非思考模式,但在高强度推理(思考模式)下仍存在差距。这一表述在一定程度上反映出当前开源模型与顶级闭源模型之间的真实差距区间。

V4-Flash则更强调效率与成本控制。其在推理能力上接近V4-Pro,但在知识储备与复杂任务处理上略有下降。由于参数规模与激活成本更低,该版本更适用于对响应速度与调用成本敏感的场景。

这种“性能—成本”双轨结构,实际上已经成为当前大模型产品化的主流策略:一端对标能力上限,一端承接规模化调用。

Agent能力成为核心优化方向

相比以往强调通用对话能力,此次DeepSeek-V4的优化重点明显向Agent场景倾斜。

DeepSeek-V4 预览版上线:百万上下文成为新基线,开源模型向高性能区间逼近

模型针对Claude Code、OpenCode、CodeBuddy等主流Agent工具进行了适配,在代码生成、文档生成等任务中表现有所提升。从测试反馈来看,V4-Pro已经被用于内部Agentic Coding场景,并承担实际开发辅助任务。

这一变化背后,是行业对大模型定位的重新定义:从“回答问题的系统”,转向“执行任务的系统”。而Agent能力,正成为衡量模型实用价值的关键指标。

开源与API同步推进,生态窗口期仍在

在发布策略上,DeepSeek延续了“开源+商业API”并行的路径。DeepSeek-V4模型权重已在Hugging Face与ModelScope平台开放,同时API接口完成更新,支持OpenAI与Anthropic兼容协议。

DeepSeek-V4 预览版上线:百万上下文成为新基线,开源模型向高性能区间逼近

值得注意的是,原有API模型标识deepseek-chat与deepseek-reasoner将于2026年7月停止使用,逐步统一至V4体系。这一调整意味着,DeepSeek正在加速技术栈收敛,减少历史模型带来的维护成本。

从行业格局来看,开源模型近年来在性能上不断逼近闭源体系,但在商业化能力与生态成熟度上仍存在差距。DeepSeek-V4的推出,更多体现的是一种“逼近临界点”的状态:性能差距在缩小,但尚未完全跨越。

DeepSeek-V4 预览版上线:百万上下文成为新基线,开源模型向高性能区间逼近

从“能力展示”走向“能力下沉”

如果回看过去两年的模型演进路径,一个明显变化是:曾经被视为“前沿能力”的特性,正在快速转化为基础配置。

百万上下文就是典型例子。

DeepSeek-V4试图推动的,并不仅仅是一次模型升级,而是将长上下文从“少数模型的优势能力”,转变为“开源体系的普遍能力”。这一变化可能带来的影响,并不局限于模型本身,还将重塑应用层的设计逻辑,例如长文档处理、复杂Agent流程以及多任务编排。

但与此同时,新的问题也在浮现:当上下文不再是瓶颈,真正的竞争将转向推理效率、工具调用能力以及系统级协同。

换句话说,DeepSeek-V4所开启的,并不是终局,而是下一轮竞争的起点。

开源权重和本地部署 DeepSeek-V4 模型开源链接: https://huggingface.co/collections/deepseek-ai/deepseek-v4

https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4

DeepSeek-V4 技术报告: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

原创文章,作者:志斌,如若转载,请注明出处:http://www.damoai.com.cn/archives/15345

(0)
上一篇 19小时前
下一篇 1小时前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注