DeepSeek 发布V3.1模型:上下文拓展至128k,开源6850亿参数版本

大模型之家讯 8月19日晚间,DeepSeek宣布线上模型版本升级至V3.1,上下文长度拓展至128k(约 10 万 – 16 万字),支持长文档分析、代码库理解及长对话一致性优化。同日凌晨,DeepSeek开源V3.1-Base模型,参数达6850亿,支持BF16、F8_E4M3、F32三种张量类型,以Safetensors 格式发布,便于高效推理。实测显示,V3.1在 Aider编程基准测试中以71.6% 的成绩超越Claude 4 Opus,单次编程任务成本仅1美元,且原生支持搜索token,推理速度显著提升。此外,模型去除 “R1” 标识,被推测未来可能采用混合架构。针对市场关注的R2发布计划,DeepSeek明确表示8月内无发布安排,且R2需待V4版本更新后才会推出。目前,V3.1已开放官网、APP及小程序测试,API接口保持与OpenAI兼容,新用户可享受45天优惠期至2025年2月8日。

上一篇:

下一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注