DeepSeek V4预览版正式发布:百万上下文与全维度能力突破
作者: CBISMB
责任编辑: 邹大斌
来源: CBISMB
时间: 2026-04-24 12:09
浏览: 0
点赞: 0
收藏: 0
4月24日,DeepSeek正式推出其新一代旗舰大模型DeepSeek V4预览版,并同步开源模型权重。作为全球首个支持百万字超长上下文的开源大模型,V4在Agent能力、世界知识储备、推理性能三大核心领域实现跨越式突破,多项基准测试成绩直逼顶尖闭源模型,标志着中国AI技术正式迈入“普惠化长上下文”时代。
技术突破:百万上下文与架构革新
DeepSeek V4系列包含V4-Pro(1.6万亿总参数/490亿激活参数)与V4-Flash(2840亿总参数/130亿激活参数)双版本,均支持100万token(约百万汉字)超长上下文处理能力。这一突破得益于其独创的混合稀疏注意力机制(CSA+HCA):通过在token维度压缩信息并结合DeepSeek Sparse Attention(DSA)技术,将百万级上下文推理的显存需求降低至传统方法的10%,推理速度提升3倍以上。此外,V4首次引入Engram条件记忆架构,使模型在处理长文本时能动态聚焦关键信息,显著提升复杂任务中的逻辑连贯性。
性能表现:开源模型首次比肩闭源巨头
在权威基准测试中,DeepSeek V4-Pro展现惊人实力:
- 编程能力:在LiveCodeBench中得分93.5%,Codeforces竞赛评分达3206,超越Gemini-3.1-Pro与Claude Opus-4.6;软件工程任务SWE-bench Verified通过率80.6%,成为开源模型中首个突破80%的里程碑。
- 数学推理:IMO-AnswerBench准确率89.8%,HMMT 2026竞赛达95.2%,接近人类顶尖选手水平。
- 世界知识:在综合知识测评中,V4-Pro仅略逊于闭源模型Gemini-Pro-3.1,大幅领先其他开源竞品。
- 多模态支持:原生支持文本、图像、视频的统一理解与生成,填补DeepSeek此前在视觉领域的短板。
V4-Flash则以更轻量化的设计(参数减少80%)提供接近Pro版本的推理能力,在简单任务中表现持平,复杂任务中仍具高性价比优势。
应用场景:从代码生成到企业级Agent
DeepSeek V4针对主流Agent框架(如ClaudeCode、OpenClaw)进行深度优化,显著提升代码生成、文档分析、自动化决策等场景的效率。例如,在内部测试中,V4-Pro生成的PPT内页内容逻辑清晰度较前代提升40%,代码交付质量接近Opus-4.6非思考模式。此外,模型提供Non-Think、Think High、Think Max三档推理模式,开发者可根据任务复杂度动态调整响应速度与深度,复杂场景下建议启用Think Max模式并设置最高思考强度。
据悉,DeepSeek V4延续开源传统,模型权重已上架Hugging Face与ModelScope平台,技术报告同步公开。API服务同步上线,支持OpenAI ChatCompletions与Anthropic接口标准,开发者仅需修改模型参数即可无缝迁移。价格方面,V4-Pro输入token定价约0.14美元/百万,仅为西方同类模型的1/20至1/50,进一步降低企业与个人开发者的使用门槛。