DeepSeek V4预览版正式发布:百万上下文与全维度能力突破

作者: CBISMB

责任编辑: 邹大斌

来源: CBISMB

时间: 2026-04-24 12:09

关键字: AI DeepSeek 大模型

浏览: 0

点赞: 0

收藏: 0

4月24日,DeepSeek正式推出其新一代旗舰大模型DeepSeek V4预览版,并同步开源模型权重。作为全球首个支持百万字超长上下文的开源大模型,V4在Agent能力、世界知识储备、推理性能三大核心领域实现跨越式突破,多项基准测试成绩直逼顶尖闭源模型,标志着中国AI技术正式迈入“普惠化长上下文”时代。

技术突破:百万上下文与架构革新

DeepSeek V4系列包含V4-Pro(1.6万亿总参数/490亿激活参数)与V4-Flash(2840亿总参数/130亿激活参数)双版本,均支持100万token(约百万汉字)超长上下文处理能力。这一突破得益于其独创的混合稀疏注意力机制(CSA+HCA):通过在token维度压缩信息并结合DeepSeek Sparse Attention(DSA)技术,将百万级上下文推理的显存需求降低至传统方法的10%,推理速度提升3倍以上。此外,V4首次引入Engram条件记忆架构,使模型在处理长文本时能动态聚焦关键信息,显著提升复杂任务中的逻辑连贯性。

性能表现:开源模型首次比肩闭源巨头

在权威基准测试中,DeepSeek V4-Pro展现惊人实力:

  • 编程能力:在LiveCodeBench中得分93.5%,Codeforces竞赛评分达3206,超越Gemini-3.1-Pro与Claude Opus-4.6;软件工程任务SWE-bench Verified通过率80.6%,成为开源模型中首个突破80%的里程碑。
  • 数学推理:IMO-AnswerBench准确率89.8%,HMMT 2026竞赛达95.2%,接近人类顶尖选手水平。
  • 世界知识:在综合知识测评中,V4-Pro仅略逊于闭源模型Gemini-Pro-3.1,大幅领先其他开源竞品。
  • 多模态支持:原生支持文本、图像、视频的统一理解与生成,填补DeepSeek此前在视觉领域的短板。

V4-Flash则以更轻量化的设计(参数减少80%)提供接近Pro版本的推理能力,在简单任务中表现持平,复杂任务中仍具高性价比优势。

应用场景:从代码生成到企业级Agent

DeepSeek V4针对主流Agent框架(如ClaudeCode、OpenClaw)进行深度优化,显著提升代码生成、文档分析、自动化决策等场景的效率。例如,在内部测试中,V4-Pro生成的PPT内页内容逻辑清晰度较前代提升40%,代码交付质量接近Opus-4.6非思考模式。此外,模型提供Non-Think、Think High、Think Max三档推理模式,开发者可根据任务复杂度动态调整响应速度与深度,复杂场景下建议启用Think Max模式并设置最高思考强度。

据悉,DeepSeek V4延续开源传统,模型权重已上架Hugging Face与ModelScope平台,技术报告同步公开。API服务同步上线,支持OpenAI ChatCompletions与Anthropic接口标准,开发者仅需修改模型参数即可无缝迁移。价格方面,V4-Pro输入token定价约0.14美元/百万,仅为西方同类模型的1/20至1/50,进一步降低企业与个人开发者的使用门槛。

©本站发布的所有内容,包括但不限于文字、图片、音频、视频、图表、标志、标识、广告、商标、商号、域名、软件、程序等,除特别标明外,均来源于网络或用户投稿,版权归原作者或原出处所有。我们致力于保护原作者版权,若涉及版权问题,请及时联系我们进行处理。