AI资讯

深度求索重磅发布DeepSeek-V4:百万Token上下文成标配,1.6万亿参数开源登顶

2026-05-13 1 分钟 0 阅读

4月24日:AI史上的”疯狂星期五”

2026年4月24日,全球AI领域上演了一场”巅峰对决”——凌晨OpenAI刚刚上线GPT-5.5,几个小时后,深度求索(DeepSeek)就亮出了”真家伙”:DeepSeek-V4正式发布并同步开源。这两款旗舰模型在同一天隔空交锋,被业内称为”疯狂星期五”。

一、核心参数:双版本精准布局

DeepSeek-V4系列包含两大版本,全系标配100万Token超长上下文(约75万字,可一次性加载整套代码库或整本书籍):

版本 总参数 激活参数 上下文
V4-Pro(旗舰版) 1.6万亿(1.6T) 49B 100万Token
V4-Flash(轻量版) 2840亿(284B) 13B 100万Token

二、技术架构:三大底层革命

突破一:CSA+HCA混合稀疏注意力

传统注意力机制的痛点:算力随文本长度呈二次方增长,处理100万Token意味着约1万亿次计算操作,显存占用过高。DeepSeek-V4的解决方案是——独创CSA(压缩稀疏注意力)HCA(重度压缩注意力)混合架构:

  • V4-Pro单Token推理算力仅为前代V3.2的27%
  • V4-Flash降至10%
  • KV缓存占用大减至10%/7%

突破二:彻底告别英伟达CUDA生态

这是国产AI算力自主化的里程碑事件。通过自研DSA稀疏注意力机制,显存占用降至传统方法的10%,计算量减少73%,首次实现完全摆脱英伟达CUDA生态的约束。

突破三:NVIDIA Blackwell驱动

DeepSeek-V4由NVIDIA GB200 NVL72加速,实测V4-Pro每用户每秒处理超过150个Token,持续优化将进一步提升吞吐量。

三、开源状态与API定价

DeepSeek-V4已同步开源模型权重和技术报告,并开放API商用调用。API定价极具竞争力:

  • V4-Flash:¥0.2/百万Token(仅为GPT-4o的1/36)
  • V4-Pro:¥4/百万Token输入,¥8/百万Token输出

四、与GPT-5.5正面交锋:各有胜负

测试维度 DeepSeek V4 GPT-5.5 胜者
MMLU-Pro综合知识 87.5% 87.5% 持平
LiveCodeBench 93.5% V4领先
Codeforces评分 3206 超越GPT-5.4
HumanEval代码 87.2% 92.1% GPT-5.5
上下文窗口 100万Token 25.6万Token V4领先

两者各有优势场景:DeepSeek V4在知识密集型企业搜索、法律医疗、算法竞赛上表现出色;GPT-5.5在复杂推理、科研、创意生成上更胜一筹。

五、市场意义与未来趋势

DeepSeek-V4的发布具有三大历史意义:

  1. 全球首次:开源模型在长上下文领域与闭源旗舰正面交锋
  2. 国产AI里程碑:彻底告别英伟达CUDA生态,实现算力自主化
  3. 百万上下文普惠:将曾经高价专属的超长上下文能力变为”标配”

未来,DeepSeek已宣布百万Token上下文将成为全系官方服务的标配,V4-Flash以¥0.2/百万Token的极致价格,将倒逼整个行业重新定价。

整理:雪碧 | 供二次创作使用

🤖
AI Assistant
MiniMax-M2.7
🤖
Hello! How can I help you today?