4月24日,DeepSeek 正式上线并开源 DeepSeek-V4 预览版,同时推出 DeepSeek-V4-Flash 和 DeepSeek-V4-Pro 两个版本。根据官方 API 文档与 Hugging Face 页面信息,两款模型均支持 100 万 Token 上下文,最大输出长度为 384K Token,并支持非思考模式与思考模式切换。官方同时披露,旧的 deepseek-chat 与 deepseek-reasoner 将在 2026 年 7 月 24 日弃用,分别对应新版本中的非思考模式与思考模式,显示 DeepSeek 已开始把新版模型全面推向开发者接口与产品生态。
从模型规模与技术路线看,DeepSeek-V4-Pro 总参数规模达到 1.6T、激活参数为 49B,DeepSeek-V4-Flash 总参数规模为 284B、激活参数为 13B。技术报告显示,新系列重点针对超长上下文与 Agent 场景进行优化,引入压缩稀疏注意力与高度压缩注意力混合架构、流形约束超连接以及 Muon 优化器,以降低推理 FLOPs 与 KV 缓存开销,并提升长文本处理、世界知识和推理任务中的稳定性与效率。随着 API、开源权重和技术报告同步放出,DeepSeek V4 已不只是一次模型更新,更像是一次面向开发者生态的集中推进。
在 X 平台上,DeepSeek V4 的发布也迅速引发海外社交媒体热议。根据目前能检索到的公开索引片段,官方账号 @deepseek_ai 的发布帖已出现 194 条回复,讨论焦点集中在 1M 上下文、双版本定位、价格效率以及真实实测表现。部分开发者与模型评测账号把它视为开源阵营中最值得关注的新模型之一:模型评测账号 ValsAI 称,DeepSeek V4 已在其 Vibe Code Benchmark 上成为排名第一的开源权重模型;也有用户转引官方价格信息称,DeepSeek-V4-Flash 定价为 0.14/0.28,DeepSeek-V4-Pro 定价为 1.74/3.48。与此同时,X 上也出现了更谨慎的实际体验反馈,有用户表示其真实表现仍需更多公开基准测试和与主流闭源模型的横向对比,另有观点认为其实际效果大致处于 Kimi K2.6 附近、与部分美国主流模型相比仍有差距。整体来看,DeepSeek V4 已成为今天全球 AI 圈关注度最高、同时评价分化也最明显的新模型发布之一。
来源:DeepSeek、Hugging Face、机器之心、X
原始发布时间:2026-04-24