DeepSeek V4 Pro 来了!标配百万上下文,国产模型再次刷新开源 AI 天花板?
今天一大消息就是开源 AI 大模型圈的“卷王” DeepSeek,憋了 15 个月后,终于把全新系列模型 DeepSeek-V4 正式公布出来了,而且照惯例,同步开源!
一时间朋友圈、技术群各种消息满天飞。现在 DeepSeek 官网和 API 都直接能用 v4 了!包括众多第三方算力平台也陆续上线。之前 Claude、Gemini、ChatGPT、Qwen 等行业里各家一直在疯狂迭代。终于,终于轮到有着“国产 Ai 图腾”、价格屠夫之称的 DeepSeek 来炸一回场了……
DeepSeek
现在通过 DeepSeek 官网或 SophNet 等一些第三方 API 算力平台都能用到最新的 DeepSeek-V4 模型了。在经过超长的等待期后,这次 V4 似乎不单单只是参数上的常规升级,它似乎又打算把 AI 的训练方法和架构重新定义一遍。还有更炸裂的,就是那个 百万 token 上下文。

百万字,换算成中文,能吞下约 75 万字,相当于能一口气啃下完整的《三体全集》三部曲!而且官方明说了:从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。 不是限量内测,不是高级付费功能,是你随便开个聊天窗,随便调个 API,它天生就能记住这么多。
以前我们用 AI 聊天、写代码,本质上是在跟一个“健忘的实习生”对话,聊多了它就忘了前面说啥。你得不停地把重要信息塞进 Prompt 里,或者让它自己“回忆”。现在,这个实习生的记忆力突然从金鱼变成了大象。你可以把整个代码库、整份研究报告、整个任务背景一股脑儿丢给它,它都能接着。
这意味着,那些需要长期记忆、复杂规划的 Agent 任务,终于可以踏实放心地长时间跑了,不用再担心“上下文超限请缩减输入”这种烦人提示;以及跑着跑着就忘记前面的要求等情况了。
DeepSeek-V4 Pro 与 Flash 两大模型
这次 DeepSeek 一次性推出了两款模型,按大小分为两个版本,分工明确:
DeepSeek-V4-Pro
DeepSeek-V4-Pro:性能旗舰,总参数量达 1.6T,但每次激活只有 49B 参数干活(MoE 架构的精髓)。它瞄准的是 比肩顶级闭源模型。
- Agent 能力:大幅跃升!官方内部员工已经把它当作日常主力编程模型了。在 Agentic Coding 评测里, V4-Pro 直接拿下当前开源模型的最佳成绩。员工的实测反馈是:使用体验优于 Claude Sonnet 4.5,交付质量接近 Claude Opus 4.6 的非思考模式。当然,官方也很克制地说,和 Opus 4.6 的思考模式还有差距。这种有一说一的姿态,反而让人觉得更靠谱。
- 世界知识:在世界知识测评中大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1。
- 推理性能:在数学、STEM、竞赛型代码的测评中,超越了当前所有已公开评测的开源模型,取得了和世界顶级闭源模型掰手腕的成绩。甚至在算法竞赛平台 Codeforces 上, V4-Pro-Max 评分达到了 3206,能排进人类选手榜前 25 名。
DeepSeek-V4-Flash
DeepSeek-V4-Flash:更快捷高效的经济之选。总参数 284B,激活参数 13B。
- 相比 Pro 版本,它在世界知识储备方面稍逊一筹,但展现出了非常接近的推理能力。
- 由于模型参数和激活更小,它能提供更加快捷、经济的 API 服务。
- 在 Agent 测评中,简单任务上可以和 Pro 旗鼓相当,高难度任务上才有差距。
- 千万别把它当成“丐版”! 选对了思考模式, Flash 的表现能大幅追近 Pro。日常轻量任务用 Flash,性价比超高;遇到硬骨头任务,打开它的 Think Max 模式,性能提升非常显著。
架构创新:将成本打下来的关键
为什么敢把百万上下文当作“标配”?过去很多模型宣传 1M 上下文,但实际用起来要么贵得要死,要么偷偷降级。因为传统注意力机制的计算量随序列长度平方增长,上下文一长,算力和显存开销就爆炸。

DeepSeek-V4 在架构层面做了大刀阔斧的创新,核心是全新的混合注意力机制。简单说,它不再让模型“平等地”看待每一个 token,而是学会了“挑重点看”。
它引入了压缩稀疏注意力 (CSA) 和重压缩注意力 (HCA),结合 DeepSeek 稀疏注意力 (DSA)。比如 CSA 会把每 m 个 token 压缩成一条摘要,模型先快速浏览这些摘要挑出最相关的几条,再深入计算,同时用一个滑动窗口抓住眼前的局部细节。这就像你读一本厚书,不会逐字背,而是每几页记一个要点,回忆时先翻要点,再回原文细看。
效果是惊人的!在 1M 上下文场景下:
- V4-Pro 的单 token 推理计算量仅为上一代 V3.2 的 27%!
- V4-Pro 的 KV 缓存(短期记忆内存)占用仅为 V3.2 的 10%!
- V4-Flash 更激进,计算量仅为 V3.2 的 10%, KV 缓存仅占 7%!
这意味着,同样的显卡和显存,现在能处理的请求量、支持的并发用户数,接近翻了十倍!这才是把长上下文从“营销噱头”变成“工程现实”的根本。
熟悉的“价格屠夫”,这次卷得更狠了
性能追上来,价格怎么样?DeepSeek 果然不负“价格屠夫”之名,这次定价简直让人怀疑他们是不是在倒贴。
DeepSeek V4 价格:
| 模型 | 输入 (缓存命中) | 输入 (缓存未命中) | 输出 | 上下文 |
|---|---|---|---|---|
| V4 Flash | 0.2 元 / M tokens | 1 元 / M tokens | 2 元 / M tokens | 1M |
| V4 Pro | 1 元 / M tokens | 12 元 / M tokens | 24 元 / M tokens | 1M |
横向对比业界
横向对比业界(换算为美元,按常见 3:1 输入输出混合费率估算):
| 模型 | 每百万 tokens 综合成本 (USD) | 相对 V4-Pro |
|---|---|---|
| DeepSeek V4-Flash | ~$0.21 | 0.1倍 |
| DeepSeek V4-Pro | ~$2.08 | 1倍 |
| Gemini 3.1 Pro | ~$4.50 | 2.2倍 |
| GPT-5.4 | ~$5.63 | 2.7倍 |
| Claude Opus 4.6/4.7 | ~$10.00 | 4.8倍 |
| GPT-5.5 (同日发布) | ~$11.25 | 5.4倍 |
专为 Agent 任务优化:
这次 V4 特别强调了 Agent 能力的专项优化。官方表示,模型已针对 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品进行了适配和优化,在代码任务、文档生成等方面都有提升。
这点我感触很深。Agent 工具概念很性感,但跑起来太烧钱了,多轮规划、反复修正,token 消耗飞快。更让人不安的是,最近一些闭源厂商开始限制用户使用第三方 Agent 工具接入他们的 API,甚至出现偷偷封号的情况。
这种不确定性才是最伤人的——你花了钱,建好了工作流,却不知道哪天会被“断供”。所以, DeepSeek 坚定走开源路线,真的给了开发者巨大的安全感。模型开源,部署自由, API 多家云厂商都能提供,主动权在你手里。对于整个 Agent 生态来说,这无疑是实打实的利好。智能体终于可以便宜大碗、踏踏实实地跑起来了。
国产芯片适配:打破“英伟达垄断”的重要一步

除了性能价格,这次 V4 还有一个更值得关注的深远变化:英伟达不再是唯一选项。DeepSeek 在技术报告中验证了模型在 NVIDIA GPU 和华为 Ascend NPU(昇腾)平台上的运行。而且,这次早期访问权限独家开放给了国产芯片厂商。华为昇腾超节点系列产品也宣布全面支持。
这意味着,国产顶级开源大模型,在“去英伟达化”上迈出了坚实的一步。算法是自己的,代码是开源的,现在芯片也可以是国产的。这不仅仅是技术适配,更是在撬动整个算力产业链的格局。黄仁勋此前在访谈中也提到,如果 DeepSeek 新模型在华为平台首发,对美国将是“可怕的结果”。现在,这一天正在成为现实。这对于国产算力生态是一针强心剂,也会倒逼其他国产芯片厂商加速适配。
怎么用?立刻就能上手!
说了这么多,怎么体验这个“卷王”?
- 普通用户:直接登录 DeepSeek 官网,或下载 APP。现在就能跟最新的 V4 对话,感受百万上下文。在官网或 App 里,专家模式对应 V4 Pro,快速模式对应 V4 Flash。
- 开发者:官网API 已同步上线,无缝兼容!SophNet 等众多第三方 API 算力提供商也会陆续上线,基本上只需修改
base_url即可。- OpenAI ChatCompletions 接口和 Anthropic 接口都支持。
- 调用时,只需把
model参数改为deepseek-v4-pro或deepseek-v4-flash。 - 对于复杂 Agent 场景,建议使用思考模式,并通过
reasoning_effort参数设置思考强度为max。 - 重要提醒:旧的 API 接口模型名
deepseek-chat和deepseek-reasoner将于 2026年7月24日 停止使用。当前它们分别指向 V4-Flash 的非思考与思考模式,请尽快迁移。
- 研究者 / 本地部署:模型权重已同步开源!
- 可在 Hugging Face 或 ModelScope 下载。
- 技术报告也已公布,地址在 Hugging Face。
写在最后
DeepSeek-V4 的到来,不止是简单的模型升级。它用架构创新证明了:超长上下文不必依赖暴力算力;它用开源和定价证明了:高性能 AI 可以更普惠、更开放;它用国产芯片适配证明了:生态的主动权可以掌握在自己手里。
对普通用户来说,这是体验的跃升;对开发者来说,可能是成本结构的变化和新的机会窗口;对整个行业来说,这是在推动 AI 真正走向“可用、便宜、开放”。
DeepSeek 依然秉持着长期主义的理念,在尝试与思考中踏实前行。这种直接先把能力放出来,让所有人用起来,让生态自然生长的打法,我觉得,才是真正推动行业往前走的方式。
官方网站:访问
软件性质:免费开源
更多 AI 相关:ChatGPT | Claude | Gemini | Qwen | Grok | Kimi
通用 AI 模型 API 客户端:ChatWise | Cherry Studio (桌面版) | ChatBox (电脑手机)
更多:第三方 DeepSeek API 服务推荐
/ 关注 “异次元软件世界” 微信公众号,获取最新软件推送 /
如本文“对您有用”,欢迎随意打赏异次元,让我们坚持创作!
赞赏一杯咖啡
