PD虚拟机     VPS     Win11     微软     苹果     SetApp     Office     精选

DeepSeek V4 Pro 来了!标配百万上下文,国产模型再次刷新开源 AI 天花板?

 人工智能    , ,    2026-04-24
DeepSeek V4 Pro 来了!标配百万上下文,国产模型再次刷新开源 AI 天花板?
0 下载

今天一大消息就是开源 AI 大模型圈的“卷王” DeepSeek,憋了 15 个月后,终于把全新系列模型 DeepSeek-V4 正式公布出来了,而且照惯例,同步开源!

一时间朋友圈、技术群各种消息满天飞。现在 DeepSeek 官网和 API 都直接能用 v4 了!包括众多第三方算力平台也陆续上线。之前 ClaudeGeminiChatGPTQwen 等行业里各家一直在疯狂迭代。终于,终于轮到有着“国产 Ai 图腾”、价格屠夫之称的 DeepSeek 来炸一回场了……

访问:DeepSeek 官网


SophNet API 算力平台

ChatWise 通用 AI 客户端

DeepSeek

现在通过 DeepSeek 官网或 SophNet 等一些第三方 API 算力平台都能用到最新的 DeepSeek-V4 模型了。在经过超长的等待期后,这次 V4 似乎不单单只是参数上的常规升级,它似乎又打算把 AI 的训练方法和架构重新定义一遍。还有更炸裂的,就是那个 百万 token 上下文

DeepSeek V4 大模型

百万字,换算成中文,能吞下约 75 万字,相当于能一口气啃下完整的《三体全集》三部曲!而且官方明说了:从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。 不是限量内测,不是高级付费功能,是你随便开个聊天窗,随便调个 API,它天生就能记住这么多。

以前我们用 AI 聊天、写代码,本质上是在跟一个“健忘的实习生”对话,聊多了它就忘了前面说啥。你得不停地把重要信息塞进 Prompt 里,或者让它自己“回忆”。现在,这个实习生的记忆力突然从金鱼变成了大象。你可以把整个代码库、整份研究报告、整个任务背景一股脑儿丢给它,它都能接着。

这意味着,那些需要长期记忆、复杂规划的 Agent 任务,终于可以踏实放心地长时间跑了,不用再担心“上下文超限请缩减输入”这种烦人提示;以及跑着跑着就忘记前面的要求等情况了。

DeepSeek-V4 Pro 与 Flash 两大模型

这次 DeepSeek 一次性推出了两款模型,按大小分为两个版本,分工明确:

DeepSeek-V4-Pro

DeepSeek-V4-Pro:性能旗舰,总参数量达 1.6T,但每次激活只有 49B 参数干活(MoE 架构的精髓)。它瞄准的是 比肩顶级闭源模型

  • Agent 能力:大幅跃升!官方内部员工已经把它当作日常主力编程模型了。在 Agentic Coding 评测里, V4-Pro 直接拿下当前开源模型的最佳成绩。员工的实测反馈是:使用体验优于 Claude Sonnet 4.5,交付质量接近 Claude Opus 4.6 的非思考模式。当然,官方也很克制地说,和 Opus 4.6 的思考模式还有差距。这种有一说一的姿态,反而让人觉得更靠谱。
  • 世界知识:在世界知识测评中大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1。
  • 推理性能:在数学、STEM、竞赛型代码的测评中,超越了当前所有已公开评测的开源模型,取得了和世界顶级闭源模型掰手腕的成绩。甚至在算法竞赛平台 Codeforces 上, V4-Pro-Max 评分达到了 3206,能排进人类选手榜前 25 名。

DeepSeek-V4-Flash

DeepSeek-V4-Flash:更快捷高效的经济之选。总参数 284B,激活参数 13B。

  • 相比 Pro 版本,它在世界知识储备方面稍逊一筹,但展现出了非常接近的推理能力。
  • 由于模型参数和激活更小,它能提供更加快捷、经济的 API 服务。
  • 在 Agent 测评中,简单任务上可以和 Pro 旗鼓相当,高难度任务上才有差距。
  • 千万别把它当成“丐版”! 选对了思考模式, Flash 的表现能大幅追近 Pro。日常轻量任务用 Flash,性价比超高;遇到硬骨头任务,打开它的 Think Max 模式,性能提升非常显著。

架构创新:将成本打下来的关键

为什么敢把百万上下文当作“标配”?过去很多模型宣传 1M 上下文,但实际用起来要么贵得要死,要么偷偷降级。因为传统注意力机制的计算量随序列长度平方增长,上下文一长,算力和显存开销就爆炸。

DeepSeek V4 大模型

DeepSeek-V4 在架构层面做了大刀阔斧的创新,核心是全新的混合注意力机制。简单说,它不再让模型“平等地”看待每一个 token,而是学会了“挑重点看”。

它引入了压缩稀疏注意力 (CSA) 和重压缩注意力 (HCA),结合 DeepSeek 稀疏注意力 (DSA)。比如 CSA 会把每 m 个 token 压缩成一条摘要,模型先快速浏览这些摘要挑出最相关的几条,再深入计算,同时用一个滑动窗口抓住眼前的局部细节。这就像你读一本厚书,不会逐字背,而是每几页记一个要点,回忆时先翻要点,再回原文细看。

效果是惊人的!在 1M 上下文场景下:

  • V4-Pro 的单 token 推理计算量仅为上一代 V3.2 的 27%
  • V4-Pro 的 KV 缓存(短期记忆内存)占用仅为 V3.2 的 10%
  • V4-Flash 更激进,计算量仅为 V3.2 的 10%, KV 缓存仅占 7%

这意味着,同样的显卡和显存,现在能处理的请求量、支持的并发用户数,接近翻了十倍!这才是把长上下文从“营销噱头”变成“工程现实”的根本。

熟悉的“价格屠夫”,这次卷得更狠了

性能追上来,价格怎么样?DeepSeek 果然不负“价格屠夫”之名,这次定价简直让人怀疑他们是不是在倒贴。

DeepSeek V4 价格:

模型输入 (缓存命中)输入 (缓存未命中)输出上下文
V4 Flash0.2 元 / M tokens1 元 / M tokens2 元 / M tokens1M
V4 Pro1 元 / M tokens12 元 / M tokens24 元 / M tokens1M

横向对比业界

横向对比业界(换算为美元,按常见 3:1 输入输出混合费率估算):

模型每百万 tokens 综合成本 (USD)相对 V4-Pro
DeepSeek V4-Flash~$0.210.1倍
DeepSeek V4-Pro~$2.081倍
Gemini 3.1 Pro~$4.502.2倍
GPT-5.4~$5.632.7倍
Claude Opus 4.6/4.7~$10.004.8倍
GPT-5.5 (同日发布)~$11.255.4倍
这差价,看得我下巴都惊掉了!V4-Pro 的输出价格只有 GPT-5.5 的 1/9!用五分之一的价钱,就能买到接近 Opus 4.6 非思考模式的体验。对于做 Agent 产品、需要大量调用 API 的开发者来说,这意味着月账单可能直接从“烧钱”变成“能跑出正毛利”。这功能太卷了,真的卷得太狠了!

专为 Agent 任务优化:

这次 V4 特别强调了 Agent 能力的专项优化。官方表示,模型已针对 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品进行了适配和优化,在代码任务、文档生成等方面都有提升。

这点我感触很深。Agent 工具概念很性感,但跑起来太烧钱了,多轮规划、反复修正,token 消耗飞快。更让人不安的是,最近一些闭源厂商开始限制用户使用第三方 Agent 工具接入他们的 API,甚至出现偷偷封号的情况。

这种不确定性才是最伤人的——你花了钱,建好了工作流,却不知道哪天会被“断供”。所以, DeepSeek 坚定走开源路线,真的给了开发者巨大的安全感。模型开源,部署自由, API 多家云厂商都能提供,主动权在你手里。对于整个 Agent 生态来说,这无疑是实打实的利好。智能体终于可以便宜大碗、踏踏实实地跑起来了。

国产芯片适配:打破“英伟达垄断”的重要一步

DeepSeek V4 大模型

除了性能价格,这次 V4 还有一个更值得关注的深远变化:英伟达不再是唯一选项。DeepSeek 在技术报告中验证了模型在 NVIDIA GPU 和华为 Ascend NPU(昇腾)平台上的运行。而且,这次早期访问权限独家开放给了国产芯片厂商。华为昇腾超节点系列产品也宣布全面支持。

这意味着,国产顶级开源大模型,在“去英伟达化”上迈出了坚实的一步。算法是自己的,代码是开源的,现在芯片也可以是国产的。这不仅仅是技术适配,更是在撬动整个算力产业链的格局。黄仁勋此前在访谈中也提到,如果 DeepSeek 新模型在华为平台首发,对美国将是“可怕的结果”。现在,这一天正在成为现实。这对于国产算力生态是一针强心剂,也会倒逼其他国产芯片厂商加速适配。

怎么用?立刻就能上手!

说了这么多,怎么体验这个“卷王”?

  • 普通用户:直接登录 DeepSeek 官网,或下载 APP。现在就能跟最新的 V4 对话,感受百万上下文。在官网或 App 里,专家模式对应 V4 Pro,快速模式对应 V4 Flash。
  • 开发者:官网API 已同步上线,无缝兼容!SophNet 等众多第三方 API 算力提供商也会陆续上线,基本上只需修改 base_url 即可。
    • OpenAI ChatCompletions 接口和 Anthropic 接口都支持。
    • 调用时,只需把 model 参数改为 deepseek-v4-prodeepseek-v4-flash
    • 对于复杂 Agent 场景,建议使用思考模式,并通过 reasoning_effort 参数设置思考强度为 max
    • 重要提醒:旧的 API 接口模型名 deepseek-chatdeepseek-reasoner 将于 2026年7月24日 停止使用。当前它们分别指向 V4-Flash 的非思考与思考模式,请尽快迁移。
  • 研究者 / 本地部署:模型权重已同步开源
    • 可在 Hugging Face 或 ModelScope 下载。
    • 技术报告也已公布,地址在 Hugging Face。

写在最后

DeepSeek-V4 的到来,不止是简单的模型升级。它用架构创新证明了:超长上下文不必依赖暴力算力;它用开源和定价证明了:高性能 AI 可以更普惠、更开放;它用国产芯片适配证明了:生态的主动权可以掌握在自己手里。

对普通用户来说,这是体验的跃升;对开发者来说,可能是成本结构的变化和新的机会窗口;对整个行业来说,这是在推动 AI 真正走向“可用、便宜、开放”。

DeepSeek 依然秉持着长期主义的理念,在尝试与思考中踏实前行。这种直接先把能力放出来,让所有人用起来,让生态自然生长的打法,我觉得,才是真正推动行业往前走的方式。

相关文件下载地址

官方网站:访问
软件性质:免费开源
更多 AI 相关:ChatGPT  |  Claude  |  Gemini  |  Qwen  |  Grok  |  Kimi
通用 AI 模型 API 客户端:ChatWise  |  Cherry Studio (桌面版)  |  ChatBox (电脑手机)
更多:第三方 DeepSeek API 服务推荐

访问 DeepSeek 网页版  |  下载 DeepSeek 手机应用 iOS  |  Android  |  更多 AI 相关

/ 关注 “异次元软件世界” 微信公众号,获取最新软件推送 /






    评论内容 (*必填):
    Ctrl + Enter 快速提交   

    赞赏异次元


    请通过支付宝、微信 APP 扫一扫,海外读者可「使用 PayPal 赞赏

    “ 感谢您对异次元网站的支持! ”