最强开源模型 DeepSeek V4 发布,1M上下文,运行成本大降

Wait 5 sec.

DeepSeek V4 终于发布了,带来了 1M 上下文,代码能力明显提升,推理进入第一梯队,但知识类能力仍落后于头部闭源模型。最重要的是:「DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。」算力需求比 V3.2 降低 3~10 倍右侧显示,单 token 计算量(FLOPs)对比:V4-Pro 比 V3.2 降低 3.7 倍V4-Flash 比 V3.2 降低 9.8 倍也就是说,同样的显卡和显存,可以处理更多的请求了(利好大模型提供商)与同行对比指标GPT-5.4Claude Opus 4.6Gemini 3.1 ProDeepSeek V4 Pro-MaxMMLU-Pro87.589.191.087.5SimpleQA45.346.275.657.9GPQA Diamond93.091.394.390.1HLE39.840.044.437.7LiveCodeBench–88.891.793.5Codeforces3168–30523206Apex Shortlist78.185.989.190.2另外,今天更新了 GPT-5.5,也是同一天啊,ChatGPT 中已经可用。降价了吗?降了,也没降:模型输入(缓存命中)输入(未命中)输出上下文V3.20.2 元2 元3 元128KV4 Flash0.2 元1 元2 元1MV4 Pro1 元12 元24 元1MV4 Flash 降价,V4 Pro 全面涨价。值不值?V4 Pro 比 V3.2 贵了这么多,值不值:类别指标V3.2V4-Pro提升情况(Pro)知识MMLU-Pro65.573.5↑ +8.0知识C-Eval90.493.1↑ +2.7知识MultiLoKo38.751.1↑↑ +12.4事实问答SimpleQA28.355.2↑↑ +26.9事实问答FACTS27.162.6↑↑ +35.5推理BBH87.687.5≈推理HellaSwag86.488.0↑ +1.6推理WinoGrande78.981.5↑ +2.6代码HumanEval62.876.8↑↑ +14.0数学MATH60.564.5↑ +4.0数学GSM8K91.192.6↑ +1.5长上下文LongBench-V240.251.5↑↑ +11.3现在就能用啦目前 DeepSeek 官网以及 API 都上线了 V4。原文:https://www.appinn.com/deepseek-v4/能自己部署吗?应该是不能的,Flash 最低也要200GB内存往上了。相关阅读目前可用的 DeepSeek R1 模型 API 服务商(2025年2月)DeepSeek 官方推荐的部署 DeepSeek-R1 最佳设置参数,和官网一样。七牛云赠送 1000 万 Token,可使用 DeepSeek、GLM、Minimax、Qwen 等主流模型国产新模型 DeepSeek-R1 发布,MIT 授权,性能对标 OpenAI o1 正式版腾讯元宝已接入 DeepSeek-R1,强调可联网、满血版|附三家对比测试结果©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南 3659b075e72a5b7b1b87ea74aa7932ff 点击这里留言、和原作者一起评论[ 点击前往获取链接 ]