DeepSeek 恢复 V3 模型 API 价格,每百万输出 tokens 8 元,如何看待优惠到期?

2月9日,国产AI大模型DeepSeek官网显示,DeepSeek-V3 API服务的45天优惠价格体验期已结束,从2月9日开始将调整为新的价格:每百万输入tokens 0.5元(缓存命中)/2元(缓存未命中),每百万输出tokens 8元。




此前DeepSeek在优惠期内API价格为每百万输入tokens 0.1元(缓存命中)/ 1元(缓存未命中),每百万输出tokens 2元。
收藏者
0
被浏览
106

5 个回答

ioty LV

发表于 2025-4-27 17:59:56

对普通用户来说没啥影响,因为我们用的是 APP 或者是网页,没有使用API
与其说AP I优惠到期,我更关心的是APP或者网页版本的使用,是否收费。
即使收费,我觉得性价比也远超 Chat GPT4 一万倍,你说呢?
不过到目前为止,也没有相关收费的信息。
优惠到期,也就意味着恢复原价,或者说推广期结束,不过暂时还不能看到有什么影响,因为官网上还不能充值呢。
并且「去充值」按钮也是灰色的还不能使用。
按照正常的思维,在服务区资源缓解后,应该还会推出优惠。

DeepSeek 恢复 V3 模型 API 价格,每百万输出 tokens 8 元,如何看待优惠到期?-1.jpg

此外这个DeepSeek 恢复 V3 模型 API 价格,面对的是API接入用户收费的价格。
说实话这个价格相对还是很优惠的

DeepSeek 恢复 V3 模型 API 价格,每百万输出 tokens 8 元,如何看待优惠到期?-2.jpg

我们看一下 token的计算方法


1 个中文字符 ≈ 0.6 个 token,如果一次对话产生1000个汉字,那就是600个takens,按照百万tokens 16(因为我会启动 DeepSeek R1)元计算的话,600个tokens大约是 1分钱。
一个问题可能需要几次对话,这样的话一次交流需要几分钱。还是能接受的。
这几天由于「服务器忙」的原因,我也在用API,看我在昨天在「硅基流动」上产生费用大约是1毛3分钱。
我才用的方式是:ChatBox + 「硅基流动的DeepSeek API」的方式, 一共问了3个问题,每个问题3轮对话,平均一个4分钱吧。
而且这个地方注册就送14元,这么看还是能用一段时间的

DeepSeek 恢复 V3 模型 API 价格,每百万输出 tokens 8 元,如何看待优惠到期?-4.jpg

DeepSeek 满血版的功能相比 ChatGPT4也是不相上下的


因此这个价格价值就是不要不要的,太亲民了。

DeepSeek 恢复 V3 模型 API 价格,每百万输出 tokens 8 元,如何看待优惠到期?-6.jpg

蜜雪 LV

发表于 2025-4-27 18:14:14

其实把现在“涨价”的DeepSeek-V3跟涨价前的DeepSeek-V2.5理解成2个完全不一样的东西就行了
一般公司处于满足不同客户需求,会同时保留高中低配的不同模型API
Deepseek不一样,他们其实就是个研发机构,API纯粹是用来秀肌肉,没太多商业盈利的考量
所以API能调用的“deepseek-chat”这个模型,一直是用最新最强的模型直接换掉老的
所以其实不是涨价,而是以强换弱,顺便更新定价

一发最何 LV

发表于 2025-4-27 18:22:40

我想说一下,ChatGPT刚上线的时候也是极不稳定,输出速度很慢,三天两头宕机,我记得有个版本的模型,过几分钟才能吐出来,这还是刚开始没提供API调用方式。这种现象断断续续,持续了有好几个月
大模型本身很吃计算资源,任何一家公司的大模型如果突然成为deepseek和ChatGPT这种级别爆款,都很难撑得住如此大的需求
所以,别着急让子弹飞一会

senholy LV

发表于 2025-4-27 18:36:51

怎么看,不知道你怎么看的,你还是仔细看看缓存命中价格多少再发问题吧,别炒作:
输入token费用统一变为每百万2元,不管缓存是否命中;缓存未命中时的价格翻倍,涨幅为100%;输出token费用涨至每百万8元,涨幅为300%?


补充一下:
缓存是相当重要的,一般chat类的应用比如chatbox,多轮对话的时候会带上最近的聊天信息也就是上下文信息,不带缓存消耗的token会多很多,可以用chatbox连deepseek和硅基流动对比看下,token消耗不在一个级别。不好好做调查研究,就靠标题吸引人,居心何在。

月朗风清 LV

发表于 2025-4-27 18:50:54

这不叫调整价格,而叫恢复原价。而且现在你想用 DeepSeek 官方的服务也用不上,API 依然是暂停充值的状态。之前的 45 天属于限时体验阶段,就算不是亏本补贴,也肯定不挣什么钱
梁文锋说:「DeepSeek 的出发点,就不是趁机赚一笔,而是走到技术的前沿,去推动整个生态发展。」DeepSeek 作为开源权重模型,任何有硬件资源的厂商、企业或个人都可以部署,DeepSeek 估计也乐于见到这些厂商把自己的流量吃走。
而且 DeepSeek 自己的算力估计是真不够用,没办法再支撑 C 端客户。这不是免费或收费的问题,毕竟还要留出算力研发下一代模型。
我之前在另一个回答里分析过 DeepSeek 的成本和定价[1],以及和其他第三方 API 的对比。简单来说,我的结论是:

  • DeepSeek R1 是目前综合性价比最高的推理模型选择
  • DeepSeek V3 恢复原价后,价格优势有所减弱,但考虑到 DeepSeek 的输入缓存机制,也依然是不错的选择
  • DeepSeek API 价格压得非常低,但据说依然会有 50% 的毛利
  • DeepSeek 自己的官方推理服务肯定有专门的优化,效率疑似会比第三方厂商高(DeepSeek 不只训练成本低,推理效率也高,自己手里可能还有一些优化性能的 trick)
  • 目前没有哪个第三方厂商可以做到比 DeepSeek 更低的价格(靠早期优惠拉新用户的不算)
  • 目前也没有谁家能提供比 DeepSeek 更快的输出速度
以 ArtificialAnalysis 提供的 DeepSeek V3/R1 API 数据来说。
在 V3 模型提供商中[2],DeepSeek 官方的输出速度是最快的,且综合价格(输入/输出按照 3:1)也是最便宜的(Hyperbolic 部署的 FP8 模型):

DeepSeek 恢复 V3 模型 API 价格,每百万输出 tokens 8 元,如何看待优惠到期?-1.jpg

而在 R1 模型提供商中[3],DeepSeek 官方的综合价格更是绝对优势,输出速度排第 2(输出速度最快的一家,价格是官方的 7 倍):

DeepSeek 恢复 V3 模型 API 价格,每百万输出 tokens 8 元,如何看待优惠到期?-2.jpg

如果说 DeepSeek 能放开了提供 API 服务,那大概就不会有第三方厂商什么事了。可惜没如果,可惜 DeepSeek 官方严重缺算力,根本接不住这么多客户需求。
所以假如公司领导让我去调研并选择一个云厂商 API,那我大概不会选 DeepSeek。从某种程度来说,DeepSeek 其实不是一个成熟的 API 服务商。
一个成熟的 API 模型厂商,至少要做到服务稳定,这里的服务稳定不仅仅指当前模型的可访问性(毕竟服务器被挤爆不能怪 DeepSeek,是用户需求太火爆),而是更专业化的服务支持。
我举个例子吧。DeepSeek 的 API 现在只有两个模型可供选择,一个是deepseek-chat,另一个是deepseek-reasoner,前者是 V3 模型,后者是 R1 模型。

DeepSeek 恢复 V3 模型 API 价格,每百万输出 tokens 8 元,如何看待优惠到期?-3.jpg

按照 DeepSeek 官方的介绍,以前的 DeepSeek V2 或 V2.5 模型默认升级为 V3 模型。
讲道理,对于 toB 业务来说,这是一种并不专业也不负责的做法,toB 业务要的是服务稳定。你当然可以说 V3 模型更强了,但对于以前用 V2 的老客户来说,也许会给生产环境带来很多问题:

  • 比如之前业务跑的好好的,换成 V3 以后原来用的 Prompt 反而效果变差了(可能会);
  • 再比如原来 V2 的价格很便宜,现在换成 V3 输出价格翻了 4 倍,业务中的 ROI 显著降低。
所以从某种程度上说,即便是 DeepSeek 官方的付费 API,依然只能算是个「用户体验版」。
对于成熟的模型商来说,不仅仅会持续提供大版本的服务支持,甚至会在每次 API 升级时专门留存老版本的快照模型,以便于 B 端客户评测后迁移服务。
作为对比,OpenAI 的 API 服务中[4],即便不考虑音视频、图像、embedding 等模型,只算文本类大语言模型,也依然有 davinci-002、gpt-3.5-turbo、gpt-4、gpt-4-turbo、gpt-4o、gpt-4o-mini、o1、o1-mini、o3-mini 等一系列模型可用,更不用说每个模型都提供多个历史版本了:

DeepSeek 恢复 V3 模型 API 价格,每百万输出 tokens 8 元,如何看待优惠到期?-4.jpg

当然这也从另一个侧面反映,DeepSeek 确实没有足够的算力和运维能力,去支撑起更多模型服务,他们选择不断将所有模型开源,并官方提供自己最强的模型服务供用户体验
所以,DeepSeek 大概是真的没有把 API 当作自己盈利的方式,只想秀出来让大家体验一下,然后把市场交给其他算力厂商。
这也挺好的,对于 DeepSeek 来说,只需要专注科研,专心做好下一代模型就好。他们选择不去扩充销售、运维、营销、解决方案、应用团队,不去抢更下游的工作,相当于把利润分给了产业链上的所有人。所以才会有这么好的口碑,各家才会这么迅速地接入支持 DeepSeek 模型。

您需要登录后才可以回帖 登录 | 立即注册