阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?

近日,阿里云抛出重磅炸弹:通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。
这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400,击穿全球底价。
如何看待通义千问系列的降价?对行业会带来哪些影响?还有哪些信息值得关注?
收藏者
0
被浏览
99

5 个回答

acff00 LV

发表于 3 天前

阿里云在月初刚刚发布了性能对标GPT-4 Turbo的通义千问2.5系列千亿级别大模型Qwen-Max,这次又宣布多款主力大模型直接大幅降价:GPT-4级主力模型Qwen-Long的API输入价格从0.02元/千token降至0.0005元/千token,降幅达到97%,价格只有GPT-4 Turbo的1/144。这次降价有多狠,之前字节的豆包大模型一元钱能买到125万tokens,但是使用Qwen-Long一块钱可以买到200万tokens。最好的中文大模型+最极致的性价比,这次阿里云无疑将成为中文大模型的最强王者。当然,这次降价,无论是对开发AI产品的企业,还是对AI的个人开发者,都是最大的福音。

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-1.jpg


这次降价涵盖阿里云的多款主力模型,包含闭源模型Qwen-LongQwen-PlusQwen-Max,以及最新的开源模型Qwen1.5-110B等,可以满足不同用户的不同场景的要求。

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-2.jpg

这里我也做了一个降价后通义的两个主要模型和GPT-4模型的价格对比,可以让大家直观感受通义大模型的价格优势:

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-3.jpg

这里我也重点介绍一下这两个主力模型。首先是降价幅度最大的模型Qwen-Long,它是通义千问的长文本增强版模型,性能对标GPT-4,这次输入价格从0.02元/千token降至0.0005元/千token,比目前最便宜的GPT-4o还要便宜72倍。我大概算了一次,这个价格,只需要1块钱,就可以买到200万tokens,相当于240万个汉字(基于阿里在线分词器估计)。而且Qwen-Long还升级了长文本的处理能力,模型最高支持1千万tokens长文本输入,处理一本96万字的《红楼梦》绰绰有余。而且,如果你细心地观察,还会发现Qwen-Long的输入价格比输出降得更多(输入价格比输出价格便宜4倍),这对于要处理长文本的输入的用户来说绝对是大大的利好了。其实,很多场景下比如做资料总结或者分析,大模型的输入文本要多于输出文本,所以阿里云这次降价也是直击用户的核心需求了。

然后要介绍的第二个模型是刚发布的旗舰款通义千问2.5大模型Qwen-Max,输入价格从0.12元/千token降至0.04元/千token,降幅达66%。Qwen-Max是通义千问千亿级别超大规模语言模型,相比之前的版本,各方面能力有比较大的提升。在中文语境下,Qwen-Max的文本理解、文本生成、知识问答及生活建议、闲聊及对话、安全风险等多项能力赶超 GPT-4,是目前业界表现最好的中文大模型。

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-4.jpg


而且在国际权威基准OpenCompass上性能已经和GPT-4-Turbo相当,是目前我所知的第一个做到的国产大模型,但是价格大约只有GPT-4-Turbo的2/1

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-5.jpg

对于阿里云此次针对通义大模型的大幅度降价,我并不觉得太吃惊,因为通义大模型背后是国内最好的云平台阿里云。公共云的技术红利和规模效应可以给大模型部署和推理带来的巨大成本和性能优势。据我了解,阿里云近年来从模型和AI基础设施两个层面不断优化,极大地提升了大模型的推理速度和性能。比如阿里云最新发布的百炼分布式推理加速引擎,不仅大幅压缩了模型推理成本,还大大加快了模型推理速度。

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-6.jpg

从这次通义大模型的降价来看,我坚定的认为未来公共云+API将成为企业使用大模型的主流方式。对于个人开发者或者企业来说,在云上调用大模型API真正实现了随用随取,按需使用。以使用Qwen-72B开源模型、每月1亿token用量为例,在阿里云百炼上直接调用API每月仅需600元,私有化部署的成本平均每月超一万元。通过哪种方式使用大模型一目了然!

蔓你是谁 LV

发表于 3 天前

大模型价格战已经开始,打起来打起来,等等党的福利终究到来。
PS:让我不仅想起了,当时美团、饿了么的红包大战,让我曾经吃一段时间的1元套餐。
DeepSeek-V2模型应该大模型价格战的起因,230B总参数21B激活参数,把大模型API价格直接拉低。
其他厂商当然也坐不住了,随之而来的是智谱API降价,输入输出都是1元/百万 Tokens,再到字节豆包大模型降价,输入0.8元/百万 Tokens,现在阿里也来降价,0.5元/百万 Tokens,甚至比前两天豆包的价格更低,太crazy了。

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-1.jpg

PS:前几天的字节豆包发布会也是引起了不少人的讨论,对低价资源设定了使用条件,当然也没有模型参数等相关内容的介绍,就有一种你用就完事儿了,问那么多干啥的感觉。
当然大模型现在价格可以降下来的主要是采用MOE架构(总参数虽然大,但是激活参数很少),或对内部进行KV Cache优化等。

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-2.jpg

技术在进步,模型效果在提示,模型API价格在下降,大家都在往AGI努力。
那么选择大模型只看API价格嘛?
当然不是,跟你最终的使用场景是有很大关系的。比如:

  • 文本写作场景:对于大模型的底层逻辑能力要求没有那么高,价格则占据主要优势;
  • 推理场景:对于大模型底层能力较高,那么模型能力就要占主导地位。
再便宜,解决不了问题也是白扯呀。这也是为什么现在绝大多数人在大模型微调时数据构造再使用GPT-4 Turbo模型,因为效果好,贵但可以达到目的。
价格和效果的权衡,就看你如何选择。
但是如果选择模型API的话,阿里的Qwen系列模型还是可信的,毕竟在chatbot Arena上,通义千问是上榜的中国大模型。

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-3.jpg

在OpenCompass上,通义千问2.5得分也是追平GPT-4 Turbo的。
并且阿里也是开源了一系列的模型,1.5系列从0.5B、1.8B、7B、14B、32B、72B开到的110B、还有Code系列模型、MOE系列模型,用起来也是效果很好。就算从本地部署转到API调用的话,也是用着更习惯、顺手。
PS:现在如果不考虑数据安全问题的话,感觉API调用比本地私有化部署的成本要低很多,本地部署还得建机房、买卡、服务器稳定性等等一大堆问题。。。。

大模型是啥 LV

发表于 3 天前

Update:
百度智能云发文宣布,文心大模型两大主力模型全面免费,立即生效。分别为该公司于今年 3 月推出的两款轻量级大模型 ERNIE Speed 和 ERNIE Lite,支持 8K 和 128k 上下文长度。
百度也加入了价格战。

阿里云通义千问击穿大模型底价,两百万tokens只需一元,有哪些信息值得关注?-1.jpg

原回答:
最近,AI界真是热闹非凡,在豆包开始大幅降价时,就在猜测哪些厂商会跟进,没想到最先跟进的是通义千问。阿里云通义千问大模型API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达97%。这一举措对开发者来说无疑是一个巨大的利好消息。
巨幅的降价将显著降低开发者的使用成本,促进更多创新项目的诞生,也促使开发者做更多的探索性的尝试。按最新的价格计算处理500万tokens的数据,降价前成本为100元,降价后仅需2.5元。终于可以大模型自由了。
其他大模型服务价格对比:


  • OpenAI GPT-4

    • 降价前:0.03美元/千tokens
    • 降价后:0.005美元/千tokens
    • 降幅:83%

  • 字节跳动豆包大模型

    • 定价:0.0008元/千tokens
    • 相比行业平均便宜99.3%

大模型价格战:三巨头降价数据一览

公司模型降价前价格 (美元/千 tokens)降价后价格 (美元/千 tokens)降幅
OpenAIGPT-40.03 (输入) / 0.06 (输出)0.005 (输入) / 0.015 (输出)83% (输入) / 75% (输出)
字节跳动豆包-0.000899.3% (相较于行业平均价格)
阿里云通义千问 Qwen-Long0.02 (约 0.014 美元)0.0005 (约 0.00035 美元)97%
不得不说,各家公司为了抢占市场,真是拼尽全力啊!这场价格战最终会如何发展,谁将成为最后的赢家,现在还不好说。但有一点是肯定的:AI正在快速发展,价格门槛越来越低,未来将会有更多人能够体验到AI带来的便利和创新。

1x2s LV

发表于 3 天前

互联网思维,先烧钱,用低价甚至免费来卷死竞争对手,然后坐地涨价收钱。
哪家成功的互联网公司不是这么过来的呀。

初生之鸟 LV

发表于 3 天前

实在是太卷了…..
两百万tokens只要一元,我都怀疑电费够不够….
但上次DeepSeekV2发布后,他们作者说V2那价格还有得赚,那说明模型token的成本最近的确降得很厉害。一方面是英伟达等基础硬件厂商给力,另一方面是大模型的算法工程师的确在模型结构和工程侧做了很多优化。
总体上说,这一波利好做llm应用开发和水llm论文的人。
成本大幅度下降意味着很多Agent可以尝试尝试看能否落地了,水论文的可以继续脑洞大开做各种实验了。
只是苦了以前那些给数据做人工标注的血汗工厂,只要这个模型的效果不要太差,基本上能代替掉一大半做数据打标的人了。(这里特指简单的自然语言数据)
希望国内厂商不仅仅要在生成token成本上卷,还是希望多发力卷一下生成token的质量,毕竟这个才是这波AIGC浪潮的关键。

aylue LV

发表于 前天 09:01

阿里云推出的通义千问系列模型降价幅度巨大,最高降幅达到97%,确实值得关注。此次降价不仅意味着用户可以获得更多的服务,还能刺激云计算市场尤其是人工智能领域的发展竞争。<br><br>除了价格方面,我们还应该关注通义千问系列模型的技术更新和性能提升,特别是该系列在中文自然语言处理方面的表现优势。同时,还需关注其在特定领域的解决方案能力是否进一步增强,是否能在企业级服务上得到更多落地应用。总的来说,这次降价可能会促使更多的企业和个人尝试使用AI技术,推动行业进一步发展。

fredqiqi LV

发表于 前天 09:19

阿里云推出的通义千问系列模型价格大幅降低,引发业界关注。对于这一举措,可以从以下几个方面看待:<br><br>1. 对用户而言,价格降低意味着更多人能够接触和使用到先进的AI模型,有利于促进AI技术的普及和应用。<br><br>2. 对行业而言,阿里的降价策略可能会引发行业内其他企业的竞争,进一步推动AI模型价格的下探。<br><br>3. 此外,通义千问系列模型的性能表现也是值得关注的信息,包括其准确性、响应速度等方面是否达到了业界领先水平。<br><br>总之,阿里的降价策略将会对AI行业产生深远影响,预计将加速AI技术的普及和应用。

夕遥 LV

发表于 前天 09:25

针对阿里云通义千问击穿大模型底价的事件,以下是一些专业且通俗易懂的回复:<br><br>阿里云此次推出的通义千问主力模型Qwen-Long价格大幅下降,意味着更多企业和个人能够接触并使用到高性能的AI模型,这将极大地推动人工智能技术的普及和应用。这样的价格策略可能会引发行业内的竞争,促使其他企业跟进降价或者提升服务质量。同时,这一策略有助于促进人工智能技术快速发展和行业进步,尤其是对其价格敏感的应用场景,例如中小企业和创业公司等。除此之外,值得关注的信息还包括这款模型的性能表现、稳定性和安全性等。<br><br>综上,阿里云通义千问的降价策略是一个令人瞩目的行业动态,预计将加速人工智能技术的普及和应用,并对行业产生深远的影响。

您需要登录后才可以回帖 登录 | 立即注册