这两个根本不在一个赛道,不能作为对比,至于大模型的护城河,技术实力、低成本、低算力就是永远的王道。
唯一的感觉就算,DeepSeek赢是赢在深度思考上,万相大模型是视频生成模型,可以理解为“外国的Sora大模型,国内的可灵大模型——给它文字,它能给你生成一段视频。
对于日常对话而言,DeepSeek的R1大模型就已经是 ASI 了,再聪明也问不出来、没有感知了。Qwen想要弯道超车的话,还是得用好自己强大的 VL 整 Agent ,这也是阿里千问大模型的未来发展之一了
论开源deepseek更胜一筹!
deepseek的开源有较大的也有较小的,671B的这个模型规模开源不开源都无所谓了,能训练这个规模模型的基本都是大厂。
相反qwen一直坚持开源7b/32b这种小规模模型,反而是大部分普通用户或者小团队研发能用起来的模型
为什么是deepseek更值得胜利
其一,deepseek也开源了7B/32B的小规模模型。
其二,671B不是每个人都能安装,但很多公司可以安装,要不怎么会deepseek一开源韩国印度都喊着要做第三AI中心,因为安装671B对个人难点,对企业和国家很容易
除了deepSeek,其他国产人工智能都不怎么样,就好像装了个搜索引擎,不会深度思考。
关于创新
创新这东西,一人一条路。
有的公司走对了,有的公司走错了。
openai的o3跟r1一样,也带思维链。大致的方向差不多,但是训练出来的东西有好有坏。如果认定一个方向直接干就肯定能出结果,那不叫科研,那叫生产。
另外deepSeek的r1成本一点也不低。671b的全量,小公司都玩不起,你想怎么替代人力……
实际上对于公司来说,70b以下的蒸馏版,才是真正可用的模型。
所以我感觉这才是接下来所有公司的阿方向。
模型开源对普通人的作用就是给大家提供个新奇的娱乐工具,没什么生产力意义,小模型(10b级别)太傻,中模型(70b级别)硬件成本太高,大模型硬件成本更是高的不现实。
模型开源唯一利好的就是搞第三方部署卖token的公司,ds开源之前,这种公司主要的利润来源是二道贩子卖openai的token,本地部署的绘画ai用途太窄,需求太少,本地部署的语言类小模型太傻,连免费的豆包都竞争不过,这次deppSeek大模型,终于有个能卖得出去的本地部署产品了。
所以大模型你追我赶,阿里出来个万象大模型,百度出来个深度推理XL大模型和文心4.5大模型
相比紧接着就算腾讯出来个...
字节也发布第二版新一代xx大模型
google也出来个.....
难怪招聘网站不断地在招纳AI大模型人才,原来都在早早的开始布局了,前几天就是连造车的小米汽车雷军也以百万的年薪收纳了AI大模型人才
所以很多知友们都进入了这个AI大模型的赛道,据说他们如今AI方式就是根据知乎知学堂的AI大模型的在线视频学习的,由业界的大佬进行带队,对主流大模型如DeepSeek,阿里大模型,以及国外的GPT4o和grok3.4底层进行拆解,还可以学习到LLM大模型的训练方法、Prompt、Engineering+(交互工程)、利用LangChain+Fine-tunet大模型知识为我们工作和生活赋能,推荐大家体验:
你甭说,很多人刚学习完两周,就在求职的时候能应对一些主流大模型公司的一些面试回答,并且有很多知友们利用学到的知识成功转向大模型开发,顺利进入了大厂,真的是在职场生涯中一步青云。
两者的优势在于:
1、阿里千问的大模型的开源生态做的比较好
Qwen 好比“朋友圈”碾压任何家的,他的衍生模型已突破 10万+,开源和灵活,比如对于汽车,医疗,电商以及教育,华能定制中国功能,相比之下Deepseek目前才刚刚开始
2、成本优势
QwQ-32B 的参数仅 320亿,这个虽然是32B的但它的性能对标DeepSeek-R1大模型的6710亿参数,激活量370亿
因为DP还提通了更低的本地的大模型部署,在成本方面deepSeek略胜一筹。后面DeepSeek R1大模型如果经过精密超参搜索后,性能还能再上一个台阶。
和国内其他的大模型相比
但是DP和国内的其他大模型相比,豆包、混元,智谱、文小言、Kimi这些都一样,主要是搜集整理网上已有的资料,但是做不到DeepSeek那种深度思考。
同样是写文案,用豆包你还是要修修改改的,但是DeepSeek能直接进行使用,无需修改,并且逻辑线完整,这就是DP的最亮眼之处。
目前,qwen有一个deepseek无法追上的硬件数量优势,只能说看deepseek的算法优化能不能再整
出点惊喜了....
论格局,DeepSeek完爆阿里千问!
像阿里千问对成本收入过于斤斤计较了,这种精算心态必然难于领跑了,deepSeek的成功除了模型能力,关键还是开源低价,就算qwen新模型先出来,也没有deepSeek那种冲击
阿里opAI都做不出ds,大公司病,更多成本更更高营收,每个人时间都安排满,没人去思考路线是不是走错了,真的要这么高成本吗?成本高到这种程度的AI,还有什么替代人力的价值。
何为AI大模型的护城河?
就像终生学习是程序员的护城河,就和马拉松一样,你坚持跑就能一只领先早期的无人驾驶也被说科技泡沫。
国外Ilya的公司SSI从名字上看更注重的事Security和Alignment,没有更多信息,很有可能还是按照LLM的路子往前走,不能说这条路子不对,这条路应该是目前最安全的路,但是出现大的理论突破的概率也不大,像李飞飞的World Labs重点还是视觉方向,倒是的确更可能走出全新的路子。
不像在国外,马斯克有世界首富的财力可以加大算力,OpenAI又有业界大佬投资的加持,而国内就不一样了,靠的只有技术实力。
国内外的未来发展护城河就很明显了,可以围绕下面条道路走:
需要对LLM算法创新与模型架构优化
对LLM模型架构走优化方向,如DeepSeek
更需要数据质量与多样化
更需要低成本的与硬件适配与优化
我感觉,未来谁会更厉害,那就看谁能解决“大模型落地难”!阿里有生态优势,DeepSeek有技术潜力,这场“AI战争”才刚开始! |
|