OpenAI CEO 奥特曼称每天醒来都担心被超越,将与 DeepSeek 领导层会面,如何解读?

当地时间2月11日播出的一档节目中,OpenAI CEO山姆·奥特曼表示,“为了不让OpenAI被超越,每天都有压力。计划将与DeepSeek的领导层会面。”
收藏者
0
被浏览
97

5 个回答

developer LV

发表于 2025-4-8 13:14:28

有资格去见梁文峰的那个人是David Shaw,而不是Jeff Bezos。放在openai这边,是Ilya,而不是Sam.
而且,MIT license - developer community dominance - industry standard其实是个阳谋,懂得都懂。

Mr·Jax LV

发表于 2025-4-8 13:26:59

会面,想什么呢?都是科技精英,难道不知道视频会议吗?DeepSeek问世之前你们怎么不跟文心一言开发者老板李彦宏会面呢?
两千多前中国人的祖先玩鸿门宴时,美国人的祖先还在森林里裸奔,就你们肚子里那点花花肠子,在中国春秋战国时期就已经玩烂了?自己笨点没什么,但把别人当傻子,否则自己就最蠢的那一个。

zke LV

发表于 2025-4-8 13:36:08

OpenAI原本想与算力企业和其他资本联合起来搞AI垄断,计划的滴水不漏,
在AI领域,只有中美2国在发力,其他国家几乎躺平了,
在中国这边呢,美国不断的洗脑中国科技人才的认知,导致的结果是,只要美国指引的科技潮流和科技发展的路线,中国会坚定不移的相信和追随,
美国说,玩AI,必须堆算力,中国的科技企业都会无脑跟随,这样美国永远在AI领域永远保持领先,中国永远跟着美国屁股跑。
中国企业也乐见追随美国的屁股,毕竟在应用端这块,我们是强项,只要能在中国大杀四方,赚钱就行,毕竟,钱是第一位的,科技领先不领先不重要。
这样几乎达成了,中美2国科技企业的默契,美国利用技术领先的优势,赚全世界的钱,中国利用国内的特权、国内的安全等保护,赚14亿中国人民的钱。
美国研发出一项技术➡授权国内一些企业使用专利权➡花钱买美国专利➡利用国内保护,赚取丰厚的利润➡让出一部分股权给美国资本,到美国上市➡完美闭环。
谁曾想,出现一个楞头小子,非得往AI领域前沿探索,不信邪美国,愣是搞出了DeepSeek ,不输美国最先进的大模型,并且成本还低,最重要的是开源,
这一下子,首先OpenAI慌了,其次,投资OpenAI的那些资本也慌了,再次,国内那些成天把大模型商业化的那些企业也给搞慌了,
这小子不讲武德啊,你这么搞,大家还怎么赚钱,但是,没办法,又被高层接见,又开源,全世界都能使用了,中美2国那些靠大模型打算赚钱的企业只能哑巴吃黄莲,有苦说不出。
更严重的问题是,国企、央企、小微企业全部都接入DeepSeek,外国一些科技公司也接入DeepSeek,这导致的结果是,DeepSeek几乎把AI大模型的底座给占据了。
OpenAI大模型的市场份额断崖式下跌,无奈,稳住市场份额,只能免费使用,国内那些搞大模型的企业也欲哭无泪啊,强忍着泪水,铺天盖地的宣传也免费使用,像不像小丑一样?
OpenAI现在真的被DeepSeek打服了,害怕DeepSeek再搞出什么怪东西,再投放市场,所以,急着要见DeepSeek负责人。
总结:这一波输麻的,国内靠大模型商业化的企业、相信美国一切都是正确的人群,从精英——底层百姓,都如丧考妣。
尤其那些海外学子,尤其信奉海外留学生的大企业也遭了当头一棒,DeepSeek靠着都是本土的人搞出了比肩世界级的大模型,这叫穿的布衣土鳖打败了穿西装的精英,吃着白菜豆腐打败了红酒牛排。
那些搞VC的投资人也顿足捶胸啊,没想到一个带着厚厚的眼镜、不善于言辞、脸颊消瘦、厚厚的刘海头的一个文弱书生的人居然搞出这么大的动作。
DeepSeek的成功告诉我们,不要盲目的迷信大型科技企业,也不要低估小微科创企业,大企业也是由小做大的,大企业如果没有进取心,一味的以商业化的方式去管理企业,不但影响了小微企业的生存,也阻碍了科技创新,必要的时候,可以对大型科技企业进行拆分。大型科技企业手握巨大现金流,又有一批批的人才,不能发挥作用,是对社会巨大的浪费。
有人欢喜有人优。

cwpeng LV

发表于 2025-4-8 13:48:05

有资格与梁文峰会面的是Ilya以及OpenAI早期不计商业回报做探索的技术人员,可惜他们已经走了。Altman只是一个踩了狗屎运的二流商人,随便换个经理人做的也不会比他差,不知道他哪来的勇气舔着脸要与DeepSeek领导层会面。

我是鸽手 LV

发表于 2025-4-8 13:58:04

因为DeepSeek开源的时候选择了MIT协议。
开源协议有很多种,有些开源协议是带有附加条件的,例如强制专利授权(Apache),或者你用了就得把你自己的其他代码也强制开源(GPL)等。在所有的开源协议里,限制最少的就是MIT协议,这个协议唯一的限制就是保留原作者的著作权。
相比于DeepSeek,之前的开源模型几乎都带有一些限制,例如Llama不允许拿去训练其他模型且限制了月活用户数量,Qwen为不同尺寸的模型定制了不同的授权,并且基本上都是走的Apache协议,强制了使用方的专利授权。
这带来的结果就是,其他厂商在接入这些开源模型上,多多少少会有一些顾虑——直到MIT协议的R1出现。
R1就像野火一样,以极其惊人的速度扩散开来。各大车机、云平台、应用软件、乃至平台级软件(例如微信/Windows)都开始部署与整合R1。
不开玩笑,这是真正意义上的,第一个产业级的大语言模型基座。而这种地位,也直接使得R1成为了统一的业界开发/支持标准。
举个例子,处理器厂商(Intel/AMD/ARM)往处理器里塞NPU已经好几年了,但是在R1之前,没有任何一家的NPU可以在Windows上跑大语言模型。可以说NPU唯一的用处就是在任务管理器里和CPU/GPU并列显示一下自己的存在——但是随着R1奠定自己的行业标准地位,微软也开始开发NPU加速R1的驱动了。
要知道,在NPU这个例子之外,R1的“最低部署成本”,就一直在降低:从最开始的8台Mac Mini并联,到用支持AMX指令集的志强CPU跑,再到单4090配合系统内存的Ktransformers方案,这部署成本已经缩水了近百倍了——
对于计算机软件,一旦能得到足够的定向优化,软件的运行成本就会获得数量级的降低。前面提到的NPU就是一个很好的例子,达到相同的AI算力,NPU的功耗只是显卡的几分之一而已。未来一旦R1的14/30B参数版本被优化到可以只靠NPU就在个人计算机本地跑到10 token/s以上的吐字速度,就会大大吞噬云端AI模型的使用场景。甚至于,如果未来的硬件标准直接向R1对齐,一切都为了R1优化,那更会出现OpenAI自家的模型如果不做优化,反而会在相同的硬件/软件栈上自带运行效率劣势的情况。
那这就是要OpenAI的命了嘛~

您需要登录后才可以回帖 登录 | 立即注册