复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?

近日复旦教授肖仰华说:“我们的文化中,聪明人太多,总想抄近路。有时候就是要坚持,要笨一点,才能做出真正的大杀器。我们与OpenAI的差距正在拉大,不是在缩小”,你怎么看?
原文:
收藏者
0
被浏览
99

5 个回答

韩建飞 LV

发表于 2025-4-8 13:52:28

我挺纳闷的,同一个问题为什么美国会栽进去两次?
大家有没有想过一个问题,为什么中国的可控核聚变堆进展怎么那么慢?就是因为,聚变堆的温度高到超出人类的理解范畴。没有任何方法可以拿实验数据(当然你要是直接引爆氢弹来测,那你是硬核狠人)所以只能烧烧停停,一点儿点儿建立模型进行分析。
这就是中式严谨。所以当年美国忽悠全世界别造风洞拿超算演算的时候,中国没听他的。疯狂打洞。后来大家发现可能飞机为什么能飞这个问题,人类都没搞懂。这他喵的建立的模型能对就有鬼了。于是美国在高速领域一败涂地。被中俄摁着脑袋锤。
现在又来openAI?大哥……我先问问你,《自然》论文库里面还有多少像奥兹海默症病理研究这种害群之马你知道吗?你就敢让openAI主导研究?疯了?

steking LV

发表于 2025-4-8 14:04:44

这个问题关闭按时间排序了
我来总结几个幽默看点:
<hr/>
那教授说的是错的,
不是拉大,而是成“几何级数”的落后速度。
复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?<hr/>
这世界真的设计的很精妙,当你试图控制他人的思维,那么就很难有创新的成果或伟大的发现,从而无法实现超级 ai,也就无法完美的控制。
如同满清通过落后封闭控制大清,最后却因为落后而被先进爆锤,天理循环,总归要还的。
复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?<hr/>
一堆坐在马车里的大老爷还在想怎么制定马拉火车的标准,你被正经的火车拉开差距不是非常正常的事情吗?
复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?<hr/>
离谱的是别人在创新,而我们在抄袭。
更离谱的是抄袭的速度还跟不上别人创新的速度。
复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?<hr/>
1、基因错误2、人才外流3、政策封闭4、全在骗,风投也不敢投。5、环境恶劣6、很难出现顶尖的人才和团队,有也跑了。7、不踏实
复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?<hr/>
复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?-1.jpg

复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?<hr/>
中国这个国家自古以来,必须要外来势力用大炮打开国门才知道轮船不是奇淫巧技,就算有人敢做,也会立刻因为内斗高于对外的原因先把提出做轮船的人干掉。
复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看? - 八旗旧人的回答 - 知乎
复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?注意这作者的名字
<hr/>更新:蛮子玩不起,别人都没删帖,就“八旗旧人”对线不过跑路了

我是鸽手 LV

发表于 2025-4-8 14:19:13

这个回答里面简直就是大侄子们的狂欢。
现在2025年1月23日,再看看今天deepseek,kimi,豆包...和你们这帮殖初口里遥不可及的chatgpt的差距。
当然中国科技再怎么硬,肯定比不上你们的嘴硬。但是你们膝盖软啊。

steking LV

发表于 2025-4-8 14:31:41

人家教授明明在说:我们怎么做,才能不被openAI拉大差距,表达了积极的奋斗精神;到了媒体这里,就生生扭曲为:“我们正在被openAI拉大差距“,表达着消极的躺平情绪。
完整看完采访后,我非常认可肖教授的观点,简单解读一下这篇采访。
1,推测OpenAI或许使用了大小模型结合的技术
也被称为混合模型,这的确是大模型发展的一个前沿的领域,让不同的模型解决不同的问题,做自己更擅长的事情,可以有效的提升语言模型整体的处理效率。
2,积极开辟大模型竞争的新赛道,比如医疗大模型、科学大模型等
目前国内有将近200个各类大模型,其中一多半都是垂直行业模型,鞍钢最近就联合众多科研机构提出的钢铁行业大模型。
3,对AI技术的应用需要制定明确的界限和规则
无论中国、美国还是欧洲,都制定了类似的法律。这次openai的宫斗大戏,导火索就是独立董事toner和altman对美国的这项法律的不同态度引起的冲突。
4,要从数据源头治理好数据
决定大模型质量的三要素:数据、算法和算力,我们都是落后的。数据这部分就体现在中文数据相对英文数据来说,质量是比较低的。举个例子,维基百科的内容可以直接用来训练大模型;但是百度百科就不行,因为里面有太多广告,必须经过清洗之后才能用于训练。
5,我们要努力健全国产算力体系,做到国产算力的自主可控
这一条非常重要,目前美国主要就拿两个芯片在卡我们的脖子,一个是cpu,一个是GPU。但是GPU突破的难度相对较小,目前国内已经有50几家GPU的生产厂商,前一段时间百度还下单购买了1000多块华为的GPU。美国把禁止出口中国的GPU标准不断升级,目前弄的英伟达也很难受,一方面中国市场的销量差不多占到英伟达整体销量的20%,另一方面就是中国厂商追赶的速度比较快,如果给他们1-2年的时间,有可能就真把英伟达挤出大陆市场去了。
6,要推动长期主义的原始创新
这一条很对,我们的科研缺乏长期主义,总是希望能投产马上看到效果回报的方向。但是这本身也是有时代局限性的,当我们的资源有限,百废待兴的时候,资源当然会优先倾斜给能马上出成果、出产能的方向。随着资源不断丰富,那些短期出不了成果的方向才有可能逐渐分配资源。
就好比你全身上下就10块钱,那你肯定优先拿来买吃的而不是去看话剧;但是等你钱多了,你就会加大在艺术、哲学方面的投入了。
7,大模型……需要结合场景形成智能应用
这一点基本上是行业共识了,A16Z(openai的天使投资人)就提出AIGC的两次浪潮的观点,第一次浪潮是toc的,第二次就是tob的,也就是具体业务场景下的应用。
8,普通人面对AI要思考自己的价值和意义
这一条也是行业共识了,可以说,AIGC是一种新的生产工具,但是这种生产工具比起以往所有的生产工具对人的影响都要大,都要深远。以前的工具如果说是增强了人的某些能力,那么AIGC就是要替代某些能力,同时催生出某些新的能力。
好了,解读就这么多吧。最后想说说这个问题下最多的两类答案:
第一类是幸灾乐祸的,除了蠢,我实在找不出其他形容词。稍微睁眼看一看,就能知道中国的AI的快速的追赶多么迅速,以至于让美国产生了多么强的危机感、紧迫感。比如上个礼拜,阿里、字节同时发论文,如何让一张照片生成流畅的舞蹈视频,效果十分惊艳。
第二类是危言耸听博眼球的。这是目前很多人对AI领域最大的误解:尽管AI'的确是目前世界上最前沿的科技之一,但是还基本在我们人类可认知的范畴内,远远到不了科幻小说那么玄幻的地步。比如,尽管ilya一直在考虑AI与人类的对齐问题,甚至在去年就发过推特,说他觉得人工智能有“轻微的自主意识”。但是这个所谓的意志,和科幻小说了里人工智能突然觉醒,决定消灭人类的那种意志根本说的不是一回事儿。
简单说,你问chatgpt3+2等于几,他之所以会说等于五。是因为他的庞大语料库里,有大量的关于3+2=5的资料,所以5是一个正确概率最高的答案。这就叫“没有意识”。好比有个小孩子,根本不会算算数,但是你每天就跟他说3+2=5、3+2=5,有一天你问他3+2=几?他就会说等于5.
而ilya说的“轻微意识”,也是目前openai内部被曝光的一个研究方向(Q-star),就是让AI理解3+2到底是什么意思,如果一旦他能理解了,那即使没有语料库,他也能得出正确的答案,甚至能自己生产语料库。
总之,AI是一项先进技术,并没有很多人想的那么神秘,他还处在可以理解、可以控制的程度上。

mssafia LV

发表于 2025-4-8 14:45:45

看到答主 @刘斯坦 提到了关于原OpenAI首席科学家IIya的个人纪录片,我就去自己看了看。

复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?-1.jpg

一个小插曲,这个纪录片的部分内容是在2018年就拍摄好的,可以看到IIya这时候的头发还是有不少的。
而现在的IIya头发是这样的,可想而知从GPT2到GPT4的过程真的很费头发。

复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?-2.jpg

这段纪录片有11分钟多一点儿。
我就不把所有的内容拿出来了,就总结下主要内容。
主要就是IIya对于AI的观点。

复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?-3.jpg

第一,AI的潜力以及面临的挑战

人工智能(AI)正成为一种重要的力量,因为它有望解决我们今天面临的诸多问题。AI的应用范围广泛,从解决就业问题到治疗疾病,再到消除贫困,它的潜力无穷。然而,人工智能的发展同样伴随着新的挑战。例如,假新闻的问题将变得更加严重,网络攻击将更加极端,我们甚至可能面临全自动的人工智能武器。更为深远的担忧是,AI可能导致无限稳定的独裁统治的出现。目前,超过1300名科技行业领袖、研究人员等正在呼吁暂停AI的发展,以深入考虑这些风险。
第二,AI与人类目标的一致性


复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?-4.jpg


复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?-5.jpg


复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?-6.jpg


复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?-7.jpg

科学家们一直被指责在“扮演上帝”,而当前的AI发展似乎正在将这种指责变为现实。我们正在创造出与以往截然不同的东西——完全自主的实体,具有自己的目标和意志。

复旦某个教授:我们与OpenAI的差距正在拉大。你怎么看?-8.jpg

随着这些实体变得比人类更加智能,确保它们的目标与人类目标一致变得至关重要。这种思考方式激励着我们去探索基础问题,比如学习、经验和思考的本质,以及大脑是如何工作的。
第三,技术与生物进化的相似性

技术,特别是人工智能,与生物进化有许多相似之处。就像我们通过自然选择理解生物体的复杂性一样,我们现在也正在通过机器学习——尤其是深度学习——来理解技术的发展。在深度学习中,一个简单的规则不断从数据中提取信息并应用于模型,从而将数据的复杂性转化为模型的复杂性。这导致了非常复杂的模型,我们尚未完全理解其工作原理,但是创造它的算法却异常简单。

Chat GPT可能是你听说过的AI的一个例子。它被形容为暴雨前的第一滴雨点,标志着一个关键的时刻。据微软研究所的一项最新研究表明,GPT-4已在某些方面超越了人类,它被认为是一个早期但尚不完整的人工通用智能(AGI)系统。AGI是一个能够完成任何人类能做的工作或任务的计算机系统,但执行得更好。
第四,通用人工智能(AGI)的潜在影响


虽然AGI实现的时间尚不可知,但我们必须认真对待它的可能性。最初的AGI可能是巨大的数据中心,内部装满了并行工作的专用神经网络处理器,消耗的能源可能相当于数百万家庭。这些高度智能的系统很可能对社会产生深远的影响。我们必须确保这些系统的信念和愿望与人类的最佳利益保持一致,否则它们可能像人类对待动物一样对待我们,当建设对人类重要的设施时,不会考虑其他生命。
第五,国际合作的必要性


许多机器学习专家对人工通用智能的发展持怀疑态度,认为它可能永远不会实现,或者至少在可预见的未来不会实现。然而,随着AI用于神经网络的计算机速度可能在未来几年内提高10万倍,我们可能很快就会看到AGI的发展。在此背景下,国际合作至关重要,以确保AGI的发展符合全人类的利益。不论AI的未来如何,我们都希望它不仅对AI本身有利,也对人类有益。


最后,我还得提醒一下,他的不少内容是2018年就录好的。对于AI技术,特别是ChatGPT这种东西的出现,vision的重要性远大于tech,因为GPT的原理其实并不比其他的大模型更玄妙,而GPT能先做出来,是因为OpenAI从开始就是瞄准的AGI,然后加上短期内没想着盈利的理想化的做法才做到的。
可以说,vision其实差的很远,而短期内也很难补足。

您需要登录后才可以回帖 登录 | 立即注册