为什么Yann lecun(杨立昆)对chatGPT持否定态度?

在推特上杨立昆不认为chatGPT有重大创新,也不认为大语言模型是通用人工智能的正确方向?
收藏者
0
被浏览
66

5 个回答

伊阳进 LV

发表于 4 天前

其实我觉得最大的悲哀,是很多人根本就理解不了杨立昆的立场,和他想表达的事情。

他没有对GPT进行完全否定,甚至在某种程度上,肯定了GPT。否则他为什么不说文言一心。
他的观点是,不认为chatGPT有重大创新,不认为大语言模型是通用人工智能的正确方向

并且他苦口婆心解释了很多关于大语言模型,可以适用的场景,背后的原理。

说白了,就类似解释汽车,可以载人,可以载物,可以提升人的运动速度等等。
但是一直有人想这个汽车能不能变成机器人。总是把XXX汽车当成大黄蜂。

哪怕是在知乎,甚至有很多说自己在AI领域工作N年的。你们真的以为大模型有智能?

他说的其实不矛盾,也是正确的,现在大模型绝对不是智能的必经之路。也不可能通过大模型达到智能。
但是,目前确实没有更好的方式,来实现所谓的智能。
这才是有的人喜欢抨击他的原因。

而他的立场很明确,就是一个大师级别的人,但是身处AI领域,已经知道目前所有的路子,在AI这块,都是必定失败的,他是否还要坚持走下去。这才是他目前的处境。

不过让我最尴尬的是,他为什么要解释GPT这么基础的原理和适用场景。
就像我为什么要解释汽车无法变成大黄蜂一样。。。
唉,知乎也是一样的,搜索GPT相关的,几乎被宣传成神一样了。。

哈欠 LV

发表于 4 天前

内行看门道,外行看热闹。
Yann lecun是一名法国计算机科学家,2018年图灵奖得主,他在机器学习、计算机视觉、机器人和计算神经科学等领域都有很多贡献,可以说是绝对的内行。
但是,他并没有否定chatGPT,只是说了一句大实话:ChatGPT就是个LLM,可以用来辅助人类的工具,离AGI还有不少差距。
事实上,ChatGPT不是强人工智能(StrongAI),也不是通用人工智能(Artificial General Intelligence,AGI),它只是一个大型语言模型(Large Language Model,LLM),一种基于人工智能技术的自然语言处理模型,只是因为其模型规模非常大(超过1750亿个参数),能够处理海量的自然语言文本,拥有很强的语言生成、理解和推理能力,看起来像是AGI,其实就是个LLM。

叶弟 LV

发表于 4 天前

简单回答:采用归纳的方法,永远不可能实现可靠的演绎,尽管可以模仿一些常用演绎过程。
整个机器学习体系,到目前为止,都只是对已有数据中的某种规律的归纳、综合(generalization)。目前还没有通用的演绎算法(有限领域的演绎或纯符号演绎是之前AI研究已经做了的事情)。
人类的智能,至少有归纳和演绎两种。
所谓归纳,是对纷繁芜杂的事物之中存在的某种规律进行抽取。简单地说就是,A、B、C同属一类事物(但这类事物并不只有这三个),A、B、C具有某一特征,因此认为(或假定)该类事物都具有这一特征。
深度学习可以认为是一种在归纳方面相当强大的算法。它能归纳很多不同的东西,比如图像、文字、语音等等。
但它无法做到的是进行演绎。
当然,这不是说它完全不能够完成一些演绎工作。因为一些常见演绎,比如问一堆问题来猜你想的人是谁那种,都有足够的数据可以进行归纳。因此,深度学习,最多能够模仿一些常见的演绎过程(但那只是模仿,而不是实际上的演绎)。或者可以把特定演绎问题和该领域已有的演绎算法匹配起来(比如用归纳方法将你提出的计算问题与计算器程序匹配起来,用后者完成必要的数值演绎)。
因此,如果一些演绎问题,在既有的训练数据中比较稀少,而且没有已经做好的演绎算法,ChatGPT及其后继者就没有办法准确地回答。
而且,因为演绎能力实际上不存在,ChatGPT在生成文字时,并无法检查文字的逻辑合理性。
一旦你提出的问题没有在其训练数据中未曾涉及或比例极低、容易和其他问题混淆,那么ChatGPT的算法就会跑飞,给你一些莫名其妙的结果。ChatGPT大部分时候不能知道自己不知道问题的答案(它有时候确实是回答不知道,但那并不是因为引擎知道无法回答这一问题,而是训练数据中针对某些回答的正确回答就是“不知道”,ChatGPT只是把这个“正确回答”反馈给了你)。
本质上ChatGPT并没有产生质的飞跃,它是一种量的改变。它把深度学习在语言大一统模型上推到了一种极致,但这也只是深度学习算法的极致。而不是智能的极致。
所以,原则上来说,ChatGPT最适合的是回应一些常见的问题(此处“回应”亦可包括帮助你启用一些其他的专用算法)。对于相对少见的问题,或者全新的问题(甚至不需要是演绎问题),它是无法回答的。而且它不知道自己无法回答,它的算法会在这种情况下完全跑飞,搞出些互拼乱凑的答案。
也就是说,ChatGPT当然是有用的、有价值的。但是它并不能像很多人想象的那样,产生极其巨大的价值和影响。这就好像,不断改进蒸汽机能让火车跑得越来越快,但你要是觉得把蒸汽机做得超级大、超级精巧就能让火车跑到超音速,那未免就是异想天开了。
人工智能现在在归纳领域已经做的非常好了,下一步可能是通用演绎算法,以及如何把机器学习算法归纳出的规律运用到演绎中。这是深度学习不能够完成的任务。而且,考虑到深度学习总结的规律难以解析化,有可能未来能够和通用演绎算法结合的归纳算法并不是深度学习算法。
强人工智能离我们还很远呢。

siyue110 LV

发表于 4 天前

立昆本人昨天在社交网络上对于这个问题的回复在这里搬运一下。
(绝大部分)机器翻译的内容如下:
我对当前(自回归)大型语言模型(AR-LLMs)的坚定看法
1. 它们可用作写作辅助工具。
2. 他们是“被动的”,不做规划和推理。
3. 他们粗略地编造或检索东西。
4. 这可以通过人工反馈来缓解但无法解决。
5. 更好的系统将会到来。
6. 目前的LLM应该只是作为写作的辅助工具,仅此而已。
7. 将它们与搜索引擎等工具结合起来非常重要。
8. *将会*有更好的系统,它们是真实的、无毒的和可控的。 他们只是不会成为自回归的LLMs。
9.我在捍卫Galactica作为科学写作辅助工具时持有的观点一直与上述一致。
10. 警告人们 AR-LLM 是编造的,不应该用来获得事实建议。
11. 警告 LLM 只能掌握一小部分人类知识的肤浅部分。
12. 清楚更好的系统将会出现,但它们将基于不同的原理。
它们不会是自回归 LLM。
13. 为什么 LLM 在生成代码方面比生成一般文本要好得多?
因为,与现实世界不同,程序操纵的宇宙(变量的状态)是有限的、离散的、确定的和完全可观察的。
现实世界并非如此。
14. 与Galactica最尖刻的批评者所声称的不同
   - LLMs*正*被用作写作辅助工具。
   - 他们*不会*通过让无意识的群众相信他们编造的废话来破坏社会结构。
   - 人们会将它们用于对他们有帮助的事情。
原文如下:
My unwavering opinion on current (auto-regressive) LLMs
1. They are useful as writing aids.
2. They are "reactive" & don't plan nor reason.
3. They make stuff up or retrieve stuff approximately.
4. That can be mitigated but not fixed by human feedback.
5. Better systems will come.
6. Current LLMs should be used as writing aids, not much more.
7. Marrying them with tools such as search engines is highly non trivial.
8. There *will* be better systems that are factual, non toxic, and controllable. They just won't be auto-regressive LLMs.
9.I have been consistent with the above while defending Galactica as a scientific writing aid.
10. Warning folks that AR-LLMs make stuff up and should not be used to get factual advice.
11. Warning that only a small superficial portion of human knowledge can ever be captured by LLMs.
12. Being clear that better system will be appearing, but they will be based on different principles.
They will not be auto-regressive LLMs.
13. Why do LLMs appear much better at generating code than generating general text?
Because, unlike the real world, the universe that a program manipulates (the state of the variables) is limited, discrete, deterministic, and fully observable.
The real world is none of that.
14. Unlike what the most acerbic critics of Galactica have claimed
  - LLMs *are* being used as writing aids.
  - They *will not* destroy the fabric of society by causing the mindless masses to believe their made-up nonsense.
  - People will use them for what they are helpful with.

全年不休 LV

发表于 4 天前

我拿chatgpt练英文,贼好用。
技术一定要看它的应用,你非要拿2g技术支撑4k流媒体,那不是缘木求鱼么?
现阶段chatgpt就是2g,杨认为未来是5g,不能走2g路线到5g,这也是很正常的思维啊。未来肯定有比chatgpt更牛的技术出现,替代它。
但是这并不妨碍我享受2g这个过程。

您需要登录后才可以回帖 登录 | 立即注册