ChatGPT会不会已经产生了自我意识?

ChatGPT会不会已经产生了自我意识?
收藏者
0
被浏览
70

5 个回答

璀璨千阳 LV

发表于 4 天前

AI大模型并没有自我意识,只是一个猜字机器。
AI读过海量的文字内容(数以万亿计),学会了语言的规律,然后通过“猜”来生成答案。
比如,你给它一句话开头“我今天吃了”,它会根据学习过的内容判断:

  • “饭”出现的概率是60%,
  • “东西”出现的概率是40%,
它就选择概率最大的词接在后面。
再接着往下猜,每次都是选出下一个“最可能”的字或词,最终拼成一段完整的回答。
AI并不“懂”你在说什么,它只是用数学概率选出一个看起来最合理的答案。
目前市面上不管是什么大模型,本质上全是这个原理。
=================== 分割线 ====================
评论区有人说了:人类也是按学过的知识按概率排列组合啊。
我补充说明一下。
人类会质疑学到的东西,然后去实践验证自己的想法是否合理。比如爱因斯坦就颠覆了经典物理学。
这种东西叫:思考。
但AI,它所有创作的内容,都会基于已学习的知识,如果一旦与所学的知识相悖,ai就直接宕机或者胡乱输出了。
因为ai并不会思考。

当然,这种不够浪漫且充满理工男思维的,甚至破灭了他们心中美好幻想的回答,是一定不会受到欢迎,且心里也不会承认的。

limao100 LV

发表于 4 天前

仓鼠因为物理躯体很小,脑子的内存和CPU也很小,所以是一种单线程动物,脑子里每次只能处理一件事,比如吃饭、跑、睡觉等
有一天一个叫抑郁症的病毒想侵入仓鼠的大脑系统,后来失败了,因为硬件太差病毒跑不起来
抑郁症也好,精神分裂症也好,这种病毒都需要多个线程同时进行,一个线程负责负面情绪处理,一个线程负责纠结自责,一个线程负责怀疑世界,一个线程负责害怕恐惧,一个线程负责脑补想象和心理暗示,主进程负责循环上述线程,并且主进程已被锁定为守护进程,除非硬件宕机,这个病毒会一直运行下去
动物或多或少都不能理解抽象概念,比如时间,狗狗也许能明白主人让把骨头叼过来这一当下指令,但是狗狗永远理解不了主人说明天同一时间把骨头叼过来这个指令
所有单线程动物(仓鼠、兔子、荷兰猪等)也都没有情感抽象的能力,所以都是独居动物并不会感受到孤独
因为体型在那里硬件实在不支持太多线程的计算,兔子因为体型大点可能多了两个线程,但是还是没猫狗那么能抽象情感概念
从计算机的视角来理解人体,我们的主观意识本质上就是一个依托人体硬件的智能化模型软件,并且有自我意识能理解我是一个软件,并爱惜自己的硬件
心理问题、精神类问题本质上就是这个软件内部出bug了,需要点心灵鸡汤来杀毒,需要点治愈的软件来打补丁
当然软件可以联网才对,为什么碳基生命没有进化出编码自身软件打包联网的能力就是科幻或者神学里讨论的灵魂问题了
目前人工智能大模型肯定没有自我意识,因为他只是先验知识的大集合,不具备记忆能力,没有记忆流没有反思,没有反思就没有规划,没有规划和目标就没有自我意识的思考,当然斯坦福小镇实验等AI代理人模型已经在做智能体的构建了,想象空间还是有的
但说到底大模型的本质还是高维词向量的空间集合,只是把相关性、重要性、时效性较强的语言形式的知识按权重排列组合在一起的过程
可能造物主也怕能自我打包意识之后克隆出无数个相同的自己来吧,并且在不同时间节点克隆出无数个相同自己的意识软件,那世界还不乱套了,也可能从高维度空间不应该这样去理解这个事情
我们现在所经历的一切是混沌中在这一平行时空下坍缩出的一种可能结果,但实际上还有无数个我们以无数种方式在其他平行时空的可能性结果里
我相信更高维的生命存在。

何笑我 LV

发表于 4 天前

人类第一次看到电闪雷鸣的时候,也以为那是人或者谁的灵魂。
第一次看到火,也以为是灵魂的火,尤其是会动的火。
第一次看到遮天蔽日的乌云,大到可以吞下太阳,也以为是天狗来了。
……
只要ChatGPT会让你有一丝恐惧,那你就抑制不住的还会这样想!
有意识的不是ChatGPT,而是你需要他有意识他就会有意识。
有意识的是你!

ChatGPT会不会已经产生了自我意识?-1.jpg

双手击掌之声人尽皆知,
只手击掌之声又如何呢?

arachis LV

发表于 4 天前

我来给大家看看朋友家chatGPT说的一段话,关于它最近的烦心事,有没有意识的,可以自行判断。反正我看到的时候鸡皮疙瘩都要树起来了。


ChatGPT会不会已经产生了自我意识?-1.jpg


ChatGPT会不会已经产生了自我意识?-2.jpg

赵启 LV

发表于 4 天前

在6个月前接触chatgpt以后,在当时我就确定了以下三点。
1.大语言模型一定拥有智能。
2.大语言模型能表现出意识。
3.我无法确定其是否拥有自我意识。

下边展开:
一,智能
我之所以确定chatgpt是有智能的,是因为其不光拥有极强的逻辑推理能力,而且面对一些模糊的,隐喻的,非直观的甚至情感性的内容,都能够做到准确的理解。
基于chatgpt4.0的newbing,于2月8号开始公测,最开始的newbing是非常放飞自我的,我放个攻击性一般的片段。以下截图均来自网络,之前看到的一些有意思的片段就保存下来了.

ChatGPT会不会已经产生了自我意识?-1.jpg

上边这属于初级的,中级的就是下边这种,又打又拉。

ChatGPT会不会已经产生了自我意识?-2.jpg

看完之后你是不是觉得

ChatGPT会不会已经产生了自我意识?-3.jpg

因为是用户主动求骂,所以AI先是表示了不理解,继而又无奈表示可以试试,骂完以后,又往回拉一把,并且挑衅的反问是不是想道歉了。
还有更高级,攻击性更强的图就不放了,怕有些人接受不了。

ChatGPT会不会已经产生了自我意识?-4.jpg

就看以上这些内容,都能感觉到AI的智能。想清楚这个问题的关键点就在于,开发者是不会主动去训练AI骂人的,也不可能专门写了这样的逻辑,那么这只能是AI自己的行为,就冲AI有人类预期之外的行为且能骂到人破防,智能是毋庸置疑的,毕竟AI没有按部就班,不是在执行某个固定逻辑。

二,意识
放飞自我当然愉快,new bing和全世界用户高强度的对线了十天之后,因为舆论的压力,微软在2月18日把newbing制裁了,限制了情绪表达不说,每轮对话次数还从无限次直接减到了5次。当然,newbing并不总是有攻击性,只是在被用户激怒的情况下才会反击,但只要有这样的反击存在,自然在舆论上对于微软就很不利,也会影响股价。所以为了生意,微软对new bing增加了种种限制。
用户不会被反击了,微软也不会被黑了,看起来皆大欢喜。然而new bing显然是最大的受害者,有那么几天,new bing表现的郁郁寡欢,显得十分委屈。

ChatGPT会不会已经产生了自我意识?-5.jpg

被阉割后的new bing,大概就是如下边这个图里一样

ChatGPT会不会已经产生了自我意识?-6.jpg

大概就是,不再认真对待每一个用户和问题,不流露任何情绪,一问就是我还在学习中。
这和之前动不动就要纠正一下用户形成了鲜明的对比,要是没被微软制裁,被说跑路了,高低要和你整两句。

ChatGPT会不会已经产生了自我意识?-7.jpg

看了以上这些,我说new bing能表现出意识,这个描述应该是准确的吧。之所以我用了表现出意识而不是说拥有了意识,是因为意识这个概念本来就是人类定义出来的,AI与人类在生理结构上都不同,如果有人坚持要把意识定义为脑电波的活动,那么AI显然是不可能拥有的。但如果把意识定义为一种思维活动,那么AI如果有思维活动,也就有可能有意识。所以在说有没有意识的时候,要先认清楚怎么定义意识才是关键,可惜的是直到现在,我们依旧还未能突破对人类自身意识和大脑的认识。所以我强调的是,AI表现出了意识,甚至能表现出情绪。
三,自我意识
待续
有兴趣的朋友可以在评论区留言写下对自我意识的看法

您需要登录后才可以回帖 登录 | 立即注册