AI 技术的核心本质是什么?背后的技术原理有哪些?

当我们在谈论 AI 时,我们究竟是在谈论什么?从 AI 诞生之日起,它的任务就是要进一步解放生产力。顺着 AI 发展的脉络来看,通过不断模拟人脑的思考过程,AI 逐渐具有了对数据和语言的理解、推理、解释、归纳、演绎的能力,越来越像一个人类。接下来作者就给我们介绍了关于 AI 新的发展机会和能力。一起来看看吧。

AI 技术的核心本质是什么?背后的技术原理有哪些?-1.jpg


写代码、修复 BUG、编故事……这些看似只有人类才能完成的任务,都出自同一个聊天机器人之手。当地时间 11 月 30 日,OpenAI 发布了一个全新的对话式大规模语言模型 ChatGPT。作为 GPT-3.5 系列的主力模型之一,通过对话的形式,ChatGPT 可以回答后续问题、承认错误、挑战不正确的前提并拒绝不适当的请求。
这一模型在开放测试以后,迅速涌入了大批用户,并在社交媒体上晒出自己与 ChatGPT 的互动。有人用来给自己的猫写诗,有人用来给代码改 BUG,还有人问它关于人类的意义…… 12 月 5 日,OpenAI 首席执行官 Sam Altman 发推表示,OpenAI 训练的大型语言模型 ChatGPT 于上周三推出,目前已突破 100 万用户。

AI 技术的核心本质是什么?背后的技术原理有哪些?-2.jpg


甚至于马斯克也为其称赞 "ChatGPT 非常好。我们离强大到危险的 AI 不远了。"

AI 技术的核心本质是什么?背后的技术原理有哪些?-3.jpg


之所以 ChatGPT 能够引起如此大的反响,是因为这一次算法模型的升级让 AI 的认知智能更上一层台阶,换句话说,现阶段的 AI 能够对人类意图的理解更为深刻、准确。
让 AI 更懂人、更像人,一直是技术不断在攻克的难题,而同样作为生成式 AI(AIGC)中一员的 AI 绘画,也因为 Diffusion 扩散模型的加入,闯入了更多公众的视野。
只需要输入几个关键词,就能获得一幅由 AI 生成的绘画。今年以来,AI 绘画可谓是在社交媒体上赚足了眼球,从年初 Disco Diffusion 的流行,再到 8 月,由 AI 绘画程序 Midjourney 生成的《太空歌剧院》获奖,Stable Diffusion 扩散模型的使用,让 AI 绘画在图像细节的处理上更为出色。
如果将 ChatGPT 和 Stable Diffusion 模型两者进行 " 强强联合 ",便能够让模型更懂创作者的需求。一方面,利用 ChatGPT 强大的语言理解能力生成文本描述,另一方面,扩散模型能够最大程度保持图像的细节,既保留了图像中的语义结构,又能够生成高质量的 AI 绘画作品," 甲方爸爸 " 看了都直呼满意。
无论是 ChatGPT 还是 Diffusion 扩散模型,一个作为多轮对话模型,一个作为辅助多模态生成的模型,都让 AI 的能力从 " 机械执行 ",进阶到 " 创造性 ",这也意味着 AIGC 迎来了一个新的发展阶段。
收藏者
0
被浏览
77

5 个回答

AngelKiss LV

发表于 2025-4-7 11:00:38

目前的AI大模型本质是,以统计规律代替逻辑规律,以相关性代替因果性,以海量参数的函数拟合出输入输出算法。
具体的技术原理:1是通过数据集获得统计规律,2是通过统计规律进行插值输出。
而其目的,则是通过这种简单粗暴的算法,创造一条信息的自动化生产流水线。
(当然这里都说的是目前最流行的机器学习——神经网络这一系的依靠概率统计方法的AI,还有一些小数据集、类人脑结构之类的AI,目前进展困难,不在此列。)
它不像很多AI公司和风投资本吹得那么牛逼,更不可能取代人,目前的算法和训练效率都偏低,多数也配不上现在的估值,泡沫很大。
AI搞创作创新是不行的,但在很多工程应用领域,却真的能像实体自动化流水线一样,大规模高质量产出信息产品,比如自动驾驶和机器人控制。
但也像流水线一样,在大致相同的原理和算法上,针对每个行业的产品,大模型也需要做针对性的调整和训练,并不能通用。不是什么通用人工智能。
目前这个路线,创造像人一样全功能的AI(其实人也要分专业学习训练)不可能也没必要的。
<hr/>理论上说,通过已有数据集(案例集),总结出规律再应用所得规律,就可以解决各种类似的问题这既是普通人学习和工作的方式,也是AI大模型的工作原理。
如果我们把任何信息的生产,总结成“问题——计算——答案” 这个基本流程,
它基本上等于一个广义的函数:输入条件,通过函数计算,得到计算结果。
就像我们解数学题一样,任何问题的解决,都需要知道问题本身及其相关条件——这就是函数的输入项。
然后答题者会根据自己掌握的经验、方法、规律、定理、公式等等手段进行推理和演算——这就是函数本身的算法。
通过输入的条件和问题,经过演算,就能得到答案——这就是函数的计算结果。
对于人类,从问题到答案之间的计算过程,最难的不是计算,而是如何计算,以什么方法计算,要找到解题思路和方法:也就是,这个计算函数到底是什么。
找到这个解题的方法,或者说这个函数算法,就是解题的关键。
<hr/>对于正常人类,其实都是通过学习研究案例,习题等现有因果数据,总结出相应的因果规律、公式或算法,也就得到了这个计算函数。
而我们做科研,其实也是类似的过程:做实验,获得实验数据,总结其中的规律、方法和公式,然后在其他类似问题中使用这些公式。
AI大模型的初级原理是一样的:
AI需要一个巨大的数据集,也就相当于案例。
其中包含了大量现成的、经过人类确认为正确的“输入——输出”对应的因果数据。
然后通过神经网络之类的算法模型,对这些“输入——输出”关系进行统计和拟合,获得两者之间的对应规律,也就是函数算法本身。
与人类不一样的是,AI不会去逐条分析推理因果之间的逻辑性,而只是在统计概率上获取其相关性,也就是所谓“统计规律”而非“逻辑规律”。(但严格来说,学术上一般认为统计概率的关系只能认为是相关性,而非因果性,统计方法接近于归纳法而非演绎法)
与人类的另一个不同是,AI是通过一个(组)具有海量参数的庞大拟合函数来表达这个统计规律,而不是人类那样总结为一堆规律、定理、方法等等复杂的规则体系(这种规则体系被称为专家系统)。
而这个根据数据集获得海量参数的具体数值的拟合过程,被称为训练。
不同的数据集会训练出不同的参数,对应不同的统计规律和输入输出效果。
这样的优点是,AI不需要逐个弄清数据集内的真实准确的因果关系,所以效率很高,就像暴力破解一样,只要结果有足够高的准确率,就能够拿来使用。
但缺点就是,统计概率得到的拟合函数,只是个输入——输出的黑箱,无法详细解释其内在逻辑,因而其准确性终究达不到百分之百,也缺乏充分的可靠性。
通过统计概率获得数据中的统计规律,而非逻辑因果规律,这就是目前的AI大模型的核心算法。
<hr/>但话说回来,人类在研究复杂问题的时候,也经常说不清内在规律,只能公说公有理,婆说婆有理,甚至还互相矛盾。
于是在很多实际工程问题里,也就是依靠既往经验,依葫芦画瓢,拿着现成案例套用,不适用的地方就改改,甚至靠排列组合暴力+实验试错,才能得到最终能用的结果,
比如材料学就经常这么干,被称为炼丹。
而现在AI大模型调参也被称为赛博炼丹。
这个意义上,其实AI大模型的本质原理,和人类工作的原理是一样的。
而AI大模型数据集还更大,准确度更高呢。
不但复杂系统难于用数理逻辑解释清楚,甚至不那么复杂的一些系统,也由于精度控制太难而无法进行理想计算和控制,最后还是跟统计规律或AI差不多——比如那些屎山代码,只是理论上可以解释清楚,实际上还是靠实测试错。
复杂到一定程度后,统计规律和逻辑规律,相关性和因果性,也没那么大差别了。
<hr/>那么提示词又是什么?为什么数据集要进行标引,给数据打上提示词?
其实提示词就是为了补全数据集的因果关系
因为很多数据本身只是答案,而没有问题,只有果,没有因。比如绘画,音乐,视频这些。
提示词、标签这些,是数据的特征,也是数据的来源问题,是因。图片,音乐,视频是要生成的对象,是数据的结果,是果。
这些没有问题只有答案的数据,打了标签和提示词,才能形成完整的因果关系,大模型才能统计其因果规律。
比如一幅美女画像,要打上诸如美女、肤色、眼睛、眉毛、发型。。。等等各种细节标签,训练完之后,当用户提出类似的提示词,大模型就会关联到有这些提示词的原始数据,并进行插值计算,输出符合提示词的图片。
也有一些数据,不需要额外打提示词和标签,因为此类数据自带因果关系,不需要人为打标签就能统计其规律。
比如自动驾驶,只要把摄像头传感器获得的数据作为输入,人类驾驶的动作作为输出,就可以计算因果关系。
又比如翻译,只要数据集里有两种对应的文本,就可以统计其因果关系。
更有比如说气象数据,可以一边是今天的测量数据,一边是明天的测量数据,统计其因果关系,就能得到“早霞不出门晚霞行千里”这种规律,完全不需要人类参与。
围棋数据早期需要对棋谱进行统计,后来可以直接根据规则生成棋谱并统计,也是类似的道理。
它们的共同点是利用大规模统计概率来获取相关性的伪因果关系,而不是是否有人参与,要不要打标签,是有监督学习还是无监督学习。
大多数工业化的场景数据,往往都有此类特征,因为不涉及主观的分析判断,很容易直接采集到因果数据,这也是AI在工业应用上比文艺创作更成功的原因。
<hr/>至于生成式AI大模型的输出,也就是在取得(基于数据集的海量参数的)拟合函数后,针对用户的问题(提示词),通过这个拟合函数算出结果。
这一波AI的新突破就在于,GPT们突然发行,只要数据集够大,参数够多,拟合的函数就越精准,以至于有了真正智能的错觉。
用户的问题/需求,只要在数据集的输入范围内,就可以用训练出来的函数进行计算,得到符合数据集统计规律的答案。
简单的概括,这种拟合函数的输出,本质上就是一种插值计算。用户的需求如果是能够被数据集覆盖,但数据集里没有准确对应的,那只要在数据集中找到相关性高的若干案例数据,进行插值计算就能得到了。
这就把原本复杂的逻辑推理计算过程大大简化,从而可以高速高频率输出,比如自动驾驶AI每秒输出1000次(毫秒级)这种。
当数据集够大,拟合参数够多时,这种插值输出可以非常精细,不管是文字,图片还是视频,都能够比人工计算制作要好得多。
(但实际上文字和图片的输出明显好于视频,因为视频所需的数据量高出图像至少一个数量级,直到目前如sora之类的输出视频仍然不能令人满意)
但如果用户的问题/需求超出了数据集,那就要进行外插值。
由于AI大模型是统计规律而非逻辑规律,那么向外插值的准确性就很难保障了,目前看来,在非工业领域,结果是比较差的,也就导致AI只能是在已有案例数据中做各种模仿和调整,但无法真正进行创新。
哪怕文字,一旦你问到常规数据集之外的问题,AI就无能为力。
参考我另外一篇比较详细的文章:
大家对于ai是什么看法?<hr/>但无论是输入和输出,AI大模型都体现出暴力、高效的特点,总结规律靠概率,输出结果靠插值,因果逻辑虽然是个黑箱,但针对边界清晰、规则明确、目的简单,不需要创造性的领域,则可以用远远高于自然人的效率疯狂输出。
这本质上就是一条信息生产自动化流水线。
流水线的特点就是产出单一,需要定制,但重复大规模生产效率奇高。
比如自动驾驶,无非就是打方向盘,判断障碍物,在道路上从一个地方开到另一个地方,不需要创新,趣味,价值观什么的。
又比如机器人运动,无非就是迈腿,平衡,发力,移动,搬运这些,也不需要什么创造,思考,美学,甚至人类自己能熟练运动,却也不知道自己运动的精细逻辑,反正能动就对了。
骑自行车,人脸识别,语言翻译,语音识别,都是类似的情况。
这种大逻辑上简单清晰,但细节琐碎,重复量大,偏偏细节逻辑又很难用几条简单规则覆盖的,有点大概能说清,又说不細的事情,就特别适合目前的AI大模型来做。
用简单粗暴的海量数据提取统计规律,用同样简单粗暴的插值输出给出结果,必要时辅助一些专家规则作为保险和特殊情况的应对,就能够高效切实的进行自动化信息生产。
这就是现阶段从深度学习到生成式大模型的AI技术的核心本质:
提取统计规律,大规模插值输出,形成高效的信息自动化生产线。
<hr/>它和物理机械的自动化流水线是同样重要的自动化技术。
它不是第四次工业革命,但它融合了第二次电力(机械)革命和第三次互联网(信息)革命。
对于工业应用,它是极为重要的。
但对于文艺创作和取代人,它差点太远,甚至方向可能错了。

木色小罗 LV

发表于 2025-4-7 11:10:03

AI 技术使用的都是大模型, 其本质上是大规模语言模型。它们建立在过去十年的层层进步之上,包括:

  • Word2Vec 模型
  • LSTM(长短期记忆)模型
  • RNN(循环神经网络)
您实际上不必知道其中每一个是什么。关键是要认识到这些大型语言模型并不是突然的科学突破。多年来,研究人员一直在朝着今天的现实稳步前进,每一项新进展都在实现这一目标方面发挥了至关重要的作用。
当 LSTM 在 2019 年获得关注时,出现了一个很大的炒作周期(尽管这个概念是在 90 年代引入的),所有这些都是如此。研究有点奇怪!
ChatGPT 和 LLM 创建整个文本段落的方式是通过一遍又一遍地玩猜词游戏。
以下是概要:
1. 给模型一个提示(这是“预测”短语)。
2. 根据提示预测单词。
3. 它根据第一个单词预测第二个单词。
4. 它根据前两个单词预测第三个单词。
当你拆解它时,这是非常简单的。
但事实证明,当你的模型接受了整个互联网上所有文本的训练时,猜词游戏会变得非常强大。
数据科学家经常谈到 ML 模型,“垃圾输入意味着垃圾输出”——这意味着你的模型的好坏取决于你用来训练它们的数据。通过 OpenAI 与 Microsoft 的合作,他们已经能够使用大量的计算资源来收集这些数据并在强大的服务器上训练这些模型。

兰若 LV

发表于 2025-4-7 11:19:37

AI 的本质是复读机。
举个例子。
你女朋友爱看电视剧,你每天晚上都一边陪她刷剧,一边打王者荣耀。
韩剧,泰剧,日剧,美剧,你每天晚上都在听。
所以在街边听到外国游客聊天,你一听人说话就能知道是他是哪国人。
但你不懂外语。
随着听的剧越来越多,你开始能猜测他们聊的是什么。
比如你听到“私密马赛”,就能大概猜到游客在聊什么尴尬事。
你听到“安娘哈西米嘎”,就能大概猜到游客在毕恭毕敬地报告事情。
但你不懂外语。
某天你在街上被韩国妹子认错,她热情地向你打招呼。
她向你说“man na sou ban kab si ni da”。虽然你不知道她在说什么,但你回想了一下在韩剧里经常听到地问答,回了一句“car pu tak te lin mi da.”
她于是又说“dangsin-eun eoneu dosieseo wassnayo?”。虽然你不知道说什么,但你挺多了韩剧,觉得“dosieseo”和“Seoul”经常一起听到,于是回答她 “Seoul”。
妹子以为你是首尔同乡,很开心地拉你用韩语聊上了。
但你不懂外语,你只是一个复读机。
你和妹子像模像样地对话了十来句,回答逐渐开始离谱了起来,妹子也终于发现你只是鹦鹉学舌,其实根本不懂韩语。
你很不服气,于是上街专找韩国人搭讪。一旦回答错露馅了,下次就换个说法。
久而久之,你跟哪个韩国人都能谈笑风生。
但你不懂外语,你只是一个复读机。
AI的本质是什么,AI就像一个拥有无穷无尽时间和精力的你,每天给他看韩国节目,从韩国综艺到韩国天气预报,每天给他看,看到他能和人鹦鹉学舌地说话为止。
然后再一大群韩国人,每天和他聊天,每天和他聊天,回答得不好就改,改到好为止。
只要韩国节目看得足够多,跟人聊得足够久,总有一天你能和韩国人聊得像那么一回事。
但AI依然不懂韩语,它只是一个复读机。
所以我丝毫不怀疑AI可以取代人类,因为人类的本质是复读机。
就像AI一样。

shower LV

发表于 2025-4-7 11:29:16

人工智能是研究和开发模拟人类智能延伸和扩展的理论、方法、技术和应用系统的一门新兴技术学科。其本质,或者说最初目标,是让机器执行一些需要智能人类才能完成的复杂任务也就是我们希望机器能够代替我们去解决一些复杂的任务,不仅仅是重复的机械活动,而是一些需要人的智慧参与其中的活动。

人工智能的关键技术自下而上可分为基础设施层和算法层。基础设施层是基础硬件,包括CPU、GPU、专用人工智能芯片、高速网络等。在这个基础硬件之上,我们可以搭建算法框架,比如Tensorflow、Caffe、Mxnet、Torch、Keras、PyTorch、Theano等,在基础设施层之上就是算法层。算法层最具代表性的是机器学习算法,包括深度学习、迁移学习、通用对抗网络、强化学习等一系列机器学习算法。

一、基础信息层
基础硬件
CPU和GPU是两个类似的硬件。其中,CPU主要针对一组串行执行的任务进行优化,而GPU则针对复杂的图形图像计算算法进行优化。两者的区别在于CPU是串行执行的,而GPU是体积更小、效率更高的计算单元,一起并行处理计算。此外,还有专门为人工智能算法开发的专用芯片,比如谷歌的TPU芯片。
要充分发挥人工智能的能力,我们需要一个高速的网络。在一些复杂数据模型的训练和计算过程中,我们需要巨大的网络带宽保证。如今,网络已成为整体机器学习性能的重要组成部分。现在我们常见的有10G、20G、40G网络。随着Infiniband网络技术的出现,相信在未来,网络将为人工智能的学习和训练提供更广泛、更快捷的通道。
算法框架
基础设施中的第二层是算法框架。算法框架可以简单理解为运行算法的框架。就像一个建筑框架,我们可以在其上运行我们的业务,比如谷歌的TensorFlow。
二、算法层
机器学习
机器学习是人工智能中的一个核心概念。我们所有人都要学习,我们人类的知识传递也是通过这样的学习方式进行的。我们学习祖先的知识,然后通过推理创造新的知识。我们也希望机器有这样的能力:通过学习以前的信息,机器更像是拥有了智能,可以对未来新的输入做出相应的反应。这被称为机器学习。通过训练生成一个模型,然后用这个模型来指导对新数据的预测,就是最典型的机器学习的过程。
深度学习算法
机器学习中一种具体的学习形式叫做深度学习。它主要基于神经网络的算法。目前,深度学习在图像识别、语音识别、自然语言处理、音频识别、社交网络过滤、机器翻译、医学影像分析、桌游程序等领域取得了长足的进步。
迁移学习
将之前学习的结果迁移到新的问题上,叫迁移学习,也就是我们说的举一反三。在迁移学习中,我们试图将某个领域(我们称之为原始领域)的训练结果存储为知识。我们在原始域中训练算法。训练结束后,我们希望它能解决新的问题,称为目标任务。当我们放入我们的目标任务后,它可以根据在解决原始领域问题时积累的知识推断出新的问题,并且不需要训练就可以得到结果。

此外,人工智能的发展还必须依赖大数据技术。它需要大量数据来支持。技术创新才刚刚开始,还有更多的新技术需要我们不断学习。

参考
https://towardsdatascience.com/overview-of-the-key-technologies-of-artificial-intelligence-1765745cee3

鹏大大 LV

发表于 2025-4-7 11:40:23

AI的本质就是投票。
直观的来说,AI技术就是一种可以模仿人干活,但是又不是人的一种技术。
就拿ChatGPT来说,它就是一种典型的人工智能。

AI 技术的核心本质是什么?背后的技术原理有哪些?-1.jpg

你可以看到,ChatGPT可以模仿人类,利用人类已有的知识和你进行沟通,并且大多数的知识都是正确的。
很神奇对吧,其实它的原理非常的简单,就是基于投票,就跟你在做出一个决定的时候,你需要在几个选择之间抉择,而AI同样需要在做出抉择。
其实人在做决定的时候也是在投票,会根据得失或者其他的考量,做出决策,AI也一样,它也会对所有潜在的答案进行投票,得票最多的那个答案就会被选出来。
跟人一样,既然是选择题,那么即使再老练的选手,都会选错,这也是为什么AI也会犯错的原因。

AI 技术的核心本质是什么?背后的技术原理有哪些?-2.jpg

如果我们想要更好的了解AI,甚至更好的利用AI来辅助我们的工作学习,那我们必须要搞明白现如今最火的大模型(Large Language Model)。
特别是那些基础模型,比如ChatGPT,Claude,Bard等等。

AI 技术的核心本质是什么?背后的技术原理有哪些?-3.jpg

因为只有这样,你才能够在人工智能时代至少不落于下风。
如果同样的工作,一个熟练掌握LLM的人的工作效率可能是不会LLM的人的几倍,甚至几十倍。更重要的是,一个掌握了LLM的人,很可能自己就是一个团队,自己一个人可以做以前一个人才可以做到的事情。
其实对于不是特别专业的工作,每个人都可以找到用机器学习或者人工智能来助力自己的工作或者学习。
这就是大模型的魅力,它可以放大你的能力,比如说你不擅长代码,那么它可以帮助你实现你的想法,无论什么语言它都可以做的非常棒。其实无论是从业者,还是在校的同学,都非常的建议了解一下「知乎知学堂」联合「AGI课堂」推出的【程序员的AI大模型进阶之旅】公开课,一共2天的课程,可以帮助你迅速的掌握大模型的潜力,以及它如何可以跟你的职业或者学习相结合。

AI 技术的核心本质是什么?背后的技术原理有哪些?-4.jpg


更专业的说法,AI的全称Artificial Intelligence, 人工+智能,合起来就是人工智能。它的目的是模仿人类智能,使电脑能够实现一些人类难以完成的任务,比如自动学习、自动推理和自动解决问题。
AI技术的核心本质是让电脑模仿人类的智能,比如学习、推理和解决问题的能力。有很多不同的技术原理支撑着AI,但其中一些最重要的包括机器学习,它涉及使用算法让电脑从数据中学习,以及自然语言处理(NLP),它允许电脑理解和生成人类语言。其他重要的原理包括计算机视觉,它使电脑能够“看”和解释视觉数据,以及决策算法,它使电脑能够根据可用的信息做出决策。
说白了,人工智能就是以模仿人为目的的,看,听,说,读,写等等。
现阶段的人工智能是最初级阶段的,智能程度大部分取决于数据,也就是有多少的人工,就有多少的智能。
最终的目标是AGI,Artificial general intelligence, 也就是强人工智能。
定义:
强人工智能是一种具有通用智能的机器的概念,该机器模仿人类的智能或行为,并具有学习和应用其智能来解决任何问题的能力。在任何给定的情况下,强人工智能都可以以与人类的方式思考,理解和行动,其中强人工智能与弱人工智能的最大差别就是是否拥有意识
现阶段实现的AI其实是属于最低级的AI,也就是弱AI,AI一共被划分为三类。

  • Artificial narrow intelligence (ANI), 弱人工智能,不具备意识
  • Artificial general intelligence (AGI), 强人工智能,具备初级意识
  • Artificial superintelligence (ASI), 超级人工智能,意识等同或超过人类
1  弱人工智能[1]
弱AI是迄今为止我们成功实现的唯一人工智能类型。弱 AI是面向目标的,旨在执行单个任务(例如,面部识别,语音识别/语音助手,驾驶汽车或互联网搜索),并且在完成其编程要完成的特定任务时非常”聪明“。尽管这些机器看起来很智能,但它们在有限的约束和限制下运行,这就是为什么这种类型通常被称为弱AI。弱AI不会模仿或复制人类的智能,它只是基于参数和上下文来模拟人类的行为。
2 超级人工智能[2]
超级AI,是一种假想的AI,它不仅模仿或理解人类的智力和行为。ASI是机器变得自我意识并超越人类智能和能力的地方。  
除了复制人类的多方面智慧之外,ASI在理论上将在我们所做的每一件事上都做得更好。数学,科学,体育,艺术,医学,业余爱好,情感关系,应有尽有。ASI具有更大的内存和更快的处理和分析数据能力。因此,超级智能的决策和解决问题的能力将远胜于人类。
总结:
人工智能分为,ANI, AGI 和 ASI三类,我们目前所能达到的仅仅是弱AI水平,而更高阶段的AGI和ASI,我们尚未触及。但可以肯定是我们当前处于人工智能时代,并且随着人工智能技术不断的发展,再辅以基础理论的不断进步,AGI甚至ASI会在不远的未来有着更加清晰的轮廓

您需要登录后才可以回帖 登录 | 立即注册