欢迎光临
我们一直在努力

别只知道叫AI!它的英文全称和背后含义,99%的人都答错了

我们天天说AI,好像不说这个词就跟不上时代了。但你有没有停下来想过,AI到底是个啥?它的英文全称是什么?

很多人会脱口而出:“Artificial Intelligence嘛,人工智能!”

对,但也不全对。

说“对”,是因为这确实是标准答案。说“不全对”,是因为几乎所有人都把重点搞错了,完全没理解这个词背后真正的意思。这就像你知道一道菜叫“鱼香肉丝”,但不知道里面其实没有鱼一样。听起来简单,但差别很大。

我们先从这个词的源头说起。

时间回到1956年,地点是美国的达特茅斯学院。一群当时最聪明的脑袋凑到了一起,包括约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky)这些人。他们要开个会,讨论一个全新的、甚至有点疯狂的想法:用机器来模仿人类的学习和智能。

在会议之前,麦卡锡需要给这个新领域起个名字。当时已经有别的叫法了,比如“控制论”(Cybernetics)或者“自动机理论”(Automata Theory)。但麦卡锡觉得这些名字都不够响亮,不够直接。他想创造一个新词,一个能抓住这个领域核心思想的词。

于是,“Artificial Intelligence”这个词就诞生了。

现在,我们把这个词拆开看,问题就出在这里。

“Artificial”:人造的,这没问题

我们先说第一个词,“Artificial”。这个好理解,就是人造的、非自然的。我们今天所有讨论的AI,不管是手机里的语音助手,还是那些会画画的程序,都是程序员一行一行代码敲出来的,是人类智慧的产物。这一点,没人会搞错。

“Intelligence”:真正的麻烦所在

麻烦全在第二个词,“Intelligence”——智能。

你觉得什么是“智能”?

是会下棋?会算数学题?还是会写诗画画?

在达特茅斯会议那会儿,早期的研究者们对“智能”的理解,其实非常直接,甚至有点天真。他们认为,只要机器能解决那些在当时看来需要人类智慧才能解决的问题,比如下跳棋、证明数学定理,那它就是智能的。 当时的计算机已经能在这些特定任务上做得不错,所以他们非常乐观,觉得再过个二三十年,说不定就能造出和人脑一样聪明的机器。

但几十年过去了,我们发现事情根本没那么简单。

我们造出来的机器,在某些方面确实远超人类。比如,AlphaGo下围棋能赢世界冠军,这在十年前是不可想象的。但是,你让AlphaGo帮你订个外卖,或者理解一个笑话里的梗,它就彻底懵了。

这就暴露了我们对“Intelligence”这个词的第一个,也是最大的误解:我们常常把“在特定任务上的出色表现”等同于“真正的理解和思考能力”。

举个例子。你家的计算器算数比你快得多,但你会觉得它有“智能”吗?显然不会。因为它只是在执行一套固定的程序,它不“知道”自己在干什么。它不理解“2+2=4”的含义,它只是根据指令处理符号。

我们今天绝大多数的AI,本质上都是这个计算器的高级版本。它们被称作“弱人工智能”(Weak AI)或“狭义人工智能”(Artificial Narrow Intelligence, ANI)。 它们被设计出来,就是为了解决一个特定的、定义清晰的问题。 比如:
* 人脸识别系统: 它的任务就是在数据库里匹配像素点,找出最像的那张脸。它不“认识”你,也不知道你今天心情好不好。
* 翻译软件: 它的工作是基于海量的文本数据,找到概率上最合适的翻译组合。它不理解两种语言背后的文化和情感。
* 推荐算法: 它只是在分析你的点击行为,然后给你推荐更多可能让你点击的东西。它不“懂”你的品味,只是在做数学上的相关性分析。

这些AI很厉害,也很有用。但它们的“智能”,和我们人类所说的“智能”,根本不是一回事。它们是“任务机器”,不是“思考机器”。

这就引出了我们对AI的第二个误解:把“模仿”当成了“理解”。

有一个很经典的思维实验,叫做“中文房间”(Chinese Room Argument),是哲学家约翰·塞尔(John Searle)在1980年提出的。

想象一下,你被关在一个只有你一个人的房间里。你不懂中文,一个字也不认识。房间里有两大本书,一本是中文字符,另一本是英文规则手册。这本手册告诉你,当你从门缝里收到一张写着某个中文字符的纸条时,你应该根据这个字符的形状,去第一本书里找到对应的另一个中文字符,然后把这个新的中文字符递出去。

你在房间里,完全按照规则手册操作。从外面的人看来,这个房间好像“懂”中文。他们递进去一个问题,房间能给出一个合理的答案。他们会觉得,这个房间是有智能的。

但是,身处房间里的你,真的理解中文吗?

当然不。你只是在机械地处理符号,对这些符号的意义一无所知。

塞尔认为,今天的AI就是这个“中文房间”。它们可以处理信息,给出看起来很智能的输出,但它们背后没有任何真正的理解和意识。 它们只是在执行一套极其复杂的规则。

所以,当一个AI程序能和你对答如流,甚至写出一首诗的时候,它不是真的“理解”了你在说什么,也不是真的“创造”了这首诗。它只是在庞大的数据库里,根据概率,拼凑出了一段最有可能让你觉得满意的文字。

它是在模仿智能,而不是拥有智能。

那么,我们人类追求的那种,真正和人一样能思考、有自我意识的AI,叫什么呢?

那叫“强人工智能”(Strong AI)或者“通用人工智能”(Artificial General Intelligence, AGI)。 AGI是一种理论上存在的机器,它拥有和人类同等,甚至超越人类的智慧,能够理解、学习并应用其智能来解决任何问题,而不是局限于特定任务。

但现实是,AGI到今天为止,连影子都还没有。我们甚至都不知道实现它的路径在哪里。目前所有的技术突破,都还停留在“弱人工智能”的范畴里。

所以,下次你再听到有人说AI的时候,你心里应该清楚:

第一,它的全称是Artificial Intelligence,但关键的“Intelligence”这个词,在今天几乎所有的应用场景里,都名不副实。 它指的不是真正的理解和思考,而是在特定任务上的计算能力。

第二,我们今天所说的AI,几乎100%都是“弱人工智能”或“狭义人工智能”。 它们是工具,是高效的工具,但依然是工具。把它们想象成有思想的“人”,是一种非常普遍但完全错误的拟人化。

第三,不要被那些看起来很惊艳的结果骗了。 会画画的AI不代表它有审美,会写代码的AI也不代表它理解逻辑。它只是在进行更高维度的“模式匹配”和“概率计算”。

搞清楚这一点非常重要。

因为它能帮助你建立一个更现实、也更健康的预期。你不会再对AI抱有不切实际的幻想,比如担心它明天就会统治世界。你也不会轻易被那些夸大其词的宣传所迷惑。你会明白,它只是一个工具,它的能力有明确的边界。

同时,你也能更好地利用它。你知道它的长处在于处理重复性的、有固定模式的工作。你就可以把它用在这些地方,来提高你的效率。比如,让它帮你整理数据、翻译文档、或者生成一些初步的文案草稿。

你把它当成一个“超级计算器”或者“超级搜索引擎”来用,而不是一个“实习生”或者“同事”。这样,你和它的合作才会更顺畅,也更有效。

说到底,AI这个词从诞生之日起,就带有一种“营销”的色彩。麦卡锡当年就是想让它听起来更吸引人,以便获得研究经费。 这种与生俱来的“夸大”属性,一直延续到了今天。

但作为使用者,我们必须拨开这层迷雾,看清它最底层的逻辑。

记住,它叫“人工智能”,但它既不“智能”,也没有“人工”的意识。它只是代码、数据和计算。别再把它想得那么神秘了。

赞(0)
分享到

评论 抢沙发

登录

找回密码

注册