从自动驾驶汽车到超级碗广告中的跳舞机器人,人工智能 (AI) 无处不在。然而,所有这些 AI 示例的问题在于它们并不是真正的智能。相反,它们代表了狭义的人工智能——一种可以使用人工智能技术解决特定问题的应用程序。这与你我所拥有的非常不同。
人类(希望)显示出一般智力。我们能够解决广泛的问题,并学会解决我们以前没有遇到过的问题。我们有能力学习新情况和新事物。我们了解物理对象存在于三维环境中,并受制于各种物理属性,包括时间的流逝。人工复制人类水平的思维能力或通用人工智能 (AGI) 的能力在我们今天所认为的人工智能中根本不存在。
这并不是要从 AI 迄今为止所取得的压倒性成功中拿走任何东西。谷歌搜索是大多数人经常使用的人工智能的一个杰出例子。谷歌能够以令人难以置信的速度搜索大量信息,以提供(通常)用户想要的靠近列表顶部的结果。
同样,谷歌语音搜索允许用户说出搜索请求。用户可以说出一些听起来模棱两可的内容,并得到一个拼写正确、大写、标点符号正确的结果,最重要的是,通常是用户的意思。
它怎么运作得这么好?谷歌拥有数万亿次搜索的历史数据,以及用户选择的结果。由此,它可以预测哪些搜索是可能的,哪些结果将使系统有用。但不期望系统了解它正在做什么或它呈现的任何结果。
这凸显了对大量历史数据的需求。这在搜索中非常有效,因为每个用户交互都可以创建一个训练集数据项。但如果训练数据需要手动标记,这是一项艰巨的任务。此外,训练集中的任何偏差都将直接流向结果。例如,如果开发了一个系统来预测犯罪行为,并且使用包含种族偏见的历史数据对其进行训练,那么生成的应用程序也将具有种族偏见。
像 Alexa 或 Siri 这样的个人助理会遵循带有许多变量的脚本,因此能够给人一种比实际更有能力的印象。但正如所有用户都知道的那样,您所说的任何不在脚本中的内容都会产生不可预知的结果。
举个简单的例子,你可以问一个私人助理,“Cooper Kupp 是谁?” 短语“Who is”会触发对该短语的可变剩余部分的网络搜索,并且可能会产生相关结果。通过许多不同的脚本触发器和变量,该系统在实际进行符号操作时呈现出某种程度的智能。由于缺乏基本的理解,只有 5% 的人表示他们从未对使用语音搜索感到可惜。
像 GPT3 或 Watson 这样的大型程序具有如此令人印象深刻的功能,以至于带有变量的脚本的概念是完全不可见的,从而使它们能够创造出一种理解的外观。不过,他们的程序仍在查看输入,并做出特定的输出响应。AI 响应核心的数据集(“脚本”)现在如此庞大且多变,以至于通常很难注意到底层脚本——直到用户离开脚本。与引用的所有其他 AI 示例一样,为它们提供非脚本输入将产生不可预测的结果。在 GPT-3 的情况下,训练集是如此之大,以至于迄今为止证明消除偏差是不可能的。
底线?我们今天所说的人工智能的根本缺点是缺乏常识性的理解。这在很大程度上是由于三个历史假设:
为什么这些问题不是人工智能行业的重中之重?简而言之,跟着钱走。
例如,考虑为 3 岁儿童构建能力的开发方法,例如堆叠积木。当然,完全有可能开发一个 AI 应用程序,它可以像那个三岁的孩子一样学习堆叠积木。不过,它不太可能获得资助。为什么?首先,谁愿意将数百万美元和数年的开发投入到一个应用程序中,该应用程序执行任何三岁孩子都可以做的单一功能,但没有别的,没有更通用的?
然而,更大的问题是,即使有人资助这样的项目,人工智能也没有显示出真正的智能。它没有任何态势感知或上下文理解。而且,它还缺少一个每个三岁孩子都能做的事情:变成四岁,然后是五岁,最后是10岁和15岁。三岁孩子的先天能力包括长大为一个功能齐全、普遍聪明的成年人的能力。
这就是为什么人工智能这个词不起作用的原因。这里根本没有太多的情报。我们所说的大多数人工智能都基于单一算法,即反向传播。它被称为深度学习、机器学习、人工神经网络,甚至脉冲神经网络。它通常被描述为“像你的大脑一样工作”。如果您将 AI 视为一种强大的统计方法,那么你将更接近目标。