浅谈人工智能的发展路径和研究方向
admin
2023-10-18 05:43:32
0

根据本人对相关问题的回答整理而成,个人感悟,欢迎交流。

什么是人工智能?

人工智能没有统一的定义。在这里,我倾向于伯克利大神Russell教授对人工智能AI的定义: In computer science AI research is defined as the study of "intelligent agent": any device that perceives its environment and takes actions that maximize its chance of success at some goal[Russell & Norvig 2003].人工智能的核心是‘感知环境’,‘采取行动’(判断做出反馈),‘最大化达成目标的成功率’。

也就是说,人工智能的目标是让机器具有‘智慧性’-充分的感知环境,做出正确的判断,采取最合理的方法达成目标。但是,这个‘智慧性’不一定是让机器像人一样思考判断,因为人并不是最智慧的,经常做出错误的决策(就如alpha狗和围棋手的对弈中,人总是犯错的那一方)。从定义的角度说,人工智能在达成目标上的最终表现是强于人类的。

这里先插入一个大家都关心的伦理问题:既然智能机器在达成目标上强于人类,智能机器最终将会战胜并取代人类吗?其实这里有个坑,文章后面会再来填一下。

人工智能的目标

既然要实现定义上的人工智能,就必须实现人工智能所需要达到的基本‘小目标’,本人以为可以包括:

  1. 知识库。建立计算机能够充分’感知‘世界上已知信息的Ontology(一种能在语义和知识层次上描述信息系统的概念模型),包括实体、概念、特征、关系等,即一套机器能读懂的和学习的,盖了所有客观存在的信息系统。
  2. 自我学习。也就是机器学习machine learning,让机器自主探索,反馈和修正。大家都知道目前的机器学习分为无监督学习(unsupervised learning)和有监督学习(supervised learning)。前者如波士顿动力公司的机器狗采用的reinforce learning,机器可以通过所感知的环境(输入值)自主进行特征值提取和发现模式;后者如常用的人工神经网络、SVM等,需要根据已知模式进行训练修正学习参数,达到新信息下的模式识别(classification)。但是,不管哪种方式,都存在致命的瓶颈:每种学习方法只能用于单一任务,无法实现通用智能(AGI),什么深度学习和迁移学习都还不行,不能像人类那样面对什么样的问题,都可以用大脑迅速自主切换思维模式来解决问题。
  3. 逻辑判断。这其实包括了上面机器学习中的部分内容,即通过自我学习进行对目标归类识别。但也包含了另一个内容:如何判断解决问题的最佳途径,因为解决问题的方法可以是多种的。计算机拥有的信息是海量的,解决问题的时间是有限的,计算机不仅需要做出‘合理’时间内的最优方案判断,而且也要做出什么是‘合理时间’的判断。人往往依靠直觉,那机器呢?
  4. 预测。在信息不充分的情况下,机器自我学习和逻辑判断不一定能带来符合以后客观发生的预测。更重要的,目前的智能机器是无法预知自己的预测结果将会对现实世界产生的影响,即无法对预测结果进行评估,并调整自己在可能因自身预测而带来环境变化的适应性。换做人类社会,心理预期是能改变世界的(最简单的例子就是股市),而且人类也会有解决问题的‘预案’的。
  5. 计划&目标。回到前面要填的坑:机器能够自我设定目标/目的吗?就如alpha狗知道自己的使命是赢棋吗?是人设定的!智能机器要从环境中习得自己的未来计划或一步步目标,拥有真正的自主‘意识’,是对‘智慧’最深层次的挑战。这个问题,我没有能力剖析。只能谈一点自己的感受:即使自然界最低等的生物都有一个基本的目标,那就是生存。机器会有意识吗(即‘强人工智能’)?我认为机器终归不是生命,不会有意识,这个探索太深奥,就不展开了。

人工智能的方法论

实现人工智能,学界有两个在根本思路层次上的争论:其一,侧重产生‘智慧’的结果(result-driven)而不在意过程,实现方法是多样化的;其二,侧重产生‘智慧’的过程(modeling process),对自然界尤其人类处理信息的模式进行建模。

可以归纳为3个重要的方法论:模拟自然生物信息处理过程(仿生派);用统计概率和数理逻辑等实证(符号派);以控制论实现机器自我进化(行为派)。

模拟自然生物(尤其人类)信息处理过程:目前的计算机对复杂环境感知、反馈并作出适应性决策的‘智慧’可能都赶不上一个最低级的生物,更不用说和人类比了。所以,很多科学家探索人类大脑认知的过程,希望能把人类的通用智慧(GI)用在人工智能上。大脑认知建模也是目前神经科学界和人工智能最热的研究领域之一。模拟大脑的路径很多,如简化信息为符号进行处理、逻辑、控制论等。这种思路带来了大家所熟知的神经网络等。

用统计概率和数理逻辑等实证:相对于人类对大脑的认知仍旧困难重重,统计概率在人工智能上的应用就发展的很快了,如贝叶斯决策、回归分析、支持向量机等。不过这些侧重于解决某个特定问题。

以控制论实现机器自我进化:这一派认为智能的实现不需要完备的知识库和逻辑推理,通过在现实环境中交互,智能行为会逐步得到进化。受其影响的有模糊控制,进化计算等。

但三个方法论并没有严格区分,而是有很多交叉的,因为人类在决策的过程中也是不自觉的用到概率,控制-反馈的。个人以为,仿生派和行为派,侧重过程;符号派侧重结果。

未来人工智能的研究方向

  1. 强化学习(Reinforce learning)。这个方向将把传统机器学习中的模式识别延伸为实时决策(realtime decision making),将真正的把人工智能带入日常应用。如波士顿动力的机器狗,你踹它几脚,它都不会摔倒。
  2. 自然语言处理(NLP)。这个领域是目前最热的人工智能分支。以后的研究会从目前对人类语言的识别回答,到能够与人类进行持续性的对话互动。
  3. 深度学习(Deep learning)。这个基于人工神经网络的学习分支很火,将会更广泛的应用于声音和图像的处理上。
  4. 计算机视觉(Computer vision)。它将推动3D sensing等技术的发展,应用于自动驾驶、娱乐等。
  5. 大规模机器学习(物联网 IoT)。机器学习将不仅用于单一问题的解决,而是基于物联网的大数据和机器合作系统做出更广泛的分析和决策。
  6. Crowd sourcing。人工智能将最大规模的利用人类的智慧去建立知识库,解决问题,如维基百科。以后,更高级的智慧平台将会是AI的研究方向之一。

人工智能最有前途的应用领域

  1. 智能交通:包括自动驾驶,个人/城市智能交通规划优化,城市智能交通控制等。
  2. 医疗健康:医疗信息电子化,医疗大数据分析,医学图像诊断,远程诊断和移动医疗,智能手术机器人,智能穿戴设备等
  3. 公共安全/军事:人脸识别,目标识别,信息追踪,武器系统优化等
  4. 零售/电商:消费大数据分析,物流网优化等
  5. 教育:在线学习(智能化学习内容推送);教学辅助机器人/工具(如注意力监测系统)等。
  6. 家用机器人:智能清洁机器人;智能聊天机器人等
  7. 节能:电网优化,城市基础设施优化等
  8. 娱乐:沉浸式虚拟现实游戏等

人工智能的伦理问题

  1. 机器会有意识吗?到底该不该有意识?以我目前的认知水平,我认为机器不可能会有人类的意识——这是有机生命体和人造无机物最根本的区别,但谁也不能对未来做绝对的定论。如果机器有自主意识后,它与创造者人的关系是从属?平等?人还有能力、法理去控制机器吗?这看起来有些遥远,但不得不思考。
  2. 社会结构巨变/失业。今年大家都在讨论人工智能来了,最容易的失业的职业,如会计,驾驶员等等,搞得人心惶惶。如果让人工智能在效率上替代人类,造成社会分工和结构的巨变,而又不能带来严重的社会问题,是一件很现实和急迫的事情。
  3. 隐私安全。信息电子化和大数据时代,个人信息量暴增,隐私也更难保护。用于人工智能的数据使用权到底是谁来授权?谁来负责监督?谁来保护隐私?

结束语:人工智能不是一种特定的技术方法,也不只有机器学习,而是一种让机器实现智慧的Philosophy,有前途,也有困境。现实中的人工智能发展过程也恰恰就像生物本身适应环境那样——学习,反馈,调整,进化。


基于本人对人工智能粗浅的理解,随便漫谈,欢迎交流讨论。

封面图片来自于网络。

相关内容