我们不能信任仅基于深度学习构建的人工智能系统

我们不能信任仅基于深度学习构建的人工智能系统

本文不是科学研究的结果,而是有关我们当前技术发展的众多观点之一。 同时邀请讨论。

纽约大学教授加里·马库斯认为,深度学习在人工智能的发展中发挥着重要作用。 但他也认为,对这项技术的过度热情可能会导致其名誉扫地。

在他的书中 重启人工智能:构建我们可以信赖的人工智能 马库斯是一位训练有素的神经科学家,他的职业生涯致力于尖端人工智能研究,他负责解决技术和伦理方面的问题。 从技术角度来看,深度学习可以成功模仿我们大脑执行的感知任务,例如图像或语音识别。 但对于其他任务,例如理解对话或确定因果关系,深度学习并不适合。 为了创造更先进的智能机器来解决更广泛的问题(通常称为通用人工智能),深度学习需要与其他技术相结合。

如果人工智能系统不能真正理解其任务或其周围的世界,这可能会导致危险的后果。 即使系统环境中最轻微的意外变化也可能导致错误的行为。 这样的例子已经有很多了:表达不当的决定因素容易受骗; 一贯存在歧视的求职系统; 无人驾驶汽车会发生碰撞,有时甚至导致驾驶员或行人死亡。 创建通用人工智能不仅仅是一个有趣的研究问题,它还有许多完全实际的应用。

在他们的书中,马库斯和他的合著者欧内斯特·戴维斯主张一条不同的道路。 他们认为我们距离创建通用人工智能还很远,但他们相信迟早可以创建它。

为什么我们需要通用人工智能? 专门的版本已经创建并带来了很多好处。

没错,而且还会有更多的好处。 但有很多问题是专门的人工智能根本无法解决的。 例如,理解普通的言语,或者虚拟世界中的一般帮助,或者帮助清洁和做饭的机器人。 这些任务超出了专业人工智能的能力范围。 另一个有趣的实际问题:是否有可能使用专门的人工智能来创建安全的自动驾驶汽车? 经验表明,此类人工智能在异常情况下(甚至在驾驶时)的行为仍然存在许多问题,这使情况变得非常复杂。

我认为我们都希望人工智能能够帮助我们在医学领域取得重大新发现。 由于生物学是一个复杂的领域,目前尚不清楚当前的技术是否适合于此。 你需要做好阅读大量书籍的准备。 科学家了解网络和分子相互作用中的因果关系,可以发展有关行星的理论等等。 然而,使用专门的人工智能,我们无法创造出能够进行此类发现的机器。 借助通用人工智能,我们可以彻底改变科学、技术和医学。 在我看来,继续致力于创建通用人工智能非常重要。

听起来“一般”是指强人工智能吗?

我所说的“一般”是指人工智能将能够即时思考和解决新问题。 与围棋不同的是,围棋的问题在过去 2000 年里都没有改变。

通用人工智能应该能够在政治和医学领域做出决策。 这类似于人类的能力; 任何理智的人都可以做很多事情。 你让没有经验的学生在几天之内让他们研究几乎任何事情,从法律问题到医疗问题。 这是因为他们对世界有一般的了解并且可以阅读,因此可以为非常广泛的活动做出贡献。

这种智能与强智能之间的关系是,非强智能很可能无法解决一般问题。 为了创造出足够强大的东西来应对不断变化的世界,您可能至少需要接近通用智能。

但现在我们离这个还很远。 AlphaGo 可以在 19x19 棋盘上完美下棋,但需要重新训练才能在矩形棋盘上下棋。 或者以普通的深度学习系统为例:如果光线充足且皮肤纹理可见,它就可以识别大象。 如果只看到大象的轮廓,系统可能无法识别它。

在你的书中,你提到深度学习无法实现通用人工智能的能力,因为它不具备深度理解的能力。

在认知科学中,他们谈论各种认知模型的形成。 我坐在酒店房间里,我知道那里有一个壁橱,有一张床,还有一台以不寻常的方式悬挂的电视。 我认识所有这些物体,我不只是识别它们。 我也明白它们是如何相互关联的。 我对周围世界的运作有自己的想法。 他们并不完美。 他们可能是错的,但他们是相当好的。 基于它们,我得出了很多结论,这些结论成为我日常行动的指南。

另一个极端是 DeepMind 构建的 Atari 游戏系统,当它看到屏幕上某些位置的像素时,它会记住需要做什么。 如果你得到了足够的数据,你可能会认为你有了了解,但实际上这是非常肤浅的。 证明这一点的是,如果你将物体移动三个像素,人工智能的表现会更差。 变化令他困惑。 这与深刻的理解相反。

为了解决这个问题,您建议回归经典人工智能。 我们应该尝试利用哪些优势?

有几个优点。

首先,经典人工智能实际上是一个创建世界认知模型的框架,并在此基础上得出结论。

其次,经典人工智能与规则完美兼容。 目前深度学习有一个奇怪的趋势,专家们试图避免规则。 他们想要在神经网络上做所有事情,而不是做任何看起来像经典编程的事情。 但也有问题就这样平静地解决了,并没有人关注。 例如,在 Google 地图中构建路线。

事实上,我们需要这两种方法。 机器学习擅长从数据中学习,但很不擅长表示计算机程序的抽象。 经典人工智能可以很好地处理抽象,但它必须完全手动编程,而且世界上有太多的知识无法对它们进行全部编程。 显然我们需要结合这两种方法。

这与您谈论我们可以从人类思维中学到什么的章节相关。 首先,关于基于上述想法的概念,即我们的意识由许多以不同方式工作的不同系统组成。

我认为解释这一点的另一种方式是,我们拥有的每个认知系统确实解决了不同的问题。 人工智能的相似部分必须被设计来解决具有不同特征的不同问题。

现在我们正在尝试使用一些一体化技术来解决彼此截然不同的问题。 理解一个句子与识别一个物体完全不同。 但人们正在尝试在这两种情况下使用深度学习。 从认知的角度来看,这些是本质上不同的任务。 我只是惊讶于深度学习社区对经典人工智能的重视程度如此之低。 为什么要等待银弹出现? 这是无法实现的,徒劳的搜索不允许我们理解创建人工智能任务的全部复杂性。

您还提到需要人工智能系统来理解因果关系。 您认为深度学习、经典人工智能或全新的东西会帮助我们实现这一目标吗?

这是深度学习不太适合的另一个领域。 它不解释某些事件的原因,而是计算给定条件下事件发生的概率。

我们在说啥啊? 你观察某些场景,就会明白为什么会发生这种情况,以及如果某些情况发生变化会发生什么。 我可以看着电视所在的支架,想象如果我砍掉它的一条腿,支架就会翻倒,电视就会掉落。 这是一个因果关系。

经典人工智能为此提供了一些工具。 例如,他可以想象什么是支撑,什么是下跌。 但我不会过度赞扬。 问题在于,经典人工智能在很大程度上依赖于有关正在发生的事情的完整信息,而我只是通过看展台就得出了结论。 我可以以某种方式概括、想象看台上我看不到的部分。 我们还没有实现此属性的工具。

你还说人有先天的知识。 这如何在人工智能中实现?

在我们出生的那一刻,我们的大脑就已经是一个非常复杂的系统了。 它不是固定的;大自然创造了第一个草稿。 然后学习可以帮助我们在一生中修改草稿。

大脑的粗略草稿已经具备了一定的能力。 新生的山羊能够在几个小时内准确无误地从山坡上下来。 显然,他对三维空间,对自己的身体,以及它们之间的关系,已经有了一定的了解。 一个非常复杂的系统。

这就是我认为我们需要混合动力的部分原因。 很难想象一个人如何能够创造出一个在一个不知道从哪里开始的世界中运行良好的机器人,而不是从一张白纸开始并从长期、丰富的经验中学习。

对于人类来说,我们与生俱来的知识来自于经过长期进化的基因组。 但对于人工智能系统,我们将不得不走不同的路线。 其中一部分可能是构建我们的算法的规则。 其中一部分可能是创建这些算法操作的数据结构的规则。 其中一部分可能是我们将直接投资于机器的知识。

有趣的是,您在书中提出了信任的概念以及信任系统的创建。 您为什么选择这个特定标准?

我相信今天这一切都是一场球赛。 在我看来,我们正在经历一个奇怪的历史时刻,信任许多不值得信赖的软件。 我认为我们今天的担忧不会永远持续下去。 一百年后,人工智能将证明我们的信任是合理的,也许更快。

但今天人工智能很危险。 不是埃隆·马斯克担心的那种感觉,而是求职面试系统歧视女性,无论程序员做什么,因为她们的工具太简单了。

我希望我们有更好的人工智能。 我不想看到“人工智能冬天”,人们意识到人工智能不起作用,而且很危险,并且不想解决它。

从某些方面来说,你的书看起来确实非常乐观。 您假设可以构建值得信赖的人工智能。 我们只需要朝不同的方向看。

没错,这本书短期非常悲观,长期非常乐观。 我们相信,通过更广泛地审视正确答案应该是什么,我们所描述的所有问题都可以得到解决。 我们认为,如果这一切发生,世界将变得更加美好。

来源: habr.com

添加评论