展会新闻
人工智能是否应具备人类的认知能力?两位AI界大佬的终极讨论
2017.12.08
自从阿尔法狗(AlphaGo)大胜围棋世界冠军李世石后,人工智能的概念真的火起来了,而关于人工智能究竟具不具备与人类相似的认知能力的争论就一直没有停过。
最近,在纽约大学心智、大脑和意识研究中心 (Center for Mind, Brain and Consciousness) 的一场活动上,两位人工智能领域的“大佬”——纽约大学计算机科学家、Facebook 人工智能研究总监 Yann LeCun 和纽约大学研究心理学家、Uber 旗下的创业公司 Geometric Intelligence 创始人 Gary Marcus 就这一问题又展开了激烈的讨论。
图| Facebook 人工智能研究总监 Yann LeCun
在许多人的印象里,人工智能与人类在学习上还是有很大的不同。就像一台由AI控制的机器,可能要通过几万甚至几十万次的同一实验之后,才能知道这种做法是错误的。但在现实世界中,人类甚至是其它动物,学习某种技能的时候根本不需要如此大量的错误试验才能获得。
这其中的重要区别在于,在强大的计算能力的帮助下,人工智能技术几乎可以从零开始学习任何的东西。而人类和动物却不是这样,我们具备天生的认知能力,可以直观地理解很多概念,包括对象、地点或相关事物的集合,从而直接迅速地发现世界是如何运转的。那么问题来了:随着技术的发展,人工智能是否需要拥有和人类类似的认知能力呢?
作为深度学习技术的权威,LeCun 认为:“从利用大脑重构世界这方面来讲,我们拥有得天独厚的优势,而这是人工智能不论通过设计还是学习都无法达到的。”不过 LeCun 相信,基于非监督学习技术,人工智能可以在通用人工智能方面取得进展。近期,非监督学习的发展使得机器不再需要大量带标签的数据来进行训练。
LeCun 还指出,当前人工智能的成功在很大程度上正是得益于预先没有提供关于世界运行方式的假设或概念。也就是说,我们不需要使用语言学家、心理学家或认知科学家提供的知识就可以实现人工智能。因此,他倾向于用最简单的人工智能算法结构来维持这种简约性。他说:“我的任务是尽量减少先天机制的设置数量,更多地使用我们可以获得的数据让人工智能进行学习。
然而,Gary Marcus 却不这么想。他承认,非监督的深度学习有可能获得成功。不过他认为,只有通过“比像素更丰富的基本元素和表达方法”来理解世界,非监督的深度学习才有可能成功。
图| Geometric Intelligence 创始人 Gary Marcus
Markus 表示:“我们希望人工智能可以像孩子一样,拥有为了理解世界上对象、实体和物理机制而建立起的表达方法和基本元素。”
Markus 期望人工智能科学家更多地借鉴人类的认知方式,开发出更具结构化的算法、表达对象、集合、地点以及空间连续性等认知概念。他引用了自己以及同事、哈佛大学认知心理学家 Elizabeth Spelke 的研究成果,证明人类的孩子很早就有能力去感知人物、对象、集合和地点等概念。他的建议是:在人工智能研究中利用同样的方法,通过某种结构去映射类似的概念。
实际上,LeCun 在卷积神经网络上的突破性贡献从某种意义上来讲就是一个例证。它使用更具结构化的方法来减少人工智能所处理信息的数量,帮助人工智能更好地理解世界。“我认为,我们真正需要的是系统性思考和分析,关注当我们将不同数量的内在机制集成到机器学习系统时会发生什么。”Marcus 说。
图| 卷积神经网络
LeCun 认为,人工智能的确需要一些结构来帮助理解世界。不过他想要知道,生物的大脑中是存在“单一的学习算法、原理或程序”,或是更像没有潜在组织原则、无意义的“黑客”的集合。无论是哪一种,人工智能都可以从中受益。
智力的本质就是一种预测能力,因为预测未来实质就是对世界空白场景的一种填充。基于对已知世界运行方式的了解,人类和动物可以根据常识来填补不完整的信息。正因如此,人类在学习某种技能时不需要犯成千上万次错误、不需要上万次的生命危险才获得此项技能。
“当前缺少一种机制,可以让我们的计算机通过观察世界、与世界互动来学习世界究竟如何运转。毫无疑问,这将是阻碍人工智能进一步发展的最大障碍。”LeCun 说。所以,LeCun 最大的希望就是,在非监督学习的引导下,人工智能最终发展出一种能力,可以以类似人类的角度去了解世界的运行方式。他表示:“在我有生之年,如果我们能开发出智力水平达到猫或老鼠的人工智能,那么我也会非常兴奋。”