我们离通用人工智能到底还有多远?

编译 | 马卓奇
编辑 | Vincent
AI 前线导读:有人称之为“强”人工智能,也有人称之为“真实”人工智能,或“通用”人工智能(AGI)……无论我们采用什么术语,都存在着比我们是否在开发通用人工智能更为重要的问题。通用人工智能可以像人一样思考——甚至可能拥有超人的智力水平,或许会产生不可预知的、无法控制的后果。

更多干货内容请关注微信公众号“AI 前线”,(ID:ai-front)

几十年来,这一直是科幻小说中不断出现的主题,但由于过去几年人工智能的飞速进展,这场辩论又重新展开,并且愈演愈烈。越来越多的媒体和主流声音开始警告我们通用人工智能的到来,他们宣称这一过程要比我们想象的要快得多。例如最近上映的一部新纪录片:《你相信这台电脑吗?》由埃隆·马斯克出资制作,首映后吸引了来自学术界和工业界的众多 AI 专家。这部纪录片描绘了一幅令人惊叹的人工智能画面,即“地球上的新生命形式”,它们将“用它们的触角”环绕着我们。越来越多的故事指向 AI 的一个可怕的方面:例如一些可以替代现实的创造(假的名人面部产生器和 deepfakes,有可能在不久的将来还会配有视频生成和语音合成),波士顿动力学公司诡异的视频(最新的:机器人合作打开一扇门),以及关于谷歌的 AI 变得具有“高度攻击性”的报道。

然而,作为一个在 AI 的“战壕”中花费了大量时间的投资者,我在这个话题上经历过相当多的认知失调。我每天都与很多 AI 企业家交流,而我了解的情况是完全不同的:即使你解决了某个特定问题,雇佣了一个专业的机器学习工程师,并筹集了数百万美元的风险投资,仍然很难为现实世界构建一个人工智能产品。显然,即使是“狭义”的人工智能,在真实世界中需要 100% 正确执行的情况下,还远远没有达到正常工作的水平,最近由于自动驾驶造成的人员死亡事件便是最悲惨的证明。

那么现实情况到底是什么样呢?技术的指数发展让通用人工智能看起来像是在可及的未来,但突然我们发现情况并不是这样。我们是否即将达到拐点?

许多关于 AI 的文章都是在讲如何打造 AI 应用程序和初创公司,而在这篇文章中,我看起来是在 AI 研究的世界中逆流而上,我试着去了解谁在做什么工作,以及 AI 研究实验室可能发明什么新东西。几周前我有幸出席了一个很棒的 Workshop,是在 NYU 举行的大脑和机器的规范计算(Canonical Computation in Brains and Machines)讨论会,对我特别有启发性,也是这篇文章的主要内容来源。

有史以来最多的人工智能研究,资源和计算共同推动 AGI

关于 AI 创业活动呈爆炸式发展的报道源源不断,据 2017 的报告显示,有 152 亿的风险资本流入了 AI 创业公司,但在 AI 研究的上游也出现了同样的情况。

AI 领域论文的总数量自 2012 年急剧增加,甚至出现了像 Arxiv Sanity Preserver 这样的项目,这是一个可以访问超过 45000 篇论文的浏览器,由 Andrej Karpathy 推出,因为“事情已经严重失控”。

NIPS 是一个从 1987 年开始的高水平学术会议,曾经只是一个很小的、鲜为人知的事件,但是到 2017 年已经有 8000 人参加。

人工智能研究正在日益全球化。除了美国的大学(例如麻省理工学院 CSAIL 实验室),还有一些最先进的人工智能研究中心位于加拿大(特别是多伦多,多伦多大学和新的 Vector 研究所,以及蒙特利尔,包括 MILA),欧洲(伦敦,巴黎,柏林),以色列。而且,中国的学者也越来越多。有趣的是,AI 学术界开始出现越来越多出色的年轻学者,包括一些青少年,他们精通技术,并且有前瞻性思维,这大概是人工智能工具和教育民主化的结果。

另一个主要的趋势是越来越多的基本人工智能研究已经走进大型互联网公司。当然,公司赞助实验室这一模式并不是新出现的,比如贝尔实验室。但是该模式在 AI 领域完全是另一种风景。Alphabet 和 Google 分别拥有 Deepmind(一个 2014 年的初创公司,现在有一个 700 人的团队,主要集中研究基本的人工智能,由 Demis Hassabis 管理)和谷歌大脑(由 Jeff Dean、Greg Corrado 和 Andrew Ng 于 2011 年成立,更关注人工智能的应用)。Facebook 有 FAIR 实验室,由深度学习之父其中的 Yann LeCun 领导。微软有 MSR AI。Uber 拥有 Uber AI 实验室,收购自纽约初创公司 Geometric Intelligence。阿里巴巴有阿里巴巴 AI 实验室,百度有百度研究院,腾讯有腾讯人工智能实验室。

这些工业实验室拥有雄厚的资源,并且能够支付数百万美元来吸引顶尖研究人员。与人工智能研究者对话中反复出现的一个主题是,如果初创公司都很难吸引那些在机器学习领域获得博士学位的学生,学术界将更难保留他们。

上述许多实验室都在明确地或暗中追求通用人工智能(AGI)。

此外,人工智能研究,特别是那些工业实验室,能够获得两个十分关键的资源:数据和计算能力。

目前可以用来训练人工智能的 数据 越来越多,而像谷歌和 Facebook 这样的互联网巨头在开发通用的人工智能解决方案方面有很大的优势。在中国也有类似的情况,大量的数据池被聚集在一起,以训练智能人脸识别,独角兽初创公司像 Megvii(又名 Face+ +)和商汤成了最大的受益者。在 2017,中国启动了一个叫做“雪亮工程”的计划,集中监视和处理来自 50 多个中国城市的监控摄像机(公共和私人)。

除了数据之外,另一个可能导致 AGI 的变化是 计算能力的巨大加速,尤其是在近几年。这是在利用现有硬件,并且为 AI 专门打造新的高性能硬件方面取得进展的结果,进步的速度已经 超过了摩尔定律

在 2012 年赢得 ImageNet 竞争的团队使用了 2 个 GPU 来训练他们的网络模型。在当时花了 5 到 6 天,已经被认为是最快的训练速度。在 2017,Facebook 宣布,他们已经能够在 256 小时内使用 1 个 GPU 来训练 ImageNet。仅仅几个月之后,一支来自 Preferred Networks 的日本队伍打破了这一纪录,用 1024 个 NVIDIA 特斯拉 P100 GPU 只用了 15 分钟就可以训练 ImageNet。

但这可能只是一场热身运动,因为全世界现在都在竞相制造越来越强大的人工智能芯片和围绕它们的硬件。2017 年,谷歌发布了第二代张量处理单元(TPU),专门用于加速机器学习任务。每个 TPU 可以提供 180 万亿次浮点运算性能(用于机器学习模型的推理和训练)。这些 TPU 可以被集群化,从而产生超级计算机——由 1000 个云 TPU 组成的系统可供愿意公开分享工作的 AI 研究者们使用。

在初创公司圈子里也有许多活跃的资金雄厚的新兴硬件公司,如 Cerebras,Graphcore,Wave Computing,Mythic 和 Lambda,以及中国初创公司 Horizon Robotics,Cambricon 和 DeePhi。

最后,围绕量子计算和光学计算出现了新的硬件创新。虽然从研究角度来看还处在早期阶段,但是谷歌和 IBM 在量子计算方面都取得了一些有意义的进展,这将会使 AI 进入新的发展阶段。

计算能力的巨大增长打开了用越来越大的数据量来训练人工智能的大门。它还使 AI 研究人员能够更快地运行实验,加速进展,并创造新的算法。

OpenAI(Elon Musk 的非营利研究实验室)一直强调的一点是,当五年前算法在相对普通的硬件上运行时,人工智能的力量已经让我们感到震惊——谁知道我们有了现在这些计算能力会发生什么?(参考 Greg Brockman,OpenAI 的 CTO 在 TWiML & AI 上发表的博客:Towards Artificial General Intelligence with Greg Brockman。)

AI 算法:过去与现在

2012 年的 ImageNet 竞赛深受深度学习的推动,带来了人工智能的惊人复苏。这一统计学技巧,由包括 Geoff Hinton、Yann LeCun 和 Yoshua Bengio 在内的数个人工智能研究者开创和完善,包括逐步改进结果的多层处理方法(发表在 2015 年 Nature 的论文:Deep Learning)。这是一种古老的技术,可以追溯到 20 世纪 60 年代、70 年代和 80 年代,但是在提供了足够的数据和计算能力时,它突然显示了自己的真正力量。

几乎所有 AI 产品的发展都是由深度学习推动的,从 Alexa 到 AI 在放射学中的应用,到 HBO《硅谷》电视剧中“是不是热狗”的恶搞软件。深度学习在各种语音识别、图像分类、目标识别和一些语言问题中已被证明是非常有效的。

从 AGI 的角度来看,深度学习激发了想象力,因为它能做到的远远超过它被编程的范围,例如,让机器围绕着想法来分组图像或单词(如“纽约”和“美国”),而没有明确地告知这些图像或单词之间有联系(例如“纽约位于美国”)。人工智能研究员自己也并不能准确地理解为什么深度学习能做到这一点。

然而,有趣的是,尽管其他人开始广泛地接受从消费者到企业应用的深度学习,AI 研究界怀疑它是否正在走下坡路。Geoff Hinton 本人在 2017 年 9 月的一次会议上质疑反向传播,而这正是他发明的神经网络的核心,并且他建议让大家从头开始,这给 AI 研究领域带来了一定冲击。Gary Marcus 在 2018 年 1 月的一篇论文中提出了十个关于深度学习的担心,并提出“如果我们要达到通用人工智能,就必须通过其他技术来补充深度学习”。

大部分讨论似乎都集中在“监督”学习——需要显示大量标记的样本来训练机器识别相似的模式。

AI 研究社区现在似乎同意,如果我们要实现 AGI,需要对无监督学习付出更多的努力和关注——在没有标记数据的情况下训练。无监督学习有很多种变体,包括自动编码器、深度置信网络和 GAN。

GAN,或称“生成对抗网络”,是一种最近才兴起的方法,与无监督深度学习直接相关,由 Lan Goodfellow 在 2014 开创,那时他还是蒙特利尔大学的一名博士生。GAN 通过在两个神经网络之间建立竞争,在相同的数据上进行训练。一个网络(生成器)生成尽可能逼真的输出(如照片);另一个网络(鉴别器)将照片与训练数据集进行比较,并尝试区分每个照片是真的还是假的;然后生成器调整其参数,产生新图像,然后一直循环。GAN 已经有了自己的变体,2017 年一年内就出现了 GAN 的多个版本,(WGAN,BEGAN,CycleGan,Progressive GAN)。最后一种方法通过逐步训练 GAN,NVIDIA 用其生成了假名人的高清脸部照片。

另一个发展速度相似的相关领域是 强化学习——AI 可以通过一次又一次地尝试教会自己如何做某事,将好的动作(可以获得奖励)从坏的中分离出来,并且每次改变自己的方法,直到掌握这个动作。强化学习是一种可以追溯到 20 世纪 50 年代的另一种技术,长期以来被认为是一种有趣但不是很有用的想法。

然而,2013 年底这一切都改变了,当时的 DeepMind,一个独立的初创公司,教会了 AI 玩 22 种雅达利 2600 游戏,都达到了超越人类的水平。在 2016 年,AlphaGo,一个经过强化学习的 AI,打败了韩国围棋大师 Lee Sedol。就在几个月前,2017 年 12 月,AlphaZero,AlphaGo 的更泛化且更强大的版本,使用了同样的方法掌握了不仅仅是围棋,而且还有象棋和将棋。除了游戏规则之外,没有任何人的指导,AlphaZero 仅仅在四个小时之内就教会了自己如何成为一个象棋大师。在 24 小时内,AlphaZero 能够击败这 3 种游戏中所有的目前最先进的人工智能程序(Stockfish,elmo 和 3 天版本的 AlphaGo)。

AlphaZero 离通用人工智能有多近?Demis Hassabis,DeepMind 的首席执行官,称 AlphaZero 的风格是“外星人的”,因为它赢得棋局完全靠违反直觉的行动,比如牺牲棋子。看到一个计算机程序将最复杂的人类游戏在短短几小时内修炼到世界级的水平是一种令人生畏的体验,它已经接近于某种形式的智力。

AI 领域中出现的一个反对理论是 AlphaZero 的训练过程其实属于暴力算法:AlphaZero 通过使用 5000 个第一代 TPU 和 64 个第二代 TPU 进行自我博弈来训练。训练完成后,需要运行在一台具有 4 个 TPU 的机器上。在强化学习中,人工智能研究者指出,人工智能不知道它实际上在做什么(比如玩游戏),只是受限于它所给定的特定约束(游戏规则)。可以参考这篇博客文章:AlphaZero 是否真的是一个科学突破?。

当提到 AGI,或者甚至是普遍的机器学习,一些研究人员对迁移学习抱有很高的期望。例如,DeepMind 的 Deavy Hasabi,将迁移学习称为“通用智力的关键”。迁移学习是一种机器学习技术,其中在一个任务上训练的模型被重新定位在第二个相关任务上。这个想法是,有了从第一个任务中学习到的先验知识,相比于在第二个任务上从零开始训练的新神经网络,AI 能够更好地运行、更快地训练并且需要更少的标记数据。从根本上说,希望它能帮助 AI 更“通用”,从任务到任务,从域到域,特别是那些标记数据不太容易获得的情况(参见综述:Transfer Learning-Machine Learning's Next Frontier)。

如果想依靠迁移学习实现 AGI,AI 需要能够在相距越来越远的任务和域中进行迁移学习,这将需要增加抽象。根据 Hassabis 的观点,“迁移学习的关键是获取概念知识,这些知识是从你学习到的感知细节中抽象出来的”。我们现在还没到那个阶段。迁移学习一直是一项具有挑战性的工作——在任务紧密相关的情况下,它很有效,但是超过那个范围,情况就会变得复杂得多。但这是人工智能研究的一个重点领域。

DeepMind 的 PathNet 项目取得了重大进展(综述:DeepMind just published a mind blowing paper: PathNet.),它是一个由神经网络组成的网络。还有另一个来自该领域的例子,就在几天前,OpenAI 发起了一个迁移学习竞赛,评比的是强化学习算法从以前的经验中进行泛化的能力,算法将通过 30 个 SEGA “旧派”电子游戏进行评测。

递归皮层网络(RCN)是另一种有前景的方法。由硅谷初创公司 Vicarious 开发,RCN 最近被用来解决基于文本的 CAPTCHA 测试(全自动区分计算机和人类的图灵测试),其准确性高,在场景文本识别基准的情况下,它用到的数据比对手少 300 多倍(论文:A generative vision model that trains with high data efficiency and breaks text-based CAPTCHAs)。

随着最近的技术进步,有许多方法被考虑、开发或重新探索,包括:Geoffrey Hinton 的胶囊网络(CapNets)、神经注意模型,单样本学习,可微神经计算机(DNC),神经进化,进化策略等等,进一步证明了 AI 研究的爆炸性活力。

人工智能与神经科学的融合

到目前为止,所描述的所有技术本质上都是基于数学和统计的,并且依靠大量的计算能力和数据来获得成功。虽然仅仅对这样的算法进行创造和改进已经显示出相当大的威力,但是对于这些方法的一种常见的批判是机器仍然不能开始或学习原理。AlphaZero 不知道它在玩游戏,或者说什么是游戏。

在研究中越来越多的想法是重新思考人工智能的核心原理,包括人类大脑如何工作,以及儿童的大脑如何工作。虽然最初是由人脑启发的(因此命名为“神经”),但是神经网络很快地从生物学中分离开来。一个常见的例子是反向传播本质上在自然界并没有等效的机理。

在 20 世纪 50 年代,图灵和明斯基的时代,教一个机器像孩子一样学习是 AI 最古老的想法之一,但随着人工智能领域和神经科学领域的成熟,这一想法正在取得进展。

AI 和神经科学的交叉点便是之前提到的以“大脑和机器的规范计算”为主题的 Workshop。虽然这两个领域仍在互相了解,但很明显,一些人工智能思想家开始越来越多地关注受到神经科学启发的研究,包括深度学习的教父 Yann LeCun(视频:新生儿的学习原则是什么?)和 Yoshua Bengio(视频:弥合深度学习和神经科学之间的鸿沟)。

麻省理工学院的认知科学和计算教授 Josh Tenenbaum 提出了一个特别有希望的研究领域。Tenenbaum 工作的一个关键部分是专注于建立婴儿或儿童学习的定量模型,而不是她从进化中继承的东西,他将其称之为“直觉物理学”和“直觉心理学”。他的工作被概率语言(贝叶斯方向的一部分)的进展所推进,结合了多种方法,例如符号语言的知识表示,不确定性情况下的概率推理和用于模式识别的神经网络(视频:“建造像人类一样学习和思考的机器”、“建造像人类一样看到、学习和思考的机器”)。

虽然麻省理工学院于二月份发起了一项倡议,叫做“智能探索”,旨在“破解智能代码”,结合神经科学、认知科学和计算机科学,但这一切仍然只是实验室的理论研究,要产生适用于现实世界和工业的结果还需耐心等待。

结论

那么,我们离通用人工智能(AGI)有多远?这场高水平的体验显示出了矛盾的趋势。一方面,创新的步伐令人眼花缭乱——许多在这篇文章中提到的发展和故事(AlphaZero,新版本的 GAN,胶囊网络,打破 CAPTCHA 的 RCN,谷歌的第二代 TPU 等)都出现在过去的 12 个月,事实上大部分仅在过去半年。另一方面,许多 AI 研究团队自身在积极追求 AGI 的同时,也在竭尽全力去强调我们还离得很远,也许是因为担心 AI 周围的媒体炒作会导致希望破灭,而造成另一个 AI 核冬天。

不管我们是否能在短期内到达 AGI,很明显,AI 正在变得强大,并且将变得更加强大,因为它运行在越来越强大的计算机上,这就带来了一定的担忧,如果它的能力被掌握在错误的手中(不管是人类的还是人造的),会发生什么。Elon Musk 制作“你相信这台电脑吗?”纪录片的一个主要原因是人工智能甚至不需要对人类怀有敌意,甚至不知道人类是什么。在它不懈努力完成一项任务时,它可能仅仅因为人们挡住了它们的路就伤害人类,就像一个马路杀手。

撇开物理的危害不谈,人工智能的进步导致了一系列更为紧迫的危险,从大工业时代(后勤、卡车运输)的重要工作岗位丢失,到完全扭曲我们的现实感(当假视频和音频可以很容易地创建时),这都是需要我们彻底思考的问题。

查看英文原文:

https://hackernoon.com/frontier-ai-how-far-are-we-from-artificial-general-intelligence-really-5b13b1ebcd4e 


更多干货内容请