人工智能真能超越人类?大错特错!

人工智能真能超越人类?大错特错!

  【编者按】美国《连线》杂志创始主编凯文-凯利(Kevin
Kelly)日前撰文,阐述了当今社会对人工智能的五大误解,并对背后的逻辑和理论展开了详细论述。

  以下为文章全文:

  我听到这样一种说法:未来,计算机主导的人工智能将比我们聪明得多,甚至会夺走我们所有的工作和资源,人类则会走向灭亡。果真如此吗?

  每每谈起人工智能,我总是难免听到这样的问题。提问者都很认真,他们的担忧一定程度上源自各路专家的自问自答,其中包含很多当今世界上最聪明的人,例如史蒂芬-霍金(Stephen
Hawking)、伊隆-马斯克(Elon Musk)、麦克斯-泰格马克(Max Tegmark)、山姆-哈里斯(Sam Harris)和比尔-盖茨(Bill
Gates)。

  他们都相信,这番场景很有可能变成现实。而在最近的一场关于人工智能问题的研讨会上,一个由9位大咖组成的委员会一致认同,这种超人类人工智能已经不可避免,而且并不遥远。

  然而,那些认同超人类人工智能最终将会接管世界的人,内心其实都有5个假设。然而,如果对这5个假设展开细致分析就会发现,这其实都是“无稽之谈”。这些说法未来或许会成为现实,但目前还没有获得证据支撑。关于超人类智能将快速崛起的5大基本假设如下:

  1、人工智能已经开始超越人类,而且正在以指数级速度发展。

  2、我们可以开发出像自己一样的通用人工智能。

  3、我们可以把人类的智能集成在硅片上。

  4、智能可以无限强化。

  5、一旦开发出超级智能,它就可以为我们解决多数问题。

  与这些似是而非的说法相对的是,我反而认为以下5种看似异端邪说的观点能够获得更多的证据支撑。

  1、智能并非单一维度,所以“比人类更聪明”这种概念本身就没有意义。

  2、人类并没有通用思维,人工智能同样不具备这种能力。

  3、在其他媒介上模拟人类思维将会受到成本因素的制约。

  4、智能的维度并不是无限的。

  5、智能只是推动科技和社会进步的诸多因素中的一项而已。

  如果关于超人类人工智能接管世界的预期,完全基于5个没有证据支撑的关键假设,那么这种想法也就无异于宗教信仰。也就是说,这只能算是一种“神话”。我针对这5项假设提出的5种针锋相对的说法都有充分的依据,接下来的段落中将会详细展开。我将以此证明,超人类人工智能的说法只不过是一种“神话”。

  1

  关于人工智能最常见的误解其实来自对自然智能的普遍误解。很多人认为,智能是单一维度的,这种理解其实并不正确。多数技术人员往往会像尼克-博斯特罗姆(Nick
Bostrom)那样绘制智能进化图谱——他曾在《超级智能》(Superintelligence)一书中把智能描绘成一种单一维度、呈现线性发展的东西。

  例如,一端是低智能的小动物,另外一端则是高智能的天才——感觉智能就像是可以用分贝来量化的声响一样。当然,如果认同这种观点,自然就可以对其进行扩展,认为智能的强度还会进一步增加,并最终超过我们自己的高智能状态,成为一种超强智能,甚至最终爆表。

  这种模式就像阶梯一样,一层一层逐级递进,每一个层次的智能都比前一个层次更加进步。低等动物位于我们之下,而智能更高的人工智能必然位于我们之上。具体发生的时间并不重要,重要的是等级——也就是衡量智能优劣程度的指标。

人工智能真能超越人类?大错特错!

  但这种模型的问题在于,这只不过是一种像进化阶梯一样的错误观念而已。在达尔文进化论诞生之前,人们也认为自然界是呈现阶梯化发展的,低等动物低于人类。即便是在达尔文进化论诞生后,这种阶梯化进化理论仍然十分盛行。这种理论认为:鱼类进化成爬行动物,然后进化为哺乳动物,再进化为灵长类动物,最终进化出人类,每一级都比上一级进步一点(自然也会更聪明一些)。所以,智能阶梯与物种阶梯相互平行。但实际上,这两种模型都不符合科学观念。

  

人工智能真能超越人类?大错特错!

  上图这种由内向外发散的圆盘可以更为精确地描述物种的自然进化过程,这是美国德克萨斯大学的大卫-西里斯(David
Hillis)率先根据DNA绘制出来的。这种深入的系谱学分类模式以最中央的原始生命形态为起点,然后向外发散。随着时间的推移,逐步形成了如今地球上的生命形态,也就是最外面的一圈。

  这张图强调了进化过程的一个基本事实:当今世界的所有物种都是平等进化的。人类与蟑螂、蛤蜊、蕨类、狐狸、细菌共同位于最外面的一圈。每一个物种都经历了长达30亿年的繁衍生息,成功进化到今天。这就意味这当今的细菌和蟑螂与人类拥有同样的进化水平,并不存在所谓的阶梯。

  类似地,智能同样不存在所谓的阶梯。智能并不限于单一维度,而是多种认知类型和模式组成的复合体,每一种类型或模式都是一个连续统一体。先来谈谈衡量动物智能这个简单的任务。如果智能是单一维度的,那就可以对鹦鹉、海豚、马、松鼠、章鱼、蓝鲸、猫、大猩猩按照顺序进行排列。但目前没有科学证据支撑这样一种排序方式。其中一个可能的原因在于,动物的智能没有差异,但我们同样没有看到这种证据。

  有很多迹象都可以说明动物之间的思维存在显著差异。但它们是否都拥有相对的“通用智能”?可能如此,但并没有一个指标来衡量这种智能。相反,我们可以通过很多不同类型的指标评估不同类型的认知能力。

  

人工智能真能超越人类?大错特错!

  也就是说,没有一个类似于分贝的统一指标来衡量智能水平,所以更精确的智能模型应该是绘制它的“可能性空间”(possibility
space)。上图是使用理查德-道金斯(Richard
Dawkins)编写的算法生成的可能性表格。智能是一系列连续统一体的集合。各种节点(每个节点都是一个连续统一体)共同组成了一个多维度、多样化的复合体。

  有的智能或许非常复杂,包含很多象征各种思维模式的子节点。还有的或许较为简单,但却非常极端,处在可能性空间的角落位置。这些被我们称作智能的复合体就像是各种各样的交响曲,由许多不同类型的乐器共同演奏。它们之间的差异并不仅仅是响度,还体现在音高、旋律、音色、节拍等因素上。我们可以将其视作一套生态系统。从这个意义上讲,不同思维模式的节点相互依赖、共创共生。

  用马文-明斯基(Marvin Minsky)的话说,人类思维是“由思维组成的社会”(the society of
mind)。我们在思维构成的生态系统上运行,其中包含多种认知能力,它们就像不同的物种一样构成了一个个的生态系统,而且可以完成种类各异的思考方式:包括演绎、归纳、符号推理、情商、空间逻辑、短期记忆和长期记忆。我们体内的整套神经系统也是一种具备其自身认知模式的大脑。我们思考时并不仅仅使用大脑,而是用整个身体来思考。

  不同个体和不同物种之间的认知能力都存在差异。即使在几年之后,松鼠依然可以精确记住几千个橡子所在的具体位置,这种技能甩下人类好几条街。所以在这种认知能力上,松鼠超过了人类。要形成松鼠的思维,需要将这种“超能力”与其他在人类面前相形见绌的思维模式融合在一起。动物世界还有很多其他远超人类的认知能力,但同样要融合到不同的系统之中。

  

人工智能真能超越人类?大错特错!

  人工智能也很类似。人工智能已经在某些维度上超过人类。你可以把计算器当成算数天才,谷歌(微博)的记忆也已经在某些维度上超过人类。我们正在开发在特定模式上具备卓越能力的人工智能技术。其中一些模式是人类可以做到,但人工智能表现更好,例如概率统计或数学计算。还有一些能力是我们根本不具备的——例如,记住60亿个网页的上的每一个单词,而这恰恰是搜索引擎的用途所在。

  未来,我们还会发展人类所不具备的新型认知模式,有的甚至是整个生物界都不曾出现过的模式。当我们发明人造飞行器时,受到了生物飞行模式的启发,主要是不停扇动的翅膀。但我们所发明的飞行器却在尺寸更大的固定翼上安装了推进器,这是一种生物界前所未有的飞行模式,是一种异形飞行模式。

  类似地,我们今后也将开发自然界不曾出现过的全新的思维模式。在很多情况下,这都是针对具体任务而设计的专用模式——可能是一种仅在统计和概率上能够奏效的推理形式。

  在其他情况下,这种新思维可能会是一种复杂的认知,可以帮助我们应对那些无法利用自己的智能独立解决的问题。商业和科学领域碰到的最困难的问题可能需要通过两个步骤来解决:第一步:发明一种新的思维模式与我们的思维进行配合。第二步:将二者融合起来,最终解决问题。

  由于我们正在解决之前无法解决的问题,所以才会认为这种认知比自己“更聪明”,但实际上,它只是跟我们“不一样”而已。这种思维差异才是人工智能的主要优势。我认为,看待人工智能时,真正可取的方式是将其视作一种异形智能(或人造异形)。它与我们之间的差异性才是它真正的价值所在。

  与此同时,我们还将把这些不同的认知模式融合到更加全面而复杂的“思维社会”中。其中有些复合体比我们更复杂,而由于它们可以解决我们无法解决的问题,所以有人会将其定性为“超人类”。但我们不会将谷歌称作超人类人工智能,即便它的记忆能力远超我们,这是因为我们能在很多事情上比它做得更好。

  这些人工智能复合体肯定可以在很多维度上超越我们,但没有一个实体能够在方方面面全面超越人类。这跟体力方面获得的进步有些类似。工业革命至今已有200年历史,虽然所有机器作为一个整体可以在体力上超越人类的个体(奔跑速度、举重能力、精确切割),但没有一台机器能够在所有事情上全面超越一个普通人。

  即便人工智能中的“思维社会”变得更加复杂,目前也很难用科学方法衡量这种复杂性。我们并没有一套可行的复杂性指标来判断黄瓜是否比波音747更加复杂,或者判断它们之间的复杂方式是否存在差异。

  想要确定思维A是否比思维B更加复杂,是一件非常困难的事情。同样地,要确定思维A是否比思维B更聪明,也非常困难。我们很快就会明确意识到,所谓的“聪明”并不是单一维度的问题。我们同时也会意识到,我们真正关注的其实是智能的其他运行模式——也就是我们尚未发现的其他所有认知节点。

  2

  第二个关于人工智能的误解是,我们认为自己拥有通用智能。正由于秉承了这种被人反复提及的观念,使得人工智能研究人员经常阐述一个目标:开发通用人工智能技术(AGI)。然而,如果我们以上文的“可用性空间”来看待智能,那也就没有通用一说了。

  人类智能并不处在中心位置,其他专项智能也并不是围绕它发展的。相反,人类智能只是一种非常具体的智能形式,经过了数百万年的进化后,使得我们这个物种在地球上生存下来。如果对所有可能的智能类型所处的空间进行了解后,便会发现人类这种智能只是“偏居一隅”,就像我们的世界处在浩瀚的银河的边缘一样。

  我们肯定可以想象,甚至发明一种类似于瑞士军刀的多用途思维。它可以完成很多事情,但却没有一种能够做到极致。人工智能也会无法突破这种极限:不可能针对所有维度进行优化,只能进行权衡,做出妥协。不可能开发出在每项具体的功能上都表现优异的多功能通用人工智能。

  一个庞大的“全能”思维,不可能在所有事情上都像专用人工智能一样表现出色。由于人们认为人类的思维是通用思维,所以往往也认为认知不必受限于工程师的权衡妥协,认为完全可以开发出一种在所有思维模式上都做到极致的智能技术。

  但我没有看到任何证据支撑这一论调。我们并没有开发足够多样的思维模式,因而也就无法看到可能性空间的整体状况。

  3

  人类之所以认为可以在通用思维上做到极致,其实一定程度上源自通用计算的概念。这个概念之前在1950年被称作丘奇-图灵假说(Church-Turing
hypothesis)。这种假说认为,达到特定门槛的所有计算都是等价的。因此所有的计算存在一个通用的核心:无论组成一台机器的零件速度是快是慢,甚至就算发生在生物体的大脑中,都会遵循相同的逻辑过程。这就意味着你可以在任何一台能够进行“通用计算”的机器上模拟任何的计算过程(思维)。

  奇点论者利用这套理论来支撑自己的预期:他们认为,我们可以制作一种具备人类思维的“硅脑”,甚至可以开发能像人类一样思考的人工思想,而且远比人类更加聪明。我们应该对这种期待心存怀疑,因为他们误解了丘奇-图灵假说。

  这项理论的出发点是:“如果拥有无限的磁带(存储)和时间,所有的计算都是等价的。”问题在于,在现实世界中,没有一台计算机拥有无限的存储和时间。当你在现实世界中进行实时操作时,这甚至会产生天壤之别。没错,如果忽略时间因素,所有的思维都是等价的。的确,你可以在任何一个矩阵中模拟人类思维,前提是你要忽略时间维度,或者存储及内存等实实在在的局限因素。

  然而,如果把时间考虑在内,就必须重新阐述这条定律:在两个差异巨大的平台上运行的两套计算系统不可能实时等价。还可以这样来说:想要让不同的思维模式等价,唯一的方法就是让它们在等价的基底上运行。你的计算究竟能够实时处理好哪些类型的计算,很大程度上取决于它所依赖的物理因素——随着复杂度的提升,这种现象也会越发明显。

  我会进一步扩展这种论调:想要达到与人类相似的思维流程,唯一的方法就是在类似于人类的血肉组织上进行计算。这也就意味着,那些在冷冰冰的硅片上构造的复杂的大型人工智能虽然可以生成复杂的大型思维,但却不同于人类的思维。如果能使用像人类这样可以增长的神经开发出有血有肉的人工大脑,它们的思维或许会与我们更加相似。这种血肉大脑带来的好处,与它所依赖的基底跟我们之间的相似程度成正比。创造“湿件”(wetware,指人类的神经系统)的成本巨大,而它的组织结构与人脑组织越接近,“制造”人类的成本效率就越高。毕竟,我们只要怀胎9个月就可以“制造”一个人。

  另外,正如上文所说,我使用整个身体来思考,而不仅仅依赖思维。有很多数据都可以显示人体的神经系统如何引导我们的“理性”决策过程,甚至能够预测和学习这一过程。我们对整个人体系统了解得越深,就越有可能复制它。处于不同载体上(例如从有血有肉的人体转移到冷冰冰的硅片上)的智能会产生不同的思考方式。

  我不认为这是个漏洞,反而认为这是一项可以利用的功能。正如我在第2条中所说,与人类拥有不同的思维方式恰恰是人工智能的优势所在。正因如此,我才认为,用“比人类更聪明”这样的说法来定义它是一种误导。

  4

  超人类人工智能——尤其是认为这种人工智能将会不断自我提升的观点——的核心在于,他们认为智能可以拥有无限的规模。我没有发现这方面的证据。同样地,以单一维度来看待智能的错误观念也对这种看法形成了促进,但我们应该对此加以理解。以目前的科学研究来看,宇宙中还没有哪一种物理维度是无限的。

  温度不是无限的——无论冷热都有极限。空间和时间也不是无限的,速度同样也有极限。数字或许是无限的,但其他的物理属性都有极限。于是,问题变成了:智能的极限在哪里?我们往往认为,这个极限远超自身的能力范围,肯定“高于”我们,就像我们“高于”蚂蚁一样。

  暂且抛开单一维度这个递归问题不谈,我们有什么证据证明人类本身不是智能的极限?为什么人类智能就不能是智能的极限呢?或者说,人类智能有没有可能距离极限水平只有很短的距离?为什么我们认为智能可以继续无限提升下去?

  可以通过一种更好的方式来思考这个问题,那就是把我们的智能看做数百万种可能的智能中的一种。所以,虽然每一个认知和计算维度都有局限,但如果有数百个维度,那就会有数不清的思维类型——没有一种思维类型能在任何一个维度中达到无限高度。当我们建立和遇到这些数不清的思维模式后,或许会自然而然地认为其中一些超过了我们。在最近出版的新书《The
Inevitable》里,我阐述了一些能在某些方面超越我们的思维类型。以下就是其中的部分摘录:

  ——跟人类思维相似,但回答速度更快(这是最容易设想的人工智能思维)

  ——思维速度很慢,主要由庞大的存储和内存构成

  ——由数百万愚蠢的个体思维合力构成的集体超级思维

  ——由很多极其聪明的思维构成的集体思维,但却并未意识自己是一个集体

  ——有很多极其聪明的思维共同构成的超级思维,而且清楚地意识到自己加入了一个联合体

  ——它经过训练,而且专门用于提升你的个人思维,但对其他人却没有用处

  ——能够想象更好的思维,但却无法将其创造出来

  ——能够创造更好的思维,但却不具备足够的自我意识来想象这种思维

  ——能够一次性地成功创造更好的思维

  ——能够创造更好的思维,而这种被创造出来的思维还可以创造比它更好的思维

  ——能够访问自己的源代码,因此可以定期调整自己的流程。

  ——没有感情的超级逻辑思维

  ——具备通用问题解决能力的思维,但却没有自我意识

  ——拥有自我意识,却不具备通用问题解决能力的思维

  ——需要经过长时间来开发,而且在成熟之前需要一套思维为其充当保护器

  ——分布在庞大的超慢思维之内,快速思维似乎“看不见”它

  ——具备快速自我复制能力的思维

  ——能够自我复制,而且仍然可以跟自己的克隆体结为一体

  ——能够从一个平台迁移到另一个平台的不朽思维

  ——能够改变流程和认知特点的快速动态思维

  ——具备自我意识的最小(无论是尺寸还是能量)纳米思维

  ——擅长具体场景和预测的思维

  ——永远不会抹去或忘记事情,也不会搞错任何信息的思维

  ——一半机器、一半动物的共生思维

  ——一半机器、一半人类的电子人思维

  ——使用量子计算的思维,它所使用的逻辑无法被我们理解

  现在有些人可能会把这些东西称作超人类人工智能,但这些思维的多样性和特异性却会引导我们使用新的词汇“智能”和“聪明”,并对其产生新的认识。

  其次,相信超人类人工智能的人会假设人工智能可以呈现指数级增长(以某些未经确认的单一参数为标准),这很可能是因为他们认为它已经实现了指数级增长。然而,目前没有任何证据表明人工智能正在呈现指数级增长——无论用哪种方式衡量都不例外。

  我所说的指数级增长指的是每过一段时间,人工智能的性能便可实现翻番。证据何在?我找不到。如果现在没有证据,为什么认定未来会发生?唯一能以指数级增长的就是人工智能所获得的输入数据,也就是用于生成智能的资源。但输出表现并不能像摩尔定律一样增长。人工智能无法做到每过3年性能翻番,甚至连每过10年性能翻番都做不到。

  我问过很多人工智能专家,有没有证据表明人工智能的性能实现了指数级增长。他们都表示,目前没有指标来衡量智能,而且他们也没有从事这方面的工作。但当我向坚定看好人工智能飞速发展前景的雷-库兹韦尔(Ray
Kurzweil)询问人工智能呈现指数级增长的证据时,他表示,人工智能并没有实现爆发式增长,而是表现出层级式增长模式。

  他说:“人工智能每上一个台阶,都需要计算和算法的复杂度实现指数级提升……所以我们可以预计线性的层级式增长,因为每上一个台阶都需要在复杂度上实现指数级增长,而我们这方面的能力的确实现了指数级进步。我们与大脑皮质之间相差的层级不多,所以我认为2029年可能实现。”

  库兹韦尔似乎是在说,人工智能本身没有呈现指数级增长,反而是开发人工智能所作的努力呈现这种增长态势,而实际输出效果仅仅是一次一个台阶地迈进。这几乎与人工智能大爆发的前提假设完全相反。这种情况今后可能发生变化,但人工智能目前显然没有呈现爆发态势。

  因此,当我们设想“人工智能爆发”的情形时,不应该将其视作一种级联式繁荣,而应该设想为新型的散发式发展。用一个更形象的比喻来说明,这更像是寒武纪物种大爆发,而不是核爆炸。几乎可以肯定的是,技术加速发展的结果并不是催生“超级人类”,而是“超常人类”。换句话说,它会超脱于我们的经验范围,但未必能“高于”我们。

  5

  认为超级人工智能将接管世界人还持有另一个前提假设:几乎拥有无限能力的超级人工智能可以很快解决很多重大的未解难题。但这种说法却没有太多证据支撑。

  很多认同人工智能将实现爆发式增长的人预计,这项技术将会实现高速进步。我把这种神话般的观念称作“思考主义”(thinkism)。在他们看来:思考能力或智能水平是阻碍未来进步的唯一因素。但这完全是第一种谬论。(很多喜欢思考的人也都怀有这样一种信念:思考是一种神奇的超能力,甚至无所不能。)

  以治愈癌症和延长寿命为例。这些问题不是单凭思考就能解决的。光靠“思考主义”根本无法发现细胞的衰老方式和染色体的衰退过程。无论多么言之凿凿,也不可能单凭阅读所有已知的科学文献想清楚人体的运作模式。没有一种超级人工智能可以简单地思考现在和过去的所有核裂变实验,然后在一天之内想出核聚变技术。

  除了思考之外,想要从未知过渡到已知,还必须辅以很多元素。需要在现实世界中进行很多实验,每次实验都会产生大量相互矛盾的数据,因此需要通过进一步的实验来确立正确的假说。单纯思考潜在数据根本无法得出正确数据。

  思考(智能)只是科学的一部分,甚至只是一小部分。例如,我们根本没有足够的数据来解决生老病死的问题,甚至连冰山一角都没有揭开。具体到生物体的运作机制,多数实验都需要用时间来慢慢酝酿。细胞新陈代谢速度很慢,无法加速进行。可能需要数年、数月,至少也要数天时间,才能看到结果。

  如果你想知道亚原子微粒的情况,那就不可能单凭思考来获得答案。必须要建造复杂的大型物理设施才行。就算当今最聪明的物理学家比现在再聪明1000倍,如果没有对撞机,他们也无法获取新的知识。

  超级人工智能无疑可以加速科学进程。我们可以制作原子或细胞的计算机模拟程序,从而大幅加快速度,但有两个因素限制了模拟器在获取瞬间进步时的实际效果。首先,模拟器和模型之所以能比它们模拟的对象速度更快,是因为它们删减了一些因素。这是模型或模拟器的自然属性。同样值得注意的是:对这些模型进行测试、审核和验证仍然需要在正常的时间维度内进行,从而匹配它们的模拟对象。换句话说,对事实的验证速度无法真正加快。

  在模拟器中简化后的运行结果对于筛选最有希望的路径非常有用,因此可以加快进度。但在却无法超越现实,所有的现实因素都会带来一定的影响,这也是对“现实”的一种定义。随着模型和模拟器中添加的细节信息越来越多,便会碰到局限,以至于模拟对象的实际运行速度反而比100%复制现实元素的模拟器速度更快。这便引出了“现实”的另外一个定义:在考虑了所有细节和自由度之后,速度最快的那个版本才是“现实”。

  如果你能将细胞中的所有分子和人体内的所有细胞都融入模型之中,这个模拟器的速度不会超过人体。无论你怎么努力思考,仍然需要时间来完成实验,无论是现实系统还是模拟系统都概莫能外。

  为了体现实用性,人工智能必须应用于现实世界,而现实世界往往会制约它们的创新速度。如果没有进行实验,没有开发原型产品,没有经历失败,也没有与现实互动,人工智能就只能思考,无法得出结果。所谓的“比人类更聪明的”人工智能也无法在一瞬间获得任何发现。虽然发现速度会因为人工智能的进步而大幅加快,一定程度上源自这种与众不同的人工智能会提出人类不会提出的问题,但即便具备远高于我们的智能,也不意味着可以立刻取得进步。想要解决问题,光靠智能是不够的。

  不仅治愈癌症和延长寿命这样的问题不能单靠智能解决,智能本身同样不能光靠智能来解决。奇点论者有一个理论:一旦你开发出“比人类更聪明的”人工智能,它就会突然之间努力思考,并开发出“比自己更聪明的”人工智能,然后进一步开发更聪明的人工智能,直到能力爆棚,变得跟上帝一样。

  没有证据表明,仅仅靠思考智能就足以开发出更高级的智能。这种“思考主义”是一种信仰。但有很多证据表明,除了大量的智能外,还需要通过实验、数据、试错、反复质疑,以及各种各样智能之外的东西,才能成功发明新的思维。

  总结来看,我对这些说法的分析可能都是错误的。我们还处在发展早期,今后可能会发现一种通用的智能衡量标准,也可能发现智能可以在所有维度上变得无限强大。因为我们对智能究竟是什么知之甚少(更别提“意识”了),所以人工智能奇点存在的概率大于零。我认为,所有证据都表明,它存在的概率很低,但仍然大于零。

  因此,尽管我不认同这种可能性,但我的确认同OpenAI所秉承的宏观目标,以及那些担心超人类人工智能的聪明人所怀有的担忧——我们应该开发友好的人工智能,然后搞清楚如何向其灌输与我们相似的自我复制价值观。

  虽然我认为超人类人工智能在遥远的将来可能对我们的生存构成威胁(而且值得考虑这个问题),但由于这种概率很低(根据目前的证据来看),所以不应该因此而影响我们的科学、政策和发展方向。

  小行星撞地球必然引发灾难,这种事情发生的概率大于零(所以我们才应该支持B612基金会),但却不应该因为存在小行星撞地球的可能性而影响我们在气候变化、太空旅行甚至城市规划方面所做的努力。

  类似地,目前的证据表明,人工智能最可能的结果不是成为“超级人类”,而是会出现成百上千的新型“超常人类”思维,这些思维多数都与人类不同,但没有一个是通用智能,也没有一个能够像神一样瞬间解决我们面临的重大问题。

  相反,今后将会出现无数种存在局限的智能技术,在我们并不熟悉的维度从事工作,在很多方面超越我们的思维,并及时与我们配合,从而解决既有问题,同时创造新的问题。

  我理解超人类人工智能的巨大吸引力。我也希望能有超人出现,但与超人一样,这同样只是虚构的神话。宇宙中的某个地方或许存在超人,但概率很低。然而,神话也很有用,一旦被发明出来,就不会消失。关于超人的想法永远不会消失。超人类人工智能奇点的想法既然已经诞生,肯定就会永远存在下去。

  但我们也应该承认,这目前还只是一种类似于宗教信仰的想法,没有科学依据。如果我们认真研究目前掌握的关于人工智能和自然智能的各种证据,就会发现,我们关于超人类人工智能的设想只不过是像神话一样的错误观念。

  与世隔绝的密克罗尼西亚群岛上有很多人在二战期间首次得以跟外界取得联系。外来的上帝坐在轰鸣的大鸟身体里面,飞过他们的天空,把食物和物品投放到岛上,之后便一去不返。于是,岛上出现了一种宗教,他们祈祷上帝能够回来投放更多物资。

  即便是在55年后的今天,那里仍有很多人在等待上帝再次投下物资。超人类人工智能可能也会成为一个与之类似的宗教。一个世纪之后,当人们回望这段历史的时候,可能会想,此时的信仰者开始期待超人类人工智能随时出现,为他们带来不可思议的价值。年复一年,他们始终等待着超人类人工智能的出现,相信它很快就能载着“物资”降临人世。

  然而并没有出现真正的超人类人工智能。我们一直在不断重新定义这项技术,增加它面临的困难,甚至可能在未来限制它的发展。但从异形智能——由多样化的智能、认知、逻辑、学习和意识构成的连续统一体——的广泛角度来看,人工智能已经在这个星球上普遍存在,而且会继续扩散、深化、变异、强化。

  之前没有任何一项发明能像它一样给我们的世界带来如此大的改变。到本世纪末,人工智能可能会渗透并改变我们生活中的一切。不过,关于超人类人工智能的神话——既有可能是人类的福祉,也有可能奴役人类(或者二者皆有)——仍将存在下去。毕竟,这种可能性太过神秘,让人欲罢不能。

(0)
上一篇 2017年4月29日 19:36
下一篇 2017年5月2日 08:08