2024T-EDGE文章详情顶部

论辩技术奇点:这个时刻或许永远不会临近

科学史的教训告诉我们,人类远没有自己想象的那么特殊。哥白尼告诉我们,宇宙并不绕地球转。达尔文告诉我们,我们与猿类没有本质区别。人工智能可能会告诉我们,人类的智力也并不特别。

如今,对人工智能 (AI) 感到悲观或乐观的都大有人在。乐观者正在向人工智能领域投资数百万美元甚至数十亿美元,而悲观者则预测人工智能将终结很多事:工作,社会福利,甚至人类。

无论是乐观主义者还是悲观主义者都被所谓技术奇点 (technological ingularity) 的概念吸引。技术奇点是一个机器智能失控的时间点,在它之后一个全新的、更加智慧的「物种」将开始居住在地球上。

如果乐观主义者是正确的,那么这将是一个从根本上改变人经济和社会的时刻。如果悲观主义者是正确的,那么这将同样是一个从根本上改变人类经济和社会的时刻。因此,我们有必要花些时间决定这些看法是否正确。

技术奇点的历史

许多不同的思想家都构思过关于技术奇点的理念。在约翰·冯·诺伊曼 (译者注: John von Neumann, 20世纪最重要的数学家之一,在现代计算机、博弈论等领域均有建树) 1957年去世时,斯塔尼斯拉夫·乌拉姆 (译者注: Stanislaw Ulam,波兰数学家) 写道:

「我与约翰·冯·诺伊曼讨论过在技术不断加速发展、人类生活模式的改变下,我们看上去正在接近物种史上某个重要的奇点,在它之后已知的生活将无法延续。」 在1965年,I.J. 古德 (译者注: I.J. Good,英裔数学家、密码学家) 对这个现象提出了更具体的预测,他用「智能爆炸」(Intelligence Explosion) 取代了「奇点」 (Singularity) 的概念:「让我们把超智能机器定义成为一台能够远远超过任何人类智力活动的机器。 因为设计机器本身也算是智力活动,所以超智能机器可以设计出更好的机器;毫无疑问,这将会带来智力的爆炸式增长,而人类的智力将远远落后。以此类推,超智能机器将会是人类最后一个发明。」

许多人把 「技术奇点」归功于计算机科学家。科幻小说家弗诺·文奇 (Vernor Vinge) 更是预言:「在三十年内,我们将创造出实现超人智慧的技术。不久后,人类的时代将结束。」

近来,技术奇点的概念又得到了包括雷·库兹韦尔 (译者注: Ray Kurzweil ,发明家、企业家、学者、《奇点临近》等畅销书作者) 在内许多人的推广。根据目前的趋势,库兹韦尔预计技术奇点会发生在2045年左右。就这篇文章的定义而言,我假设技术奇点是一个「当我们创造出拥有足够智慧、能通过重新设计自己来改进智力的机器」的时间点,并且在这个点上我们将见证智力以指数级增长,并且迅速超越人类。

我将用两个数学论证来为以上观点辩护。其中一个论证是:技术奇点不是数学奇点。在函数1/(1-t)中,数学奇点是t=1。该函数演示了双曲增长。当t接近1,t的导数趋于正无穷并且无法被定义。然而,许多技术奇点的拥趸只支持指数增长的说法。例如,函数2^t呈指数增长。这样的指数函数在接近正无穷时更慢,并且有一个可以被定义的有限导数。

其二个论证是:智力的指数增长完全取决于测量智力的数值范围。如果我们以对数分度向量(logspace)测量智力,指数增长仅仅是线性的。在这里,我暂时不解释测量机器或者人类智力的具体定义或方法。我只假设有一个可以被测量、比较的特质叫做智力,并且当智力在适当、合理的数值范围内呈指数增长时,我们将迎来技术奇点。

目前,技术奇点的可能性已经迫使几名评论家发出关于人工智能对人类影响的悲观预言。例如,在2014年12月时,史蒂芬霍金对BBC电视台说:

「人工智能的全面发展可能意味着人类的终结……机器将获得自主权,并且以前所未有的速度重新设计自己。被缓慢生物进化限制的人类将无法竞争并且最终被取代。」

其他的知名人物,包括比尔·盖茨,伊隆·马斯克和史蒂夫·沃兹尼亚克也随后发表了类似的警告。尼克·博斯特罗姆 (译者注: Nick Bostrom ,牛津大学人类未来研究院院长、哲学教授、著名人工智能学者) 也做出了对技术奇点的预言,并且认为这个现象将对人类的生存造成威胁。然而这篇文章与以上的观点相反,我将探讨的观点是:技术奇点或许永远不会临近。

反对技术奇点的论点

对技术奇点的争论多数发生在主流人工智能行业以外。在某种程度上,这个概念的许多拥趸都不是真正的从业者。在主流文化中,技术奇点也和一些例如寿命延长和后人类主义等挑战现状的想法关系密切。这种联系干涉我们探讨真正重要的基础问题:人类真的可以开发出能够成倍提高自己智力并且远远超出人类的机器吗?

虽然它看上去并不是一个特别大胆的想法。计算机领域已经在指数增长的同时不断壮大。摩尔定律 (Moore’s Law) 以合理的精准预测告诉我们,晶体管上集成电路的数量(指每块芯片的储存量)将在1975年之后每两年内翻倍。库梅定律 (Koomey’s Law) 也已预测,单个能量焦耳所支持的计算次数将在1950年后的每19个月内翻倍。以此类推,为什么不能假设人工智能也会在某个时间段内实现指数增长呢?

针对技术奇点实现的可能性,以上的说法是一些有力的论据。准确地说,我并不是在预估人工智能无法拥有超出人类的智能。与许多在人工智能行业工作的同事一样,我预测人类离这个阶段还有30到40年的时间。不过与一些人的观点相反,我认为未来将不会出现失控、呈指数增长的情形。我将在接下来的文章里提供多个关于不可能有技术奇点出现的支持论点。

以下的讨论不包括所有技术奇点的反对论点。举例来说,我们也可以假设人工智能创造出了自己的人工智能。因此,阿兰·图灵 (Alan Turing) 在其影响深远的Mind论文( Turing 1963)中提出了针对人工智能的九种通俗反对意见,例如机器不能拥有意识,或者不具有创造性。在这里,我将集中精力讨论人工智能在智力上失控增长的可能性。

论点一:快速思维的狗 (Fast Thinking Dog)

其中一个由技术奇点支持者提出的先锋观点是:硅与人类大脑湿件(wetware)相比有重要的速度优势,并且根据摩尔定律这一优势每隔两年都会翻倍。不过,速度提高不代表智力增长。在这个问题上,弗诺·文奇认为一条快速思维的狗仍然不可能懂得下棋。史蒂芬·平克 (Steven Pinker) 意味深长地表示:

「我们没有任何理由相信技术奇点。人可以在自己脑海中想象未来,但不能证明它是否具有实现的可能性。在我的孩童时代,人们想象过的半球形城市,喷气交通运输工具,水下城市,一英里高的建筑,核动力汽车,以及很多未来式的幻想在今天从来没有得以实现。最终,单纯的想象力无法像魔法一样奇迹般地解决所有问题。」

智力不仅是比别人对一个问题思考更快或是更久。当然,摩尔定律对人工智能的发展有帮助。现在计算机拥有更多可供学习的数据库。速度更快的计算机肯定会帮助我们开发更好的人工智能。但是,至少对于人类来说,对智力的评估取决于许多其他的事情,其中包括日经月久的经验和训练。我不确定人类是否可以利用硅,走上提高智力的捷径。

论点二:人类中心主义 (Anthropocentric)

在许多对技术奇点的描述中,人类智力被假设成为一个需要跨越或颠覆的里程碑。例如,尼克·博斯伦特写道:

「拥有人类智力水平的人工智能的问世将会迅速带来通向高于人类水平人工智能的发展……与此同时,机器与人类在智力上的匹配将是暂时的。此后不久,人类将无法与人工智力竞争。」

人类智力范围是从蟑螂到老鼠再到人类的分布广泛的范围。事实上,与其说智力是一个点,不如说它是一系列概率的分布。我们并不确定人类将在具体哪一个点上被人工智能失控的智力增长超越:这个点具体是指人类的平均智力?还是人类史上最聪明的人?

科学史的教训告诉我们,人类远没有自己想象的那么特殊。哥白尼告诉我们,宇宙并不绕地球转。达尔文告诉我们,我们与猿类没有本质区别。人工智能可能会告诉我们,人类的智力也并不特别。我们没有理由因此假定,人类智力是个一旦通过,智力将快速增长的特殊临界点。当然,这并不排除智力转捩点本身存在的可能性。

技术奇点的支持者提供的说法之一是,我们是唯一能够通过创造来拓展自己智力的物种,因此人类智力是一个特殊的临界点。我们是地球上唯一拥有足够智力设计新智能的物种,并且这些被设计出来的新智能不受进程缓慢的繁衍与进化限制。然而,这一类说法假定人类的智力可以设计出一个智力足以跨越技术奇点的人工智能。

换句话说,它在我们决定是否有技术奇点之前,就已经下定它确切存在的结论。人类可能,也同样可能不会有足够的智力设计出这样的人工智能。我们并不是被注定要创造出这样的东西。再者说,即使我们有足够的智力设计出了能够超越人类的人工智能,这样的人工智能也不一定能够带来技术奇点。

论点三:元智力 (Meta-Intelligence)

在我看来,反对技术奇点的其中一个强有力论点是,技术奇点混淆了完成工作的智力和提高完成工作的能力之间的区别。在对技术奇点的概念进行详细分析后,大卫·查莫斯 (译者注: David Chalmers,澳大利亚裔哲学家,认知科学家 )写道:

「如果我们通过机器学习创造一个AI,不久之后我们将能够改善学习的算法并且延长学习的过程,创造出接下来的AI+。」

在以上的论述中,AI是人类智力水平的系统,而AI+是比一般人类更聪明的系统。不过,为什么查莫斯认为我们可以在不久之后提高学习的算法?历来机器学习在算法方面的进展既不迅速,也不容易。机器学习的确有可能成为未来任何人类智力级别的人工智能系统的重要部分,因为除此之外,利用人工编码知识和专长是很痛苦的过程。

假设,一个人工智能系统选择采用机器学习来提高自己理解文本,完成数学证明的能力。该人工智能的系统没有理由能够改善机器学习本身自带的算法。事实上,机器学习的算法通常在某一项工作上已经达到极限,不论是工程还是参数的调整,都无法提高其性能。

目前,我们看到使用深度学习的人工智能令人印象深刻的进度。这极大地提高了语音识别,计算机视觉,自然语言处理及许多其他领域的发展。这些进度通常归功于使用更多数据以及更深层次的神经网络:

燕乐存(译者注: Yann Lecun,纽约大学计算神经科学家)表示: 「在此之前,神经网络并没有打破识别连续语音的记录;因为它们的大小有限。」

当然,更多的数据和更大的神经网络意味着我们需要更强的机器处理能力。其结果是,GPU现在经常被用来提供处理能力。然而,学会更好地识别语音或者物品并没有帮助深度学习进步。深度学习并没有自我改善。对深度学习在算法上的任何改善都要归功于人类在设计上的不懈努力。

我们也可以从另一方面用我们所了解到的有关智能系统的最好例子来例证这一论点。看看我们自己。我们只使用了我们自己大脑惊人能力中的一小部分,而且我们正努力地想要改变现状。对我们来说,学习如何更好地完成某个特定任务很简单,但学习如何更高效地学习还需要下点功夫。举例来说,如果我们除去对智商固有的正常定义,我们可以察觉到智商在上个世纪内有增长,但增长速度缓慢 (弗林效应「Flynn Effect」)。在今天,提高智商的过程和一个世纪以前一样痛苦并且缓慢。或许,电子大脑也很难快速提高自己的性能,并且永远无法超越自身的基本功能?

论点四:收益递减 (Diminishing Return)

技术奇点通常假设智力的改进是一个相对恒定的乘数,每一代的分数都比上一代更高。然而到目前为止,大部分人工智能系统的性能一直在经历收益递减。在不同研究的初期,研究人员通常获得许多成果,但在这之后则遇到一系列难以改进的困难。这个过程解释了许多早期人工智能的研究人员对行业发展过于乐观的看法。人工智能系统也许可以无限制地完善自己,但对智力的总体改进很可能存在上限。举例来说,如果每一代人工智能比上一代增强半倍,那么系统永远不会达到2倍的整体智力。

收益递减不仅是由于改进人工智能算法的困难度,也是由于计算机科学快速增长的困难度。微软的联合创始人保罗·艾伦称这一现象为 「复杂性刹车」(Complexity Brake)。

「我们把这个问题叫做复杂性刹车。伴随人类对自然系统理解的不断加深,我们通常会发现,我们需要更多并且更专业的知识来描述它们,我们不得不用越来越复杂的方式来持续扩展我们的科学理论… 我们相信,对自然世界 [认知上的] 理解正在被复杂性刹车放慢。」——Allen和Greaves,2011。

即使人类看到人工智能系统持续、甚至呈指数级的改进,这些或许都无法提高机器的性能。智力提升所需要解决的问题本身的难度增长速度,甚至比智力提升的速度还要快。很多人表示,现阶段理论物理学的探索似乎也遇到了同样的复杂性刹车。

论点五:智慧的极限 (Limits of Intelligence)

宇宙中存在很多基本的限制。其中一些是物理限制。例如,我们无法加速超过光速。我们无法同时知道位置和动量的精确数值。我们无法知道原子放射性衰变具体发生的时间。我们创造出来的思维机器也受这些物理定律的限制。当然,如果机器在本质上是电子或者甚至是量子,这些限制很可能比人类大脑生物和化学的限制还要大得多。

更多可观察的经验法则也在复杂的系统中不断涌现。例如,邓巴数(Dunbar’s Number)是灵长类动物脑容量和社会平均大小之间所观察到的联系数值。该数值把人类社会团体中关系稳定的人数限制在100到250人之间。智力是一个复杂的现象,并且也会有类似的限制出现在这种复杂度中。机器智力的改善,无论是失控还是缓慢地增长,都可能碰触到这种限制。当然,我们没有理由假设人类智力目前已经达到、或者接近这个上限。同样来说,我们也没有理由认为这个上限远远超过了人类的智力。

论点六:计算复杂性 (Computational Complexity)

假设我们坚持使用遵守传统计算模型的电脑开发人工智能系统。那么,指数级增长也无法与计算的复杂度匹敌。举例来说,计算机性能上的指数级增长不足以运行超级指数算法。而且没有任何性能上的增长可以解决无法解决的问题。计算的复杂性也许正是我们前面所讨论到的基本限制之一。因此,除非我们使用的机器能够超越传统的计算模型,否则我们很可能会碰到类似于计算的复杂性从根本上限制了计算机性能的问题。

当然,很多计算的复杂度问题只是最坏的情况,大部分的人工智能都使用启发式学习在实践中解决计算上难以处理的问题。不过,这些启发式学习在质量上有根本的限制。有一些级别的问题即使超人工智能 (super-human intelligence) 也不能很好的解决,哪怕只是大致解决。

结论

在以上的文章中,我论述了关于人类也许永远无法见证技术奇点的许多原因。然而,即使没有技术奇点,我们也许仍然可以最终拥有展现出超出人类智力水平的机器。不过实现它需要很多人非常痛苦地编码。如果是这样的话,人工智能对经济和社会的影响,要比对技术奇点持有悲观或乐观态度的人所预测的结果平淡得多。

然而,我们应该就人工智能对社会的影响开始做准备。就算没有技术奇点,人工智能依旧会大面积影响工作的性质。举第二个例子:即使智力有限的人工智能依然可以对战争的性质产生很大的影响。现在,我们需要开始为这样的未来做计划。

参考文献:

[Allen and Greaves 2011] Allen, P., and Greaves, M. 2011. The singularity isn’t near. MIT Technology Review 7–65.

[Bostrom 2002] Bostrom, N. 2002. When machines outsmart humans. Futures 35(7):759–764.

[Bostrom 2014] Bostrom, N. 2014. Superintelligence: Paths, Dangers, Strategies. Oxford, UK: Oxford Uniiversity Press.

[Chalmers 2010] Chalmers, D. 2010. The singularity: A philosophical analysis. Journal of Consciousness Studies 17(9-10):7–65.

[Edwards 2015] Edwards, C. 2015. Growing pains for deep learning. Commun. ACM 58(7):14–16. [Good 1965] Good, I. 1965. Speculations concerning the first ultraintelligent machine. Advances in Computers 6:31– 88.

[Kurzweil 2006] Kurzweil, R. 2006. The Singularity Is Near: When Humans Transcend Biology. Penguin (NonClassics).

[Pinker 2008] Pinker, S. 2008. Tech luminaries address singularity. IEEE Spectrum.

[Turing 1963] Turing, A. 1963. Computing machinery and intelligence. In Computers and Thought. McGraw-Hill Book Company.

[Ulam 1958] Ulam, S. 1958. Tribute to John von Neumann. Bulletin of the American Mathematical Society 64(3).

[Vinge 1993] Vinge, V. 1993. The coming technological singularity: How to survive in the post-human era. In Rheingold, H., ed., Whole Earth Review.

【钛媒体作者介绍:本文为论文《The Singularity May Never Be Near》译稿,作者:Toby Walsh,机器之心编译出品,编译:李九喻、孟婷、柒柒。】

本文系作者 机器之心 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
  • 悲观的人是基本没有进取的心的人,而乐观的人是就是进取心强劲的精英型人才,并且目标明确。

    回复 2016.03.10 · via android
  • “举例来说,如果每一代人工智能比上一代增强半倍,那么系统永远不会达到2倍的整体智力。”--是翻译文么?是用脑子算的么?

    回复 2016.03.29 · via pc
  • 应该关心的是以后走向何方

    回复 2016.03.10 · via android
  • 这个世界,我们知道的太少。

    回复 2016.03.10 · via pc

AWARDS-文章详情右上

4

扫描下载App