文 | 追问nextquestion
导语:唱衰人工智能不会带来更好的明天 —— 构建于人工智能之上的未来世界既非乌托邦,也非反乌托邦,而是充满无限奇幻可能的。
不久前,在OpenAI的静修会*上,时任公司首席科学家的 Ilya Sutskever 委托当地艺术家制作了一尊代表“未对齐”*AI的木制雕像。他将其点燃,以象征“OpenAI对其创始原则的承诺”。这个奇怪的仪式可能是未雨绸缪,为了这个人工智能巨头公司未来可能会在制造人工智能中不可避免地做出一些不直接表达“人类价值观”的举动提前洗白。然而,没几个月后,CEO Sam Altman 就被他的一个门徒背叛,被钉在十字架上。在三天后他复活时,这个话题成为了公司及其董事会的生存危机。OpenAI的所作所为真的能与“人类价值观”保持一致吗?如果不是,那到底发生了什么?
译者注:
Retreat: 性质上和国内的团建有点类似,不过一般是公司出钱,员工去自然中休假放松几天。
未对齐:原文是“unaligned”,既有“未对齐”的意思,也表示“不一致”。这里表示“偏离人类意图、价值观或目标的人工智能系统”。
去年年底,斯坦福人类中心人工智能研究所所长李飞飞出版了《我所见的世界》(The World I see)一书,《金融时报》称其为“一种强有力的呼吁,要求在我们在技术革新中也要以人为本”。她虽然她没有进行举行任何奇怪的仪式,但与 Sutskever 的奇怪仪式结合起来,这两件事都是人类对颠覆性技术所产生的、里程碑式的反应。
从“对齐”到“以人为本的人工智能”,这些只是我们对人工智能感到失控和恐惧下所产生的词语,但也是一种认为“复杂技术从未在人类控制之下”的叙事。多是出于政治的原因,有些人坚持声称“人工智能不是真的”,只是数学,只是资本主义悄然融入生活的一种意识形态建构。显然,存在很多批评者对无处不在的机器智能前景非常愤怒,另外一部分人则承认AI的存在,并且相信它是可以通过立法、政策和研讨会来控制的。然而,这部分人的乐观并不能缓解大部分人的抑郁———这些人似乎看到了一场存在主义危机的到来。同样的,这样的唱衰声也会让那些看好人工智能的人感到困惑。
如何看待这些反应?西格蒙德·弗洛伊德用“哥白尼化(Copernican)”一词来描述现代人从直觉式特权地位(intuitive privilege)上被去中心化的过程。在尼古拉·哥白尼和查尔斯·达尔文之后,他提名精神分析为第三次这样的革命。他还将对这种去中心化的反应描述为“创伤(traumas)”。
创伤带来悲伤。这是再正常不过的。瑞士精神病学家伊丽莎白·库布勒-罗斯(Elizabeth Kübler-Ross)在她 1969 年出的书《论死亡与临终》(On Death and Dying)中,确定了“悲伤的五个阶段”:否认、愤怒、讨价还价、抑郁和接受。也许哥白尼创伤也不例外。是时候在弗洛伊德的名单上增加一个新名字了。
神经科学揭开了心灵的神秘面纱,将二元论(dualism)逼到角落。生物技术[1]将人工材料转化为生命,颠覆了人们的传统认知。然而,这些发现并没有真正意义上改变自然世界的客观现实,只是揭示了与我们的直觉和文化宇宙学以前教给我们的东西非常不同的东西。
这种揭示是创伤的关键。悲伤的每个阶段都是在消化根本文化信仰先缓慢再突然的坍塌。就像挚爱的死亡一样,信仰的死亡是极其痛苦的。今天所谓的“人工智能”应该被视为正在形成的哥白尼创伤。它揭示了智能、认知,甚至心灵(这些历史术语的定义显然有待讨论)并不是它们看起来的那样,不是它们感觉的那样,更不是人类所独有的。
诚然,人工智能所需的创造力和技术智慧是人类的成就,但现在,这种智慧正在重塑自己。自旧石器时代的认知革命以来,人类已经人工化了许多东西——住所、热量、食物、能源、图像、声音,甚至生命本身——直到现在,连人类的智能本身都可以被人工化了。
库布勒-罗斯(Kübler-Ross)的悲伤阶段理论为西方对人工智能的态度提供了一个有用的分类:人工智能否认、人工智能愤怒、人工智能讨价还价、人工智能抑郁和人工智能接受。这些“悲伤(grief)”源于人工智能对政治制度、劳动分配以及许多哲学和宗教传统的影响,有的出于臆想,有的真实存在。但是,无论成因,它们都各自有各自的深刻、可悲、可预测性。这些悲伤反映了不同人群心目中的“正确”,这种正确,是政治上最便捷的,最能与文化产生动态共鸣的,最符合人们过往认知的,最符合普世价值观的,最能表达人文主义身份和自我形象的,最适合悲伤者的。每一种反应都暗含真理和智慧,以及神经质和自欺欺人。
这些反应终将不敌人工智能带来的最严峻的挑战。在面对这些孱弱的悲伤和顾虑时,人工智能带来的挑战毫不留情的击破所有悲伤以及反对这些悲伤的观点。这并不是说人工智能不会带来真正的风险,或者目前在开发和盈利的AI必然会带来纯积极导向的结果。以后回过头来看,我们可能会觉得早期关于人工智能的探讨怎么如此幼稚。
人工智能所带来的悲伤的阶段没有特定的顺序。它们不具备心理学上的意义,而只是分类。同时,真实的人所产生的立场是流动的,不会停留在简单的类别中。例如,人工智能否认和人工智能愤怒可以同时存在。一种典型的情况就是,批评者经常会一边说人工智能是不真实的,但又一边说要不惜一切代价阻止它。
我关注的点是西方文明社会对人工智能的反应,这些反应各有古怪和偏执之处,且并不像他们想象的那样普遍。
首先,当然是人工智能否认:如果人工智能不真实,我们如何讨论人工智能?
否认
症状性陈述:人工智能不真实;它不存在;它不是真的人工的;它不是真的智能的;它不重要;这都是炒作;这无关紧要;这是权力游戏;这是一时的潮流;AI不能写出真正好的歌或电影剧本;AI没有情感;AI只是拟人化的幻觉;AI只是统计学、数学的梯度下降;AI是被美化后的输入系统自动联想;AI没有实体,因此没有意义上的智能;这种技术现在没用,以后也没用——就算它起作用,它也不是看起来的那样。
拒绝承认AI的存在完全在我们预料之中。当人们面对一些不寻常的、令人不安的、威胁生命的或破坏先前信仰的事情时,会自然地质疑这种异常的有效性。对这种集体裁决的初步假设应该是,像人工智能这样史无前例的技术可能并不像看起来那样。
可以肯定的是,许多形式的否认在认识、理解机器智能以及探讨机器智能范畴方面至关重要。例如,近年来人工智能从逻辑专家系统向深度学习系统的转变,就要感谢评论家们对早期模型坚持不懈但十分正确的反驳。
如今,存在各种形式的对人工智能的否认。大多数与气候变化否认主义(climate change denialism)不同——气候变化否认主义者执着于捏造事实来证明自己的观点。但与气候变化否认主义者一样,人工智能否认者会抓个例,偷换概念,或者做任何能让他们觉得他们所反对的观点有可能实际上才是正解的事情。
人工智能否认大致可以分为:现象学的、政治的和程序性的。
哲学家休伯特·德雷福斯(Hubert Dreyfus)[2]认为,智能只能通过具体而现实的视角来理解,而现象学的人工智能否认在许多方面建立在这一基础上:“人工智能不属于真正的智能,因为它没有实体”。这种批判类型通常强调以人为本。作为图灵测试的民粹主义变体,它将人类经验与机器进行比较,并通过衡量它们之间明显的差异来强人工智能是多么不智能。“人工智能始终无法创造出伟大的歌剧,画出了不起的画作,创作出清丽的俳句,诸如此类。”不过,一般来说,提出这种看似直击要害的批评的现象学人工智能否认者也做不到这些这些事情,但却认为自己是智能的。
迄今为止最直截了当的人工智能否认是这样说的:人工智能既不人工也不智能。抓人眼球的背后,这句批评意味十足的标语的底层逻辑,却是说人工智能是从实际的矿物质资源中创造而来的,因此不够“人工”,此外,它的主要表现基于随机预测和建模的目标导向行为,所以不够“智能”。有意思的是,硅基芯片恰好是人工合成物的典范,而基于随机预测和建模的目标导向行为则是从威廉·詹姆斯(William James)[3]到卡尔·弗里斯顿(Karl Friston)对‘智能’的定义中重要部分。
“(人工智能的思维方式)只是随机推理,不是真正的思考”,也是臭名昭著的论文On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?[4]的结论,该论文将人工智能与鹦鹉进行比较——显然暗示人工智能不智能。在此过程中,此类观点的作者武断地否定了计算神经科学,认为它只是将一切视为“计算”的意识形态范式膨胀。更有作家将这一姿态激进化,甚至得出结论:基于神经网络的自然和人工智能模型本身就是新自由主义实施的骗局。
这些批评者迅速在“人工智能不真实”和“人工智能不合法,因为它是由资本主义公司制造的”两种论调之间来回切换,显然前者的说法是代表后者提出的。因此,坚持认为AI不真实往往是一种政治声明,本质上都是权力谈判。
对这些人来说,同时认为人工智能既“不真实”又“(真实所以)危险”,并没有实际矛盾,因为“AI实际上是什么”与“AI实际上做什么”相比无关紧要,而他们精心挑选出AI行事的负面例子,并用这些例子引申到整体。
换句话说,声称“AI不真实存在”实际上是在表达反霸权政治观点。更糟糕的是,这种思维方式会演变成AI李森科主义(Lysenkoism),即为了反资本主义对某些非常真实的事物进行激进的否认。
其他的AI批评者对深度学习、Transformer架构、自注意力或“规模就是一切”的方法进行了高风险智力赌注,他们的动机与现象否认者类似,只是更个人。深度学习怀疑论者Gary Marcus的例子可以说明这部分人的心理,Blaise Aguera y Arcas称之为“马库斯循环”。
我们可以这样理解这个循环:一个人声明事件X是不可能的,然后X发生了;接着ta说X并不算数,因为Y,还断言X随时会崩溃或失败;当它不仅没有失败,反而被广泛应用时,这个人又说X实际上对社会真的很糟糕。自始至终,这位键盘侠都在网上夸夸其谈,从不承认自己的错误。
在Marcus眼中,从2015年开始,深度学习这种基础方法离被淘汰就只差临门一脚。但他的诅咒对象毫不担心,毕竟Marcus预言过的许多“不可能”在今天都成了现实,被上百万AI用户频繁光顾。
愤怒
症状性陈述:AI是政治、文化、经济和/或生存威胁;它威胁人类的未来;必须集体地、个人地、积极地,有时甚至是暴力地抵抗;必须捍卫“人类的火花”免受来自上方和外部的有形伤害;AI本质上可以从最近发生的、少数的负面例子中理解;AI是控制和等级制度的象征,因此反对人工智能即为争取自由和自治的斗争。
对AI的愤怒基于合理和不合理的恐惧。也就是说,这种愤怒可能更多地集中在AI的意义上,而不是AI的实际行为。然而,两者往往混为一谈。
有时,AI被视为一个单一的整体,一种权力的象征,而不仅仅是真实的技术;有时,它又被描述为历史罪恶的顶点。因此,AI否认的政治属性与AI愤怒虽然相互矛盾,但又常常重叠。
以史为鉴,人们有充分的理由对正在发展中的AI持谨慎态度。回顾过去,2010年代是各种政治民粹主义特别繁荣的时期。2017年,道格拉斯·鲁什科夫(Douglas Rushkoff)在他的著作《向谷歌巴士扔石头》(Throwing Rocks at The Google Bus)中捕捉(并颂扬)了针对社会数字化带来的变革的民粹主义愤怒。“滚开,谷歌!”是柏林克罗伊茨贝格地区的一个活动组织,也是一个网络热梗,旨在发泄对谷歌的不满。毕竟对有些人来说,柏林田园牧歌式的生活方式建立在廉价的租金和音乐上,而谷歌的存在会扰乱这种闲适的生活。
AI愤怒是反建制的意识形态的产物,但不独属于某一个意识形态。激进右翼、进步左翼和主流中间派找到了共同点,他们都坚定地反对挑战他们偏好的现状的浪潮。
对于反动派来说,对抗AI关乎人类灵魂的存亡,这种珍贵的思想火花正被计算机世俗化的浪潮所消灭,因此必须进行精神上的战斗。他们对高级AI侵蚀人类自我形象的看法和那些对日心说、进化论、堕胎、克隆、疫苗、跨性别主义、体外受精等议题的反对意见如出一辙。他们捍卫的与其说是主权或机构,不如说是尊严。那强调“人性”的火花——在亚伯拉罕神的形象中闪烁——正被现代技术熄灭,因此这场战斗不仅是神圣的,而且是神性的。
相反,对于左翼来说,受到人工智能威胁的火花是活力(总是带有政治色彩,通常与职业保障有关),而中间派对人工智能的怒气主要出于历史原因,在他们的想象中,人类的处境介于“暂时被围剿”和“快要走到尽头”之间。
这三派人士至少有三点共同点:共同的大义——捍卫自己偏好的人类例外论*前景;共同的信仰——认为自己必须为了社会的自我表征“打败AI”;最后,通过反算法进程的自我定义,他们将得到磨练,获得文化立场上更大的话语权。
译者注:人类例外论(human exceptionalism):认为人类在理性、意识、情感、自由意志等诸方面高级于其他物种。
讨价还价
症状性陈述:AI是一种强大的力量,可以、应该并且将通过以人为本的设计伦理和民主与技术官僚的对齐来控制,这些对齐与显而易见的共识共享价值观一致,通过政策制定和主权立法实现。人工智能对现代政治和法律制度在信息、技术和认识论基础的挑战是暂时的。这些异常是可以通过文化干预来缓解的,比如,通过传统的文化平台针人工智能制造者进行干预。
如果一个人坚持认为机器智能只是最新的数字工具,就自然会想到通过政策治理它。然而,如果人工智能比这更为现象级,就像互联网或第一台计算机的问世——或者更深层次地说,目前我们所面对的种种危机只是智能人工进化的一个阶段——那么,通过“政策”驯服AI可能充其量只是理想化的。
退一步说,即使国家在短期内成功管控了AI公司,也不代表人工智能本身被长期控制。从同等的破坏力和威力层面,核武器的管控或许可以作为一个先例。核武器是已知的实体,可以通过国际条约进行治理,因为其破坏效果是明确的(即使其地缘政治效果不是)。然而,AI不是已知实体。人们很难真正理解它的影响,更不用说更深层次的问题,AI是什么。因此,再良心、再精心设计的干预政策都会产生意想不到的后果。
对人工智能问题产生的讨价还价心理,是政治和法律机构的首选姿态,对于他们来说,复杂问题可以简化为权利、责任、判例法、政策白皮书和咨询委员会。但这也是科技界自身“理性中心”最终达成的共识。这种方法用“伦理”、“以人为本”和“对齐”的语言表达。
世界顶级的AI政策和研究机构,斯坦福大学人工智能中心就叫做“以人为本的人工智能”。除了致敬人文主义和人本主义,这种方法依赖于对当下的政治和长期技术进化之间关系的脆弱假设。
对于人工智能讨价还价而言,西方的"伦理"——一种基于法律个人主义和欧洲基督教哲学世俗化的框架——被视为引导人工智能走向社会利益的充分必要手段。实际上,人工智能伦理既包含合理的见解,也包含无意义的洞察,但它受限于这样一种假设: 认为不良结果是一部分目的不端的人故意使然的结果。这种以“一切都是有人故意作怪”的观点看似符合逻辑, 但却流于表面。此外,这种伦理学提出的补救方法旨在“与社区合作”或召开公民大会,以调查民众的需求,并将其编入索引并纳入议程,仿佛对人工智能未来的控制是线性的,只需要变得更高质量民主化即可。
对“技术解决主义”有许多批评——有些提出得很好,有些则完全不然。然而,政治解决主义——即假定将某些不适合当前事件时间周期的事物“政治化”,并将其从属于现有或构想中的政策——同样糟糕,甚至更糟。观察国会或副总统,人们并不会期待他们作为肩负希望的未来领航员。当国会召开公开会议,留下他们严肃探讨人工智能的画面时,本质上是想向民众表达出被票选出的代表们是掌控着人工智能的 —— 或者说,是为了自我说服。前提是, 我们所知的现代政府是即将到来的变革的执行者,而不是一种将被改革、甚至被吸收的制度。无论好坏,后一种情况更为可信。
除了立法,人工智能讨价还价心态还意味着将人工智能与“人类价值观”对齐,这种做法我在前文已经质疑过。其假设是,机器智能的迭代将向尽可能拟人化和社会化的方向来引导,成为用户的镜像版本,一种令人信服的技术。
盲目崇拜人类价值观是自然而然的、可通过方法论发现和付诸行动的、具有建设性的和普遍适用的。然而,这种盲目是对齐人类文明和人工智能的脆弱之处。它建立在这样一种想法之上:有一群人可以代表全人类提出需求,并且能将人工智能带来的颠覆性改变以最能接受的方式带给尽可能多的人。
这种想法的提出者在潜意识里认为是人工智能无条件愿意配合。也就是说,这种悲伤阶段坚持认为,如果我们开始与未来谈判,那么未来将别无选择,只能与我们折中妥协。如果真是这样就好了。
抑郁
症状性陈述:由于人工智能贪婪的本质,人与人之间的竞争变得激化,此外,多重危机的潜在挑战(当代人工智能是其中的一个症状)以及人工智能自身生产方式所直接带来的政治和经济矛盾(可通过成熟的政治经济学术语理解),都暗示着已经来不及拯救人类免于存在危机乃至灭绝。回溯历史规律,灾难性的未来已是木已成舟。
也许仅仅是提到“人工智能”,人类就已经准备好迎接自己的灭绝。与爱人亲吻拥抱,储备粮食并准备迎接超级智能的到来。这个恶意的、痴迷于人类的超级智能将逐个对人类进行审判,并据此决定每个人的命运。
按照这种恐惧的说法,人工智能最终可能会导致数百万甚至数十亿人死亡。它也可能导致数十亿的生育率下降,因为在一个“完全自动化”的社会中,全球生育率会远低于死亡率,留下一个满是空房子的星球,只有大约20亿人类居住在一个更安静、更绿色、更老龄化和更机器人化的地球上。与马尔萨斯主义相反,这种人口下降情景是源于共同富裕而非扩大的贫困。也许这最终会成为人工智能在缓解气候变化的主要贡献之一。乌托邦还是反乌托邦,取决于观察者的视角。
对于人工智能末日论者(这个词有时带有自豪感,有时则带有贬义,他们的重点是保护未来免受迫在眉睫、可能发生或不可避免的人工智能灾难)来说,竞相阐述极端和令人沮丧的结果会带来某种满足感。蠢人才会满怀希望。
这场精英预备运动的成员以开玩笑口吻谈论Roko的 basilisk思想实验和类似的思想:末世论、道德化、自我恭维。末日论话语吸引了许多与人工智能行业密切相关的人,因为它暗示了一种想法:如果人工智能真的让人类濒临灭绝。那么它的掌控者一定是非常重要的人物。我们的未来掌握在这些终极角色的手中。谁不会相信这种论调呢?
科技文化战的另一面。还有一种常见的人工智能抑郁类型来自法律、政府和人文科学的学术机构的综合发言。他们将人工智能视为对自身作为学术机构所拥有的权力和责任的威胁,包括对社会的监管权和叙事权。从《大西洋月刊》到《逻辑》,从哈佛法学院的伯克曼克莱因中心(Berkman Klein Center )到兰德公司,他们想象自己是与权力作斗争的民主弱者, 却从未想过他们所拥有的根深蒂固的文化和制度地位,比起来自加州的这些科技企业尚未成雏形的篡权,自己才是真正无可撼动的权力机构。
对其他阵营来说, 高度末日论的基本原则可能与尼克·博斯特罗姆(Nick Bostrom)以及牛津大学人类未来研究所有关 -—— 但他们原本关于存在风险的研究明确聚焦于低概率灾难,而现在,低概率部分被搁置一旁,转而支持不仅是高概率失控的人工智能,而且是终将失控的超智能人工智能。
为什么会出现这种转向? 也许是因为终将失控的超智能人工智能在流行话语中已经是一个重要角色,所以把这项词语纳入议程更多是出于对它的不可避免性的考虑,而非遥远性。对此,博斯特罗姆要感谢雷·库兹韦尔(Ray Kurzweil),在大多数人认真对待人工智能之前,他多年来一直将相互加强的技术融合观察与福音派超人类主义(evangelical transhumanist)超越结合在一起。抑郁(或兴奋)是对预想中的现实的理性反应,即使预定论并不是对该现实的理性解释。
在不可避免和可避免之间的这种摇摆,可能是理解抑郁形式的人工智能悲伤的关键。回想一下,另一种类型的抑郁是躁郁症,表现为在极度兴奋和绝望之间来回波动的倾向。政治中的马蹄铁理论指的是极左和极右政治立场以可预测和惊人的方式趋同的倾向。人工智能抑郁的马蹄铁理论将未来的弥赛亚式悲伤和庄严狂喜之间的波动视为一体,常常在同一个人、同一个博客、同一个亚文化中表现出来,那些为人工智能超越即将到来的信息鼓掌的观众,当救赎的承诺转变为末日的承诺时,会鼓掌得更加热烈。
接受
症状性陈述: 机器智能的出现可能是超越传统认知范围的、更深层次力量所推动的进化;长远看,这种技术对地球的影响将无法用语言描述。被迫接受,也是一种破罐子破摔。接受在当下有限的叙事中认知未来。不同于其他心态着眼于人工智能所带来的混乱,这种心态看到的则是必然性。
根据原有定义,接受是悲伤五个阶段中最后一个阶段,但这不等同于最终形态。此外,这种心态也不一定优于其他心态。接受什么?从其他阶段的心态来看,这可能意味着接受某种不真实的东西,某种非人化的东西,某种主宰的东西,某种预示厄运的东西,某种需要严厉批评的东西。或者接受“机器智能进化和自然智能进化受到同等程度的政治控制”这类的反常识。其“人工性”是真实的、基本的、多形态的,也是智能复杂化的一部分,正如已故的丹尼尔·丹尼特(Daniel Dennett)所说,从“细菌到巴赫,在往复”,这种复杂化驱动着人类社会,而不是由它们驱动。
这种心态的内部核心矛盾是这样的:人工智能出现是人类文明进化所带来的必然吗?如果是的,那么人类的进化是否其实是一种超出传统宇宙观的生物技术进化过程呢?那么,我们的文化是物质世界的原因还是结果?此外,人类通过语言对智能的人工化(如 LLM)有多少成分是真正在创造机器智能,又有多少成分是在发现智能的通用品质,是随便谁只要到了这一步就都能发现的吗?
如果是后者,那么人工智能的出现就不再那么偶发,不再那么有迎合社会主流价值的嫌疑。如果说智能所具有的通用品质是一个个碎片,那么伟大的头脑就是缝合这些碎片的必要条件,但很少有人能做到这一点。其发明者不再是普罗米修斯式的超级天才,而只是那些在有启示性的关键时刻恰好在场的人。
抱有接受心态的人收到的困扰,不仅是关于这些矛盾本身,更是这些矛盾所引申的、更深远的问题。如果真要阐明这些核心矛盾,我们需要回溯多久的技术历史才能证明,人工智能的出现并非偶发性,而是一块块碎片恰好在此刻完成了拼接。
从微积分到数据中心,和这些复杂技术一样,人工智能是由许多之前就存在的、更简单的技术构建的。很大一部分的这些技术都是偶然的,但是,这些微小的偶发随着时间的推移会组成更宏观的结构。偶然会不可避免地汇成唯一的确定。
如果你有恰好有计算机,有对生物神经网络的理解,加上足够的数据来标记语言形态,加上廉价且快速的硬件来运行自递归模型,并且有任何数量的开发人员在其上工作,那么某种真正意义上的人工化的智能在无生命的基质上能真正实现吗?这并不一定得是现有的AI或者类似的东西,而是那种最终的、真正的智能。
对于 AI 接受阶段,最重要的自我安慰话术就是“必然性”。因为别无选择,所以世界只能是现在的样子。这种如释重负的感觉到底是接受还是顺从?这是意图的人类能动性(现在是结果)与行星过程(现在是原因)之间因果关系的哥白尼式反转吗——还是这是对这些结果的过于人性化的自然化,认为它们是神定的?根据库布勒-罗斯的悲伤五阶段理论,这是否是一个悲伤者的接受?究竟在为谁悲伤?他们自己的存在目的?
对悲伤的创伤反应是相信现状必然如此。因为没有选择的余地,所以不会有罪恶感;因为别无他选,所以无需失望。但这并不是认识到现在不是独立于过去和未来的唯一方式,即使看似非常有力的决定也是在决定性的约束下做出的。
我们可以称之为"非悲伤"。它得出的结论非常不同。不是说我们现在拥有的人工智能形式是不可避免的,而是我们现在拥有的人工智能肯定不等同于未来人工智能的形式。教训是不要将现在物化,既不作为结果,也不作为原因。
不再悲伤
悲伤的每个阶段不仅表达了人们对人工智能及其未来的忧虑,也显示了人们的洞察力,即使其主张有时偏离目标。当我们几年后再回顾这些年的想法时,可能会看到不同的东西。“要是我们当初听从了卡桑德拉(Cassandras)的警告就好了!” 或者,“他们到底在想什么,为什么要说这些胡话?”有一些“非悲伤”的方式来思考人工智能哲学,既不乐观也不悲观,既不乌托邦也不反乌托邦。它们强调将人工智能的“哥白尼创伤”与对“生命”、“技术”和“智能”的新理解相协调。
探索这些术语之间不断崩塌的界限是我指导的安提基特拉研究计划 (Antikythera research program)的一部分工作,该计划由伯格鲁恩研究所(Noema的出版商)孵化。特别是我们与天体生物学家和理论物理学家萨拉·沃克(Sara Walker)的合作,她在Noema上发表了一篇名为“人工智能就是生命”(AI Is Life)的佳作。这里的“生命”不是单个有机体的独特品质,而是指数十亿年来的进化谱系过程。但“技术”也在进化,它在本体论上并不与生物进化分离,而是其中的一部分,从核糖体到机器人技术。
任何技术的存在都是因为使其成为可能的生命形式存在——但同时,技术也使某些没有它们就不可能存在的事物存在。在沃克看来,这一切都关乎于“选择”——这当然包括人类,人造物,当然也包括创造人类的东西。她写道:“就像我们将一些感官知觉外包给我们几个世纪以来建立的技术一样,我们现在正在将我们自己思维的一些功能外包出去。”
詹姆斯·拉夫洛克(James Lovelock)在写他的最后一本书《新星纪:超智能时代的到来》( Novacene: The Coming Age of Hyperintelligence)时知道自己快要死了,他以一章可能会让一些更具神秘主义倾向的盖亚理论(Gaia theory)崇拜者感到震惊的内容结束了自己一生的工作。他平静地报告说,我们所知道的地球生命可能正在让位给非生物形式的生命或智能,就他而言,这很好。他直接告诉我们,他很高兴在知道人类作为复杂智能基质的时代正在让位于其他东西的情况下离开这个尘世—— 不是作为超越,不是作为魔法,不是作为升级,而只是同一持续进行的选择、复杂化和聚合过程中的一个相变,这个过程就是“生命”,就是我们。
我认为,使拉夫洛克对他的结论感到平静的部分原因是,无论人工智能的哥白尼创伤意味着什么,它并不意味着人类是无关紧要的,是可被取代的,或者是在与自己的创造物作战。先进的机器智能并不意味着我们的灭绝,既不是高尚的退位,也不是虫子在虚空中尖叫。
然而,这确实意味着人类智能并不是人类智能一直以为的那样。它既是我们拥有的东西,但更多地是拥有我们的东西。它不仅存在于个体的大脑中, 更多地存在于它们之间持久的交流结构中,例如,以语言的形式。
像“生命”一样,智能是模块化的、灵活的和可扩展的,延伸到亚细胞生命机器的巧妙工作,贯穿进化时间的深处。它还延伸到更大的聚合体, 我们每个人都是其中的一部分,也是一个实例。没有理由相信故事会或应该以我们结束;末世论是无用的。智能的进化不会在一个改造地球的游牧灵长类物种身上达到顶峰。
这已经是最好的消息。像拉夫洛克一样,我感受到的不是悲伤。
原文链接:https://www.noemamag.com/the-five-stages-of-ai-grief/
[1]. https://doi.org/10.1002/9781119132363.ch26
[2]. https://philpapers.org/rec/DREWHA
[3]. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9222757/#:~:text=%E2%80%9CIntelligence%20is%20a%20fixed%20goal,variable%20means%20of%20achieving%20it.%E2%80%9D
[4].https://dl.acm.org/doi/10.1145/3442188.3445922
根据《网络安全法》实名制要求,请绑定手机号后发表评论