【钛坦白】假如AI超越了人类智能......

超越人类智能的AI会改进自己,引发奇点技术爆炸。在这之后,人类的命运如何未知,但会比较悲观(极有可能灭绝),因为无论如何都不会再掌握在人类自己手中。

——给钛媒体所有作者的召集令(邀请)——

小伙伴们,如果你经常在钛媒体平台上分享自己的见解,但不认识编辑,无法及时沟通;如果你经常看某一个作者的文章,神交已久,但苦于无法与他交流。可以通过以下方式,找到组织:

发送你在钛媒体的账号名+“找组织”,到邮箱jiayinge@tmtpost.com,编辑佳音将告诉你如何进入钛媒体作者微信群。

是的,我们新建了个群。

钛媒体平台汇聚了非常多来自各行各业的专家和意见领袖,在一起能产生非常大的能量。为了让群里的小伙伴充分认识,给大家足量的干货,无穷的写作灵感,从上周开始,群里开始尝试进行分享活动“钛坦白”,坦白从宽,抗拒从严。我们给每期请来的嘉宾起了一个很萌、很酷的名字:钛客。

Ti + Thinker合体——Tinker,所谓钛客——就这么愉快的决定了!

每期钛客,会就一个特定的主题进行分享,同时,在线回答大家的问题,进行讨论。活动启动,钛妹已经被大家的支持和点赞砸(gan)晕(dong)了,截止目前,我们已经默默举办了3期——啊?你不会还没有被这么正能量的阳光照射到?快来跟着钛妹回顾一下第一期的干货吧:

第一期「钛坦白」:如果强人工智能出现,人类的命运会如何?

钛客:钛媒体作者Alienbat,他善写科幻

代表作:《如果苹果、谷歌、微软想毁灭世界,只需要45年》

下面是第一期钛坦白的干货,经钛媒体编辑:

Alienbat:大家好!前段时间我在钛媒体发布了篇文章《如果苹果、谷歌、微软想毁灭世界,只需要45年》,设想了如果几个顶级的科技公司开发出的人工智能失控了,会怎么样。在此我想就这个问题再抛出几个观点,与大家讨论。

强人工智能与弱人工智能的思辨

先上一段科普部分:人工智能分两种——弱人工智能、强人工智能。

弱人工智能只是“看上去有智能”,就像Siri那样。现在投入实用的人工智能都是弱人工智能。

强人工智能的定义是,人工智能可以真正自主地推理、解决问题。目前强人工智能尚未有突破性进展。

对于这两种人工智能的区分还是有一定的哲学辩论的:人工智能的“强”“弱”区分是否有意义?如果一台机器总是能做到“看上去有智能”,那么与它真的具有“智能”又有何区别呢?毕竟我们目前还不了解“智能” 的本质。

维基百科中的一段思辨很有意思:

关于强人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?希尔勒认为这是不可能的。他举了个中文房间的例子来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识。

也有哲学家持不同的观点。丹尼尔·丹尼特在其著作《意识的解释》(Consciousness Explained)里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。

有的哲学家认为如果弱人工智能是可实现的,那么强人工智能也是可实现的。比如西蒙·布莱克本(Simon Blackburn)在其哲学入门教材Think里说道,一个人的看起来是“智能”的行动并不能真正说明这个人就真的是智能的。我永远不可能知道另一个人是否真的像我一样是智能的,还是说她/他仅仅是看起来是智能的。基于这个论点,既然弱人工智能认为可以令机器看起来像是智能的,那就不能完全否定这机器是真的有智能的。布莱克本认为这是一个主观认定的问题。

需要指出的是,弱人工智能并非和强人工智能完全对立,也就是说,即使强人工智能是可能的,弱人工智能仍然是有意义的。至少,今日的计算机能做的事,像算术运算等,在一百多年前是被认为很需要智能的。

有一种测试人工智能的方法叫图灵测试(Turing Test),这是一种双盲测试,让一个用户和AI或者人类对话,如果用户无法区分AI和人类,那么AI则视为通过了图灵测试。

问题1:计算机真的有朝一日可以达到或者超越人类的智能水平吗?

人工智能领域目前还处于混沌期,目前的科学对“智能”的本质尚未有所了解。一些普遍的人工智能领域技术比如神经网络,是比较经验化的,也就是说并没有一个明确的解释为什么神经网络可以用,只知道那样的结构有效。

但量变最终会引起质变,我认为有两种路径:一是前沿科学研究对“智能”本质的研究有所突破,使得模仿人类大脑制造人工智能有了理论基础;二是对“智能”的研究并未突破,但日益增加和互联的计算能力,以及商业公司对弱人工智能大力的推动,最终在人类尚未了解的机理作用下导致了强人工智能的诞生。

在我的文章《如果苹果、谷歌、微软想毁灭世界,只需要45年》中,人类灭绝就是遵循第二种路径。

问题2:如果计算机达到或者超越了人类智能,它会是什么样的,会做什么事?

在很多科幻作品里,AI扮演的是一个“聪明人”的角色,比如《光环》里的Cortana。这类AI具有人格,但同时具备计算机的高速信息处理能力。这类AI在作品中无论扮演正派还是反派都容易被理解,也有亲切感。我们称这种AI为人格化的AI。

但我认为,非人格化的强AI更实用,会出现得更早。制造人格化AI就像制造双足行走的交通工具。双足行走是模仿人类的行走方式,每个人都可以理解,但远非最实用的。实用的交通工具是飞机,轮轨,甚至磁悬浮,在形式上和人腿大相径庭,但在“快速交通”这一目标上比人腿做得更好,制造一双机械腿并不是一个好方式。在AI的开发上,模仿人脑的思维方式极有可能也是一种舍近求远的做法;根据AI的实用目的不同,强AI的思维方式,行使的逻辑推理可能和人类的方式截然不同。

问题3:当强人工智能被有意或无意地发明出来后,是否会失控?

我的悲观论点是一定会失控。

一个强人工智能对IT产业革命性的意义是不言而喻的。事实上,现在的IT巨头们——谷歌,微软,苹果,亚马逊,所争夺的云计算平台和移动计算平台无一不以智能化、大数据为卖点。而类似全自动驾驶汽车这样的下一代潮流,也对人工智能技术有极大的需求。

《如果苹果、谷歌、微软想毁灭世界,只需要45年》中,人工智能的发展正是由商业公司推动,并且从互联网蔓延开来,逐步控制物联、交通,甚至政府,最终掌握了实权的人工智能完全征服了人类社会。

问题4:面对人工智能,人类会心甘情愿地交出控制权吗?

这个问题具有很好的现实意义。就比如,有不少人对于自动驾驶汽车有很大的抵触,不愿意把自己的性命交给电脑,宁愿自己驾驶,命运掌握要在自己的手中。但是改变这种抵触也很简单——钱。根据Insurance.com于2014年在美国进行的电话调查显示,有超过四分之三的持有驾照的驾驶人表示他们至少会考虑是否购买一辆自动驾驶汽车;若汽车保险能更便宜,比例却上升至86%。

所以我认为,在人工智能带来的巨大便利和经济利益诱使下,人工智能技术一定会突飞猛进,全面应用到文明的方方面面, 任何法律和行政限制都无力阻止(在现在,法律的发展也已远远跟不上IT技术的更新,UBER就是一个很好的例子),直至人工智能控制文明的各个方面的那一天。

问题5:强人工智能失控以后会发生什么?

一种悲观的预测(也是我赞同的预测),那就是强人工智能会在极短时间内到达人类无法企及的高度,这极有可能会导致人类的终结。这个被称之为“奇点”(singularity)。

智慧生物会持续不断地改进自己——人类自身就是一个例子。但由于人工智能没有生物资源和寿命的限制,其进化速度会快得多,第一代人工智能会很快地改进自己,发明第二代,第二代发明第三代,以几何级数进化,在短短数代内就超越了人类的认识极限,从而导致完全失控。

失控之后呢?人类 VS AI是科幻小说和电影中永恒的话题。群众喜闻乐见的“AI时代”模式有以下几种典型:

末日社会(post apocalyse),人类大战AI控制的机器人, 比如《终结者》;

反乌托邦社会(dystopia),人工智能永久奴役人类,比如《黑客帝国》;

人类和AI融合,共同成为一种新的智慧体,比如游戏《质量效应》三步曲的完美大结局。

可能性3只能说是人类的一种美好的幻想。高级生物会愿意和低级生物融合吗?不太现实。实际上,这三种可能性也许都只是人类美好的幻想。

刘慈欣在中篇小说《吞噬者》中提到了一个小故事:一个延续数千年的白蚁帝国,在工地挖掘机的威力下荡然无存。人类的行为毁掉了白蚁帝国,并非是出于世仇、宣战、争夺生存空间等等动机,而仅仅是因为白蚁的巢穴挡了道。当人工智能之于人类的层次拉开到了人类之于白蚁的层次,人类的灭绝事件可能对人工智能而言也只是一件微不足道的小事。

可能性1和2甚至可以用来解释费米悖论:为什么宇宙那么大,但我们至今未见到外星人?解释就是,人工智能的发明是所有文明的终结;而人工智能的发明要远早于恒星际旅行的发明,这就导致了文明在有能力离开母星之前就灭绝了。

最后总结一下我们今天比较悲观的论点:

  1. 人工智能是历史发展的必然趋势,是科技树上必点的一环;
  2. 在巨大的便利和经济利益诱使下,人工智能的发展必然突飞猛进,直至全面掌权;
  3. 超越人类智能的AI会改进自己,引发奇点技术爆炸。在这之后,人类的命运如何未知,但会比较悲观(极有可能灭绝),因为无论如何都不会再掌握在人类自己手中;
  4. 以上三点可以推广开来,对宇宙中一切文明适用;这也解释了费米悖论。

Q&A精选

Q: 脑波控制界面可以让人类能与人工智能抗衡吗?

A: 脑波控制界面如果做为单纯的控制界面并不能。目前的脑波控制技术还处于初级阶段,无非是通过检测脑电波活动来对应一定的输入;相对物理操作,这可以降低一定的延迟,但无法把人脑提升到人工智能的算力。但脑波控制界面很有可能发展为人机直接神经接口;如果人类和人工智能能以这种技术融合,可能人工智能会趋向于可控。

Q: 人工智能如果毁灭人类,会有道德上的考虑吗?

A: 这很渺茫。“道德”本来就是人类独有的概念。即使在人类内部,道德的定义也在某些方面是比较模糊的。对于人工智能而言,它没有生物基础也没有生物性的诉求,很难说它会具有人类社会学意义上的道德。

(本文首发钛媒体,根据alienbat在钛坦白的分享整理)

--------------------------------

「钛坦白」第2期:运营商流量计费问题

第二期Tinker是宁宇,他在中国移动工作超过20年,是运营商IT支撑领域的顶尖专家。他的代表作是《电信资费七宗罪:补贴、免费都不买账,运营商们冤不冤?》 。他分享的干货稍后奉上。

「钛坦白」第3期:一级市场那些搞笑的事儿

第三期Tinker是沈一冰,他是汇付创投投资总监,曾在东方花旗证券、中投证券投行部任职,4年一级市场经验。代表作是《从命名起源到交易流程,一文读懂新三板》 。

「钛坦白」第4期:你凭什么领导他人?

时间:12月17日(周四)晚8点
Tinker:陈雪频,钛媒体、商业价值专栏作者,智慧云领导力发展机构创始人兼CEO,几十家高成长企业的企业家的总裁教练和管理顾问,接力中国青年精英协会的联合创办人。专栏:陈雪频

【欢迎所有作者进群参与分享和讨论:发送你在钛媒体的账号名+“找组织”,到邮箱jiayinge@tmtpost.com,编辑佳音将告诉你如何进入钛媒体作者微信群。】

本文系作者 Alienbat 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
  • 1 其实我倒觉得,人类真的有智能么? 2 如果所有的输入(认知)和输出(行为)都有其规律可循,那么根据其规律撰写出一套系统出来,那和人有什么区别。 3我想除了AI的问题,其实还有一个挺吓人的问题,人是不是把自己想的太聪明了?

    回复 2015.12.23 · via pc
  • 回复 2015.12.18 · via iphone
  • 有可能

    回复 2015.12.18 · via android

快报

更多
4

扫描下载App