文|甲子光年,作者|甲小姐、八度,编辑|田思奇
“Slower than it looks(AI比看起来要慢),LLMs tend average(大语言模型趋于人类的平均智慧水平),Not replacing humans(AI并非要取代人类),New, not substitutions(AI在创造新品,不是替代品),Cloud first, then AI(先云,后AI),Must change your org(AI将重塑组织),Just beginning(一切才刚刚开始)……这七个预测不是完备的。你能给我们一些从未在其他地方提到过的猜测吗?”我问KK。
摘掉眼镜的KK停顿了至少30秒,接着反问了我几个漫长的回合,直到突然打断了我。
“那我的预测就来了。我的预测是,10年后,训练数据将不再重要(In 10 years now, training data won't be important)。”KK说。
凯文·凯利(Kevin Kelly),被科技拥趸称为“KK”,以络腮胡子和斑白发丝成为一个时代符号。他写出《失控》、《科技想要什么》、《5000天后的世界》等书,被誉为“硅谷精神之父”,在30年前就预见到了云计算、虚拟现实、物联网等趋势。2024年6月16日,他来到苏州,参与苏州科技商学院和上海交通大学上海高级金融学院共同举办的科技大讲堂。上述对话发生在他讲课后会议室里的独家采访,原本20分钟的采访被他延续至将近一小时。
本文甲小姐深度对话凯文·凯利,从近况谈到AI创新和人的本质。除了个别细节判断的不同 ,KK和「甲子光年」有类似的观点:AI改变世界的“进度条”才刚刚开始。
近况:“那占据了我所有的时间”
甲小姐:新闻来来去去,全世界对AI的态度已经发生了很多变化,特别是人们对AI 2.0、AGI或大模型的看法。最近一段时间,你倾注了多少时间跟踪前沿AI进展?
凯文·凯利:那占据了我所有的时间,我所做的就是持续阅读人工智能方面的文章。
甲小姐:你最喜欢谁的文章?
凯文·凯利:就像你说的,每天都有,可能每小时都有新文章,关于语言模型的一些新发现。
就在上周有一篇论文,来自Anthropic,关于特征的权重以及如何操纵它们,这和AI黑盒的概念有关。他们说我们实际上可以看到背后的一点点机制,这很有趣。
甲小姐:你平常会用Midjourney,Pika,Runway等AI应用吗?
凯文·凯利:我每天用AI画一张画,持续一年了。
甲小姐:你现在是AI行业的原住民了?
凯文·凯利:还在半路上。你必须有1000小时。可能我已经训练了800小时了,但还不到1000小时。
甲小姐:你在科技领域是一个哲学思考者。在最近AI的浪潮中你的科技哲学是否有迭代或改变?
凯文·凯利:这是一个很好的问题。我的科技哲学观并没有改变,如果出现一些新的现象,我会认为它是在不断证实和强化我的哲学。
到目前为止,我还没有看到任何可能改变我对技术看法的事件出现。所以我的科技理论就像在进化一般,我在AI看到的一切现象都没有改变我的底层科技哲学观。
AI观:“我真正担心的事:人工智能武器化”
甲小姐:在你的官网页面的最上方有一行小字:OVER THE LONG TERM, THE FUTURE IS DECIDED BY OPTIMISTS(从长远来看,未来由乐观主义者决定)。最近AI的一系列进展和快速迭代的浪潮,以及你刚才提到了百年人类身份认同危机,会让你有担忧吗?
凯文·凯利:总的来说,我不是特别担心。有些事情我的确很在意,但我相信我们会解决。但还有些问题我们还不知道如何解决。比如气候变化,我们知道应该怎么做,但在AI领域存在一些我们不知道如何解决的问题,而这些问题有可能在未来会给我们带来困扰,比如AI的武器化:我们应该允许出现一个机器人士兵吗?AI可以有杀人的能力吗?这是我们不知道的,而且这真的很难决定。所以这是我真正担心的事:人工智能武器化。
当然,我也很关心AI是开源还是闭源的,它是公开的还是只属于公司所拥有。我的想法是,它应该是公开的。
甲小姐:你认为AI应该开源?
凯文·凯利:是的,应该对公众开放源代码,这是另一个我很关心的事。
甲小姐:你仍然是乐观主义者。
凯文·凯利:我非常乐观。我相信我们会最终解决这些AI相关问题,只是现在我们还不知道怎么做。也就是说,结果是确定的,只是路径还不清晰,所以我非常乐观。当然,也有一些人担心的事情我并不担心,就像我并不担心失业。另外,我也不担心人工智能会对我们构成威胁。
甲小姐:你在世界各地都有粉丝,也一定认识很多伟大的科学家朋友。他们是否同意你对于AI的观点,还是持反对意见的更多?
凯文·凯利:这个话题确实很有趣,现在有一个巨大的分歧。关于超级AI有两个阵营,有一些非常优秀的科学家感到担忧,另外一批优秀的科学家则并不担心,这很有趣。我在不担心AI的阵营里。
甲小姐:迄今为止,OpenAI做出的最好和最差的决定分别是什么?
凯文·凯利:最差的决定是OpenAI并没有开放它的大模型,这是一个很糟糕的决定,还有另一个最差的决定是(曾经)解雇创始人Sam(萨姆·奥尔特曼)。
最好的决定是OpenAI始终保持着快速发展、快速迭代,并且不断创新,越来越快地发展使得它能够重新雇佣Sam,还有它很坚定,强调在发展中不用过于认真谨慎,而是真正尝试快速成长。
边界:“AI擅长爬山(Hill climbing),而不是造山(Hill making)”
甲小姐:你提到了两种类型的创造力,类型1和类型2,你画了一张很好玩的图,说AI擅长爬山,而不是造山,这两者的区别是什么?
凯文·凯利:大语言模型的创造力其实只有一种创造力,就是在已知的范围内运作。他们在填补和探索我所知道的空间内的一切。他们并没有发明全新的领域。
突破基本上是在创造新领域,而不是在现有限制内寻找解决方案(So breakthroughs basically are making up new territories rather than exploiting of finding solutions within an existing term)。
他们现在做的主要是在我们所知道的范围内寻找答案。你可以在Midjourney或Dall-E画一位著名的宇航员骑马,但你不能让马骑着宇航员,因为这在学习范围以外。
甲小姐:你是Scaling law(规模法则)的拥趸吗?
凯文·凯利:确实有一些,为了让「甲子光年」的用户便于理解,我先解释一下。Scaling law是在说存在一个数学比例关系,可以描述模型变得有多大,损失因素,以及它距离最佳性能还有多远。
我们不知道这是否是无限延伸的。我可以永远扩张吗?曲线是否最终归于平缓?到目前为止,我认为证据表明它将趋于一条直线。这和互联网不同。
当然证据并非来自Scaling law本身,Scaling law本身是一个假设。
甲小姐:最近有一种观点在AI行业非常流行——一切都与数据集有关,假以时日,AI效果和算法或者其他一些方法关系不大,只有数据集是重要的。
凯文·凯利:有一篇论文说数据的质量和影响比算法更大。我相信这是非常可能的。
我预测我们会看到一家AI公司会宣传AI是基于训练数据的。所以会有人说,我们没有接受过什么算法训练,我们只用最好的数据训练。我们用高质量的书籍和其他高质量的材料来训练它。我们用Reddit训练。
这就像教育。如果你有一个孩子,你会如何教育他们?你打算让他们读什么?你是让他们看推特还是让他们读经典?有人说我们的人工智能只读经典。他们阅读最高质量的书籍,阅读最高质量的科学期刊。他们没有阅读Reddit、Twitter或微博。他们在读好东西。他们接受了最好的训练。会有一些人用这种策划训练数据的想法作为卖点,非常精心的策划。昨天Getty Images宣布将发布一个AI图像生成器,只在Getty图库里训练。
猜想:“10年后,训练数据将不再重要 (In 10 years now, training data won't be important)”
甲小姐:你的知名度很大程度上来自你预言家的身份,但你刚才在屏幕上亮出了大字:No predictions(没有预测)。但你又提到了七个判断:
Slower than it looks(AI比看起来要慢)LLMs tend average(大语言模型趋于人类的平均智慧水平)Not replacing humans(AI并非要取代人类)New, not substitutions(AI在创造新品,不是替代品)Cloud first, then AI(先云,后AI)Must change your org(AI将重塑组织)Just beginning(一切才刚刚开始)
这七个判断不是完备的。你能给我们一些你从未在其他地方提到过的猜测吗?
凯文·凯利:(停顿很久)一般来说,如果我有想法,我肯定会告诉别人。我们先继续对话,然后我会努力想出一个。
(继续停顿)关于人工智能,我对中国的人工智能了解不多。你显然也在读论文,你认为中国目前在人工智能方面正在发生什么?
甲小姐:我认为中国和美国的相似之处比人们想象的要大得多。
凯文·凯利:相似之处?怎么说?
甲小姐:比如人才。中国有很多年轻人才,他们是学生或在创业公司。他们与我在美国或其他一些国家遇到的年轻人才非常相似,因为AI如此尖锐,如此新颖。
我的专业是数学。当我们比较AI和数学时,历史的长度是不一样的。我周围的很多朋友认为人工智能太复杂了,难以理解。但AI的历史只有半个多世纪,如果你只是想了解概述、历史、学科分类,读两三本书足以让你建立对AI的基础概览,从学科本身,大家起点类似。中国可能没有马斯克或奥尔特曼这种大牌,但当你环顾年轻人才,整体基础非常相似。
第二个维度是数据。也许中国可能有一些优势。
凯文·凯利:谁有权访问数据?一家年轻的初创公司,他们可以访问这些数据吗?
甲小姐:我想我们才刚刚开始。政府在试图建立基本的基础设施,让人们以良好的方式获得他们想要的数据。
凯文·凯利:那是怎样的好方式?
甲小姐:数据市场。你知道,数据已经写入基本政策,成为要素,就像资本、劳动力、技术、土地,它们在中国被称为“生产要素”。
凯文·凯利:你们的企业家访问数据没有任何难度?
甲小姐:不是没有难度。但他们可以像在其他国家,也许更容易,也必须面对许多挑战,但我认为最大的挑战不是政策,不是权限,而是数据集。不同语言的数据集不同。
凯文·凯利:那我的预测就来了。我的预测是,10年后,数据将不再重要。
现在所有大语言模型都需要扩展大量的数据方法,但其他类型的认知、智力是它们没有的。就像一个人类幼儿在看到12个例子后就能区分猫和狗,幼儿不需要1200万个数据才能知道。
我认为,10年后我们不需要数百万个数据就能拥有推理的能力。这对初创企业来说是一个巨大的优势,因为他们不需要拥有所有这些数据。这是我的推测。
本质:“意识让人类与众不同,但是我们也会把意识给AI”
甲小姐:你能给我一些关于你对人类及人工智能本质的见解吗?
凯文·凯利:问题是我们也不知道人类的本质是什么,要找出答案的方法就是制造人工智能。我们会成功的。
我们曾意识到,哦,原来创造力是让我们与众不同的原因——但现在我们改变了主意,因为人工智能也有创造力;然后我们会说,好吧,现在我们认为意识是让我们与众不同的原因,但是我们也会把意识给AI……
甲小姐:这个“给予”的过程会一直继续到哪里?
凯文·凯利:在技术和AI的推动下,我们将不断重新定义自己。更重要的问题不是我们是谁,而是我们想成为谁。我们希望人类成为什么?这是一个更有力的问题。
因为我们可以有一点点选择。这是令人兴奋的,对我来说,这是AI的终极魅力。它照亮了“我们是谁”的迷雾,也激励着我们该成为什么样的人。
甲小姐:加速计算正在触及科学的无人区,这条道路的极限是什么?
凯文·凯利:就像我们没有关于智能的理论,我们也没有关于人类的理论。
我们不能预测AI要去的地方,因为我们对AI没有理论。我们也没有理论说,如果你做这个,你就有了预测;如果你做这个,那么这将会发生;如果你算上所有这些计算,你就会得到这个……我们现在没有任何这样的理论。这很不寻常。
在物理学里我们有理论——如果你做了一个足够大的对撞机,你会找到那个粒子。我们在智能领域没有这种理论。但令人兴奋的是,我们会和AI一起发现作为人类的意义是什么。
甲小姐:我喜欢你的回答。
凯文·凯利:我喜欢你的问题。
根据《网络安全法》实名制要求,请绑定手机号后发表评论