2024T-EDGE文章详情顶部

斯坦福李飞飞最新对话:AI不会对人类造成“灭绝性危机”|钛媒体AGI

“我们可能会过度管制,而这样可能会伤害我们的生态系统。但同时,在医疗、交通、金融等实际应用领域,我们应该考虑设置恰当的防护措施。”

 美国斯坦福大学教授、美国国家工程院院士李飞飞(来源:斯坦福大学账号)

北京时间5月10日凌晨举行的Bloomberg Tech活动上,著名华人计算机科学家、美国斯坦福大学教授李飞飞(Fei-Fei Li)与彭博社Emily Change进行对话。

这场15分钟对话中,李飞飞表示,所谓担心人类被 AI 灭绝的风险被过度炒作,“这已经被夸大了”,所谓“灭绝性的危机”有点太过了。不过,她依然认为需要对 AI 模型进行限制,担忧、评估和审查这些 AI 模型。

这是外界公布李飞飞创业之后的首次参加对话活动。

李飞飞是 AI 领域的先驱性人物,也是计算机领域的华人女科学家,目前还是斯坦福大学首位红杉讲席教授、美国国家工程院院士、美国国家医学院院士、美国文理科学院院士、ImageNet的首席科学家和首席研究员、斯坦福以人为本人工智能研究院院长、AI4ALL联合创始人。她的专业领域是计算机视觉和认知神经科学。

李飞飞一直被称为“AI 教母”——源自与图灵三大“AI 教父”一样的称号。她通过开发一种名为ImageNet的大规模图像数据集在AI领域名声大噪。该数据集帮助开创了新一代能可靠识别物体的计算机视觉技术,也是ChatGPT底层技术之一。

2016年11月,李飞飞加入谷歌,担任谷歌云AI/ML首席科学家。2018年9月,返回斯坦福任教,现为谷歌云AI/ML顾问。10月20日斯坦福大学以人为中心的AI计划开启,李飞飞担任联合负责人。

此前报道称,她创立了一家“空间智能”企业,并完成了种子轮融资。投资方包括硅谷风险投资公司 Andreessen Horowitz(a16z)、加拿大基金Radical Ventures等。但在对话中拒绝谈论此事。

李飞飞强调,她看到越来越多的女性,和多样化背景的人进入科技和人工智能领域,多样化背景人员将有可能成为杰出的思想家、创新者、技术人员和教育家,发明家,科学家。因此她完全接受“AI 教母”这个称号。

以下是李飞飞对话全文:

欢迎李飞飞博士登台,她是斯坦福大学计算机科学 Sequoia 教授,人工智能中心联合主任。

Emily Chang: 李博士被誉为人工智能的教母。你对这个称号有何感想?这是我要提的第一个问题。

李飞飞:Emily,我自己从未自称为任何事情的教母,但当我被授予这个头衔时,我确实停下来思考了一下,我想,如果男性可以被称为某事的教父,那么女性也可以,所以我完全接受这个称号。

Emily Chang: 百分之百。

Emily Chang: 你是我们这个时代最有影响力的计算机科学家之一。你撰写了大量的学术论文。你是 ImageNet 的创造者,这个包含大量图片及其描述的数据库为现代 AI 奠定了基础。你有想象过它的影响力会有多大吗?

李飞飞:ImageNet 于 2007 年被设想出来,它可能是 AI 算法中大数据的关键转折点。从科学的角度看,我坚信大数据会从根本上改变我们进行 AI 研究的方式,但我从未想到大数据、神经网络和 GPU 的融合会催生出现代 AI,我也从未预想到从那时起的进步速度。

Emily Chang: 你经常和那些正在决定这项技术未来的人们在同一房间里,比如拜登总统,Sam Altman,Sundar Pichai,Satya Nadella。你在国会作证,你参与了各种工作小组。你对那些有权力的人,他们应该如何使用这种权力,有什么主要的建议吗?

李飞飞:Emily,很好的问题。实际上,无论我是在 K-12 夏令营,还是在斯坦福大学的 AI 导论课程中,我的信息都是一样的,那就是要认识到这项技术,它是什么,以及如何负责任和审慎地使用它。理解并接纳它,因为它是一种横跨各个领域的技术,正在改变我们的文明,推动商品流通,科学发现的快速进展,寻找治疗癌症的方法,绘制生物多样性地图,和我们一起发现新材料。但同时,也要认识到所有可能产生的后果,包括可能的非预期后果,以及如何负责任地开发和部署它。我认为,在现今的对话中,保持平衡,理性深思的声音非常重要。无论是在白宫还是学校。

Emily Chang: 现在,我不知道你会否称这为一场危机或一个转折点,但 AI 模型的训练数据正在耗尽,然后有些公司开始转向使用 AI 生成的数据和合成数据来训练他们的模型。这个问题有多严重?有哪些风险?下一步该怎么做?

李飞飞:首先,我认为 AI 模型的训练数据正在耗尽是一种非常狭隘的观点。我知道你在暗指那些消耗大量互联网数据的大语言模型,特别是那些来自网站、Reddit、维基百科等你能获取的数据。即使在谈论语言模型,我们也不应局限于此。我认为还有很多可以探索的。

我们看到,不同的数据可以用来构建定制化的模型,无论是用于新闻业还是在诸如医疗保健等不同的行业领域。其实我们并没有耗尽数据。实际上,还有很多有许多行业还未进入数字化时代。我们并未充分利用数据,不论是在医疗、环保还是教育等领域。因此,即使在语言模型这个领域,我不认为我们的数据已经用尽。

Emily Chang: 您认为现在使用 AI 生成的数据来训练模型是好事,还是这可能会让我们逐渐远离原始数据,以一种可能危险的方式进行?

李飞飞:这是个需要更深入探讨的问题。这是个好问题。AI 有很多生成数据的方法。比如在我的斯坦福实验室,我们做了很多机器人研究,对吧?机器人学习。在这里,模拟数据非常重要,因为我们根本没有足够的资源或机会去收集由人类产生的动作等等。模拟真的非常重要。这会让我们走向危险的道路吗?

我认为,即使是使用人类生成的数据,也可能让我们走向危险的道路。同样,如果我们对模拟数据的处理不负责任,或者没有进行深思熟虑,那么当然可能会使我们走向危险的道路。我的意思是,我甚至不需要特意指出。你知道有哪些是人类生成的不良数据,对吗?就像整个暗网那样。所以问题不在于模拟本身,问题在于数据。

Emily Chang: 你正在涉足热门且竞争激烈的 AI 创业领域。你正在启动一些项目,能透露一些信息吗?

李飞飞:不能。

Emily Chang: 好的。那就期待后续吧。我们就 AI 时代的信任度进行了一项调查。可以公布那项调查的结果吗?问题是,你对科技公司能否安全开发 AI 有多大的信任?我完全信任他们,0%。我持怀疑态度,所有人。一点也不信任。

李飞飞:是谁在做?

Emily Chang: 这个房间里的人。

李飞飞:ok

Emily Chang: 如果你要对 AI 领域的主要参与者进行排名,你最信任谁,最不信任谁?

李飞飞:我的信任并没有寄托在某个参与者身上。我信任的是我们共同创建的整个系统以及我们共同创建的机构。所以这可能是你的陷阱问题,但是我无法指出我觉得,你知道,我是说,想想美国的开国元勋们。他们并没有将信任寄托在一个人身上。他们创建了一个我们所有人都可以信任的系统。

Emily Chang: 我们在做这个吗?

李飞飞:我们正在尝试,至少斯坦福人类中心 AI 研究所正在尝试。我认为很多人也在试图做这个。我经常被问到这个问题,Emily,你对 AI 还抱有希望吗?首先,这是一个非常悲伤的问题,但我确实会说,我的希望并不在 AI 上。我的希望在于人。我并不是一个妄想的乐观主义者。人是复杂的。我是复杂的。你是复杂的。但我的希望在于人,在我们的集体意愿,在我们的集体责任,很多事情正在发生,我们正在前进,我们中的许多人正在努力使这项技术成为一项可靠的文明技术,以便提升我们所有人。Emily Chang: 人们谈到的风险有很多,如人类灭绝,坏人,种族偏见,被夸大的各种偏见。你最担心的是什么?

李飞飞:我更担心的是更为紧迫的社会灾难风险。我也担心人类灭绝风险被过度炒作。我觉得这已经被夸大了。这属于科幻世界的事情,只是在思考它。对于思考这些问题并没有什么错,但相比之下,实际的社会风险,无论是对我们民主过程的错误信息和虚假信息的干扰还是劳动力市场的转变,或者存在偏见的隐私问题这些都是我们必须面对的实际社会风险因为它们影响到真实的人们的真实生活。

Emily Chang: Meta 正在领导一个开源 AI 运动。你认为什么应该是开放的,什么不应该开放?

李飞飞:这是一个很复杂的问题。我确实相信一个开放的生态系统,特别是在我们的(美国)世界中。我认为回顾我们国家在过去一百年甚至更久的历史中的亮点无不体现在创新、企业家精神,还有信息的自由流通。所以,我们需要倡导这种开放的生态系统。

Emily Chang: 在 AI 中,没有人谈论的最大的事情是什么?我们应该谈论什么?

李飞飞:我认为我们应该更多地谈论,天哪,实际上有太多的事情。我们应该谈论我们如何真正想象我们如何使用这项技术。我跟医生、生物化学家、老师交谈。我跟艺术家、农场主交谈。有这么多我们可以想象使用的方式。有这么多我们可以用来改善人们生活改善工作的方式。我不认为我们谈论得够多。我们正在谈论的是末日的阴暗面而且也只有少数人在谈论末日的阴暗面然后媒体在放大这种声音。

Emily Chang: 我不知道你在说谁。

李飞飞:我无意中挥了挥手。我不认为我们给了足够的声音给那些真正以最具想象力、创造性的方式试图用 AI 给世界带来好处的人。对过度管制的担忧

Emily Chang:有没有任何人,任何事情你想指出就是任何人或任何公司,让你感到恼火?

李飞飞:我知道你在说什么。我已经指出过他们,我不会说是胡说,只是我觉得我们对“存在危机”关注得太过了,哦,不对,是“灭绝性的危机”。

Emily Chang: 存在主义引发的灭绝危机。

李飞飞:是的,就是这个意思。这就是我们过于强调的问题。我担心我们国家不同地区,比如加利福尼亚,正在推进的一些法案,过于强调这个问题。这些法案可能出于善意,但它们对 AI 模型设定了限制,甚至可能无意中将开源视为违法,而没有真正思考如何评估和审查这些 AI 模型。我对此感到担忧。

Emily Chang: 你是不是认为我们可能会过度管制呢?

李飞飞:有可能,我们可能会过度管制,而这样可能会伤害我们的生态系统。但同时,在医疗、交通、金融等实际应用领域,我们应该考虑设置恰当的防护措施。

Emily Chang: 你跟拜登总统谈过这个问题吗?我知道你可以直接跟他联系。

李飞飞:我不能告诉你,我跟他谈过什么。其实,在跟拜登总统的交谈中,我们讨论了投资公共部门 AI 的重要性,因为我们现在就在硅谷,大家都知道,无论是人才、数据还是计算能力,都主要集中在科技产业中,尤其是大型科技公司。

而美国公共部门和学术界在 AI 资源方面正在迅速落后。斯坦福自然语言处理实验室只有 64 个 GPU,只有 64 个。想一想这个对比。我们谈论了公共部门的资源问题,因为公共部门是我们国家的创新引擎,它创造了公共产品,发现了科学知识,并且为公众提供了对这项技术的可信赖和负责任的评估和解释。

Emily Chang: 所以最后一个问题,我知道你非常关注这个问题在你的实验室和其他地方这个领域没有足够的女性和有色人种掌控权这个风险有多大,可能会引发什么问题?

李飞飞:是的,Emily,我知道你一直在倡导这个问题,看,还不够。实际上,我认为文化并不一定变得更好,我们看到越来越多的女性和多样化背景的人进入科技和人工智能领域,但我们也看到男性的声音被更多地传播。人们会说,飞飞,你在这里发言,但有很多人比我更好。有很多年轻的女性,来自各种多样化背景的科技人员,他们的声音应该被听到,应该有更大的发言平台。如果我们听不到他们的声音,那就真的是在浪费人力资本,对吧?这些都是杰出的思想家、创新者、技术人员和教育家,发明家,科学家,如果我们不给他们发言的机会,不听他们的想法,不提升他们的地位,就是在浪费我们集体的人力资本。

Emily Chang: 我认为教母是一个非常好的称呼。大家怎么看?你们同意吗?

所有人:是的。

Emily Chang: 好的,谢谢您。人工智能教母。

(本文首发于钛媒体App,作者|AI科技组,编辑|林志佳、胡润峰)

 

转载请注明出处、作者和本文链接
声明:文章内容仅供参考、交流、学习、不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容

AWARDS-文章详情右上

扫描下载App