尽管亚马逊自研芯片挑战了市场最热卖的英伟达A100/H100 AI 芯片,但AWS高管认为英伟达并不会输掉市场。
3月16日消息,钛媒体App获悉,近日,亚马逊AWS Matt Wood AI 产品副总裁马特·伍德 (Matt Wood)对外表示,英伟达不需要失败,包括亚马逊自研芯片在内的其他 AI 芯片,也会赢得市场更多份额。
“Nvidia doesn’t have to lose for these other chips to win. ”在The information举行的一场线上对话中,Matt Wood回应称。
事实上,随着GPU(图形处理器)成为发展 AI 的关键芯片,英伟达H100芯片供不应求、价格昂贵,而AWS、微软等云服务商的需求推动英伟达市值在过去 14 个月内增长了600%,最新超过2万亿美元,攀升成为全球市值第三大科技巨头。
如今,外界开始将英伟达与思科(Cisco)进行比较——思科在20多年前的互联网泡沫时期当中成为全球最有价值的上市公司。然而,思科的优势是短暂的,随后公司业务陷入了停滞、股价暴跌。
但Matt Wood认为,英伟达与思科不太一样。他称英伟达创造力更强,能为亚马逊AWS这样的公司带来巨大收益。
不过,与此同时,大大小小的企业却都在寻求替代英伟达的AI芯片产品,亚马逊、微软、Meta、谷歌、AMD、英特尔等科技巨头也在挑战英伟达。
2023年11月,亚马逊推出第四代自研服务器CPU芯片AWS Graviton4,以及为生成式AI和机器学习训练设计的云端AI芯片AWS Trainium2。
其中,Graviton4相比三代处理速度快30%,能将处理大型Java应用的速度提升45%;Trainium2性能比上一代芯片提高到4倍,可提供65ExaFlops超级计算性能。
Matt Wood表示,从AWS内部来看,某些场景的用例中会使用英伟达芯片,某些则使用Trainium、Inferetia等自研芯片。
“需要有足够的机会让这些不同芯片找到它们的‘甜蜜点’。无论是Inferetia、Trainium,还是(英特尔的)Hababa、英伟达(A100),所有这些芯片都会有用例。而Trainium在训练大语言模型方面具有最佳性价比。但如果你只想要传统的训练效率,那就去选择英伟达芯片。”Matt Wood称。
此外,早前包括美国 AI 数据独角兽公司Databricks CEO Ali Ghodsi 在内的一些 AI 行业人士认为,预计明年英伟达 AI 芯片随着供应缓解而导致价格下跌。但 Matt Wood否认这一看法,他表示不太确定是否会产生这种预期。
(详见钛媒体App前文:《美国AI软件独角兽CEO预测:明年英伟达GPU芯片价格将会暴跌,甚至变得不值钱》)
“我预计英伟达芯片的需求将保持在相当高的水平”,Matt Wood坦言,目前很多 AWS 客户都在“深思熟虑”地花费大量资金来考虑使用生成式 AI,要么就完全推迟支出。
亚马逊CEO首席执行官安迪·贾西(Andy Jassy) 曾表示,他预计此类 AI 技术应用将为AWS带来数百亿美元的收入,但预期的利润回报时间尚不清楚。而AWS将持续为客户提供服务器租赁服务,利用芯片算力来开发 AI 技术。
“巨大的回报和巨大成功方面,我认为这(生成式AI)仍然还处于早期阶段。”Matt Wood表示。
以下是Matt Wood的对话交流全文,由Kimi智能助手完成 AI 翻译整理,钛媒体App编辑进行部分人工修正:
问:过去的几个月里,英伟达的GPU供不应求,曾几乎无法获得,但如今一些公司表示,获取GPU卡变得更容易了。你看到了什么?
Matt Wood:当我们与客户交谈时,他们肯定能够获得他们所需的能力,以便完成他们想要完成的工作。我们增加了能力,允许客户为GPU和其他加速芯片进行预先的能力预订,就像预订酒店一样。
问:你们与通常在云中租用服务器的方式大不相同,为什么要这么做?
Matt Wood:我们发现,很多客户都在尝试获取大量GPU或加速芯片,以便进行模型训练或执行其他工作负载。但所有这些工作负载,包括训练,都是非常迭代的。你会用一些数据进行一些训练,观察响应,对这些响应进行检查,找到新数据并进行调整等。
而当你在做所有这些工作时,你的GPU集群可能有数千个GPU大小,却只是坐在那里没有被使用。因此,我们提供了一种方式,让客户可以说,“嘿,我将需要1000个GPU,我将提前预订。我们将从这个日期到这个日期需要它。”就像酒店系统一样。他们得到结果后,然后将他们的能力交还给AWS,这样我们就可以提供给其他人。
问:未来六个月内,你预测会有GPU供应过剩吗?
Matt Wood:我不会谈论具体数字,但在过去,有过供应不足的时期,也有过供应过剩的时期。是否会在这里发生还有待观察,但我个人认为不太可能,因为需求仍然非常高。
问:GPU定价将会发生什么变化?
Matt Wood:我不知道。我认为我们提供了一系列将保持广泛的定价选项。我认为最重要的事情,很少被谈论,就是选择性的价值(包括从多个供应商那里获得非GPU的AI芯片)。在选择性在技术曲线的这一点上,仍然非常非常早或者有很多变化发生的时候,选择性是极其重要的。
问:客户是否愿意尝试你们自研的全新AI芯片,而不是英伟达GPU?
Matt Wood:我会反驳说,我们正在做的定制芯片工作并不新鲜。我们可能从2013年就开始在亚马逊上研究定制芯片了。
我们也已经发布了第二代定制机器学习芯片。事实上,芯片不容易,它们需要很长时间才能做对,需要很多次迭代改进,从而带来显著的性能提升。
在其他企业推出首款自研芯片的时候,我们已经在使用自己设计的第二代定制加速器用于训练场景,我们称之为Trainium。而用于推理场景,即在生产中运行这些语言模型的,我们称之为Inferetia。今天已经有客户在使用这些产品。
问:看起来,挑战英伟达的竞争对手还没有达到他们想要的位置。你会同意这个说法吗?
Matt Wood:Nvidia不必输,这些其他芯片也能赢。有足够的用例,有足够的效用,有足够的机会让所有这些不同的芯片找到它们的甜蜜点。无论是Inferetia,无论是Trainium,无论是[英特尔的] Hababa,无论是Nvidia,所有这些芯片都会有用例。
Trainium在训练大型语言模型方面具有最佳的价格性能。但如果你只想要原始功率,如果这是对你最重要的,那就去选择Nvidia芯片。
问:我们应该如何考虑亚马逊内部使用Trainium和Inferetia?你们是否使用它们来训练亚马逊自己的AI模型?
Matt Wood:亚马逊和AWS,就像我们所有其他客户一样,看到了这种选择性的价值。有时我们会想要使用Nvidia芯片。有时我们会想要使用下一代Nvidia芯片,即将在AWS上用的Grace Hopper芯片。有时这些是最适合我们需求的。其他时候,对于其他用例,我们会使用Trainium,其他时候我们会使用Inferetia。
问:你认为英伟达是否类似于1990年代的思科?
Matt Wood:他们(英伟达)是我们的一个非常富有创造力的长期合作伙伴。我们与一个非常有创造力的公司有着非常非常长期的关系,这家公司在人工智能、机器人技术以及模型核心架构方面带来了巨大的收益。
问:所以与思科的类比是可疑的?
Matt Wood:对我来说,这并不成立。
问:关于客户在生成性 AI 上的支出预期,你看到了什么?
Matt Wood:我认为生成性AI的动作水平、兴奋程度和速度是非常了不起的,但它确实落在一个谱系上。
我与一些大型科技公司交谈过,这些公司不愿透露姓名,他们实际上对我说,“嗯,你知道,整件事发展得太快了。我们要埋头苦干,几年后再担心这个问题。”
我与一些大型AWS客户交谈过,他们实际上在周末就全力以赴地投入到生成性AI上,重新分配了数千名开发人员。
大多数客户都处于这个谱系的中间。这是一个非常正常的分布。他们一直非常谨慎,他们正在尽可能快地行动。他们认为他们落后于竞争对手,这很少是真的,但他们确实看到了机会。我认为在指出巨大的回报和巨大成功方面,仍然还处于早期阶段。
问:哪些类型的公司比其他公司移动(变革)得慢?
Matt Wood:稍微慢于平均水平的是那些非常注重成本的人。他们通常会问他们的团队,“你们将如何影响利润率?所以在成本节约方面你们将做什么?在增量收入方面你们将做什么?”他们在接近大型语言模型之前就要求他们的团队给出一个数字。这可能会稍微放慢事情的进展,但你可以说这对于零售等行业的人来说是正确的事情,他们的特点是高销量和低利润。
问:哪些类型的公司比其他公司移动得快?
Matt Wood:移动速度比平均水平快的是受监管行业,特别是金融服务行业,他们正在非常非常积极地投资。
他们能够快速行动的部分原因是因为监管合规可能对一些客户来说感觉像是一个逆风(但给了他们在AI方面的优势)。数据质量、隐私、安全、数据治理,所有这些都是生成性AI非常重要的方面。
那些已经做出投资的组织——保险或金融服务、医疗保健、生命科学——在生成性AI上进行增量投资相对较小。
问:事实上,没有太多像Perplexity、Klarna公司一样拥有强大的生成性AI应用案例,您如何看待?AI 是否能提供巨大的投资回报?
Matt Wood:我不觉得是这样。拜耳、宝马、博世、德甲、西门子、大众、Zalando等客户正在进行非常有意义的投资。
问:都是德国公司吗?
Matt Wood:我刚从欧洲回来,所以它们在我的脑海中印象深刻。
(本文首发钛媒体App,作者|林志佳)
根据《网络安全法》实名制要求,请绑定手机号后发表评论