AI大模型等技术和应用爆发式发展,正加速推动中国构建更庞大的算力基础设施。
钛媒体App 9月5日消息,国家统计局最新数据显示,截至5月底,规划具有高性能计算机集群的智算中心达10余个,智能算力占算力总规模比重超过30%。目前,中国算力机架总规模超过195万架,整体上架率达63%左右。东西部枢纽节点间网络时延已基本满足20毫秒(ms)要求。
国家数据局党组书记、局长刘烈宏在2024中国国际大数据产业博览会上透露,截至今年6月底,中国八大国家枢纽节点直接投资超过435亿元,拉动投资超过2000亿元。
很显然,中国正加大 AI 算力投资力度。
在这其中,如果把 AI 大模型的推理放到边端,通过分布式推理,可有效降低算力成本。AMD CEO苏姿丰(Lisa Su)曾预估,未来价值4000亿美元规模的AI加速计算市场中,其中超过一半的份额,即至少2000亿美元将被专门用于AI推理计算场景的应用。
“我们正处于一个各大企业大规模深化应用、上云复制的阶段。”中国信息通信研究院云计算与大数据研政企数字化转型部主任徐恩庆在9月4日举行的“Power to Pioneers·2024分布式云计算论坛暨PPIO AI产品发布会”上表示,2023年中国数字经济规模占GDP的比重达42.8%,整个数字经济规模处于蓬勃发展状态。其中,互联网厂商、数智厂商、网络运营商所代表的经济规模只占20%,传统的政企单位以及大量企业深入使用新一代的数字化技术所创造新的经济规模价值占80%。
在徐恩庆看来,伴随着 AI 和大算力基础设施的建设过程中,分布式算力体系已经成为支持新一代IT技术发展的关键。这些新一代超大规模分布式算力基础设施通过分布式计算,确保了 AI 算法的高效运行,同时也需要一个更强大的操作平台来融合异构算力和智算基础设施。
会上,PPIO派欧云联合创始人、CEO姚欣发布专为AI推理场景设计的Serverless产品,公司通过算法、系统和硬件协同创新,提供模型部署、运行优化、弹性伸缩及API服务,帮助客户在自定义模型时获得高效的弹性效率和极致的运行成本。Serverless产品的推出使得开发者无需再管理和运维算力服务器,而是能够将精力集中于核心业务的应用逻辑开发与创新,从而帮助企业实现降本增效。
姚欣预测,未来三年,AI 大模型推理成本或将下降1000倍以上。而遵循Scaling Law(尺度定律)的基本原理,计算能力将决定大模型创新和应用的上限。那么在计算资源成本高昂而需求爆增的市场格局下,分布式算力将成为引领下一轮科技革命的重要推动力,正在逐步改变全球计算资源的供给和利用方式。
PPIO派欧云成立于2018年,由PPTV创始人姚欣(Bill)和首席架构师王闻宇联合创立,主要在网络和边缘侧基础设施上建构计算云服务,科技“按需付费”形成商业落地。姚欣形容,PPIO派欧云是“算力版的滴滴”,主要整合企业侧闲置碎片化的算力,承载多种服务,包括音视频和AI推理等。
场景商业化层面,PPIO派欧云主要业务范畴在云和边两侧,重心是边缘云业务和算力云业务。其中,派欧算力云产品可广泛应用于产业园、写字楼、住宅、文娱和高校等园区进行算力入园的管理服务,并实现不同地区、时间和业务的弹性算力调度和大模型推理加速,为园区内的AI应用提供智算服务,满足智能数据处理、大模型部署、AIGC生成、AI算法加速、渲染加速等一系列应用需求,合作客户包括
姚欣强调,PPIO派欧云主要是与端侧协调配合,不与端侧设备厂商竞争。
融资层面,截至目前,PPIO派欧云已经完成三轮融资,总额超过3亿元人民币,投资方包括张江科投、蓝驰创投、沸点资本等知名机构,以及百川智能创始人王小川、迅雷创始人程浩、元气森林创始人唐彬森等科技行业内人士。
值得一提的是,论坛上,PPIO派欧云联合创始人兼CTO王闻宇还推出全新Model API服务产品,支持生成式AI应用开发所需的全模态API,商业模式是“按需付费”。价格方面,GLM-4的 Model API 费用达到每1亿(100M)Token价格达0.5元,从而以低价格来显著提升AI应用的开发效率,并有效降低企业开发和运营成本。
会后交流时,姚欣向钛媒体App坦言,算力需求和使用不平衡是一个长期存在的问题。从未来算力构成来看,95%是推理算力,5%是训练算力,但这95%也不会出现一家独大局面。
“未来两、三年内,我们有望看到大模型逐渐走向集中化和标准化,在这其中,异构推理算力硬件环境将会呈现‘百花齐放’状态,针对不同的场景,不同的领域,有不同的解决方案,不同的卡去解决它。对于未来三年 AI 推理成本下降100倍、1000倍的过程预测,我们是非常乐观的。”姚欣认为,开源技术是推动中国 AI 发展的关键要素。
“我过去经常讲一句话,被AI干掉的不是你,而是最先掌握AI的人,我们必须一次面对技术创新,无论多么高深必须先掌握,掌握它的人才有资格谈能不能在未来时代发展;第二,对于新技术往往短期过于高估,长期过于悲观,对我们来说,即使十年时间放在技术路线来讲还是其中一小段过程,真正技术发现落地需要长期坚持过程。
虽然现在外面经济环境、资本环境不是那么好,但是对真正做事的人来讲是一个好环境,因为今天做的每一分积累都是好回报。所以,今天的创业者、创始人也需要抱团取暖,需要形成我们的社区,需要互相协作,一起来迎接支持新的 AI 时代到来,用自己心中的梦想坚定走自己的道路。”姚欣在演讲结尾表示。
以下是姚欣与钛媒体App等进行的部分对话交流整理:
问:如何看待未来算力有可能过剩这一观点?AI算力如何实现供需平衡?
姚欣:在算力中心建设方面,我们见证了一种与之前数据中心建设相似的趋势,即适度超前建设后迅速普及。然而,真正的应用需求和技术革新是连续且不断迭代的过程,甚至有的时候是一个“跃变”的过程,你很有可能在这个过程中“死在黎明前”。
在大模型训练领域,预计训练将越来越集中,规模不断扩大,因为规模越大,效果越好,这是所谓的scaling law效应。但能够进行这种大规模训练的厂商数量将减少,行业竞争将集中在几个大玩家手中,这是产业成熟和技术进步的标志。
随着技术的成熟,大规模应用将随之而来。就像过去每个人都需要自己开发手机和操作系统,现在只需要选择几个主流的即可。大模型的发展也将走向集中化,新应用将随之普及。AI推理算力市场正经历着从文字互联网到视频互联网的转变,流量消耗呈百倍、万倍增长。预计到2024、2025年,行业将触底反弹,大规模应用将带来更多推理算力需求。尽管未来95%的算力可能都是推理算力,但市场不会只有一家独大,可能会有3家、5家甚至更多厂商共存。
在智能设备上执行推理任务时,我们关注的焦点可能会因应用环境的不同而有所差异。例如,为了优化智能设备的功耗,推理算法的设计需要特别注重能效比,以在保证准确性的同时降低能耗。在音视频实时对话系统中,网络分布和延迟成为核心考量,推理模型的选择和部署需要能够应对网络波动,确保数据的低延迟和高质量传输。如果目标是运行大规模模型以获得更高的性价比和扩展性,那么模型的复杂度和计算能力就变得至关重要,这可能需要高性能硬件和优化的推理引擎。智能设备的多样性也对推理任务提出了更高的要求,需要根据不同设备的实际情况灵活调整算法和模型参数,以实现最佳性能和效率。
未来,推理卡市场将出现从低端到高端的多样化细分,以满足不同任务的需求。然而,从IT行业的长期趋势来看,单位算力的成本将持续下降,从未出现过上升的情况。这表明,随着技术的进步,算力的普及和成本效益将不断加速。
问:如何看待AI泡沫和过热现象?
姚欣:我们目前处于行业发展的早期阶段,这一时期往往伴随着过热现象,例如去年模型数量的激增,我们认为这是不必要的,因此我们并没有跟风。我们去年的策略是专注于未来,而不是追逐短期的泡沫。在早期,行业可能会出现泡沫,这是每个时代、每个行业不可避免的过程。但随着时间的推移,市场逐渐回归理性,转向实际应用,这是符合当前环境的,也是我们投融资的价值观。我们不追求简单的技术概念,而是相信技术必须服务于行业和产业。作为基础设施和基础算力的提供商,我们需要耐心,稳步前行。
我们不欢迎那些追求短期泡沫、融资驱动的现象,我们更看重的是那些能够通过自身盈利模式吸引客户、而非依赖融资的客户。我们追求的是长期价值,欢迎那些有耐心、看重独特商业模式和技术积累的资本。我们不认为,公司的估值越高、融资越多就意味着成功。相反,我们认为应该回归价值创造,遵循技术的长期成熟规律。这种实事求是的投资人是我们所欢迎的。
在蓝驰的投资经历深刻影响了我今天的商业价值观。我们在初创时期就确立了商业价值观,即要做有价值创造且需求落地的事情。我们不愿意仅仅为了榜单排名或展示我们的学术实力和师资能力。我们更重视的是自身的实力和能力,希望我们的团队能够吸引一系列闪亮的客户,通过实际的业务成果来证明我们的价值。
坦白讲,这波生成式AI才大规模发展了2年,所以我们得耐心地等,一个一个耐心地去积累,这就是我们的一个选择。
问:现在公司算力云产品的商业化程度如何?
姚欣:我们团队已经建立了稳定的营收和客户基础,我更关注于寻找能够长期合作并形成正向循环的客户。自2020年起,我们就开始研发云游戏、数字人和分布式边缘计算产品,不断积累技术。去年,我们开始为大模型提供服务,但主要聚焦于内部和合作伙伴。我们重视中小开发者的需求,他们需要AI技术来提升营销和市场分析能力。同时,我们感谢开源社区的支持,通过与开源模型的整合和优化,我们的产品已经成熟,能够为不同规模的客户提供定制化的服务。
另外,我们非常要感谢开源,我们的确从开源上得到了帮助,比如开源模型。接下来,我们会与百川、智谱等开源模型进行深度整合,做性能优化。
实际上,两年前就开始在做准备技术,去年已给一些大客户在内部试用,那今年,我们觉得是已经做得比较成熟,同时可针对大、中、小型客户提供不同层次的产品能力。
问:对于 AI 算力研发高昂挑战,PPIO派欧云如何应对?
姚欣:那就是你的商业模式要挣钱,有营收。其实你如果看我们这种业务发展和增长,包括我们其实应该我们上一轮融资的时候,音视频的流量需求是一度猛增的,所以我们自身的整个营收和规模已经到了一种体量。甚至可以这样讲,经过这么多年的打磨了,我们边缘业务已经走到盈利状态,边缘业务是盈利的。
同时,我们的 AI 算力业务是投入的,是今天我们愿意去培育和等待市场,特别中小创业者慢慢成长和发展起来。我们再等待新的一波的这些明星公司,我们在耐心地陪待和等待他们的发展。从企业的角度来讲的话,我们不是靠融资做大的公司,做ToB一定是要挣钱的。
问:其他国内AI Infra公司与你们的区别是什么?
姚欣:很多企业是可能都有各自的专注,我能看到的是基于分布式专注做推理,且具备全站优化能力的,是我们一家。AI 推理加速引擎框架只是我们其中的一部分,同时,我们有非常强的这个工程化研发,加上学术界的背景,在系统结构、体系结构、高性能计算、并行计算、分布式计算等领域都有深厚背景。
而且,我们又有PPTV的技术积累,至少我们也承载过 4.5 用户,每天的用户访问量也达到一个海量数字,也服务过一系列头部的互联网企业,每天有数亿用户在我们的网络上间接单使用我们的服务。
所以我们无论是在互联工程侧,还是在系统结构这种学术领域侧,我们都是最强。再加上分布式的特性,我们并不是去自己建数据中心,也不是为这个大的这个数据中心打工,我们在整合分布式和碎片化的算力,所以这三者之间做交集。我觉得,我们有挺强的差异化和独特性。这也是为甚么我们敢喊出“三年持续极致性价比”这一口号。因为是端到端领域,我们不是只做 AI 推理这一件事。
(本文首发于钛媒体App,作者|林志佳,编辑|胡润峰)
根据《网络安全法》实名制要求,请绑定手机号后发表评论