2024ITValue-文章详情顶部

国内首个与ChatGPT不同机制的通用大模型发布,算力消耗缩减50%

刘凡平透露,接下来岩芯数智将打造全模态实时人机交互系统,全面打通感知、认知、决策与行动,构建AGI的智能循环体,为通用机器人等具身智能方向的研究提供大模型基础底座的“更多选择”。

岩芯数智CEO刘凡平

岩芯数智CEO刘凡平(来源:钛媒体App编辑)

钛媒体App获悉,1月24日下午,国内AIGC企业上海岩芯数智人工智能科技有限公司(岩芯数智,RockAI)在上海发布了国内首个自研的非Transformer Attention机制的低算力通用自然语言大模型——Yan模型,记忆能力提升3倍、速度提升7倍,推理吞吐量提升5倍。

这是国内首个发布的与ChatGPT不同机制的通用大模型,参数规模达百亿。该公司称,这是用百亿级参数达成千亿参数大模型的性能效果。

岩芯数智CEO刘凡平表示,“在全球范围内,一直以来都有不少优秀的研究者试图从根本上解决对 Transformer架构的过度依赖,寻求更优的办法替代 Transformer。历经超过几百次的设计、修改、优化、对比、重来后,岩芯数智自主研发出了不再依赖Transformer的全新架构——‘Yan架构’,同时,基于Yan架构的低算力通用大模型应运而生。我们期望Yan架构可作为 AI 领域的基础设施,并以此建立AI领域的开发者生态,最终让任何人在任何设备上都能使用通用大模型,获取更加经济、便捷、安全的AI服务。”

据悉,成立于2023年6月的岩芯数智,是A股上市公司岩山科技(002195.SZ)旗下宣布拥抱AIGC新浪潮、向数智化转型并更名后成立的新公司,专注于打造为百业赋能的一站式AIGC数智化服务平台。而岩芯数智的团队则于2022年在内部组建。

Yan模型是岩芯数智最新自研的百亿级参数模型,主要针对To B行业领域,目前公司已提供多种场景的解决方案。例如RockAI模型大脑可以让企业拥有私域的知识大模型,实现跨文档知识整合、实时信息记录,可用于银行金融、政务办公等。

Yan模型的最大特点,是采用非Transformer Attention(注意力)机制。据悉,包括火热的ChatGPT、BERT等大模型,普遍采用Transformer基础架构,而Attention机制区别于CNN技术,是通过参数和大数据利用算力训练形成的技术体系,则根据应用场景的不同而输出不同信息,通俗来说是把注意力集中放在重要的点上而忽略其他不重要的因素。Attention主要分为空间注意力和时间注意力,前者用于图像处理,后者用于自然语言处理。

刘凡平此前对钛媒体App表示,他们在对Transformer模型不断的调研和改进过程中,意识到了重新设计大模型的必要性:一方面,在Attention机制下,现有架构的调整几乎已经达到瓶颈;另一方面,岩芯数智更期望降低企业对大模型的使用门槛,让大模型在更少的数据、更低的算力下具备更强的性能,以应用于更广泛的业务。因此,岩芯数智希望研发非Transformer架构模型。

(详见钛媒体App前文:《独家对话岩芯数智CEO刘凡平:“百模大战”下,AIGC新玩家如何杀出重围?》

据介绍,相比Transformer架构的模型,Yan模型算力消耗缩减50%、推理效率提升7倍、准确率提高3倍、推理吞吐量提升5倍。针对长序列环境,在单张4090 24G显卡上,当模型输出token的长度超出2600时,Yan模型显存使用始终稳定在14G左右,理论上能够实现无限长度的推理,而Transformer模型会出现显存不足。

此外,Yan模型也同时具备私密化、经济化、精准化和实时性、专业性、通用性等六个商业化落地能力。而且,该团队首次研发了一种合理的关联特征函数和记忆算子,可降低模型内部结构的复杂度,发掘决策过程的透明度和可解释性,从而助力全新架构下的Yan模型在医疗、金融、法律等领域的广泛运用。

刘凡平透露,接下来岩芯数智将打造全模态实时人机交互系统,全面打通感知、认知、决策与行动,构建通用人工智能(AGI)的智能循环体(类似于Agents),为通用机器人等具身智能方向的研究提供大模型基础底座的“更多选择”。他强调,通过提供基于Yan架构的专业生产力工具,实现端侧训练、训推一体,推动企业数智化发展。

岩芯数智董事长陈代千表示,随着Yan模型的进一步落地和应用,未来公司将为机器人、嵌入式设备、物联网设备等领域提供所需的智能化能力,为企业和用户创造更多的价值。

(本文首发钛媒体App,作者|林志佳)

转载请注明出处、作者和本文链接
声明:文章内容仅供参考、交流、学习、不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
  • 看来国内企业在自然语言处理方面已经具备了相当的技术实力

    回复 1月27日 · via pc
  • Yan模型的发布意味着国内AIGC企业在自然语言处理领域取得了重要的进展

    回复 1月26日 · via pc
  • Transformer模型是目前自然语言处理领域最先进的模型之一,但它的计算复杂度较高,对算力要求较大

    回复 1月26日 · via iphone
  • 这不仅降低了模型训练和推理的成本,也有助于推动人工智能技术的普及和应用

    回复 1月25日 · via pc

快报

更多

2024-09-21 22:58

币安创始人赵长鹏确认即将出狱

2024-09-21 22:27

我国发布全球首个百亿级遥感解译基础模型

2024-09-21 21:45

我国成立首个国家卓越工程师实践基地

2024-09-21 21:04

AIGC产业联盟在京成立,推动AI生成内容技术创新与应用

2024-09-21 20:36

巴菲特继续抛售美国银行,2个月减持近81亿美元

2024-09-21 20:24

推进城中村改造迈出更大步伐,陈吉宁龚正在城中村改造工作推进会上作部署

2024-09-21 20:03

9月21日新闻联播速览20条

2024-09-21 19:34

汽车零部件供应商博世CEO:尚未排除关闭德国北部Hildesheim电动汽车工厂的可能性

2024-09-21 19:01

马斯克旗下社交平台X任命巴西法律代表

2024-09-21 18:47

杨勇平任兰州大学校长

2024-09-21 18:22

签约金额超600亿,京港洽谈会今日闭幕

2024-09-21 18:16

上海市委常委会审议通过《关于优化投资促进机制加强招商和服务一体化推进的实施方案》

2024-09-21 17:40

我国著名航空发动机专家刘松龄逝世

2024-09-21 17:04

深交所迎来西南地区首单消费REITs,中邮保险成为最大外部战配投资者

2024-09-21 17:01

乘联会崔东树:全国乘用车市场8月末库存315万台、库存46天

2024-09-21 16:51

市场监管总局:严查侵权网店、直播带货假冒商品,淘宝拼多多等81家平台签署自律公约

2024-09-21 16:33

同比增长19.08%,2023年我国数字出版产业达16179.68亿元

2024-09-21 16:01

中国贸促会副会长于健龙会见英中贸易协会首席执行官彼得·博内特

2024-09-21 15:50

打击资本市场“小作文”,三名造谣者被罚

2024-09-21 15:42

江苏:全省临床检验结果将逐步实现线上共享互认

4

扫描下载App