谷歌发布史上最大“通才”AI模型,可让机器人更自主
钛媒体App 3月8日消息,谷歌和柏林工业大学的团队重磅推出了史上最大的视觉语言模型——PaLM-E,参数量高达5620亿(GPT-3的参数量为1750亿)。作为一种多模态具身视觉语言模型(VLM),PaLM-E不仅可以理解图像,还能理解、生成语言,可以执行各种复杂的机器人指令而无需重新训练。谷歌研究人员计划探索PaLM-E在现实世界场景中的更多应用,例如家庭自动化或工业机器人。他们希望PaLM-E能够激发更多关于多模态推理和具身AI的研究。
本文内容仅供参考,不构成投资建议,请谨慎对待。
根据《网络安全法》实名制要求,请绑定手机号后发表评论