文 | 雷科技leitech
你是否想过,耳机也会有配备摄像头的一天?
耳机+相机,虽然类似的产品并非没有,但是我们一般将这类产品称为“智能眼镜”,产品定位则类似于随身相机和骑行记录仪,可以说摄影功能才是核心,而耳机功能只是顺带的。
毕竟从实际体验和产品设计出发,很难想象怎样的用途才会需要在无线耳机上增加摄像头。考虑到佩戴体验、续航等各方面的限制,这也并非什么好主意,但是苹果似乎不这么想。
在今年2月初,外媒曾经报道过苹果正在探索可穿戴设备的一些“未来可能”。当时的传闻称,苹果正在规划带摄像头的AirPods及智能戒指,彼时大多数声音都认为这只是苹果在实验室里的尝试,大概率不会转为实际产品。
然而现实总是更魔幻一些,最新的信息显示,苹果计划于2026年量产拥有红外摄像头模组的AirPods。与这个信息相比,往AirPods充电盒上塞屏幕的传闻都显得无比正常。不过,若是将两个信息结合在一起,倒是为我们描绘出一款全新的AirPods,一款配有屏幕、支持摄像的无线耳机,这是什么?随身迷你相机?
在一个小小的AirPods上折腾这么多新东西,苹果到底想做什么?
AirPods,苹果空间计算的另一块拼图
苹果想做什么?在回答这个问题之前,我们首先需要了解爆料中提到的红外摄像头是什么?简单来说,传统的摄像头主要是通过传感器接收可见光,然后转为图像信号,而红外摄像头则不同,除可接受红外线的传感器外,还会配置可以发射红外线的发射器,通过主动照射并接收反射光的方式来生成探测范围的图像。
相较于传统摄像头,红外摄像头可以满足暗光、无光环境的图像监测需求,而且更具隐蔽性,因为红外发射器发射的红外光在大多数动物(包括人类)的视觉中都是不可见的,所以也常常被用在户外动物监测等方面的用途上。
咋看之下,红外摄像头的主要用途似乎与AirPods可能使用影像功能的场景都不沾边,那这玩意的定位到底是什么?实际上,红外摄像头还有一个用途是传统摄像头不具备的,那就是“测距”。
通过红外线发射及接收到反射信号的时间差,红外摄像头可以计算出发射端与反射物体的直线距离,而在短时间内多频次的发射红外光,摄像头就可以通过算法计算出发射端相对于物体表面的移动角度与速度。
看到这里,或许已经有人猜到AirPods搭载摄像头的原因,并非用来拍照或是其它杂七杂八的新功能,仅仅是为了进一步提升空间音频的效果。实际上,如果不考虑生成照片级的图像信息,那么这个红外摄像头的功率、体积都可以被缩小到能够接受的程度。
不过,这意味着网友畅想的“你的拍照效果还不如我的耳机”等玩梗场面,大概率是不存在的。本质上,这是一个探测并接收红外线的传感器,你甚至很难将其称为摄像头,最多就是带有简单的图像信息,帮助芯片判断设备所处的环境空间状态。
除了对外的红外监测设备,苹果似乎还为AirPods准备了一个生物监测模组,预计将取代现有的内侧红外传感器,原有的传感器主要用于检测佩戴状态等需求,而新的生物监测模组在此功能上还将提供心率、体温等数据监测服务。
精准空间定位+生物数据监测,AirPods显然不仅仅是一副耳机,随着Vision Pro的发售,苹果正在计划将这款最受欢迎的智能穿戴设备,打造成一个全新的空间计算辅助设备,补齐空间计算生态中的音频一环。
AirPods提供的精准3D空间音频,加上Vision Pro近乎以假乱真的空间显示效果,将会让用户的虚拟体验跃升一个层次。
不得不说苹果的想法很大胆,想要在一个无线耳机里塞入这么多传感器,同时保持续航和佩戴舒适度,对工业设计的能力要求高到吓人。所以并不奇怪为什么就连爆料中,也仅称这是苹果“计划中”的想法,即使最终在2026年无法实现上述目标,我也并不感到惊讶。
实际上,想要实时计算红外摄像头传回的数据,对于目前的无线耳机来说就已经十分困难。我能想到的最优方案,是借助手机等无线连接的设备的算力来实现。但是这又会导致空间音频信号出现延迟等问题,这显然并不符合苹果对新一代“空间音频”的严苛要求。
结合此前的一些报道来看,苹果的计划是利用人工智能技术,通过在耳机中部署NPU来满足空间数据的计算需求,这确实是一个可行方案。在空间计算等方面,NPU对比传统处理器有着显著的优势,通过深度学习构建的AI算法,可以更高效的完成空间数据计算,而且功耗也远低于传统处理器。
以当前的技术进步速度来看,想要实现这个目标并非遥不可及,其实更多的取决于相关硬件的整合成本,什么时候可以降低到一个能够被大家所接受的程度。
另外,我还在思考一个问题,苹果会止步于此吗?
AI时代,可穿戴智能设备才是未来?
当下,个人智能终端的代表无疑是智能手机,但是在AI时代,智能终端的形态显然将变得更加多样。借助云端算力与AI大模型,未来即使只有一副耳机也可以完成许多复杂任务,可穿戴智能设备与智能手机将不再是单纯的从属关系。
实际上,苹果如今就在推动这一进程,Vision Pro就是一个很好的例子,为了让用户可以在户外使用,苹果甚至不惜额外增加了对外的平面显示器和一系列的摄像头及传感器,来实现外部的面部再现与内部的现实画面投射。
但是,Vision Pro等类型的空间计算设备,显然不能作为常规的日常可穿戴智能设备来看待。某种程度上,这类设备更像是笔记本电脑,只有在大家需要沉浸式体验和完成复杂的视觉交互任务时,才会将其戴到头上并使用。
Vision Pro设计的离电续航也证明了这一点,这并不是一款为长时间随身携带所设计的产品,那么苹果显然需要其他设备来补齐缺失的一环,会是什么?其实答案很明了,Apple Watch+AirPods+AR眼镜,而且前两者的职责将会出现一些重合,使得用户可以更自由的选择设备搭配。
在AirPods被曝光将配备红外摄像模组时,其实还有一个信息:苹果在2023年启动了一项名为B798的项目,该项目的目标是在AirPods上配置一个较低分辨率的摄像头,实现图像级的数据采集。
相较于只能用于空间定位的红外摄像模组,进阶版的摄像模组可以作为AI助手的辅助,让AirPods里的AI能够“看到”使用者周围的情况,并提供基于图像数据的帮助。
举个例子,当你走到一间餐厅门前,想知道餐厅的口碑与人均价格,当下的做法是拿起手机,通过大众点评等App来搜索餐厅名字,再确认评价。而在未来,你只需要通过语音直接询问Siri,她就会通过AirPods上的摄像头确认餐厅的名称,结合定位等信息搜索餐厅的相关讯息,然后通过耳机直接反馈结果。
有意思的是,在苹果的计划中,AirPods并非唯一新增摄像头模组的可穿戴智能设备。今年3月份曝光的一项专利中,苹果已经找到了一个解决方案,让Apple Watch可以配备屏下摄像头模组,这个模组可以实现拍照、面部追踪、Face ID等多种功能,将让Apple Watch成为一个更加独立的智能终端。
结合苹果在AI等方面的动向,其实不难猜测这个摄像模组的主要用途,大概率就是Apple Watch的AI视觉辅助模块,为Apple Watch提供实时的图像采集能力,使其能够在一定程度上取代iPhone的用途。
但是Apple Watch的摄像头在使用过程中,不管是屏下式还是侧边式,实际上都面临一个问题,那就是不够自然,我想应该不会有人想一直抬着手走路,对吧?这也就催生了AirPods的摄像需求,通过两款可穿戴智能设备的互补,来实现不同场景下的智能应用。
在一般情况下,用户只需要调用AirPods的图像数据即可完成如导航、资料查询等工作,而在需要更高精度的图像数据时,Apple Watch就可以提供额外的帮助。我甚至怀疑在苹果的设想中,未来某一天是否会让iPhone彻底成为一个历史名词,试想一下,如果苹果再用AR眼镜解决图像显示需求,iPhone还有存在的必要性吗?
届时,或许iPhone会变成另外一样东西,比如一个随身的本地算力终端,所有的硬件都是为内置的高性能AI芯片服务,这个终端甚至不需要屏幕。Apple Watch、AirPods和Apple AR Galss(搭配智能指环),可以提供不同场景下的多种实时交互体验,这远比在一个玻璃屏幕上用手指划来划去要轻松、便捷许多。
当然,目前为止,这都只是基于苹果的相关专利与产品布局,所做的一个疯狂猜想,事实上想要实现这样的宏伟蓝图,我们恐怕需要在半导体等多个行业上都取得巨大的进步。
而且,基于空间计算设备的智能生态,如今也依然处于萌芽阶段,至少在短时间内,iPhone等手持智能终端,依然会是整个移动智能生态的核心。
根据《网络安全法》实名制要求,请绑定手机号后发表评论