谷歌发布ARCORE 1.24,新增Raw Depth和录制与回放API

🤖 由 文心大模型 生成的文章摘要

就目前手机市场的主流设备来说,用于高精度深度感知的LiDAR传感器仍然是苹果iPhone和iPad Pro独有的配件,但是Google期望通过其ARCore帮助Android设备制造商在没有LiDAR的情况下通过软件来缩小深度感知的差距。

根据NextReality报道,在周二开幕的谷歌I/O大会上,Google公布了ARCore 1.24更新,带来了两个新的AR功能:Raw Depth API和录制与回放API,用以在没有LiDAR支持的情况下提供更逼真的AR体验和更准确的遮挡。

Raw Depth API可以在现有Depth API的基础上捕捉额外的深度数据,使应用程序可以通过一个标准的智能手机摄像头呈现逼真的AR体验。同时,该API还可以为搭载ToF传感器的Android设备提供更高质量的深度数据。

▲从左到右:TikTok,AR Doodads,3D LiveScanner

“ARCORE新的Raw Depth API通过原始深度图与相应的置信度图像映射,能够生成场景中物体更精细的几何形状”,谷歌AR产品经理Ian Zhang和Zeina Oweis表示。“这些原始深度图包括未平滑的数据点,置信度图像为原始深度图中的每个像素提供了深度估计的置信度。”

汇总后的数据的能够改进ARCORE的几何形状识别,不仅意味着更高的深度感知精度,并且让将AR内容实际地锚定到物理环境中的环境理解功能也更加有效。

TikTok是最早利用Raw Depth API的应用程序之一。该应用程序的Green Screen Projector滤镜效果可以通过Raw Depth API对用户相机捕捉图像中高置信度区域的对象进行AR效果处理。

其他Raw Depth API的早期采用者包括AR Doodads,测量应用AR Connect,3D扫描应用程序3D Live Scanner和Teamviewer的lifeAR(可提供远程协助)。

此外,借助录制和回放API(Recording and Playback API),ARCore使应用程序能够捕获视频镜头中的惯性测量单位(IMU)和深度数据。对于开发人员来说,这意味着他们可以不用借助各种实际的环境,而是直接通过这些数据来测试AR应用程序。

▲左:JumpAR,右:VoxPlop!

同时,录制和回放API也为用户带来了在视频中加入AR虚拟内容的能力,例如韩国SK Telecom开发的JumpAR应用让用户可以和视频中的场景进行互动,Nexus Studios推出的VoxPlop!应用让用户可以在视频中加入3D的角色形象并与好友进行分享,同时好友也能对收到的AR视频内容进行编辑。

「93913原创内容,转载请注明及回链」