Meta Quest 3支持新型空间数据

🤖 由 文心大模型 生成的文章摘要

Meta Quest 3将Quest头显空间理解提升到了一个新的水平。

Meta Quest 3针对混合现实功能进行了优化,凭借高质量的彩色直通和集成深度传感器,与之前的Quest头显相比,Meta Quest 3更支持融合物理环境和数字元素。

混合现实基础是设备理解空间布局并对其中对象进行分类和区分的能力, Quest 3可通过收集空间数据来做到这一点。

空间数据及其用途

Meta详细介绍了Quest头显(尤其是Meta Quest 3)收集的空间数据。要启用此功能,你首先要对基于混合现实功能的应用授予对空间数据的访问权限;如果不授权,混合现实体验可能会降低质量,或者应用可能根本无法启动。

Meta表示:“空间数据是指在物理空间中收集的关于墙壁、表面和物体的大小、形状和位置的信息。融合了虚拟和现实环境的应用使用空间数据来了解用户周围空间以及用户在该空间中的位置。”

根据Meta解释,Quest 3可通过以下方式创建用户环境的数字模型:

识别物体和表面;

标记对象(例如:桌子、沙发、窗户);

估计物体相对于彼此以及头显的大小、形状和距离;

空间数据的收集以支持不同的应用,数字对象可以附着于或放置在物理物体上;

反弹或以其他方式与物理物体相互作用。

Meta Quest 3支持新型空间数据

空间数据包括三类空间信息:场景数据、网格数据和深度数据。

Meta表示,场景数据是房间的简化模型,可以让用户对周围环境有更多的物理感知。

网格数据包括有关物理对象的形状和结构的信息,并支持数字和物理对象之间进行真实的交互。

最后,深度数据包含有关目标对象之间距离的信息,并支持对房间虚拟对象进行真实渲染,包括遮挡,且只有Quest 3支持所有三种类型的空间数据。这得益于Quest 3的深度传感器,而该传感器是首次集成到Quest头显。

来源:Mixed

「93913原创内容,转载请注明出处」