开发者现在可以构建跨越多个房间的Meta Quest 3混合现实体验。
本月初,我们报道过Meta XR Core SDK v66可支持开发者在混合现实环境中禁用令人反感的以VR为中心的安全边界。但我们没有报道的是,之前的v65版本提高了空间锚点的准确性和范围,并允许开发者从多个房间访问扫描的场景网格。
结合起来,v65和v66 SDK改进使开发者能够构建环境感知的混合现实应用,使开发者可以走遍整个空间,而不仅仅是一个房间。
空间锚点让开发者能将虚拟内容锁定到精确的现实世界位置,不受安全边界或房间网格的影响,甚至可以在会话之间被头戴设备标记。之前,该功能设计用于单个房间,但Meta声称,使用SDK v66空间锚点现在可以在最大200平方米的空间内保持准确,例如20×10米的房屋。
与旧款Meta头显相比,Quest 3混合现实功能的独特之处在于其可捕获环境3D网格(称为“场景网格”)。场景网格使虚拟物体能放置在墙壁、天花板、地板和家具上、弹起或以其他方式进行互动。
在发布时,Quest 3一次只能存储一个场景网格,但2月v62更新以来,已能存储多达15个。而在v65 SDK推出之前,开发者仅能获得当前加载的场景网格,即你当前所在的房间,但现在基于新Discovery API,系统也将为开发者提供其他捕获房间的场景网格。
开发者可在v66中禁用安全边界是使这些空间锚点和场景网格真正有用的关键因素,通过禁用边界,用户现在可以在空间内自由走动,不再局限于该边界内。
不过,Quest多房间混合现实的另一个主要限制是首先需要为每个房间捕获一个场景网格。相比之下,Apple Vision Pro会不断扫描你周围环境以不断更新场景网格,无需设置过程,这也具有支持移动家具并避免将人和宠物等移动物体留在网格中的优势。对于Meta而言,我想该方案对于Quest 3来说性能和能耗过大,因此Meta最终采用了静态捕获机制。