Meta Quest SDK现可在没有场景扫描的情况下将虚拟对象放置于表面,显示任何键盘的直通模式切口(Keyboard Cutout),并通过蓝牙发现附近的头显以进行共置。
Meta混合现实实用程序套件(MRUK)v71提供即时放置和键盘追踪功能,Meta XR Core SDK v71则拥有主机托管发现功能。
目前,许多混合现实应用基于Quest 3和Quest 3S通过可选的混合现实房间设置过程生成的场景网格,以将虚拟物体放置在真实表面(例如桌子或墙壁)上。
如果应用尝试在用户尚未扫描的房间中利用场景网格,则用户将被迫经历该设置过程,这可能需要长达一分钟的时间才能将场景移到房间内。
对于只需要知道桌子或墙壁在哪里的应用来说,这会带来很大的麻烦,而这正是MRUK新即时放置功能旨在解决的问题。
即时放置不使用场景网格,而是基于深度API提供从手柄或手部到3D空间中被遮挡位置的光线投射,从而允许在表面上生成虚拟对象或界面。
但请记住,这仅适用于生成简单的固定物体和界面。如果需要在桌子上移动或与房间的其余部分交互,则仍然需要场景网格。
Meta SDK多年来一直包含一项功能,支持渲染所选受支持的追踪键盘的虚拟版本。但尝试模拟所有可能的蓝牙键盘将是“一场失败的战斗”,并且在Quest Horizon OS Meta v71中增加了追踪任何键盘并通过直通模式将其剪切掉的功能,而不是渲染它的模型。
现在,作为MRUK的一部分,该功能也可供应用开发者使用。这意味着VR应用可启用直通模式切口显示键盘,这对于生产力软件特别有用。
几个月来,Virtual Desktop一直通过追踪所选支持的键盘来手动执行此操作。现在,理论上,其开发者可以将此支持扩展到任何键盘。
一年多以来,Quest头显已经通过共享空间锚点API支持同一空间本地多人游戏(称为共置)。
但是,实现共置体验的一个主要摩擦点是需要使用与在线多人游戏相同类型的用户体验 (UX)、联系人邀请或房间代码流,这通常涉及一系列菜单。
借助Meta XR Core SDK v71,Meta现在拥有了Colocation Discovery API。在底层,其基于头显蓝牙连接,允许其向附近的头显发送少量数据(1024字节),以传达加入会话所需的参数。
理论上,这意味着开发者能构建一个简化的本地多人游戏用户体验,其中一个头显主持一个会话,附近的头显可自动加入。