Meta发布全新“XR Audio SDK”,旨在提供沉浸式音频

🤖 由 文心大模型 生成的文章摘要

近日,Meta Presence Platform添加了沉浸式音频功能,全新“XR Audio SDK”旨在使开发者更轻松整合空间化、本地化音频。目前该SDK仅适用于Unity引擎,未来还将支持Unreal Engine、Wwise和FMOD。

Presence Platform是开发工具和编程接口的集合,基于Presence Platform,Quest 2和 Quest Pro便能实现手部和语音交互以及增强现实功能,该平台于2021年秋季首次推出,近期添加了用于面部、眼部和身体跟踪的运动SDK。

全新沉浸式音频功能的应用范围包括了虚拟现实、增强现实和混合现实。对于后者,Quest 2和Quest Pro支持将计算机图形添加到前置摄像头的视频图像中。除了Meta设备,全新音频SDK还支持“几乎所有独立的移动VR设备”以及PCVR(例如Steam VR)和第三方设备。

沉浸式音频功能包括了更好处理用户头部、外耳和身体的音频过滤,而音频过滤则会极大影响现实世界中的声音:头部相关传输函数 (HRTF)旨在准确模仿真实的音频感知。没有它,用户周围环境声听起来便会不自然。

另外,房间声学模拟取决于房间大小、形状和材料表面的声音反射和混响。因此,如果玩家在空荡荡的空间玩AR游戏,虚拟敌人的声音将如同玩家自己的声音一般真实,而声音的均匀性旨在增强存在感。

值得一提的是,空间音频渲染和房间声学功能建立在之前的Oculus Spatializer 之上,并可继续开发。Meta开发者博文表示,与流行游戏引擎中的内置音频系统相比,该系统更适合在VR中使用,后者主要是为游戏机和PC而设计的。

不仅如此全新音频SDK提供了灵活性和易用性。Meta表示,即使是没有音频开发经验的开发者也可以混合音频,这对于沉浸感非常重要。

例如,Meta在2022 Connect活动中展示了在Quest 2和Quest Pro Horizon Workrooms虚拟办公室和会议应用的使用,效果显示,虚拟会议中来自不同方向的声音对于用户整体理解场景至关重要。

来源:Mixed

「93913原创内容,转载请注明出处」