面向开发者,Meta发布Aura面部追踪示例

🤖 由 文心大模型 生成的文章摘要

Meta Quest Pro面部追踪功能将很快启用,这一功能将使Meta虚拟化身更具表现力且获益良多。

Quest Pro一大新功能是面部追踪系统,它使用内部摄像头来感知用户眼睛和面部表情动作,结合了免校准的机器学习模型,并基于头显转化为虚拟角色。

Meta已发布了供开发者试验的Aura面部追踪示例,以及与“运动 SDK”相关的其他三个开发者示例,这为开发者创建眼动、面部和身体追踪奠定了基础。

在短期内,这将与Meta现有虚拟化身一起使用,虽然这些改进使虚拟化身更具表现力,但实际看起来化身并不灵敏。

这可能是当前虚拟化身系统在构建时没有考虑到高级面部追踪——模型的底层动画框架——似乎不太适合这项任务,从而使得Quest Pro面部追踪输入移植到当前系统并不能真正发挥其实际能力。

幸运的是,Meta已重构建了一个技术演示,展示了在设计化身时考虑到Quest Pro面部追踪(以及几乎所有头显处理面部追踪渲染)的可能性。

Meta表示将把Aura演示作为一个开源项目发布,这样开发者就可以知道面部追踪输入附加到化身的机制,Meta还表示,开发者将能使用单一工具集来驱动人形化身或动物、怪物等非人类化身,而无需进行单独调整。

Meta指出,开发者将能够利用面部追踪API,该API使用与FACS相对应的值,FACS是一种被广泛识别的系统,用于描述人脸不同肌肉的运动。

这不仅是代表人脸的有效系统,而且还为用户形成了有用的隐私屏障。Meta表示,开发者实际上无法访问用户面部的原始图像。而在欧洲工商管理学院,实验者获得了“一系列从0到1的值,这些数值与一系列通用的面部动作相对应,比如当你揉鼻子或皱眉时,这些信号使开发者在将信号从面部追踪API映射到角色时,更容易保留玩家原始动作的语义,无论角色是人形还是更奇幻的东西。”

来源:RoadtoVR

「93913原创内容,转载请注明出处」