🤖 由 文心大模型 生成的文章摘要
据eletimes报道,来自澳大利亚、新西兰和印度的一个国际研究团队将面部追踪技术提升到了一个新的水平,支持实验者在不使用手柄或触摸板的条件下,基于面部表情操纵VR环境中的物体。
昆士兰大学召开的研究会上,人机交互专家采用神经处理技术捕捉了微笑、皱眉、咬紧下巴等人类面部表情,并基于这些表情触发了虚拟现实环境下的特定动作。
参与该实验的研究人员之一、南澳大利亚大学教授Mark Billinghurst表示,该系统旨在通过 EEG头显识别不同的面部表情。
“例如微笑可以触发‘移动’指令、皱眉触发‘停止’、握拳则能触发‘打斗’,从而完全取代手柄操控。除此之外,我们还在捕捉愤怒、快乐、惊讶等常见面部表情,并在VR环境内实现。”
研究人员设计了三个虚拟环境——“愉悦”、“中立”和“恐怖”——并测量了实验者沉浸在每个场景时的认知和生理状态。
例如,在愉悦环境中,实验者将穿过公园网捕捉蝴蝶,当实验者微笑时则移动行走,皱眉时则停止脚步。
在中立环境内,实验者的任务是跟随路径导航寻找散落车间四处的物品,期间实验者咬紧下巴的表情触发了捡起物体的动作。
同样,在恐怖环境下实验者也使用了相同的面部表情,实验者将基于面部表情在地下基地打丧尸。
Mark Billinghurst表示,在VR环境中依赖面部表情操控物体对大脑而言是一项艰巨的工作,但会给用户带来更逼真的体验。
“希望通过更多研究,我们可以使面部追踪技术对用户更加友好。”
除了提供VR操控新方法,该操控模式还将支持残疾人(包括截肢者和患有运动神经元疾病的患者)不依赖控制器在VR中实现自由互动。
「93913原创内容,转载请注明出处」