🤖 由 文心大模型 生成的文章摘要
据MacRumors报道,知名苹果分析师郭明錤再度爆料传闻已久的苹果AR/VR头显将配置多个高度敏感3D传感模块,并支持创新手势及人机交互。
据预测,基于苹果AR/VR头显的结构光(structured light)不仅可以检测用户或其他人的手和用户眼前物体的位置变化,还可以检测手部的动态细节变化(例如iPhone Face ID /结构光/Animoji可以检测用户的动态表情变化)、捕获手部动作的细节、并提供更直观、生动的人机界面(例如,检测用户的手从握紧拳头到松开手指以及手中的虚拟气球飞走的过程)。
为此郭明錤描述了苹果AR/VR头显检测手势及动作的方式,以及用户握紧、松开拳头及虚拟气球放飞的全过程。
为了实现这一令人印象深刻的壮举,苹果AR/VR头显预计将采用四组3D传感器,这些传感器的质量和规格都比当前的iPhone更高。另外,郭明錤认为人机交互将是该头显成功的关键,据郭明錤介绍,人机用户UI功能将包括手势控制、物体检测、眼球追踪、虹膜识别、语音控制、皮肤检测、表情检测及空间检测。
值得一提的是,根据今年早些时候Patently Apple报道的苹果专利申请,其中详细介绍了相同的概念。
专利表明,基于微手势的不同动作、位置及各种运动参数来确定三维环境中执行的操作,并通过摄像头捕获微手势与三维环境交互,从而使用户在物理环境中自由移动,不受物理输入设备的束缚,进而让用户更自然、高效探索三维环境。
「93913原创内容,转载请注明出处」