三项新专利曝光 苹果或借可调镜组与软件方案来改善AR体验

🤖 由 文心大模型 生成的文章摘要
Apple Insider 报道称,苹果公司正研究如何利用Apple Glass智能眼镜,将虚拟对象无缝融合到现实世界中、以及如何在佩戴者的视野周围正确显示增强现实(AR)内容。继先前有关Apple Glass图像质量的诸多报道之后,近期曝光的三项新专利,都集中在了如何将虚拟对象与现实物品混合到一起的问题上。
专利细节中描绘了一系列可调节的镜组
首先,苹果意识到在提供令人满意的光学系统,以及融合现实世界 / 显示内容时可能会遇到挑战。若不加注意,光学质量和其它性能特征可能会出现问题。
尽管这项应用中没有提到“速度”一词,但其目的显然也包括了确保虚拟与现实对象之间没有迟滞。为了化解这一尴尬,苹果的其中一个思路是使用混合图层叠加。
苹果补充道,光学系统或可使用时间交织 / 偏振方案来实现这一目的。比如引入偏振开关 / 可调透镜之类的方案,以控制显示图像的帧同步。
但要达成这样的同步,传说中的苹果智能眼镜或许还需包括 3D 传感器、激光雷达(LiDAR)、甚至 3D 射频传感器,以便追踪用户眼睛的焦点并及时作出调整。
第二项专利专利提到了类似的“具有几何相位透镜的显示系统”,两者的总体目标保持一致,但描述更多集中在“几何相位透镜”的运用上。
尽管结构上与普通镜组一样,但通过偏振以仅允许部分光线通过,基于不同层数的偏振组合,Apple Glass 将能够与交替图像帧同步地调节光学系统。
当然,这与 Apple Glass 如何将显示图像放置在眼前不同距离的焦平面处有关。
用户视觉外围的虚拟对象可能淡入淡入
第三项新公开的专利申请,侧重于在视觉范围外的虚拟物体的处理。为此,苹果提出了“使用过渡视觉技术来缓解小视场的显示问题”的解决方案。
例如,当虚拟内容接近显示器的外围边缘时,虚拟内容可能被裁切。而透明显示屏的有限动态范围,或使我们难以在视场范围内看到或理解虚拟内容。
苹果的建议,是在虚拟对象进入或离开用户视野(FOV)时采取淡入淡出的效果。但这也意味着 Apple Glass 必须知晓设备的 FOV 参数、以及用户的转头等动作。