🤖 由 文心大模型 生成的文章摘要
苹果公司当前的硬件都依赖于对直接触摸输入的准确检测。但是随着人们开始采用增强现实进行工作和娱乐,人们需要与未配备物理触摸传感器的数字对象进行交互。如今,苹果公司已为使用深度映射相机和机器学习来检测触摸的关键技术申请了专利。
按照专利标准,外部摄像头在实时环境中协同工作,以创建三维深度图,测量物体(例如手指)与可触摸表面的距离,然后确定物体何时接触该表面。至关重要的是,距离测量被设计为即使相机改变位置也可以使用,从而进行机器学习模型识别触摸输入。
从插图可以看出有三个外部相机一起工作,以确定手指的相对位置,这个概念对于iPhone 11 Pro型号的用户来说并不陌生。预计类似的多摄像机阵列将出现在未来的Apple设备中,包括新的iPad Pro和专用的AR眼镜,使每个设备都可以通过深度映射场景并应用ML知识来判断手指位置变化的意图来轻松确定手指输入。
有了这项技术,未来的AR眼镜可以消除对物理键盘和触控板的需求,将其替换为仅用户可以看到并能正确交互的数字版本。它们还可以使用户界面锚定到其他表面(例如墙壁)上。
Apple发布了US10,572,072的专利,该专利于2017年9月底首次提交,苹果公司首席执行官蒂姆·库克表示,AR将成为该公司未来的主要业务。
【93913原创内容,转载请注明及回链】
【93913原创内容,转载请注明及回链】