🤖 由 文心大模型 生成的文章摘要

Mountain View公司的工程师将Stories和ARCore的 Augmented Faces API 的核心技术描述为AI技术,他们说这可以模拟光反射,模型面部遮挡,模型镜面反射等等。
Google AI的Artsiom Ablavatski和Ivan Grishchenko说:“使这些AR功能成为可能的关键挑战之一是将虚拟内容正确地锚定到现实世界,这一过程需要一套独特的感知技术才能跟踪每个微笑,皱眉或假笑都具有高度动态的表面几何形状。”
谷歌的增强现实(AR)管道,利用TensorFlow Lite,一种轻量级,移动和嵌入式的谷歌TensorFlow机器学习框架实现。用于硬件加速处理,包括两个神经网络(即生物模拟的数学函数层)神经元。第一个检测器对相机数据进行操作并计算面部位置,而第二个三维网格模型使用该位置数据来预测表面几何。
为什么采用双模式方法?有两个原因。首先,它“大大减少”使用合成数据增加数据集的需求,并且它允许AI系统将其大部分容量用于准确预测网格坐标。这两者都是对于实现虚拟内容的正确锚定至关重要”。
下一步需要使用平滑技术将网格网络一次应用于单帧摄像机镜头,从而最大限度地减少滞后和噪声。该网格是从裁剪的视频帧生成的,并且预测标记的真实世界数据上的坐标,提供3D点位置和面部存在的概率以及帧内合理对齐。
AR管道的最新性能和准确性改进来自最新的TensorFlow Lite,这会提高性能,同时显著降低功耗。它们也是工作流程的结果,迭代地引导和细化网格模型的预测,使团队更容易处理具有挑战性的案例(例如鬼脸和倾斜角度)和人工制品(如相机缺陷和极端光照条件)。
【93913原创内容,转载请注明及回链】