🤖 由 文心大模型 生成的文章摘要

根据expresscomputer报道,研究人员近日开发了一个全新的数学模型,能够帮助计算机准确的在眼动追踪时预测新的注视点,同时减少由于眨眼导致的数据不准确。该研究成果发表在SID Symposium Digest of Technical Papers,将使VR/AR系统更加逼真并且更好的响应用户操作。
俄罗斯人民友谊大学(RUDN)教授Viktor Belyaev表示:“我们已经有效解决了广泛应用于VR设备的注视点渲染技术所存在的问题。”注视点渲染技术是VR系统的一项基础技术,当一名用户看向某样东西时,他的目光会集中在被称为注视区域的地方,其他的事物则处在周边视野中。
因此,计算机可以以最高的细节来渲染注视区域中的图像,其他部分只需要很少的计算能力,就能够为用户带来清晰的VR画面。这种方式有助于提高计算性能,消除了GPU性能有限和VR显示分辨率提高之间的矛盾。
但是由于人眼的运动是一个复杂且很大程度上随机的过程,因此注视点渲染技术在下一个注视点预测的速度和准确性方面受到很大的限制。为了解决这个问题,研究人员开发了一种数学建模方法,可以帮助提前计算下一个注视点。
该模型的计算基于对眼跳运动(眼睛的快速和有节奏的运动)的研究。它们会伴随着我们的目光从一个物体到另一个物体的变化而发生。研究人员将主要精力专注于一个能够帮助获得眼跳运动参数的数学模型上,然后将该数据用于计算图像中的注视区域。
研究人员通过VR头显和AR眼镜对新方法进行了实验测试。基于数学模型的眼动追踪设备能够检测到轻微的眼动(精度3.4分,等于0.05度),误差大约为6.7分(0.11度)。此外,团队设法消除了由眨眼引起的计算错误:数学模型中包含的过滤器将因为眨眼导致的计算不准确性降低了10倍。
但是,目前这些数学模型暂时无法帮助眼动追踪设备进行注视点的预测,因为模型还不够准确。
【93913原创内容,转载请注明及回链】