🤖 由 文心大模型 生成的文章摘要
据RoadtoVR报道,就实景VR视频而言,体积视频是沉浸感的黄金标准,对于静态场景捕捉,摄影测量亦是如此。但是这两种方法都存在有损于真实感的局限性,尤其是在涉及“依赖于视图”的效果时,例如镜面高光和透过半透明物体的透镜。近日,泰国Vidyasirimedhi科学技术研究所展示了一种令人惊叹的视图合成算法,该算法通过精准处理此类照明效果显著提高了真实感。
研究人员今年早些时候发表了一项名为“NeX”的实时视图合成算法论文,团队目标是仅使用场景中的少量输入图像来合成新帧,从真实图像之间的任意点真实描绘场景。
研究人员指出,这项工作建立在称为多平面图像(MPI)的技术之上,与之前的方法相比,该方法更好模拟了与视图相关的效果(如镜面高光)并创建了更清晰的合成图像。
除了这些改进之外,该团队还高度优化了系统,使其能够在60Hz下轻松运行——据称比之前的技术水平提高了1000倍,不得不说,结果是惊人的。
尽管目前尚未针对用例进行高度优化,但研究人员已经使用具备立体深度感知和完整6DOF 运动的 VR头显对该系统进行了测试。
以下是研究人员得出的测试结论:
“我们的算法在捕获和再现复杂的依赖于视图的效果方面是有效的,并且在标准图形硬件上的计算效率很高,并支持实时渲染。对公共数据集和更具挑战性的数据集的广泛研究证明了我们算法的先进质量,我们相信神经基础扩展可以应用于光场分解的一般问题,并使其他场景表示的高效渲染不仅限于 MPI。我们认为一些反射参数和高频纹理可以显式优化,同时也有助于恢复精细细节(这是现有隐式神经表征所面临的挑战)。”
「93913原创内容,转载请注明出处」