🤖 由 文心大模型 生成的文章摘要
当你走过一扇窗,你会感到什么?也许是窗外色彩缤纷的景色,也许是徐徐吹来的凉风,但最重要的是,你在窗子的正面和左右角度看到的东西是有很大差异的。
那么,如果说你刚才经过的不是窗户,而是一台电视机呢?
当然,眼下的电视机是无法达成这种体验的——因为它只是单纯的2D平面。要让电视机真正实现“窗户”的感觉,就要依仗我们今天要介绍的“光场”显示技术。这也很有可能是未来VR/AR的显示技术。
“光场”是什么?
众所周知,显示出来的画面是由各个像素组成的,而像素的密度决定了画面的精细度。而如果每个像素都拥有一种以上的颜色,就能够实现,根据观看角度不同,产生颜色也不同的效果。这就是全息图像技术最基本的一点。
这同样也是光场对于移动图像的实现手段。之所以叫光“场”,是因为对于拍摄光场的摄像机来说,每一个像素都必须捕捉到从每个方向打到每个像素的光,而并非只是正前方的光线。
光场显示器的角度大小可能会比较受限制。因此比较理想的解决办法很可能就是类似本文开头那样一台类似窗户的电视。但如此一来,分辨率就要提高好几倍。
想象一下,不管观看的角度多么分散,都需要实现完整的分辨率——这将耗费巨大的视频带宽,去在180度的视场角中,以平均的观看距离,支持两眼间不同角度的画像。而眼下我们离提供这一量级的带宽还非常遥远,可能需要今天所使用的几百、甚至上千倍。
传统的VR显示屏是什么样的?
Oculus Rift或HTC Vive这种VR头盔打造的是一种人工图像,但通过使用视觉线索,会给人一种有深度的感觉。比如:
双眼像差或立体视觉:让用户的左右两眼看到的图像都有些不同,因此当大脑处理这两图像的时候,就能感觉到深度的存在。
运动视差:当用户把头从一边移动到另一边的时候,让离用户视线较近的的横向移动会比远处的更快。VR头盔就是这样欺骗了人的大脑,让人相信在场景中有“远近”。
双目遮挡:在场景中位于前景的物体、以及在其它物体之前的物体看上去要更加接近,从而产生简单的相对距离等级。如果每只眼睛的遮挡都不同,人类的大脑就会认为存在深度。
视轴:当盯着某物的时候,物体越近,眼睛就越要让它保持在视场中心。但如果某物在远处一个无限的距离,则眼睛就必须要发散、转动,这一动作给了大脑所需的数据,来计算物体的距离。
大多数的头显都不会提供聚焦的线索。整个的场景都是永远聚焦的,这是由于场景显示在和用户的眼睛同样距离的平面屏上。但眼睛也会因为变化中的立体图像的一部分而内聚和外散到注意力被吸引的地方去。
而这一过程,大脑的感觉并不好,这种被称为“视轴调焦”的过程,将会造成“视觉不适、图像质量损失、头晕、头疼和眼疲劳”。
那么,有哪些公司在做这些呢?
英伟达正在和斯坦福大学合作,开发新类型的显示技术。这一被称为“光场立体镜”的技术采用双显示屏,由两个相距5毫米的LCD面板组成。一台VR头盔将通过微透镜阵列来把每个图像变成分散的光线,并追踪、显示每个光线的来源和去向。如此一来,人类的眼睛将会更容易在不同的深度上定位聚焦提示。
另一家是Magic Leap,他们扬言要让用户的眼睛,除了虚拟图像还能处理真实世界里的光。