Lytro将光场采集和回放技术定位为沉浸式内容的理想格式

🤖 由 文心大模型 生成的文章摘要
Lytro将其光场采集和回放技术定位为沉浸式内容的理想格式。该公司正在开发一套工具集,用于捕获,渲染和混合合成和实景光场体验,然后在每个平台支持以最高质量播放功能进行回放。
Lytro首席执行官贾森·罗森塔尔(Jason Rosenthal)谈到了“Lytro现实体验”,沉浸式体验存储为光场,然后传输到具体的每个消费终端,让VR头显到智能手机都能查看360度视频。
光场可以从捕获或渲染的体积内的任何点重新创建视图。简言之,这意味着Lytro可以作为超过实时渲染的图形能力的场景来播放,同时仍然保持身临其境的6DOF位置跟踪和(在一定程度上)交互性。Lytro的目的是结合最好的实时沉浸与预渲染的VR体验的视觉质量。
罗森塔尔指出,媒体革命需要具有新功能的新内容格式。他指出PDF,OpenGL,http和MPEG作为媒体格式的例子,已经彻底改变了我们制作和使用信息的方式。罗森塔尔说,身临其境的媒体需要一个体积格式。
为此,Lytro一直在构建一个完整的光场管道,包括光场内容的捕获/渲染,母版制作,传送和回放。他表示,这种方法的好处是开发者可以捕捉/呈现和掌握他们的内容,然后分发给不同能力的头显和平台,而不必为每个平台重新捕获,重新创建或重新编辑内容,适用于跨桌面和移动VR头显的大多数实时内容。
Lytro的三个主要工具集使得这一切成为可能。首先是公司的光场相机Immerge,它可以实现高质量的实时光场捕捉;然后是公司的Volume Tracer软件,它可以渲染CG内容的合成光场。最后是公司的播放软件,旨在实现每个设备上最高保真度的播放。
例如,创作者可以创建一个高保真的CGI场景,例如“One Morning”(Lytro现实体验),该公司最近透露他们最喜欢的行业标准渲染和动画工具,然后将该体验作为Lytro Reality Experience跨高端,低端甚至360度的视频进行部署,无需为每个设备的特定功能修改源内容,也不会放弃光线跟踪,预渲染内容的图形质量。
Lytro目前正在将其工具与特定客户进行一对一的合作,以发布更多Lytro Reality Experience,并鼓励任何有兴趣的人联系。该公司表示,高保真光场景能够与实时互动内容无缝融合。
我已经看到了该公司最新的Lytro Reality Experiences的一些设备(如Hallelujah),从仅适用于户外VR商场的高端台式机一直到iPad。这个想法是最大限度地提高每个设备可以支持的保真度和体验。在高端台式机上,如通过VR头戴式头显所看到的那样,这意味着通过具有6DOF跟踪的光场数据集即时生成最高质量的图像。对于功能较差的电脑或移动头显,相同的场景将表现为烘焙3D几何,而移动设备将获得以高达10K分辨率渲染的高质量360视频(全部使用相同的预渲染源素材)。
光场方法的吸引力当然是明显的,特别是对于那些试图使叙述体验超出甚至超过可能实时渲染的开发者。
由于光场是预渲染的,所以它们不能像传统的实时渲染那样是交互式的。罗森塔尔承认这一限制,并表示Lytro即将推出与领先游戏引擎的集成,这将使在单一体验中轻松混合和匹配光场和实时内容成为可能。

【913VR原创内容,转载请注明及回链】