如今,线下推广的模式在中国大行其道,线上和线下的交锋显然线下体验更胜一筹。价格一直是消费者首要的考虑因素,而线下体验可以用最少的有偿服务享受到VR带来的沉浸感,对于普通大众来说可以启到普及作用。
3月31日,3Glasses深圳新品发布会圆满结束,会上展示了3Glasses蓝珀S1、3GlassesWand、3Box、Luna、VRSHOW诸多精品。其中蓝珀S1多项性能达到业界第一,是国内首家使用定制双目VR专用屏的头显设备、双眼超2K画质、视场角110°、刷新率120HZ、PPI超700。配备3GlassesWand可在2M空间范围内手部跟踪定位。华丽的性能参数背后,展现了3Glasses将以硬件为基础,内容和服务为核心,打通B端和C端之间的通道,服务于用户的决心。
之前也强调过用户偏向于线下体验和花费较少的价格购买VR产品,可一旦价格及体验服务超过他们的心理价格,即使产品性能再好,也很难吸引到人。最主要的是,一个产品的好坏需要有通俗易懂的硬知识,在用户群体中间进行大量的传播,从而形成口碑。比如苹果手机,之所以能成为街机,靠的不是苹果发布会上的技术讲述,而是用户亲身体验及普及基础智能手机知识后的形成的良好口碑。好比广告传单,虽然随手就丢,但上面的内容还是能看懂的。然而对于普通消费者来说,很难在大量的VR专业术语中读出产品性能的优越之处,在普及VR之前,还是要先了解一下VR相关知识。
1、头显
头显是当前向用户提供虚拟现实体验的硬件。看起来有点像经典的护目镜或某种类型的头盔,你需要把它戴在脸上或放在头上。戴上虚拟现实头显,你可以观看VR体验。
2、头部追踪
头部追踪就是当你的头部向左、向右、向上或向下看时,你可以看到头显中这些方向的场景。
3、眼部追踪
眼部追踪有点类似于头部追踪,但是呈现的影像与用户眼睛所看的方向相匹配。
4、视场角
视场角就是视野的夹角度数。具有一个更高的视场尤为重要,因为它有助于用户在VR体验中拥有高度的沉浸感。人眼正常的视场角约为200°。所以,视场角越大,人所体验到的沉浸感越强。
5、延迟
如果你曾体尝试过VR体验,你可能会注意到当你转动你的头部时,你所看到的屏幕内容可能会跟不上,这就是延迟。这会带来不舒适的感觉,因为这一切在真实世界是完全不存在的。这种图像的延迟是常被用户用来抱怨某些VR体验,因各种原因没有达到标准,也是对VR技术的一个衡量标准。
6、模拟晕动症
人通过听觉、视觉、触觉来获得外界环境的信息。经过长期的进化,人类的各种感觉器官是高度协调合作的。在VR体验中,你的眼睛告诉大脑说:“我们在移动!”而你的大脑接收到的其他运动感受器官却说:“不!我们现在是静止的。有点恶心!”科学杂志表示这个差距可以被解释为是一种毒素,人体需要将这个毒素排出去,因此会呕吐。
7、视角震颤
震颤可以为是很明显的颤抖或抖动。但是对于VR来说, Oculus首席技术官Michael Abrash定义它为:“在VR/AR头显当中尤为明显的拖尾和频闪的结合。”
8、刷新率
高刷新率会降低延迟,即会降低模拟晕动症的出现,同时还意味着玩家将获取更为灵敏的体验。当然你肯定想要达到60帧每秒以上的刷新率以获得最佳体验。
9、触觉反馈
也就是说在VR世界中,用户感觉触摸到了一些东西但是实际上却没有。
10、临场感
简单的说,就是用户要感觉他们就在现场,不管用户身在何处。
11、虚拟实境
有人建议:阅读Neal Stephenson写的《雪崩》(Snowcrash),这是1992年出版的一本科幻小说,展望了虚拟实境。
12、微透镜阵列显示技术:通过对微透镜阵列结构进行深入研究,揭示了微透镜阵列对微图形的放大原理.并在此基础上,找到了微透镜阵列结构参数、微图形结构参数与微图形阵列移动速度、移动方向以及放大倍率之间的关系,利用微透镜阵列实现了对微图形放大、动态、立体的显示。
13、近眼光场显示器:由于近眼光场显示器能够通过微透镜阵列重新还原画面中环境,因此只需要在GPU的运算过程中加入视力矫正参数,便可以抵消近视或远视等视力缺陷对观看效果的影响,这意味着“眼镜族”们也可以在裸眼状态下利用这款产品享受到真实清晰的3D画面。
14、视场角:通俗地说,目标物体超过这个角就不会被收在镜头里。在显示系统中,视场角就是显示器边缘与观察点(眼睛)连线的夹角。
15、裸眼3D:裸眼3D,就是利用人两眼具有视差的特性,在不需要任何辅助设备(如3D眼镜、头盔等)的情况下,即可获得具有空间、深度的逼真立体影像。
16、HMD:头戴式可视设备(HeadMountDisplay)头戴虚拟显示器的一种,又称眼镜式显示器、随身影院。是一种通俗的叫法,因为眼镜式显示器外形像眼镜,同时专为大屏幕显示音视频播放器的视频图像的,所以形象的称呼其为视频眼镜(videoglasses)。
17、HMZ:截止2015年4月24日索尼宣布停产HMZ系列产品时,该系列一共推出过三代产品。2013年的HMZ-T3/T3W升级幅度不小,首次实现了无线信号传输,允许你戴着无线版本的HMZ-T3W进行有限的小范围移动,不再受线缆的束缚。
18、光线跟踪算法:为了生成在三维计算机图形环境中的可见图像,光线跟踪是一个比光线投射或者扫描线渲染更加逼真的实现方法。
19、真实绘制技术:虚拟现实系统中,对真实绘制技术的要求与传统的真实感图形绘制不同,传统的绘制只要求图形质量和真实感,但是,在VR中,我们必须做到图形显示的更新速度不小于用户的视觉转变速度,否则就会出现画面的迟滞现象。
20、基于图像的实时绘制技术:基于图形绘制(ImageBasedRendering,IBR)不同于传统的几何绘制方法,先建模型,在定光源的绘制。
21、三维虚拟声音技术:三维虚拟声音就是要做到听其音辨其位,即在虚拟场景中用户可以听声辩位,完全符合现实环境中的听力系统的要求,这样的声音系统就称之为三维虚拟声音。
22、语音识别技术:语音识别技术(AutomaticSpeechRecognition,ASR)是将语言信号转变为可被计算机识别的文字信息,使得计算机可以识别说话人的语言指令和文字内容的技术。
23、语音合成技术:语音合成技术(TexttoSpeech,TTS),是指人工合成语音的技术。达到计算机输出地语音可以准确、清晰、自然的表达意思。一般方法有两种:一是录音/重放,二是文-语转换。在虚拟现实系统中,语音合成技术的运用可以提高系统的沉浸感,同时弥补视觉信息的不足。
24、人机自然交互技术:在虚拟现实系统中,我们致力于使得用户可以通过眼睛、手势、耳朵、语言、鼻子和皮肤等等感觉器官来和计算机系统中产生的虚拟环境进行交互,这种虚拟环境下的交换技术就称之为人机自然交互技术。
25、眼动跟踪技术:眼动跟踪技术(EyeMovement-basedInteraction)也称之为实现跟踪技术。它可以补充头部跟踪技术的不足之处,这样即简单有直接。
26、面部表情识别技术:这项技术一般分为三个步骤,首先是面部表情的跟踪,利用摄像机记录下用户的表情,再通过图像分析和识别技术达到表情的识别。其次是对面部表情的编码,研究人员利用面部动作编码系统(FACS)对人的面部表情进行解剖,并对其面部活动进行分类和编码。最后是面部表情的识别,通过FACS系统可以构成表情识别的系统流程图。
27、手势识别技术:通过数据手套(Dataglove)或者深度图像传感器(如leapmotion、kinect等)来精确测量出手的位置和形状,由此实现环境中的虚拟手对虚拟物体的操纵。数据手套通过手指上的弯曲、扭曲传感器和手掌上的弯度、弧度传感器,确定手及关节的位置和方向,而基于深度传感器的手势识别则通过深度传感器获得的深度图像信息进行计算,进而获得掌、手指等部分的弯曲角度等数据。
28、实时碰撞检测技术:为了在虚拟现实系统中完全的模拟现实环境,且防止发生穿透现象,就必须引入实时碰撞检测技术。
29、三维全景技术:三维全景技术(Panorama)为现在最为流行的视觉技术,它以图像绘制技术为基础生成具有真实感图像的虚拟现实技术。
30、PPT:Pixels Per Inch也叫像素密度,所表示的是每英寸所拥有的像素数量。因此PPI数值越高,即代表显示屏能够以越高的密度显示图像。当然,显示的密度越高,拟真度就越高。
【913VR原创内容,转载请注明及回链】