🤖 由 文心大模型 生成的文章摘要
谷歌10月4日大型新闻发布会上,推出了一款全新的Pixel 2手机和一系列新的环境计算设备,采用由AI启用的对话界面,包括新的Google Mini和Max扬声器,Google Clips摄像头和无线Pixel Buds。Daydream View头显获得了重大升级极大改善了舒适度和重量分布,减少光泄漏,更好的热管理,具有更大的敏锐度和非球面菲涅耳透镜,以及比上代版本的视角度增加了10-15度。这实际上是一个巨大的升级和改进,谷歌正在为他们最新的环境计算硬件版本体现以AI为本的设计理念。
那么谷歌的环境计算和AI驱动的对话界面如何适应更大的沉浸式计算战略的呢?
YouTube VR正处于Google虚拟战略的边缘,他们的VR180 Livestream摄像机可以播放2D版本,可以很好地转换为在平板显示器上观看,同时还为移动VR头显提供了更加身临其境的3D VR版本。
Google于8月29日推出了ARCore,谷歌解释说,他们不得不提出一些算法和技术创新,以便在所有OEM制造商中对AR校准流程进行标准化。
谷歌重申WebVR和WebAR是Google沉浸式计算策略的重要组成部分。Google通过发布ARCore和ARKit的实验性WebAR浏览器,向开放网页展示了他们的奉献精神,以便网络开发人员可以开发交叉兼容的AR应用程序。谷歌预见了一个未来发展到超越现有的独立应用程序模式,但这需要一些技术创新,包括由AI所提供的环境感知环境计算以及Google I / O宣布的虚拟定位系统。 还有一些其他的生产力应用程序,谷歌正在继续尝试,但屏幕分辨率仍然需要改善从视力测量20/100到更接近20/40的视力。
Google透露了如何创建一个基于云的分布式计算物理模拟器,该模拟器可以建模4个万亿光子,以便在Daydream View中设计混合非球面菲涅尔透镜。这将使他们能够在将来设计VR光学的机器学习优化方法,但它也可能对VR物理模拟有潜在的影响,并可能在未来创造出容量数字光场。
Google对内容感知的AI和环境计算的愿景对我们的隐私产生比较大的影响,在新闻发布会期间,人工智能对话界面和环境计算得到了广泛的关注,Google仍然致力于实现其在沉浸式计算潜力方面的长期展望。
【913VR原创内容,转载请注明及回链】