Apple Intelligence作为苹果当前在iOS和Mac系统上提供的一套人工智能工具,将于4月随着visionOS 2.4的公开发布,正式融入Apple Vision Pro。值得一提的是,若用户已激活开发者模式,现在就能够提前体验。
正如大家所期待,Apple Intelligence计划将一系列最新的AI功能引入Vision Pro。这些功能涵盖写作工具、AI 生成图像、智能回复消息、照片自然语言搜索、AI摘要以及自定义表情符号等。自去年10月公布以来,我们已在iOS和Mac系统上见识到这些功能。而在严重依赖语音和手写文本输入的Vision Pro上,这些功能的实用性和便捷性将得到进一步提升。
具体来说,下一次Vision Pro的更新还将增强访客用户模式。这一改进使用户能够借助附近的iPhone或iPad,与他人共享Vision Pro,从而更轻松引导访客体验。这一举措有效避免了 XR用户在向他人展示头显时,常常出现的那种繁琐的操作指导,比如“好的,返回主页,点击那个图标。不,是另一个图标”。
visionOS 2.4版本还推出了Spatial Gallery,这是一个由艺术家、电影制作人和摄影师精心挑选的空间照片、空间视频和全景图的集合。Spatial Gallery发布后,将面向澳大利亚、加拿大、法国、德国、中国香港、日本、韩国、新加坡、中国台湾、阿联酋、英国和美国等地区的用户开放。
此外,Vision Pro与iOS的集成度日益紧密。当visionOS 2.4在4月正式发布时,Vision Pro用户将可以通过全新Apple Vision Pro iOS,进行应用程序和游戏的下载排队、浏览空间内容与体验,以及从iPhone访问设备信息。Vision Pro iOS预计将与iOS 18.4同步发布。
苹果方面表示,目前搭载Apple Intelligence的visionOS 2.4版本仅提供美式英语版本,更多功能以及对其他语言的支持将在今年内陆续推出。
尽管除了4月这个发布窗口,暂未确定具体的发布日期,但苹果已经发布了visionOS 2.4开发者测试版。若想注册开发者测试版,只需进入“设置”>“隐私和安全”,找到并启用“开发者模式”,然后重启Vision Pro即可。