周一,苹果发布了新文档,帮助开发者为即将推出的Siri和Apple Intelligence功能做好准备。该公司最新开发者API表明,Siri将获得显著的情境感知能力,虚拟助手将能够采用当前屏幕上的内容信息。
毫无疑问,由于这些改变,Siri将变得更加有用。该公司提供了一系列示例,这些示例让我们了解到经过改进、融入人工智能的Siri未来将能够做什么。
用户可以选择向Siri询问有关当前正在浏览的网页或照片中特定对象的问题。虚拟助手还可以根据要求总结文档和电子邮件,或通过添加更多内容来完成文本。
请注意,其中一些功能已在第一个iOS 18.2开发者测试版中实现,该测试版引入了ChatGPT 集成。Siri可将PDF、文本文档或图像转发给ChatGPT以执行某些操作,但必须获得用户的许可。
新开发者API表明苹果希望进一步简化这一流程。用户无需要求Siri将文档发送给ChatGPT,而是可以直接询问有关屏幕上页面的问题或以某种方式使用其中的信息。这里还有很大的改进空间,因为ChatGPT目前只能访问用户手动提供的屏幕截图或文档。
早在WWDC24宣布Apple Intelligence之前,苹果使AI采用屏幕信息的想法就已显而易见。该公司发布的研究,尤其是有关Ferret模型的研究,是苹果在人工智能领域计划的一个指标。
文档分析、文档理解和AI驱动的文本生成备受重视。测试应用程序和环境(尤其是1UP应用程序)反映了iOS 18.2测试版上通过ChatGPT集成目前可以实现的许多功能。不仅如此,苹果还有一个专门的应用程序用于测试邮件和消息中的智能回复。
在正式发布之前,Siri还透露了其新功能,即完成和总结文本,或回答有关图像、文档和网页的问题。
显然,这家iPhone制造商非常重视人工智能,并在生成式AI项目上投入了大量的时间、研究和精力。开发者API只是为了帮助开发者为新Siri功能做准备,据传这些功能将于2025年随iOS 18.4更新亮相。