Meta发布可检查其他AI模型工作的AI模型

🤖 由 文心大模型 生成的文章摘要

Meta表示,将发布包括“自学评估器”在内的一批新的人工智能模型,该模型或能减少人工智能开发过程中的人类参与。

Meta在8月份的一篇论文中介绍了该模型,论文详细介绍了此模型如何依赖OpenAI最近发布的o1模型所使用的相同“思路链”技术来对模型的反应做出可靠的判断。

该技术涉及将复杂问题分解为更小的逻辑步骤,并且可以提高对科学、编码和数学等学科的挑战性问题的回答准确性。

Meta研究人员使用完全由人工智能生成的数据来训练评估模型,从而消除了该阶段的人工输入。

该项目的两位Meta研究人员告诉路透社,基于人工智能来可靠评估人工智能的能力,为我们提供了一条可能的途径,即打造能够从错误中学习的自主人工智能代理。

在人工智能领域,人类将此类代理设想为数字助理,其智能程度足以在无需人工干预的情况下执行大量任务。

自我改进的模型可以消除目前使用的一种通常昂贵且低效过程的需要,该过程称为从人类反馈中进行强化学习,需要人类注释者的输入,注释者必须具备专业知识才能准确标记数据并验证复杂数学和写作查询的答案是否正确。

研究人员之一Jason Weston表示:“我们希望,随着人工智能变得越来越超越人类,它将越来越善于检查工作,以便实际上比普通人类更优秀。”

他说:“自学和自我评估的能力对于实现超越人类水平的人工智能来说至关重要。”

另外,包括谷歌和Anthropic在内的其他公司也发表了关于RLAIF(即基于人工智能反馈的强化学习)概念的研究。然而,与Meta不同的是,这些公司往往不会将模型发布给公众使用。

此外,Meta发布的其他AI工具包括图像识别Segment Anything模型的更新,该模型可加快 LLM响应生成时间,以及可用于帮助发现新无机材料的数据集。

「93913原创内容,转载请注明出处」