OpenAI发布GPT – 4.1系列

🤖 由 文心大模型 生成的文章摘要

OpenAI正式推出了备受瞩目的GPT – 4.1系列模型,该系列包括标准版GPT – 4.1、轻量版GPT – 4.1 mini以及性价比突出的GPT – 4.1 nano。这一发布在人工智能领域掀起波澜,为开发者们带来了全新的选择与机遇。

GPT – 4.1系列模型最显著的特征之一,便是拥有高达100万令牌的上下文窗口。这一数字相较于其前代 GPT – 4o的12.8万令牌,有着近8倍的大幅提升。如此强大的上下文处理能力,意味着模型能够一次性解析约70万汉字的超长文本,轻松应对诸如小说创作、复杂法律合同分析、长篇科研论文综述等对文本处理要求极高的复杂场景。在OpenAI官方进行的Long Context Evals长文本测试中,GPT – 4.1系列的三款模型均展现出了卓越的性能,它们能够在长达100万令牌的上下文中,精准地定位到目标文本,无论是在文本的开头、中间还是结尾部分,都能准确无误地完成任务。并且测试结果表明,GPT – 4.1在处理长达128K令牌的数据时,性能显著优于GPT – 4o,即便是面对百万令牌的超长文本,依然能维持较高的性能水准。​

在编码能力方面,GPT – 4.1系列同样表现卓越。OpenAI宣称,完整版的GPT – 4.1模型在编码基准测试,如备受关注的SWE – bench测试中,成绩超越了其前作GPT – 4o和GPT – 4o mini模型。在SWE – bench Verified这一子集测试中,GPT – 4.1的得分达到了54.6%,相较于GPT – 4o提升了21.4个百分点,这一成绩已十分接近专业开发者的水平,足以证明其在代码生成和指令遵循方面的出色表现。而 GPT – 4.1 mini和nano版本,虽然在准确性上稍有牺牲,但换来了更高的效率和更快的速度。其中,GPT – 4.1 nano更是被OpenAI称为有史以来速度最快且成本最低的模型。​

成本问题一直是开发者们关注的重点,此次OpenAI也给出了令人满意的答案。以标准版GPT – 4.1为例,其每百万令牌输入费用为2美元,输出费用为8美元,与GPT – 4o相比,成本降低了26%。而GPT – 4.1 nano作为 “性价比之王”,在多项测试中表现出色。在MMLU通用知识测试中,它的得分达到80.1%;在GPQA专业问答测试中,得分达50.3%;在Aider多语言编码测试中,得分也有9.8%,上述成绩均优于GPT – 4o mini。同时,GPT – 4.1 nano的延迟更低,非常适合实时对话、客服机器人等高并发场景,开发者可以根据自身需求,灵活选择不同规格的模型,实现资源的最优配置。​

「93913原创内容,转载请注明出处」