15张图表描述2024年AI发展现状

🤖 由 文心大模型 生成的文章摘要

IEEE(电气和电子工程师协会)旗下杂志《Spectrum》搜集整理了哈佛大学近期发布的《2024年人工智能指数报告》中的15张代表性图表。通过这些图表,我们能够一窥全球人工智能领域最新的趋势与机遇。

1. 生成式人工智能投资猛增

虽然去年全球企业投资总体下降,但对生成式人工智能的投资却达到了顶峰。随着世界努力应对ChatGPT和图像生成DALL-E 2等生成式AI系统的新功能和风险,这种繁荣预示着2023年的更广泛趋势。去年的故事是关于人们对生成式AI的反应,无论是在政策和公众舆论中,还是在投资更多的行业之中。值得注意的是,目前大部分对生成式AI的私人投资都发生在美国。

2. 谷歌在基础模型竞争中占据主导地位

基础模型是大型的多模态模型,例如OpenAI的GPT-3和GPT-4是使 ChatGPT用户能够编写代码或莎士比亚十四行诗的基础模型。由于训练这些模型通常需要大量资源,因此工业界现在制作了大部分模型,而学术界只推出了少数模型。公司发布基础模型既是为了推动最先进的技术向前发展,也是为了给开发人员提供构建产品和服务的基础,其中谷歌在2023年发布最多。

3. 封闭模型优于开放模型

目前人工智能领域的热门争论之一是基础模型应该是开放还是封闭的,一些人热衷认为开放模型是危险的,而另一些人则认为开放模型推动了创新。在许多常用的基准测试中,封闭模型的表现优于开放模型。关于开放与封闭的争论通常围绕着风险问题,但关于是否存在有意义的性能权衡的讨论较少。

4. 基础模型变得超级昂贵

这就是行业主导基础模型场景的原因:训练一个大模型需要非常雄厚的财力。有趣的是,谷歌2017年的transformer模型引入了支撑当今几乎所有大型语言模型的架构,其训练成本仅为930美元。

5. AI产生了大量的碳排放

AI模型之间的差异是由于模型规模、数据中心能源效率和能源电网的碳强度等因素造成的。当模型正在执行其训练的工作时,虽然每次查询的排放量可能相对较低,但当模型每天被查询数千次甚至数百万次时,总的影响量可以会超过模型的训练量。

6. 美国在基础模式方面处于领先地位

美国在衡量AI的主要指标中都处于领先地位,包括发布的基础模型数量和被认为是重大技术进步的AI系统数量。然而,中国在其他指标中处于领先地位,包括授予的人工智能专利和工业机器人的安装量。

7. 业界呼唤新的博士(高学历人才)

2022年美国有70名新的人工智能专业的博士在业界工作,这是过去几年趋势的延续。

8. 从业人员的多样性取得一些进展

参加AP计算机科学考试的非白人和女学生人数正在增加,其中参加考试的学生有30%是女孩。在本科阶段,获得计算机科学学士学位的北美学生的种族多样性也呈上升趋势,尽管获得计算机科学学士学位的女性人数在过去五年中几乎没有变化。

9. 财报电话会议中的喋喋不休

企业对AI的可能性已经清醒过来。近80%的财富500强公司在他们的电话会议中包括了对AI的讨论。企业的领导者担心,如果他们不使用这项技术,他们就会错过良机。虽然其中一些喋喋不休可能只是CEO们对流行语的喋喋不休,但在麦肯锡的调查数据中,55%的公司至少在一个业务部门实施了AI。

10. 成本下降,收入增加

这就是为什么AI不仅仅是一个企业流行语:麦肯锡的同一项调查显示,AI的整合导致公司的成本下降、收入增加。总体而言,42%的受访者表示他们看到了成本的降低,59%的受访者声称收入增加了。报告中的其他图表表明,这种对底线的影响反映了效率的提高和工人生产力的提高。2023 年,不同领域的多项研究表明,AI使工人能够更快地完成任务并产生更高质量的工作。一项研究着眼于使用Copilot的编码人员,而其他研究则着眼于顾问、呼叫中心代理和法学院学生。这些研究还表明,尽管每个工人都受益,但人工智能对低技能工人的帮助大于对高技能工人的帮助。

11. 企业确实会感知风险

隐私和数据治理被全球的企业认为是最大的风险,而公平性(通常以算法偏见为讨论)仍未在大多数公司中得到认可。同时,企业正在对其感知到的风险采取行动:各地区的大多数组织已经实施了至少一项负责任的人工智能措施来应对相关风险。

12. 人工智能并不能在所有方面都击败人类

近年来,AI系统在一系列任务上的表现都超过了人类,包括阅读理解和视觉推理,AI性能改进的步伐也加快了。现在人们为数学竞赛引入了一个新的AI基准,人工智能从30%开始,然后在一年内达到90%。虽然在复杂的认知工作中,人类的表现仍然优于AI,但让我们明年再来看看情况如何。

13. 制定人工智能责任规范

当一家人工智能公司准备发布一个大模型时,其标准做法是根据该领域的流行基准测试它,从而让人工智能社区了解模型在技术性能方面的相互竞争情况。然而,根据负责任的AI基准测试模型并不常见,这些基准评估有毒语言输出(RealToxicityPrompts 和 ToxiGen)、响应中的有害偏见(BOLD和BBQ)以及模型的真实程度(TruthfulQA)。这种情况开始改变,因为人们越来越意识到,根据这些基准检查一个人的模型是负责任的事情。然而,报告中的另一张图表显示缺乏一致性:开发人员正在根据不同的基准测试他们的模型,这使得比较变得更加困难。

14. 法律既促进又限制人工智能

2016年至2023年期间,人工智能指数发现,33个国家至少通过了一项与人工智能相关的法律,其中大部分行动发生在美国和欧洲。在此期间,总共通过了148项与人工智能相关的法案。该指数的研究人员还将法案归类为旨在增强一个国家人工智能能力的扩张性法律或限制人工智能应用和使用的限制性法律。虽然许多法案在继续推动人工智能的发展,但研究人员发现,从全球趋势来看,对人工智能的限制性立法正在增多。

15.人工智能让人们紧张

报告中有一项关于对人工智能态度的全球调查,来自31个国家的22,816名成年人(16至74岁)参与了调查。超过一半的受访者表示,人工智能让他们感到紧张,高于前一年的39%。现在有三分之二的人预计人工智能将在未来几年内深刻改变他们的日常生活。有趣的是,许多对于人工智能的悲观情绪来自西方发达国家。

「93913原创内容,转载请注明出处」