🤖 由 文心大模型 生成的文章摘要
美国防部对更广泛的人工智能技术进行了数十年的实验之后,美军方一些部门正在对生成式人工智能踩刹车。
随着企业竞相将生成式人工智能呈现给世界各地的客户,军事专家表示,其优势和局限性需要进一步测试和评估,以便负责任部署。
胡佛研究所兵棋推演和危机模拟项目主任Jacquelyn Schneider和人工智能研究员Max Lamparth在《外交事务》杂志上发表的一篇新文章中表示,大型语言模型具有潜在的危险倾向。
当他们在模拟战争游戏等情况下测试OpenAI、Anthropic和Meta LLM时,两人发现人工智能建议升级武器性能、加强军备竞赛、加剧武装冲突,甚至使用核武器,而不是给出合理替代方案。
基于机器学习的旧式人工智能已深深融入美国军方,从供应链分析到解释卫星数据,美军将其广泛应用于各个领域。
但生成式人工智能的出现速度之快令五角大楼感到困惑。“华盛顿对生成式人工智能的采用持谨慎态度,但硅谷却很激进。”
而这反映在了美军方对生成式人工智能应用的态度,美天军于2023年9月暂停使用生成式人工智能。
去年6月,海军首席信息官Jane Overslaugh Rathbun得出结论,虽然“生成式人工智能可以成为力量倍增器”,但商业模型存在“固有的安全漏洞”,并且“不建议用于作战用例”。
军事和情报专家表示,另一个大问题是人工智能模型可筛选大量数据,但无法告诉你是如何得出特定答案或建议的,这使得很难根据产出做出相应的决定。
斯坦福大学胡佛研究所高级研究员Amy Zegart表示,生成式人工智能不擅长处理突发事件,比如“哈马斯以一种没人认为哈马斯会攻击的方式进行攻击”。
专家表示,军方对人工智能数据控制权的态度使得五角大楼很难支持生成式人工智能。
「93913原创内容,转载请注明出处」