随着人工智能(AI)管理需求日益迫切,蚂蚁集团、腾讯和百度与美国科技巨头微软、谷歌和Meta联手开发了全球首个供应链大型语言模型(LLM)安全国际标准。
上周五,在上海外滩包容性会议的一场边会上,国内科技公司与世界数字技术学院(WDTA)共同发布了“供应链大型语言模型安全要求”。
这项新标准涵盖了LLM的整个生命周期,是WDTA更广泛的人工智能安全、信任和责任倡议的一部分。WDTA于2023年4月在日内瓦根据联合国框架成立,旨在提供全面的措施来管理整个供应链的安全风险,例如数据泄露、模型篡改和供应商不合规。
该标准由中美两国领先科技公司的专家以及云安全联盟大中华区、新加坡南洋理工大学等顶尖学术和行业机构起草和审查。
联合国科技发展委员会主席、WDTA名誉主席彼得·梅杰在小组讨论中表示:“随着人工智能不断发展并影响全球各个领域,人工智能相关标准的国际合作变得越来越重要。”
这项最新标准是继两项早期生成式人工智能(GenAI)标准之后推出的,这两项标准也是中国和西方科技公司合作的成果。《生成式人工智能应用安全测试和验证标准》和《大型语言模型安全测试方法》于4月在WDTA活动上发布。
“目前,大型语言模型和其他新兴技术存在很多模糊性和不确定性,这使得机构、公司和政府难以决定什么才是有意义的标准,”微软技术战略师Lars Ruddigkeit在同一小组中表示,“对我来说,WDTA供应链标准试图让这条通往安全未来的第一条道路走上正轨。”
随着企业和个人越来越多地采用GenAI,科技公司呼吁采取措施确保该技术的安全。
2022年底ChatGPT发布之后,GenAI诞生之前,就已经存在一些关于人工智能的国际标准和法规。
2021年,联合国遗产机构联合国教科文组织提出了《关于人工智能伦理的建议》,目前已被193个成员国采纳。
2022年至2023年间,总部位于日内瓦的非政府组织国际标准化组织发布了有关系统管理、风险管理和使用机器学习的系统的人工智能相关指南。
在美国,加州立法机构预计将通过SB 1047,这是美国首批监管人工智能系统的主要框架之一。