🤖 由 文心大模型 生成的文章摘要
一篇于5月在中文期刊《通用控制与仿真》上发表的文章公开披露了人工智能技术在军事应用中既有潜力,也有风险。
如果人工智能技术能够独立决策,包括无人机在内的部队和机器狗将拥有更大的行动自由和射击能力,但总部指挥权须牢牢掌握在人类手中。
科学家们的一项重要任务是在模拟中测试作战计划,以“权衡利弊,理清战斗的混乱局面”。
战役级军事模拟往往需要人类指挥官的参与,对突发事件进行现场决策,研究人员表示:“现行联合作战模拟系统由于缺乏联合作战层面的指挥实体,模拟实验效果不佳。”
AI指挥官可以在人类指挥官无法参与大规模虚拟战斗或行使指挥权时替代他们,在实验室的范围内,它可以自由行使这一权力,无需任何人类干预。
研究团队表示:“最高指挥官是整个行动的唯一决策实体,拥有最终的决策责任和权力。”这是军事研究中公开报道的人工智能的最高级别角色。
例如,美国陆军AI仅充当指挥官的“虚拟参谋”,提供决策支持,而美国空军AI飞行员则只参与前线训练,并不干扰作战室行动。
研究团队表示,AI指挥官的初始设定反映了一位经验丰富、才华横溢的战略家,“拥有健全的心理能力,平衡而坚定的性格,能够冷静分析和评估形势,不会做出情绪化或冲动的决定,能够快速提出解决方案,通过从记忆中回忆类似的决策情景来制定切实可行的计划”。
世界各国正在展开军事人工智能应用的竞赛,其中中国和美国处于领先地位。
中国和美国虽然力争在这一关键领域不落后,但同样担心人工智能不受控制的发展对人类安全构成的威胁。
中国、美国和俄罗斯的高级官员正在商讨制定一套规则来限制人工智能军事化的风险,包括禁止人工智能控制核武器。
「93913原创内容,转载请注明出处」