中美关系和军事人工智能

2023年7月,新美国安全中心(CNAS)“人工智能与稳定工程”推出阶段性研究成果——《中美关系和军事人工智能:美国如何在与中国的竞争中管控风险》。鉴于当前影响全球稳定的两大因素——中美日趋紧张的地缘政治对抗关系和人工智能(AI)技术的迅速发展正相互叠加,该报告旨在分析美国如何在中美关系中管控由AI军事化所带来的战略风险。元战略编译报告重要内容,为中美关系和军事人工智能发展研究提供参考。

报告首先回顾了中国对AI所持观点和施政方针,指出中国将AI作为推动国民经济发展和现代化的新引擎;其次,该报告指出AI军事化应用和增加中美战略风险的五条路径:第一,通过提高单项能力,增强中国整体优势;第二,AI对决策和信息域的影响;第三,无人自主系统;第四,AI在情报、监视和侦察上的应用;第五,AI在指挥、控制和通信上的作用。鉴于此,该报告建议美国政策制定者应从三个方面来管控风险,一是遏制中国AI军事应用的发展,同时提升自身AI军事应用能力;二是采取单边行动,负责任地管控AI军事应用;三是借助双边和多边外交手段,降低战略风险。

中国的人工智能规划

在中国,无论是公共部门还是私人企业,均认为AI对中国未来的发展至关重要。中国领导人多次提出要把中国建设成为世界科技强国,二十大报告指出,“坚持创新在我国现代化建设全局中的核心地位”。2023年4月,习近平总书记在主持召开中共中央政治局会议时指出:“要重视通用人工智能发展,营造创新生态,重视防范风险”。随着2017年中国出台《新一代人工智能发展规划》,人工智能成为经济发展的新引擎,而鉴于数据在AI发展中的关键作用,2023年中国“两会”审议通过组建国家数据局。中国领导人认为AI是关乎产业转型和价值链升级的主要抓手,有助于中国超越传统发展模式,实现高质量的可持续发展。

中国希望通过在具体领域应用AI,解决多重经济和社会挑战,如通过机器人等AI技术来提高工业生产率,进而弥补劳动力数量下降问题;通过智慧农业、智慧城市、智慧交通和智慧物流来赋能城市化和拉动内需;通过数字政务来提高公共服务水平;通过AI在医药领域的突破来为民众提供高质量、低成本的医疗服务,减轻社会养老负担;通过AI技术革新,中国将提高资源利用率,有助于实现可持续发展、打造环境友好型社会。

中国政府凭借其“集中力量办大事”的政治体制优势,可以调集资源,优先发展AI,而一些调查也显示中国民众对AI的欢迎度高于美国民众,普遍认为AI有助于提高生活质量。为打造世界AI强国,中国出台了多项举措:为明确AI伦理标准,中国科技部在2019年出台了关于负责任AI的治理原则;为回应民众对侵犯隐私的担忧,中国政府颁布管理条例限制私人企业使用消费者数据;为打击市场垄断、价格歧视,遏制虚假信息传播,中国网信办颁布《互联网信息服务算法推荐管理规定》,规范中国境内企业对AI算法的使用;为管理通用AI,中国网信办在今年4月出台了相关管理草案,管控通用AI训练数据和产出。

五大战略风险路径

随着中美两国加速AI的军事化应用,许多分析人士指出,这无疑会使本就日趋紧张的中美关系雪上加霜。本报告列出了AI的军事化应用可能导致中美关系不稳定、产生战略风险的五条路径:

路径一:通过提高单项能力,增强中方整体优势

AI的军事化应用会对中美两国的总体军事平衡产生影响,进而带来战略风险。近期的许多AI军事化应用会提高中方的资源利用率,优化维修、物流、训练和决策等“幕后工作”的流程和效率;除此之外,无人机等新兴的军事AI系统也会增强中方的战斗实力。随着中方凭借AI的军事化应用,其各方面实力逐步增强,进而将提高整体军事实力。报告指出,中美整体军事实力对比发生变化,将影响东亚的军事格局,威胁美国及其盟国在东亚的军事主导地位。

路径二:AI对决策和信息域的影响

军事AI工具可通过三种方式增加决策和信息领域的战略风险:首先,压缩决策者做出重大决策的时间,为决策过程提供错误信息,诱使行为体试图通过大规模信息行动破坏国家的审议工作。如果计算工具能比人类更快地完成某些任务,国家可能会为了跟上对方行动而仓促决策。一旦双方都担心对方会在越来越短的时间内采取行动和做出反应,情况将会加剧。这种时间危机可能会引发危机或加剧危机。其次,决策支持型AI可能会产生错误信息,导致决策者做出错误决策,人工智能系统可能会以不透明和不可预测的方式出错。如果不仔细关注和细致了解人工智能系统的运作方式,包括其缺陷,决策者最终可能会根据捏造、歪曲或其他低劣的信息和分析做出错误的重要战略决策。最后,AI军事化应用可通过生产逼真的文字、音频和图像,利用错误或虚假信息行动,破坏对手的政治团结,混淆其决策。

路径三:无人自主系统

无人自主系统可通过四种方式引发战略风险:第一,如果自主系统展现出卓越的能力,政治和军事领导人可能会误认为己方战场取胜几率高,更倾向于使用武力;第二,使用机器人的军事行动在人员伤亡方面的预期风险较低,这可能使任何一方的领导人更倾向于使用机器人作战;第三,计算能力的提高也可以增强现有系统的自主能力,从而可能导致危机的不稳定;第四,理论上,以机群形式运行的低成本无人驾驶飞机可以为常规反击部队提供新的选择。

路径四:AI在情报、监视和侦察上的应用

AI的军事化应用已经为完成情报、监视和侦察(ISR)任务提供了新的工具,未来可能还会有更多应用。军事AI可以与旧技术相结合,做一些创新的事情。例如,将AI与气球或微型卫星相结合,在“近太空”进行监视,或为ISR无人机提供集群能力。此外,军事AI的某些改进可能会带来改变军事技术结构要素的能力。

路径五:AI在指挥、控制和通信上的作用。

AI在军事化应用上的发展还可能引发智慧、控制和通信(C3)领域上的革命。中美双方都希望改进其C3,可以收集和融合来自不同传感器的数据,并迅速将这些数据作为战场信息提供给指挥官,双方均希望能够同时削弱、干扰或摧毁对方的C3。随着大数据作为AI的输入和对象变得越来越重要,双方都将面临通过修改训练数据来“毒化”对手数据的诱惑。

三大管控战略风险方案

美国需要采取一系列措施来应对AI军事化应用在中美双边安全关系中带来的各种危险。正如这些风险来源在实践中可能相互重叠一样,风险管理组合中的方法旨在减少多种不稳定因素。本节将介绍三大类管控战略风险的方案:

方案一:遏制中国AI军事应用的发展,同时提升自身AI军事应用能力

报告指出,美国可以试图阻止中国获得实现其智能化目标所需的技术,同时发展自身的AI技术,防止中国获得技术的领先地位。美国已通过实施制裁和出口管制,限制中国发展AI军事化应用的能力,美国国防部也在着手开发和部署可提高其整体战斗力的AI军事化应用。迄今为止,美国为阻止中国获得AI军事化应用成果所做的努力主要集中在计算领域,即为AI系统处理数据的先进半导体,同时使用更有针对性的工具来解决AI的其他关键要素问题,包括数据、人才和算法。未来,政策制定者可能会限制大语言模型等通用算法的出口或披露。

方案二:采取单边行动,负责任地管控AI军事应用

与任何武器一样,降低AI军事化应用风险的最佳方法是将系统的安全性和可靠性与其杀伤力或效率放在同等重要的位置,并严格执行测试和评估、验证和核实。为了最大限度地减少不确定性,中国和美国需要采用安全的设计原则。美国就军用AI的开发和使用制定了一系列单方面的宣言性政策。美国国防部《2020年人工智能伦理原则》要求美军使用的AI“负责任、公平、可追溯、可靠和可治理”。这些核心原则在随后的文件中得到了重申和补充,如《负责任的人工智能实践指南》、《负责任的人工智能战略和实施途径》以及2023年1月发布的《自主武器系统指令》,这些文件规定了如何处理AI并将其融入国防项目的整个生命周期。

方案三:借助双边和多边外交手段,降低战略风险

防止危险的力量失衡、代价高昂的军备竞赛或误判的另一种方式是双边和多边外交。通过谈判达成军备控制协议或建立信任措施(CBMs),各国可以尝试为特定军事技术的开发或使用设定界限,然后核查遵守情况。中国和美国应该讨论对AI最危险应用的限制,如规范其在核指挥与控制或进攻性网络行动中的使用。美国和中国政府可以利用双边和多边渠道,就AI对国家安全的影响交换高层和具体领域的意见。在对话中,每一方都可以提出有关能力及其使用的问题,并表达期望。除官方渠道外,两国还可利用1.5轨和2轨对话。

免责声明:本文转自元战略,原作者Allen Wang。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!


发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注