美国观察|美国AI行动计划下的人工智能军事安全风险挑战及其管控

作者:高骏 发布时间:2025-08-21 来源:复旦中美友好互信合作计划+收藏本文

前言

美国特朗普政府近期公布了被称为“AI星球大战”的人工智能(AI)行动计划并签署三项行政命令,大力推进美国AI技术的研发去管制、加大基础设施建设和主导国际合作,其中提到要积极加大国防部的AI技术应用、建设足够安全的军事情报AI技术部署环境和基础设施,以及确保美国掌握AI技术的国家安全风险。该行动方案被冠以“赢得竞争胜利”(Winning the race)的标题,特朗普对此直言不讳美国将是赢得AI竞赛的国家。结合近期OpenAI首席执行官山姆奥特曼(Sam Altman)成为特朗普政府的人工智能首席顾问,以及美国政府和私营AI科技公司日益深入的合作,可以看到美国政府正加速构建起AI军工复合体架构,后续将集全国之力开展“AI军备竞赛”,以保持其对华战略优势


已故国际政治大师亨利·基辛格(Henry Kissinger)在其最后的著作《人工智能时代与人类未来》中将人工智能的影响和当年的核武器做类比,认为人工智能较核武器的研发、部署和使用更为迅速隐蔽和难估计,因而更容易造成大国间的误判,若大国间缺乏及时有效的沟通与规则机制,AI领域的军备竞赛将不可避免加剧地缘政治的紧张。该书的合著者—前谷歌首席执行官和美国美国国家人工智能安全委员会(NSCAI)主席的埃里克·施密特(Eric Schmidt)指出,人工智能给美国国家安全带来的威胁主要分为民事和军事两大方面。在民事领域,大平台公司特别是海外公司得以通过AI算法影响美国政治经济,因此施密特建议推动对华“选择性技术脱钩”,抵消中国相关AI等科技企业的对美影响力;在军事领域,AI技术加持的传统武器、核武器和信息技术能力会极大提升国家的军事水平,使国家间难以预判和估计对方的意图和行动,让大国间特别是中美的安全关系愈发难以维持。


在两位专家看来,人工智能技术可能会改写国家间军事力量的平衡,甚至动摇支撑了几十年国际安全基础的核威慑架构。国际政治从没有能像如今这样被计算机半导体技术所裹挟,美国政府提出“AI军备竞赛”计划令本已失衡脆弱的国际关系的未来更加充满变数,如何理解人工智能对国际政治尤其是其在硬安全方面的影响以及把控人工智能军事领域的大国竞争已成为迫在眉睫的重要问题。


01

美国加速开发部署人工智能军事技术


当前美国等主要大国正加速布局军事AI的运用,从将传统的指挥控制通信系统中嵌入AI辅助决策功能,到用AI武装火炮系统和无人机,AI在军事领域正引起重大变革。据《麻省理工学院科技评论》指出,美国的军事AI大模型应用已从最早的AI辅助无人机图像识别和情报分析到了用于军事决策的阶段,美国甚至已考虑在反导系统中加入AI模块以减少人工操作。据美国国防部高级研究计划局(DARPA)2026年财年预算报告,美军已将AI的重要性提升到和人一样的标准, 其角色已经不是单纯技术赋能而是战略主导中枢。


早在2017年,美国国防部和谷歌公司合作启动被称为Marven的AI项目旨在通过AI技术从无人机视频和雷达数据等多源信息中快速识别战场目标以提升打击精确度。然而,2018年初该项目被谷歌员工爆料和抵制,谷歌被迫放弃了该项目,这也是私营AI技术用于军事目的产生伦理矛盾的标志性事件。随后该项目由AI情报巨头帕兰蒂尔(Palantir)接手完成,在2020年第一次实弹演习中成功击中目标,到2024年已经被用于资助乌克兰无人机攻击俄罗斯境内目标。美国军方计划到2029年完成Marven在全军的部署,Palantir也确立了当前美军首要AI技术私营合作方的地位。


图片

彭博社在相关报道中为Marven系统绘制的概念图


另一家代表性的硅谷AI军事技术公司安杜里尔(Anduril)致力于打造“AI武器库”,开发了AI指挥控制系统Lattice、无人哨兵塔、无人机、无人潜艇、无人战车等一系列AI驱动的自动化武器系统,由此围绕AI发展出海陆空乃至太空领域的军事自动化解决方案,据报道目前相关武器系统已经装备美军,并且已和日韩等美国盟友开展军事承包合作。


Palantir的市值目前已超3000亿元,远超洛克希德马丁、雷神、波音等一众传统军工公司,Anduril目前估值也已超300亿元,并且两家的估值和订单收入还在快速增长。Palantir和Anduril这样的AI军工科技公司正在军事重要性和经济价值上加速超越传统军工承包商。


与此同时,主业本非国防军工的Scale AI、Anthropic、OpenAI、XAI等硅谷AI新势力企业均瞄准了国防领域,成为美国国防军工产业的新贵。在此次特朗普政府发布人工智能行动计划放松行业管制之前,这些硅谷AI企业就已逐步调整自身政策,向美国国防军工产业靠拢。Scale AI在今年3月获得美国国防部AI旗舰项目“Thunderforge”的承包合同,开发用于计划和管理美军事行动的AI智能体;谷歌在今年初删除了其不将AI技术用于伤害人类领域的声明;2024年11月,亚马逊宣布将在AWS上向美国防军工部门开放其投资的AI科技公司Anthropic开发的大模型;而OpenAI早在2024年初就修改了其声明不用于军事用途的公司规定。


值得注意的是,这些AI科技公司不仅在美国政府的组织引导下成为军工复合体的重要组成部分,他们之间也在建立起高度合作,有效推动AI军事技术的发展和应用。据Anduril官网消息,Anduril和Palantir合作组建了一个AI军工产业联盟,双方在数据、软件和硬件方面进行互联共享,实现优势互补,并作为联合体共同参与美军项目开发建设;Scale AI的技术也将被纳入Anduril的建模和仿真基础设施,以此提升自动化武器的精确度水平;OpenAI和Anduril则正在开展一项合作,将OpenAI的AI技术用于提升Anduril的反无人机自动防御系统的实时反应水平。硅谷AI科技公司和军工科技企业以及美军事情报机构的联姻正帮助美国占据军事技术的领先地位,但也可能引发大国间的人工智能军备竞赛,带来难以预料的国际安全风险。


02

人工智能军事技术的潜在风险挑战


人工智能技术在军事领域的快速发展和部属对军事安全带来的风险挑战是全新的,AI军事技术带来的自动化和战争节奏升级可能使得冲突风险管控更为困难。当军事体系高度依赖于AI的自动、迅速和精确的分析决策和执行方式后,人类将越发难以理解AI的思考行为逻辑,人类的决策执行权会被削弱,难以把控实际军事对抗中的风险,对于低估AI武器系统的国家尤其如此。类似著名的“回形针思想试验”提出的假说,人工智能可以不惜毁灭地球只为了执行制造更多回形针的指令,AI在军事中的最优逻辑很可能实际是违背使用者利益甚至是反人类的,例如AI驱动的自动武器系统可能触发大国间军事冲突,这正是基辛格所担心的安全风险。有研究还认为大国间可能部署AI技术用于侦测对手核武打击体系的物理位置、发现弱点和实施有效精准打击等方面,这可能导致国际核武平衡被打破,加剧核武冲突的风险。


据兰德公司副总裁和美国国防部人工智能办公室创始人Jim Mitre今年发布的最新报告显示,AI技术可能带来改变世界格局的全新武器、军事冲突风险,并动摇现存的违禁武器不扩散体系和政治安全基础。


Mitre认为AI在军事安全领域的首要问题是可能诞生的“AI超级武器”,也就是被基辛格类比为核武器的基于通用型人工智能(AGI)的武器系统,一旦产生会彻底改变国家军事实力对比和国际格局。以当前AI的研发速度,像杰弗里·辛顿(Geoffrey Hinton)这样的专家预计至多20年、乐观预测不过5年时间AGI就将产生。届时各大国均会第一时间将其用于军事用途,例如制造一种压倒性的电脑病毒武器、无人自动攻击系统以及能精确找到对方弱点和预测对手反应的决策系统,军事技术将在AGI加持下达到一个难以想象的水平。


尽管目前大多数科技公司和美国军方依然可以通过“人在回路”(Human-in-the-loop)对AI进行管理,但AGI本身是一个人类无法理解的“黑盒”,而且在被技术加速的军事环境中人类将被迫依赖于AI机器的反应,其伴生的“AI超级武器”必然是较核武器更为高度不可控,如施密特就认为“AI军事武器会有使用者自身都无法预见的使用后果”。


Mitre假设在极端情况下,AGI可能成为类似好莱坞电影中具有自主意识的超级智能体,进而成为国际政治中全新的独立行为体。计算机科学家和图灵奖得主约书亚·本吉奥(Yoshua Bengio)曾指出这种风险并不是科幻小说,而是“合理而真实的电脑科学”。OpenAI就因其o1大模型展现的欺骗行为提高了其可靠性的评估要求,而在今年早些时候GPT-4.5大模型已经通过了研究团队的图灵测试,展现出比真人更像人类的“智能”。

图片

基辛格著作《人工智能时代与人类价值》


相较于诞生一种改变世界格局的“AI超级武器”或“AI超级智能体”,Mitre认为近未来AI技术更可能会动摇既有的政治安全基础,包括影响国家公共舆论和政治、带来大规模失业和贫富差距等,进而改变现有国家间的实力对比。施密特在其2022年的一篇论文中指出,美国和中国等主要大国围绕自身的超级平台公司构建国际性商业市场和交流平台,不同区域国家会选择和超级平台公司就AI技术开展合作,进而围绕这些超级平台公司构筑国际AI技术联盟。他认为这些AI驱动的超级平台公司将会成为重点国家安全领域,对手国可以轻易通过这些超级平台向他国施加影响力,开展AI驱动的信息战、情报战、获取个人数据。


其次是人工智能技术会让非国家行为体更易于掌握大规模杀伤性武器,直接挑战现有的违禁武器不扩散体系。人工智能技术不仅大幅解放了生产力,也提供了更容易获取的大规模杀伤性武器技术知识和开发工具。犯罪组织和恐怖组织等非国家行为体可以利用这些技术知识和工具开发新的电脑病毒、生物病毒武器甚至针对某一国民/种族的基因武器。当AI智能体越深入地和物理世界交互学习,它们就能将比人类科学家更高效精准地识别和生成大规模杀伤性武器的代码或分子结构,这可以极大降低获取大规模杀伤性武器的门槛,OpenAI内部对其o1大模型的安全评估也展示相关风险正在上升。


Mitre在报告中指出的迫近且已经发生的风险是各国在追逐AGI道路上采取的科技对抗以及由此产生的国际安全政策误判。当年冷战时期对核武器数量、当量及打击效果的竞争如今变成了大国间对芯片算力、AGI能力的竞争,但AI竞争也相较核武竞赛更难以管控和产生误判。对此,基辛格和“修昔底德陷阱”提出者的哈佛大学教授格雷厄姆·艾利森(Graham Allison)认为,相较政府牵头的核武器研发AI的研发主要由私营企业开展,难以对其发展进行直接干预;AI武器的研发和部署相较于有形和需要复杂基础设施的核武器来说是无形而隐蔽的,更是难以计量的,它的研发部署很难被监测到;AI的技术发展也相比核武器快速得多,使军控谈判难以跟上技术发展速度,这些都成为AI军控面临的全新挑战。


03

大国间如何建立人工智能军控机制


施密特和xAI顾问丹·亨德里克斯(Dan Hendrycks)以及Scale AI的创始人亚历山大·王(Alexandr Wang)提出了一种被称为“相互确保AI失灵”(MAIM)的人工智能恐怖平衡机制。MAIM假设的前提是国际体系中的大国都以单方面夺取AI技术霸权为最终目标,当一个大国显示出企图占据AI技术霸权的时候都会面临其竞争对手的防御性破坏,对手会不惜用军事手段摧毁企图达到AI技术单方面霸权垄断国家的AI技术能力,由此大国间形成了一种相互制衡下的AI国际秩序。


该机制显然模仿的是冷战时期美苏之间的“相互确保摧毁”(MAD),只是把核武器换成了AI,但批评者认为MAIM未能准确反映冷战时期核威慑的实际运作机制。历史上,MAD的本质是一种战略均衡状态(目前仍然如此),任何一方都无法实施真正有效且全面的先发打击,因为先行打击者无法确保完全摧毁对方的核反击能力和避免对方的毁灭性核报复,由此发生的核战争是双方都无法承受的最坏结果,在这样的状况下结果双方都选择不敢发动核战争并形成僵持的“恐怖平衡”,这种状态其实也就是博弈论中所谓的“囚徒困境”。


冷战中的MAD也并非一步形成的机制,而是在美苏不断的核战略技术对垒博弈中逐渐稳固的关系范式。在美苏双方接受确保毁灭原则后,双方始终拒绝相互制衡的实质,仍始终担忧对方可能率先取得突破,两国因此持续研发具备先发制人能力的核打击体系,美国就曾推行过“有限核战争”和“确保生存战略”,试图突破MAD的约束,但是核技术本身的毁灭性威力阻止了他们使用这种武器本身,但这绝不意味缺乏突破的尝试。反观施密特、亨德里克斯和王设想的MAIM则并非这样一种因AI武器本身导致的博弈论均衡状态,而是基于双方追求“AI技术霸权”下的一种行为假设,这缺乏核威慑理论那样的说服力。


MAIM在实践中也可能存在很大问题。MAIM认为AI技术如和核武器技术一样存在于特定的设施中,进而可以通过美军空袭伊朗核设施那样将其炸毁或者通过网络攻击摧毁,这显然没有看到AI技术的数字化、云化、去中心化的特点。事实上,正如基辛格等人的提醒,如今的AI技术分布于全球化的跨国公司平台及其去中心化的数字网络中,且所在国必然会对其进行高度保护不让外界知晓真实情况,正如此次特朗普政府的AI行动计划对AI基础设施所规划的那样。更重要的是,哪怕大国间真如MAIM所言会开展武装攻击,要明目张胆摧毁另一个大国的基础设施无异于公开宣战,这在冷战中也是不可能发生的事情。


MAIM的设想也与当前私营部门主导的人工智能发展现实存在根本性矛盾。当人工智能进步已构成国家存亡威胁时,各国政府绝无可能继续容许私营机构采取可能触发战争的高风险行动,届时国家全面掌控人工智能研发将成为唯一可行的应对方案,而美国已实际上在打造一个囊括AI科技公司、民间研发机构和政府部门的AI军工复合体。

兰德公司由此推断,MAIM设想的人工智能恐怖平衡不足以阻止中美等大国争相采取突破制衡的行为。


基辛格和艾利森从冷战经验出发,认为美苏正是认识到核武器的风险才找到了核军控的共同利益点并开始进行的谈判。冷战中美苏数十年的军控努力都旨在强化相互制衡状态,而这些努力今天仍然值得借鉴。例如,美苏为降低误判风险通过非正式磋商达成互不干扰对方监视自身领土行动的默契,并就危机不稳定性问题(即当一方误判对方即将发动攻击而被迫先发打击的情形)在《反弹道导弹条约》中约定限制导弹防御系统部署,以及为保护民众免受放射性沉降物危害共同禁止大气层核试验通过《战略武器限制条约》(SALT)约束两国导弹发射井增量。同时,美苏冷战时期最具历史深远意义的共识在于认定核武器向其他国家的扩散将对双方都构成威胁,最终可能导致核国际政治的无政府状态,基于此建立的国际防扩散体系以1968年《不扩散核武器条约》为核心,迄今已有186个国家承诺放弃发展本国核武库。


尽管目前AI技术的军事运用尚未能产生出某种“AI超级武器”,但由此产生的安全风险正在与日俱增,中美等主要大国正在认识到这样的风险,相关合作已经迫在眉睫。基辛格和艾莉森认为鉴于各国将持续运用人工智能保障国家安全和提升国民福祉,长远来看必须构建一种全球性AI治理秩序,着力防范人工智能最具危险性与潜在灾难性的后果。此类举措需要各国AI大模型研发的科学家与国家机构间的专业对话,在美国和中国等AI技术先进国家间先开展政府间谈判,并设立类似国际原子能机构的专业国际组织来协调管控AI风险。


人工智能专家辛顿就表示,尽管各国可能无法在网络攻击、虚假信息等问题上达成一致,但对AI安全可能是例外,辛顿说即使在冷战高峰时期美苏仍然能就核安全进行合作,大国间完全有理由在率先发现“AI失控”风险时告知他国。辛顿还提议建议一个全球性的AI安全研究机构,由各国可以在保证自身技术数据隐私的情况下共同研究如何训练向善的超级AI。


当前应推动美国和中国为首的大国间尽快开展和建立关于人工智能安全领域的双边和多边对话机制,以识别和明确风险点并形成共同约束的共识和承诺,并在大国间首先建立起AI军事技术的国际治理框架,推动将AI军事技术的应用限制在日内瓦公约等国际安全规定范围内。美国和中国等大国还应围绕AI军事技术影响举行双边军方对话,就“红线”取得一些共识,宣布禁用某些强人工智能的具体应用,例如干预他国核指挥控制系统或者在核武器系统中部署AI。此外,还需要推动包括政府和企业在内的人工智能领军者以共同利益为准则管控技术扩散风险,限制AI技术可能产生的破坏性风险。