作者:陈韵仪 发布时间:2026-05-04 来源:全球人工智能创新治理中心+收藏本文
编者按
当前,全球人工智能治理正深陷结构性僵局。尽管各国与国际社会对人工智能的潜在风险早有预判,各类倡议、宣言与峰会对话也层出不穷,却始终未能搭建起具有约束力、可落地执行的全球协同框架。在此背景下,英国智库查塔姆研究所(Chatham House)数字社会项目团队近期发布研究报告《打破全球人工智能治理僵局:以危机促协同》,提出极具现实冲击力的观点:打破全球人工智能治理僵局的关键动力,或许并非前瞻性共识,而是一次系统性危机。历史经验表明,国际治理机制往往是在系统性失败后才得以快速建立,而非依靠渐进式协商。危机本身并不值得期待,也未必能催生公正有效的治理体系。能否在危机之后构建起有效且可持续的治理规则,关键在于各国与相关主体提前做好制度、技术与协作层面的充分准备。这一论断,为破解全球人工智能治理困局提供了全新思路。
以下译文仅代表原文作者的个人观点与分析立场。详细内容请参阅文末原文链接。

图片来源:报告原文
摘要
当前全球人工智能治理陷入僵局的根源并非是缺乏对风险的预判,而是当前世界的政治经济结构让跨国协同难以实现。
在人工智能发展的前沿,主要参与方之间存在巨大立场分歧。技术大国优先考虑国家竞争优势而非合作;中等强国难以弥合不断扩大的人工智能能力差距;国际和国家机构缺乏执行力与技术能力;私人投资规模远超政府监管投入能力;即便是盟友之间也难以达成共识。仅靠设计更完善的峰会机制,或制定更清晰的原则框架,无法化解这些分歧。
受这些壁垒制约,全球人工智能治理的快速推进,可能只有在不作为的代价高到各国政府与企业无法忽视时,才具备实现的可能。无论是源于金融体系失灵、自主武器滥用的一场人工智能危机,还是人工智能系统自身的失控,都可能创造一个窗口期,让此前看似不可能的协同与合作成为必然选择。
切尔诺贝利事故推动了核安全国际规范的建立,全球金融危机促成了新的金融监管体系,WannaCry勒索病毒攻击强化了网络治理规范,即便是应对不力的案例也为危机治理提供了经验。这些过往案例表明,持久的治理体系可能并非产生于前瞻性规划,而是在一次系统性失灵之后逐步形成。
同时,报告通过案例分析表明,使基于危机的治理模式发挥最佳效果,必须依托既有的制度体系、技术专长与基础设施建设,而非从零开始搭建。报告并非认为危机是最理想的路径,而是提出,如果决策者能够做好充分准备,一场人工智能危机极有可能推动一次具有里程碑意义的国际治理变革。报告最后提出了一系列举措,供各国政府、国际机构与企业参考,以推动形成可持续的危机后治理体系。

图片来源:报告原文
作者
作者团队来自查塔姆研究所(Chatham House,英国皇家国际事务研究所),该机构是全球顶尖的独立国际事务智库,其数字社会项目(Digital Society Programme)专注于新兴技术前沿的全球治理研究。项目团队成员包括:罗恩·威尔金森(Rowan Wilkinson),数字社会项目研究助理;亚历克斯·克拉索多姆斯基(Alex Krasodomski),数字社会项目主任;伊莎贝拉·威尔金森(Isabella Wilkison),数字社会项目研究员;弗朗西斯科·哈维尔·瓦雷拉·桑多瓦尔(Francisco Javier Varela Sandoval),国际战略论坛学院数字社会项目研究员。
01
全球人工智能领域的跨国协同治理难以实现,并非源于各国对风险的预判不足,而是受制于当下人工智能领域的政治经济结构。
首先,大国竞争逻辑正在强化技术领域的战略属性,使人工智能成为国家竞争力的重要组成部分。在这一背景下,国家更倾向于通过技术优势获取相对收益,而非通过规则约束实现绝对安全。其次,各国技术能力分布极不均衡,少数国家与企业掌握关键算力与模型资源,多数国家在治理中处于边缘地位。再次,现有国际机构缺乏执行能力,难以对快速发展的人工智能体系进行有效监管。
在这一结构性约束下,以国际峰会、原则宣言及软性法律机制为代表的传统治理路径,难以突破现实障碍。报告由此提出,全球人工智能治理的真正突破点,很可能来自外部冲击,而非内部协调。换言之,只有当人工智能风险转化为可感知、可量化的危机时,政治体系才会重新评估成本与收益,从而为协调行动创造条件。
历史经验为这一判断提供了支持。从核安全到金融监管、再到网络安全,关键治理机制往往是在危机之后迅速形成。这些危机不仅暴露了系统性风险,也重塑了政治优先级,使原本难以达成的共识在短时间内得以实现。而这套治理机制是否有效、公平、可持续,很大程度上取决于危机爆发前的准备。
基于这一认识,报告将研究重点从“如何设计理想治理框架”转向“如何在危机到来时迅速形成有效治理”。这一转变意味着,当前政策重点应放在制度准备、技术能力建设以及协调机制的预置上,从而确保在关键窗口期内能够迅速行动。
02
报告指出,当前人工智能领域的国际合作,不仅在技术、法律与实操层面存在巨大困难,更面临着多重结构性壁垒。快速变化的地缘政治格局、多边机构执行能力的弱化、公私部门的力量失衡、以及全球共识体系的持续崩塌,不同因素相互叠加,让具有前瞻性、协同化的治理难以实现。
一
地缘政治竞争加剧
首先,地缘政治竞争构成最根本的约束。在人工智能成为国家战略核心资源的背景下,相较于通过国际合作进行风险约束,世界各国都更倾向于将技术优势转化为战略优势。
中美两国在人工智能发展领域遥遥领先,且均将创新作为国家发展议程的核心,以期获取经济与安全优势。据统计,中美两国在人工智能领域的合计投入已远超全球其他国家总和:2025年,中国人工智能投资预计增长48%,达到980亿美元,而美国同期私人领域人工智能投资已达1100亿美元。以通用人工智能的研发突破为核心目标,各国围绕前沿技术研发与部署展开了激烈竞争。在此背景下,人工智能安全界关于放缓研发、发布研发禁令的呼吁,屡屡遭到质疑与反对。此外,发展中国家由于本土前沿人工智能发展能力不足,主要依赖来自中美等技术大国的技术转移;多数全球南方国家并非追求独立的监管框架,而是将人工智能基础设施建设、训练数据与算力资源的获取放在首位。当技术发展与国家能力深度绑定,任何治理框架都可能被视为限制自身发展的工具,进而使得国际合作难以建立信任基础。
二
多边机构能力弱化
其次,多边机构普遍缺乏强制执行力。尽管各界已认识到人工智能共同风险的规模及其不可预测性,诸多利益相关方也希望通过联合国、经合组织、欧盟、东盟等国际组织、多边体系与区域论坛,形成共同的治理方案与指引,但迄今为止,多边机构在人工智能领域普遍缺乏强制执行力与技术支撑能力,难以对复杂系统进行实时监管。例如,联合国已经成立人工智能问题独立国际科学小组、开启人工智能治理全球对话,但在技术相关议题上,联合国无法凌驾于主权国家的政治意志之上,同时也缺乏跟上技术发展速度所需的响应能力、技术储备与资金预算。此外,在跨境数据流动、模型安全评估等领域,人工智能技术的演化速度远超监管制度的更新速度,导致制度对技术的监管始终处于滞后状态。
目前,美国接连退出多个国际组织与协议,包括气候协定、人权体系与世界卫生组织,这些举措严重削弱了现有的国际治理体系。同时,美国削减国际援助与政府间合作支持的行为,也标志着其正在背离多边合作愿景与目标。尽管欧盟通过《人工智能法案》展现了监管新兴技术的雄心,但这套监管标准未能在全球范围落地,许多国家反而转向了放弃硬性监管、设定其他优先事项、或是与中美建立双边合作关系的方向。在投资的吸引力远大于全面政策约束的现实条件下,欧盟自身也推出了新的政策规则,转向约束力较弱的技术治理模式。

截至2026年1月初,美国已宣布退出66个国际组织
图片来源:INSIGHT
三
公私部门力量失衡怎么办?
第三,公共与私营部门的治理能力存在不平衡,进一步加剧了治理困难。前沿人工智能系统的研发与部署主要由私营企业主导,如谷歌、OpenAI等企业负责模型研发,英伟达与台积电主导算力芯片制造,亚马逊云科技、谷歌、微软等云厂商提供底层基础设施,而这些企业又大多集中在中美两国。而私营企业受商业利益驱动,往往会抵触提升透明度、限制技术能力、接受合规核查等增加运营成本的监管要求。
此外,当前各国政府普遍缺乏对私营人工智能企业实施有效约束的能力。监管机构普遍没有足够算力独立评估前沿模型,只能依靠企业自行上报或自愿开放访问;既难以招到与业界水平相当的技术人才,也无权强制企业披露训练数据、模型架构、安全测试结果等核心信息。最终导致了企业掌握的信息、资源和技术实力,都远远超过监管机构。
四
全球共识体系崩塌
第四,全球性问题的有效治理,离不开对共同事实的确认、证据争议的化解以及行动时机的共识,但当前各国在风险认知与价值理念上都存在明显分歧。各国身处彼此割裂的信息环境,价值观持续分化,过去二十年里,民主国家民众对媒体、政府和科研机构的信任度大幅下滑,媒体碎片化导致公众接收的信息差异巨大。监管机构因资金不足、政治干预等问题,难以出具独立可信的评估结论,专业意见也常被贴上党派标签,最终导致全球缺乏一套能够化解分歧的统一机制。
与此同时,全球尚未形成统一的人工智能透明度与问责标准,且在现有格局下短期内也难以建立。没有共同的风险评估基础,国际协议便无法推进,监管执法更无从落地。如果各国不能就人工智能的能力边界和适用场景形成基本共识,公众与政策层面的治理支持也会不断弱化。

“碎片化的世界”
图片来源:The Italian Institute for International Political Studies (ISPI)
多重障碍叠加,最终形成了难以突破的结构性僵局:技术大国将自身优势放在合作之前,中等国家更看重技术获取而非监管约束,国际与国家层面机构缺乏执行能力和技术储备,私人投资规模远超监管投入,盟友与竞争对手不仅在基本事实上难以达成一致,更逐渐放弃了原有的共同价值与合作目标。基于这一现实,报告提出核心判断:只有当不作为的代价高到无法承受时,僵局才有可能被打破,而这种代价很可能以一场危机的形式显现。
03
报告通过历史案例分析指出,危机在全球治理体系中往往具有“催化剂”作用。尽管危机本身并不必然带来治理进步,但它能够打开一个关键窗口期,让常规条件下难以推进的重大举措成为可能。由危机触发的各类应对行动,通常会推动形成实质性的政策变革。
首先,危机会通过“问题重构”改变政策环境。当某一事件被定义为系统性危机时,其影响便不再被看作局部或偶发现象,而会上升为需要全球共同应对的整体性挑战。这种叙事转变能够扩大政策工具的合法性,让严格监管、跨国协调等原本难以被接受的措施变得顺理成章。
其次,危机具有“权力集中效应”。在紧急状态下,决策权会向具备技术能力或政治权威的少数主体集中,从而绕开平时繁琐冗长的决策程序。这种临时性的权力集中可以显著提升响应速度,但如果权威缺乏合法性基础,也可能导致治理失效或行动碎片化。
第三,危机能够促成“激励对齐”。在常态下,各国利益分化明显,但危机通常会带来“对称性冲击”,让主要参与方面临相似风险,进而降低合作门槛。例如2008年金融危机中,主要经济体几乎同时遭遇系统性风险,这为协同行动创造了条件。

图片来源:InsiderFinance Wire
第四,危机还会暴露制度短板与潜在风险,让原本隐蔽的治理问题显性化。这种风险暴露有助于形成公众压力与政治共识,为制度改革提供必要动力。
然而,报告也强调,危机并不必然带来良好治理。以新冠疫情为例,尽管它属于全球性冲击,但由于源头争议、利益分歧以及协调机制缺失,国际合作的成效有限。这说明危机窗口期具有明显的时限性,如果没有前期准备,机会很容易转瞬即逝。
案例研究进一步显示,危机驱动治理能否成功,取决于几个关键条件:是否有清晰的问题界定、是否具备公认的权威主体、是否存在可直接启用的制度路径,以及各方利益是否趋于一致。危机本身并非解决方案,而是放大了已有的制度能力与准备水平。如果危机前缺乏充分准备,危机后形成的治理体系很可能效率低下,甚至出现结构性失衡。
04
各国政府、国际组织与科技企业若想在危机后塑造有效、稳定的人工智能治理格局,必须提前开展前瞻性布局,提升高质量治理机制形成的可能性。历史经验表明,危机后治理成效取决于若干前置条件,而这些条件完全可以在常态下提前构建。通过预先部署制度安排与技术能力,各方能够在危机发生后快速形成高效率、可持续的人工智能治理体系。
一
激活既有治理路径
危机通常不会凭空创造全新治理机制,而是通过政策快速调整,激活既有制度通道。因此,人工智能治理的核心准备方向,是提升现有路径的可操作性。重点包括四方面工作:构建可快速启用的治理方案、强化技术专家与政策制定者的协同通道、建立政策对话与应急外交渠道、完善公司部门信息共享机制。
(一)构建“即用型”治理方案
危机状态下决策时间极为有限,难以开展从零开始的谈判。因此,预先设计的模块化、可直接启用的治理方案具有关键价值。这类机制在军控、气候变化、金融、贸易等领域已有成熟实践,即在政治条件尚未完全成熟时完成规则草案的储备,待危机窗口出现这些方案即可快速落地。
有效的即用型方案需满足三项要求:一是核心架构提前定型,明确义务分配、专业与政策表述、实施机制及合规监督流程;二是具备模块化与可调整性,支持按危机场景灵活组合,并通过修订机制长期适配;三是依托现有执法与监督体系实施,避免完全重建制度。在非危机时期推进框架设计,可降低政治压力,将执法、责任分担、主权边界等敏感问题延后协商,实现“先搭框架、后定细节”,显著提升危机后落地速度。
此外,国际组织可依托内部机制快速响应。例如,金融稳定委员会的危机协调机制可拓展至人工智能引发的金融冲击场景,联合国数字与新兴技术办公室可制定跨境人工智能事件应急流程。这类工具不依赖各国全面共识,部署效率更高。在人工智能生化风险、自主武器系统等高敏感场景中,预置方案可大幅提升响应速度,降低风险扩散与升级可能。

全球系统重要性银行(G-SIBs)危机管理小组(CMGs)的实践经验
图片来源:金融稳定委员会(Financial Stability Board)
(二)强化技术专家与政策制定者的协同通道
技术专家与决策者的高效沟通,是准确识别威胁、科学制定对策的关键,也是长期形成治理共识的基础。过往案例显示,跨国技术专家网络可在一定程度上超越政治约束,实现更高效的信息互通。例如网络安全事件与公共卫生危机中,专家与政府之间的直接沟通显著提升了应对效率。而在人工智能领域,常态化技术交流有助于形成底线共识,特别是在风险红线界定等问题上。因此,危机期间,应充分依托现有技术网络的信息共享、监测工具与人员联系,强化信任并推动全球协同响应。
(三)建立政策对话与应急外交渠道
危机状态下,高层决策者间的非正式沟通渠道具有不可替代的作用,其功能类似冷战时期的大国热线,用于避免误判、防止冲突升级。尽管多边机制有助于形成共同语言与基本规范,但其决策过程往往较为缓慢,难以满足紧急响应需求。因此,在危机发生时,应依托既有多边框架所形成的共识,通过非正式外交渠道实现快速协调与直接沟通。
(四)完善公私部门信息共享机制
当前,人工智能系统能力、运行状态与风险信息高度集中于私营企业,信息不对称会严重制约危机应对效率。为此,企业应在国家层面与政府建立常态化紧急沟通机制,在行业协会、产业论坛等现有框架内嵌入实时监测与协同响应机制,并参与国际合作网络,按照预设风险红线开展模型暂停、补丁推送、触发熔断等同步行动。在不损害国家安全与商业利益的前提下,企业应减少不必要信息壁垒,推动可解释性、透明度等基础共识形成,为危机治理提供信息支撑。
二
集中与强化治理权威
在危机中,具备专业能力与公共信任的技术机构可以有效突破决策瓶颈。具体举措包括提升人工智能安全研究所的技术权威地位、建立国家危机应对单元、明确应急决策权限。
国际人工智能安全研究所的成员组织是承担公共技术权威的适宜主体,尤其在行业信任度不足的背景下更具优势。这类机构已在基准测试、模型评估、联合检测等方面开展合作,并与前沿实验室建立专属访问机制。通过扩大其职能授权,在研究职能之外赋予正式危机应对职责,将专业力量贴近决策核心,强化与产业界对接,可以将其技术专长转化为公共治理权威。同时,政府需协调机构职能冲突,保障其政治合法性与资金可持续性。
危机造成的损失程度往往取决于响应速度,各国应建立可快速启用的应急权力体系,或更新现有干预框架。该体系应满足三点要求:第一,基于预设触发条件自动启动,可通过将人工智能风险纳入国家风险清单实现;第二,赋予快速调取数据、实施临时运营限制、启动国际协同渠道等敏捷决策权限;第三,设置司法监督与透明度约束,在民主问责框架下防止权力滥用。

人工智能安全研究所(AI Safety Institute,AISIs)
图片来源:GOV.UK
三
提升技术干预与安全管控能力
人工智能系统高度自主、全球分布且由私营部门主导,其治理必须具备规模化技术干预能力。各方应在系统设计、溯源监测、应急团队、技术投入等方面提前布局。
针对模型偏见、安全漏洞、被恶意利用等风险,业界普遍支持在人工智能系统运行中保持人类有效管控与干预。在全球统一监管规则短期内难以形成的情况下,企业应在系统设计中内置安全防护机制与紧急停止功能。安全防护机制可在系统生成高风险内容时自动干预并阻断流程,提升系统自身安全性;紧急停止功能可直接暂停系统运行,这两类措施都是危机状态下建立互信、防止风险扩大的关键手段。
跨境技术快速响应团队在危机中作用关键,可参照世界卫生组织突发公共卫生事件专家网络、网络安全应急响应机制的运作模式,承担风险识别研判、事态控制降级、跨国协调联动等职能。在当前地缘政治环境下,依托欧盟、东盟、七国集团等已具备信任基础和情报共享传统的合作框架,在国际人工智能安全机构网络下组建专业化应急团队,是现实可行的起步路径。
由于人工智能系统的运行速度和处理规模远超人工实时监控能力,且多数系统部署在私营部门基础设施中,可先由第三方机构开展外部行为监测作为过渡性安排,通过公开接口监测并识别异常运行特征。与此同时,各方应加大对治理支撑技术的研发与部署力度,包括具备使用追踪功能的硬件芯片、模型溯源水印技术、监管测试环境等,提前构建技术储备体系。

GenAI水印技术应用场景概述,包括水印生成、检测和潜在攻击
图片来源:AZoAI
四
构建有效的危机叙事框架
只有将危机定位为需要共同应对的全球性挑战,才能形成有效的国际协作。即便全球共识有限、地缘矛盾突出,开展少数国家牵头的协作机制和国际层面的沟通准备依然十分必要,核心工作包括建立联合调查认定机制、开展危机应对方案推演与模拟训练。
通过国家间信息共享与联合调查,可以对危机起因进行公开认定,为政策调整提供事实基础。但危机成因的判定常常受到证据不足、政治化争议等因素影响,因此需要保障独立的核查渠道,强化专业判断的主导作用,并通过规范化评估对危机应对效果进行总结复盘。开展方案推演与场景模拟演练,有助于提升各方的协同应对能力。民间机构与政策智库可牵头组织多方主体参与演练,围绕公众沟通、多边协调、分歧管控等内容开展协同磨合。同时,借鉴网络安全、公共卫生、金融等领域的成熟做法,在保护商业机密的前提下推动信息共享与经验交流。
五
推动激励机制的长期对齐
危机虽可推动短期政策调整,但持久治理改革需要各方激励保持长期一致。重点任务包括提升中低收入经济体治理能力、建立超越竞争的协同规则。
危机往往会加剧全球不平等,中低收入经济体应对能力不足会放大损失,并可能被排除在规则制定之外。国际组织应在技术援助项目中纳入定制化危机预案,中等强国可发挥中立平台、关键表决、供应链枢纽等作用,搭建区域危机中心与共享监测设施。
私营企业在危机中需兼顾股东责任与用户安全,应以系统稳定为共同目标,建立跨行业协同机制,明确各方角色与分工。在当前高度竞争、政治化的环境中,可优先围绕“去政治化”的风险研判与系统稳定,依托金融稳定委员会等既有机制,借鉴网络安全、反恐与选举安全等领域的行业联盟模式,构建务实可行的合作基础。

人工智能治理中的跨职能协作
图片来源:VerityAI
05
在当前地缘政治竞争加剧、私营部门占据主导、制度能力薄弱、全球治理碎片化的背景下,构建一套全面、有效的全球人工智能治理体系,在结构上几乎难以实现。报告认为,唯有在危机发生之后,当“不作为的代价”明显高于“协同治理的成本”时,强有力的国际治理才具备现实的政治可行性。
报告并非主张危机是可取路径,而是强调各国应明确重点投入方向,为应对潜在危机做好充分准备。为此,报告提出了一系列可落地的行动举措,并明确了早期干预应当聚焦的五大核心条件:能够将事件有效定义为共同威胁的叙事框架、具备行动能力且合法权威的执行主体、面向安全的技术治理创新、可随时启动的制度通道,以及受危机影响各方的利益激励趋于一致。
针对性的危机准备虽无法确保上述条件全部达成,但能够大幅提升危机发生后形成有效、稳健应对的可能性。提前协商制定干预方案、在系统设计中嵌入安全管控能力、强化相关机构履职能力、搭建技术协同与公众沟通渠道,都将有助于塑造危机后的治理格局。
需要明确的是,这一思路本质上属于次优方案。最理想的状态,仍是各国、国际机构与企业开展前瞻性主动协作,提前达成共识方案。然而在人工智能可能对全球体系造成重大冲击、而全面治理又短期内难以实现的现实下,提前备好高质量应对方案,以便危机倒逼行动时能够快速响应,或许就是当前最务实的选择。
原文链接
https://www.chathamhouse.org/2026/03/breaking-deadlock-ai-governance