全球AI创新治理|全球性、选择性,还是两者兼有?人工智能治理的差异化合作路径

作者:于玥 发布时间:2026-05-10 11:14:34 来源:全球人工智能创新治理中心+收藏本文


编者按


当前全球人工智能国际协作陷入非此即彼的路径之争。一方面可以主张依托联合国等多边机制,和全球人工智能技术强国开展广泛合作,即“全球性合作”;另一方面,也有相关人士倡导享有共同意识形态的国家组建排他性的联盟开展合作,即“选择性合作”。文章认为,两种路径均忽视了人工智能治理议题、技术类型与生命周期的差异性,导致国际协作陷入碎片化僵局。荷兰莱顿大学与阿姆斯特丹大学学者在《Policy Sciences》2026年发表的研究中,提出人工智能治理差异化合作核心观点,以治理目标、人工智能类型、技术生命周期三维框架,进一步厘清全球合作与选择性合作的适用边界。该研究以中立第三方视角解构全球人工智能治理的现实困境,为读者把握全球人工智能协作趋势、政策制定者参与并引领全球人工智能治理、推动构建包容务实的国际协作体系提供了关键理论参考与实践思路。


以下译文仅代表原作者的研究观点与分析立场。详细内容请参阅文末原文链接。


作者介绍


Noravon Ingersleben-Seip(荷兰莱顿大学公共管理研究所公共管理系助理教授);Daniel Mügge(荷兰阿姆斯特丹大学政治学系教授)


图片

图片来源:Getty Images

01

研究核心主张与理论基础



研究核心观点


当前全球人工智能治理的合作讨论存在过度简化与模糊化的问题,学界与政策界始终将全球合作与志同道合国家的选择性联盟对立看待。研究提出三大核心考量以构建精细化、体系化的人工智能治理合作路径:第一,不同类型的治理议题适配不同形式的合作模式;第二,人工智能技术并非同质化存在,不同类型的人工智能引发差异化治理挑战,需要多元合作形式应对;第三,人工智能系统的研发阶段与部署阶段面临的治理问题截然不同,合作模式需随阶段动态调整。整合上述三大因素后可得出结论,部分人工智能治理挑战必须通过全球合作解决,另一部分挑战则可通过选择性合作实现同等甚至更优效果。各国政府无需在全球合作与选择性合作之间二选一,而应针对具体治理议题选择最有效的合作范围。


研究方法与理论依据


研究采用演绎法开展分析,将国际合作理论、集体产品分类理论与人工智能多元治理挑战相结合。选择该方法的核心原因有二:一是当前人工智能治理合作仍处于起步阶段,实证经验较为匮乏,演绎法可聚焦合作的潜在价值与可行性;二是演绎法能够将不同合作模式的问题解决能力与技术民族主义等干扰因素剥离,精准分析核心治理逻辑。研究聚焦国家层面的治理行为,尽管私人主体在人工智能治理中发挥了重要作用,但只有国家与多边机构能够推动国际法制定、地缘联盟构建等核心合作事务。研究最终梳理出国家间人工智能治理合作的七大中间目标,明确不同目标下全球合作与选择性合作的效用差异,论证差异化合作模式的合理性。


图片

图片来源:CNAS

02

人工智能治理的范畴界定



人工智能概念的模糊性与治理边界


人工智能是一个模糊且具有误导性的概念,在实践中主要与机器学习相关,同时包含模拟人类思维的符号化技术路径。尽管概念边界模糊,“人工智能”已成为公共与政策讨论的核心词汇,主导了全球各国、国际组织的人工智能治理工作组、标准制定与规则构建工作。将各类数字技术笼统归入人工智能范畴,极易引发对人工智能治理合作的片面判断,军事无人机自动目标识别技术与家用智能温控设备的治理问题存在本质差异,这也是研究拆解人工智能治理复杂性的核心出发点。研究界定的人工智能治理,特指公共主体对人工智能技术研发与部署的干预行为,而人工智能治理合作则指各国对上述公共干预行为的国际协调。


国际合作的两种模式


研究将人工智能治理合作简化为两种核心范围:一是全球合作,覆盖所有主要人工智能强国;二是选择性合作,至少包含两个司法辖区,但排除一些核心人工智能强国。当前全球已同时存在两类合作实践,联合国大会推动193个成员国达成安全、可信的人工智能伦理共识属于全球合作;欧美通过贸易与技术理事会开展的民主技术协作则属于选择性合作,跨大西洋合作仍是全球人工智能治理的核心潜在纽带。


图片

图片来源:Sarah Rogers/MITTR丨Getty Images

03

人工智能治理合作的主流争议



全球合作派的核心主张


全球合作派认为有效的人工智能治理必须依托全球范围的协作,联合国人工智能高级顾问团2023年中期报告明确提出“人工智能治理必须具有普遍性”,主张设立全新的全球统筹机构。学界也有观点支持全球合作,认为其能够保护公民权益、支撑社会有益创新、维护市场竞争公平性。


选择性合作派的核心主张


选择性合作派倡导以志同道合国家为核心构建战略联盟,该联盟通常以美国民主盟友为主体,排除价值观与目标存在差异的国家。拜登政府2021年提出强化美国盟友国家技术合作的战略,此后这些国家主要通过全球人工智能伙伴关系、经合组织开展人工智能标准合作,而非依托联合国平台,将一些国家排除在合作框架之外。另有观点认为在人工智能军备竞赛的背景下,任何放缓人工智能发展的合作都会助力竞争对手,美国官方更是明确拒绝国际机构对人工智能实施全球层面的引导和规制。


争议的核心误区


当前争议的核心问题在于将全球合作与选择性合作完全对立,忽视了合作动机、人工智能生命周期、技术类型的多元差异。人工智能的通用属性引发了多样化的治理挑战,单一合作模式无法适配所有场景,非此即彼的治理思维完全脱离人工智能治理的现实需求。


图片

图片来源:CNAS

04

国家开展人工智能治理合作的七大目标




研究基于国际关系与国际政治经济学理论,梳理出国家间人工智能治理合作的七大中间目标,并逐一分析不同目标下全球合作与选择性合作的效用。


构建与巩固地缘政治联盟


人工智能重塑了国际权力格局与攻防能力,直接影响战争爆发概率,北约等联盟已开始调整人工智能军事应用战略。数字战与实体战的融合,促使同盟国产生信息共享、系统适配、组件贸易的合作需求。


避免全球军备竞赛与监管逐底竞争


人工智能引发囚徒困境式的集体行动问题,最突出的表现为监管逐底竞争,各国为扶持本土企业放松人工智能安全与人权保护标准,引发隐私侵犯、系统偏见、通用人工智能无序发展等风险。人工智能军事应用更是引发典型的安全困境,单一国家无法单方面放弃自主武器系统,否则会被竞争对手抢占技术优势。避免人工智能军备竞赛必须依托全球合作,单一国家的行动无法阻止全球范围内的技术竞赛。


防范有害人工智能扩散


人工智能可被用于网络破坏、武器获取、间谍活动等危害行为,有害人工智能落入恐怖分子手中会引发严重风险。防范有害人工智能扩散需要人工智能生产国主动限制技术传播,只有所有主要人工智能强国参与的全球合作,才能构建稳定有效的防扩散机制,这与其他防扩散体系的核心逻辑完全一致。


实现贸易收益


数字产品的规模效应使得全球贸易具备福利提升价值,但大型科技企业的寡头垄断趋势引发市场反噬,限制了无限制人工智能贸易的可行性。国际协定能够平衡人工智能产品的跨境贸易规则,缓解寡头垄断带来的负面影响。在贸易收益实现领域,选择性合作与全球合作均具备显著价值,选择性合作更易达成,而全球公平贸易的潜在收益更高。


知识与实践共享


人工智能领域的知识共享存在双重性,竞争视角下各国不愿分享核心技术,但公共学术研究、低竞争价值的技术知识具备共享空间。各国政府在人工智能监管、安全评估、偏见识别等领域存在能力短板,亟须合作借鉴经验。知识共享领域全球合作效用最优,政治层面难以推进时,选择性合作仍具备重要价值。


推动规范传播


西方国家持续推动人工智能领域的意识形态传播,经合组织、欧盟均在全球范围内推广自身人工智能治理规则,其动机包含价值传播、意识形态、经济利益等多重因素。规范传播领域,选择性合作与全球合作均具备极高价值,小规模选择性合作更易落地,即便无法达成全球伦理共识,局部规范推广也能产生积极效果。


管控人工智能的负外部性与集体行动问题


人工智能引发的环境破坏、版权侵权、虚假信息、劳动力市场冲击等危害具备跨境传导性,形成跨境物理外部性与政策外部性,催生国际合作需求。在人工智能的负外部性管控领域,全球合作效用最优,区域性选择性合作可作为补充方案,非全球性的外部性可通过区域合作解决,即便针对全球外部性,小范围国家合作也能缓解竞争压力、推动可持续发展。


图片

图片来源:论文原文

05

人工智能负外部性:全生命周期与人工智能类型差异



跨境人工智能危害的治理效果,取决于技术类型与危害属性,研究聚焦人工智能的负外部性结合人工智能全生命周期、技术类型两大维度,细化合作模式的适配场景。


人工智能全生命周期的治理差异


人工智能全生命周期可划分为研发与部署两大阶段,两阶段的治理重点、政府管控能力存在显著差异。


(一)研发阶段的治理重点


研发阶段包含算法选择、数据集测试、模型微调与验证,基础模型的微调是治理核心环节,微调过程可实现模型与特定价值观的对齐,为政策制定者提供干预基础。该阶段的核心治理议题为训练数据合规性、系统公平性与透明度。全球多数国家对前沿人工智能研发缺乏管控能力,仅能要求企业微调模型适配本地规则,企业甚至可能因合规成本放弃本地市场,因此研发阶段的国际合作具备极强必要性。


图片

图片来源:论文原文


(二)部署阶段的治理重点


部署阶段将训练完成的模型融入生产系统,核心目标为系统扩容、用户培训、实时监测与更新。该阶段的治理重点为人工智能应用场景管控。各国政府对人工智能部署的管控能力显著高于研发阶段,针对大型机构用户可直接监管应用场景,针对个人与小型用户则面临跨境服务管控难题,需依托国际合作实现部署环节的协同治理。


图片

图片来源:Getty Images


不同类型人工智能的治理与合作适配性


人工智能技术类型多样,不同类型的人工智能引发差异化治理挑战,适配不同的合作模式,研究选取四大典型类型展开分析。


(一)基础模型


基础模型具备规模大、训练数据广、通用属性强的特征,是各类下游应用的核心载体,存在被恶意篡改、规避安全防护的风险。基础模型的部署可单边监管,但研发环节难以被他国管控,基础模型研发需要大范围国际合作,合作范围越广治理效果越好。


(二)人工智能赋能实体产品


智能汽车、家电、医疗设备等实体产品的核心治理议题为安全、网络攻击防护、数据收集管控。该类产品的系统复杂度较低,企业可低成本适配各国规则,研发阶段合作需求较低,各国可通过进口标准管控实现部署治理。


(三)小规模人工智能服务


数字助手、推荐系统、深度伪造工具等小规模人工智能服务具备跨境易传播的特征,监管依赖性极强。该类人工智能的合作核心聚焦部署环节,高风险服务需跨境协同管控,低风险服务合作需求较低。


(四)军事相关人工智能


军事人工智能涵盖自主武器、决策辅助系统,引发人类监管缺失、冲突升级、责任界定等伦理难题,且极易引发安全困境。军事人工智能的研发与部署均必须依托全球合作,仅主要军事强国参与的全球协定才能避免军备竞赛,但该领域的全球合作面临典型囚徒困境,落地难度极高。


图片

图片来源:论文原文

06

研究结论与政策启示



文章结论


全球人工智能治理领域的全球合作与选择性合作并非对立关系,异化合作是适配人工智能多元治理挑战的最优路径。不同治理目标、人工智能技术类型、生命周期阶段,需要匹配不同的合作范围:有害人工智能防扩散、军备竞赛防控必须依托全球合作,贸易、规范传播、知识共享等领域两类合作模式均可发挥价值。


政策启示


支持全球合作的一方需认识到,小范围选择性合作是全球合作难以落地时的有效补充;支持选择性合作的一方则需摒弃完全跟随地缘联盟的逻辑:技术强国即便存在竞争关系,但是在防扩散、安全标准等领域仍然具备合作空间。欧盟无需完全跟随美国的人工智能合作战略,可独立开展中欧知识共享、非敏感产品贸易、伦理研究等合作。各国应根据具体治理议题灵活选择合作模式,允许多种合作逻辑并行存在。


未来研究方向


后续研究可聚焦全球主要人工智能强国的实际合作行为,分析差异化合作框架在现实中的落地情况,通过拆解中国、美国、欧盟在全球与区域人工智能治理中的行动逻辑,为理论框架的实践应用提供实证支撑。


图片

图片来源:论文原文




原文链接




https://link.springer.com/article/10.1007/s11077-026-09606-y