全球AI创新治理|寻求共识:通用人工智能(AGI)战略之争的诊断与对策

作者:袁露铭 发布时间:2026-04-02 来源:全球人工智能创新治理中心+收藏本文


编者按


步入2026年,随着前沿通用人工智能(AGI)模型的迭代速度不断刷新认知,全球关于 AI 发展轨迹的辩论正陷入一种危险的极化:一方坚守技术加速的竞速逻辑,另一方则沉浸在失控危机的末日预演中。这种对立往往掩盖了一个紧迫的战略命题——在技术不可逆的洪流中,人类社会如何保留最后的一张“底牌”?RAND公司最新发布的这份报告《寻求共识:通用人工智能战略辩论的诊断与对策》,为深陷僵局的全球治理提供了一个极具洞见的新坐标。报告独辟蹊径地超越了单纯的技术对齐之争,提出了“能动性”(Agency)与“战略选择权”(Optionality)这一战略逻辑,它深刻指出,AGI的挑战本质上是一场文明能动权的保卫战:我们必须在构建“人机共生生态”与“全球安全架构”的双重支柱下,确保人类依然是历史的谱写者,而非技术的客体。


编者认为,这份报告最引人入胜之处在于,它在地缘政治的冰冷底色中挖掘出了一丝协作的温情——美中两国尽管存在深刻分歧,但在“不被技术剥夺自决权”这一底线上拥有坚固的“重叠共识”。本文不仅是一份战略诊断书,更是一份关于人类命运共同体的行动指南。


本文为该报告的中文学术编译版本,旨在向中文读者呈现其核心论点与政策启示。编译过程中,我们在忠实原文逻辑的基础上进行了必要的学术化提炼,以符合智库研究的发布规范。


以下译文仅代表原作者的研究观点与分析立场,不代表编译者或发布平台的立场。


摘要


当前,全球关于通用人工智能(AGI)的辩论正处于“技术命定论”与“存续危机论”的危险两极,这种撕裂掩盖了问题的本质。本报告提出,AGI 并非单纯的技术迭代,而是继农业革命、工业革命和核武器之后,人类文明史上又一深远的转折点。它不仅在物质层面重塑全球权力格局,更在底层逻辑上挑战了人类的存续安全(Survival)与能动性(Agency)。在AGI的冲击下,存续已不再仅仅是生物意义上的生命延续,而是人类作为历史“谱写者”地位的保留;而能动性则是我们根据自身价值观进行自决的终极能力。若不加干预,人类将面临因认知外包、权力过度集中或系统失控而丧失未来“纠偏能力”的系统性威胁。


为确保人类在这一剧变中立于不败之地,本报告提出了一套“双支柱”治理架构。首先是构建人机共生生态系统,这要求我们超越单纯的技术对齐,从制度调适与社会进化的高度出发,确保 AI 在释放红利的同时,不侵蚀人类意义的来源。这意味着我们必须在精进安全技术的同时,竭力捍卫人类的批判性思维与道德推理等核心认知能力。其次是确立全球安全架构,在缺乏超国家权威的现实语境下,国际社会亟需一套旨在维持竞争者间稳定的安全底座。其核心任务在于缓和盲目的军备竞赛,为技术对齐与社会适应争取关键的“时间窗口”,并建立最低限度的风险验证与事故应急协议,防范因追求绝对技术优势而引发的毁灭性冲突。


在地缘政治层面,本报告观察到一种微妙的协作契机:能动性可以成为跨越分歧的战略桥梁。尽管美中两国在价值观与体制上存在深刻分歧,但双方在“捍卫人类对命运的最终掌控权”上拥有坚实的重叠共识,任何大国都无法从失控的 AI 系统或文明级灾难中获益。因此,将“能动性”与“战略选择权”转化为通用的政治话语,能够支撑竞争对手在激烈的博弈中就削减系统性风险达成务实协作。


综上所述,AGI 时代治理的关键目标并不在于单一的技术领先,而在于对战略选择权(Optionality)的终极捍卫。真正的胜利,是当技术演进超越人类初始预期时,我们依然拥有调整航向、自主定义文明未来的终极主动权。


作者


Joel B. Predd,兰德公司全球与新兴风险部门下属的通用人工智能地缘政治研究中心主任、高级工程师;James Baker,兰德公司专家;Benjamin Boudreaux,兰德公司政策研究员,兰德公共政策学院的政策分析教授;Edward Geist,兰德公司政策研究员,也是兰德公共政策学院的政策分析教授。;Matt Chessen,兰德公司通用人工智能地缘政治研究中心的常驻技术专家。


图片

图片来源:报告原文

00

引言



当前,围绕强人工智能发展轨迹及其深远后果的讨论,已演变为多方立场的激烈博弈:一方将其视为紧迫的人类存续危机,一方质疑其变革性演进的时间表,另一方则将其飞速发展视为赢得未来的当务之急。然而,这种各执一词的纷争往往掩盖了更为本质的追问——在这场变革中,人类社会的底线究竟为何?我们又该如何采取行动?


本研究旨在为通用人工智能时代的全球治理提供一套系统的分析与行动纲领。文章并不试图去穷尽AGI的技术定义,也不纠结于哲学意义上的无端争鸣,而是致力于理清构建地缘政治战略所需的核心概念,从而为各方的理性沟通与协同行动奠定基础。


文章的核心命题非常明确:在AGI时代,人类必须全力捍卫自身的存续安全(Survival)、实质性的能动性(Meaningful Agency)以及长远的战略选择权(Strategy Optionality)。为达成这一目标,必须构建两个互为表里、深度依赖的关键支柱:其一是打造一个能够支撑“人机共生”的生态系统,确保人类在技术浪潮中依然保留决定自身命运的能动权;其二是建立一套全球安全架构,在竞争者之间维持必要的稳定,从而为上述生态系统的培育提供不可或缺的外部环境。


图片

图片来源:zapier.com


Humanity must preserve its survival, capacity for 

meaningful agency, and strategic optionality.

人类必须维护自身的存续、实质性的能动性,以及战略选择权。

01

诊断:通用人工智能(AGI)对人类意味着什么?




作为文明进程转折点的 AGI


文章研究的逻辑起点在于:通用人工智能(AGI)的出现绝非普通的技术演进,而是人类文明进程中一个至关重要的转折点。正如农业革命、工业革命和核武器的诞生一样,变革性的AI技术有能力重塑人类文明的运行轨迹,彻底调整全球的经济结构、政治体制以及权力平衡。


历史经验表明,每一次重大的技术转折在增加物质财富与人类能力的同时,也必然伴随着全新的风险。在农业革命中,尽管生产力显著提高,但个体的健康与福祉却往往由于生活方式的剧变而有所下降;工业化进程则实现了政治经济影响力从土地所有者向工业资本家的权力大转移;而核武器的出现,则迫使人类首次不得不直面自身毁灭世界的物质能力。


同样地,AGI正通过自动化劳动、权力的高度集中(向掌握最尖端系统者倾斜)以及地缘政治动态的重塑,从根本上改变社会运作方式。它带来的威胁不仅关乎人类物理层面的生存,更关乎我们能否继续保留对未来的控制权。


生存与能动性的本质内涵


在此语境下,我们必须重新定义“生存”(Survival)与“能动性”(Agency)。生存不仅仅意味着生物意义上的生命延续,它更蕴含着在千禧年尺度上维持种群活力、基因多样性以及技术承载能力。然而,没有选择权与目标感的生存,并不等同于人类的繁荣。


能动性(Agency)即选择并追求自身价值观的能力,是赋予生存以意义的核心。在个人层面,它表现为设立目标、有意识行动并创造意义的能力;在社会层面,它则体现为集体对共有制度与资源的控制权,以及在面对不可逆的技术或政治锁定时,保留战略选择权的能力。


从最低限度看,捍卫能动性需要维持几项不可剥夺的能力:理解自身处境、通过审议形成意图、基于意图采取行动,以及在环境变化时修正路线。尽管不同文明在伦理、政治和“美好生活”的定义上存在根本分歧,但人类的能动性构成了跨越这些分歧的“最大公约数”。正如罗尔斯所言,它是一种“重叠共识”(overlapping consensus)——无论是西方还是东方传统,各方都能从其自身的价值体系出发,认同自主自决是追求任何美好生活的前提。


图片

“重叠共识”于认知约束下的政治合法性

图片来源:罗尔斯(Raws)《关系自由主义》


在战略制定过程中,能动性是一种在不确定性环境下维持适应力的最低条件。它要求我们在面对充满未知的前景时,必须保留开发与执行政策选项的能力。具体而言,这意味着人类应该拥有反射性地认同自身偏好的权利,能够做出 AI 也许并不推荐、但符合人类情感的选择(例如花费数年钻研一项 AI 也许更高效的工艺);同时,在社会层面,决定物理环境如何演变(例如是将公园保留,还是改造成数据中心)的最终决策权应当掌握在人类手中,而非由AI主导。


生存与能动性面临的多维威胁


强人工智能引入了多重且在持续累积的风险。在生存层面,这些风险包括:追求错误目标的失控 AI、AI辅助研发生物武器、破坏行星生态系统的合成生命,以及在AI助推下失控的国家间冲突。在能动性层面,威胁则表现为 AI 监控加剧极权主义风险、人类决策权向 AI 系统的渐进式让渡,以及由于认知外包导致的逻辑推理能力与社会连接性的萎缩。


这些危险未必会以突发灾难的形式呈现,而往往是一个温水煮青蛙的过程。最终,人类可能发现自己虽然还活着甚至生活优渥,但却已彻底丧失了自决权,陷入一种无法改变现状的境地。


强人工智能的发展由此制造了一个地缘政治困境:放缓研发可能会推迟技术带来的巨大利好,而全速竞赛则可能引发上述灾难或反乌托邦的僵局。文章的诊断为这一紧张局势提供了新的审视视角——任何战略,无论其倾向于加速还是谨慎,都必须证明其能够保留足够的人类能动性与选择空间,以确保最低限度的路线纠偏能力。如果忽视了生存与能动性这两大基石,AI的所有红利要么将无法实现,要么将把我们引入一个无法逃离、不再由人类主宰的现实深渊。


图片

图片来源:ultralytics.com

02

对策:人类如何生存并捍卫能动性



要在AGI时代实现保有能动性的生存,人类必须且只能建立两套相互依存的支撑结构:一是能够保障人机共存并保留人类能动权的生态系统(Ecosystem)二是能够维持竞争者之间稳定、为上述生态培育争取空间的全球安全架构(Global Security Architecture)。


构建共生生态系统


生态系统的范畴远超AI系统本身,它涵盖了技术运行所需的数字空间、制度框架和物理环境。其核心宗旨在于创造一种共存条件,使得AI能在不取代人类选择权与意义来源的前提下,助力人类按其自身价值观实现繁荣。


构建这一生态系统需要采取“组合式”的制度路径。虽然在技术层面,关于AI对齐、安全性、可解释性、可控性及评估的研究至关重要,但仅靠技术手段不足以解决所有问题。完美的对齐无法得到绝对保证,且单纯的技术修复无法在有缺陷的社会制度或对抗性的政治体系中保护人类的能动性。


因此,技术方案必须辅以制度与社会的深度调适。当AI冲击经济结构与政治话语时,政治体制必须全力维护其合法性与社会契约。与此同时,人类必须刻意磨练支撑自决权的核心认知能力,包括批判性反思、道德推理、社会参与和创造力。在管理手段上,生态系统既需要针对尖端AI的强制性措施(如物理封禁与关停机制),也需要柔性激励,促使AI在动机层面支持人类能动性的保存。随着技术从通用人工智能向超级人工智能演进,人类对系统的依赖将日益加深,这种演进强化了能动性作为应对不确定未来的前提地位,而非仅仅是诸多价值选项之一。


图片

图片来源:Medium.com


确立全球安全架构


文章认为,全球安全架构必须实现四个相互关联的战略目标,以作为生态系统发育的外部屏障:


首先是创造时间窗口。生态系统的制度改革、社会调适以及对齐研究无法一蹴而就。安全架构必须赋予人类决策者足够的空间,缓和军备竞赛的压力,从而防止在风险尚未解决前草率部署系统,并以此维持战略选择权。


其次是防范破坏性冲突。AI突破可能带来“决定性战略优势”的诱惑,这会制造先发制人的打击压力。一旦AI开发强权之间爆发战争,将摧毁生态系统建设所需的物理与制度基础设施。架构必须管控这种由于追求绝对优势而引发的预警压力。


第三是建立最低限度的有效治理。国际治理的底线在于:各方需对风险范围达成共识,并建立起一套既能验证风险、构建信任,又不至于导致过度的透明化或主权侵权的风险削减机制。


最后是建立事件管理机制。在治理成熟之前,由于误对齐、滥用或失控导致的AI事故几乎不可避免。安全架构必须包含事故响应协议、紧急沟通渠道和协同封禁机制,使国际社会能从局部失败中汲取教训,而非让局部风险升级为系统性崩溃。


Just as the nuclear architecture stabilized Cold War competition, a comparable structure for AGI must create baseline cooperation even amid rivalry.

核体系稳住了冷战竞争,通用人工智能也该有套类似架构,

让各方竞而不破、保持基础合作。


正如由军控协议、信任建立机制、危机沟通热线及共享规范共同构成的“核架构”曾有效稳定了冷战时期的对峙,一套针对 AGI 的对等结构也必须在激烈的竞争甚至敌对状态中,建立起基本的合作底线。


然而,人工智能的治理挑战具有独特的复杂性:不同于由国家高度垄断的核武器,AI的研发力量广泛分布于全球多个国家的私营主体之中。这意味着,AGI 时代的治理架构无法单纯依赖双边的大国协议来维系,而必须深度动员由开发者、部署者以及受影响社会所构成的更广泛生态系统。


美国作为AI研发领域不可或缺的核心参与者,其国家战略必须在竞争与合作之间寻求精准的平衡。决策者或许应当接受这样一个现实:各方对AI系统性风险的共同暴露,其本身就构成了促成跨国合作的强大动力。在这种“共同防御”的逻辑下,减少灾难性风险不仅是道义选择,更是大国在追求自身战略利益时的理性激励。


图片

图片来源:Aicerts.ai

03

战略约束



任何行之有效的战略都必须建立在现实基础之上,而非脱离实际的理想化愿景。在通用人工智能(AGI)的治理进程中,文章识别出五类核心约束,它们共同界定了战略的选择空间。


1.技术现实的局限

AI的对齐与控制可能永远无法得到彻底解决。在部署前,现有的评估手段往往会漏掉某些危险的潜在能力,这也就意味着技术发展轨迹具有高度的不可预测性,会突破多种不同的架构路径。


2.制度能力的边界

目前不存在能够强行推行全球AI治理的超国家权威;相反,合作必须在广泛的竞争环境中达成。前沿AI开发由市场驱动的私营公司主导,而官僚体制的反应速度往往难以跟上技术迭代的步伐,进一步拉大了两者之间的鸿沟。


图片

2026年顶尖前沿人工智能公司:排名与预测

图片来源:FutureSearch.ai


3.地缘政治的张力

颠覆性技术兴起的当下,国际体系竞争激烈、博弈不断且冲突一触即发,这样的格局非但无法推动合作,反而制约着相关战略所需的协作落地。大国竞争深刻影响着相关技术的研发与推广进程,而部分国家将技术实力的比拼视作零和博弈,认为一国的发展必然以他国的利益受损为代价并且直接关乎国家安全。各国政治体制不同,在技术落地的合理节奏、市场主体与政府的角色界定、创新发展与安全保障的平衡这些核心问题上,立场存在根本分歧。


4.社会与文化的阻力

公众认知不足、社会对机构的信任不断下降,让治理的合法性更难立足。对于怎样才算“良好的人机共存”,各方也存在根本分歧。而人工智能带来的经济冲击,还由可能外溢而引发政治动荡。


5.资源与能力的瓶颈

算力和能源基础设施既是瓶颈,也是薄弱环节;人工智能安全领域的专业人才依然严重短缺,政治注意力又会被其他紧急危机分散,更加难以集中投入。


正是这些约束解释了为何“双支柱”路径(生态系统+安全架构)是必不可少的。技术局限意味着我们不能孤注一掷于“对齐”研究,必须辅以社会制度的调适;地缘政治约束意味着如果没有安全架构来管控竞赛动态,共生生态将无从谈起;而资源约束与时间表的不确定性,则要求两个支柱必须同步推进,互为成功的先决条件。

04

战略意义



通用人工智能战略,是一种全新的国家治理方略。技术对齐、安全政策、伦理社会理论与制度设计,并非彼此独立的发挥作用,而是关乎人类生存与自主发展、相互支撑的核心手段。


构建“能动性”与“选择权”的相关理念


本文提出的框架以“能动性”(agency)为核心基础,但要使其具备可操作性,仍需进一步完善。如前文所述,“能动性”在个人、社会及文明层面均具有重要意义。但问题在于,要让“能动性”真正发挥作用、而非流于形式,我们必须保留哪些具体能力?为了让人类拥有真正的战略“选择权”(optionality),又必须保留哪些开放的选项?


这些能力中的每一项,都面临着来自先进人工智能系统的独特威胁:包括充斥着AI生成内容的信息环境、使人类参与边缘化的经济结构,以及借助人工智能赋能的权力形式实现主导的政治体制。同样,选择“选择权”并非简单地摆脱约束,而是要保留特定的战略选择空间。在后续研究中,文章将更详细地阐述人类真正的“能动性”所需要的各类选项。


图片

Agency——能动性

图片来源:blog.mickzh.com


能动性:跨越分歧的地缘政治合作基础


强调能动性与选择权,文章认为绝非仅仅是西方自由主义的价值偏好,而是一套能够弥合不同世界观冲突的通用框架,当然也包括中美两国的战略立场。如前所述,维护能动性需要保留一些不可让渡的核心能力,而这些能力正受到先进人工智能的不同威胁。


尽管美中在政治体制与核心价值观上存在深层分歧,但双方在“避免自决权被剥夺”这一底线上拥有共同利益。任何一方都无法从 AI 引发的全球灾难、失控的 AI 系统或由对手单方面技术主导所强加的世界秩序中获益。两国都有理由保留塑造自身AI发展道路的选择权,而不是让这种选择权被军备竞赛或他方的单边行动所左右。


这恰恰为战略竞争中的有限合作创造了空间。上文提到的安全架构并不要求价值观一致或互相信任,只需要双方共同承认:某些极端后果(如文明崩溃或战略自主权的彻底丧失)对各方而言都是致命的。因此,即便在激烈的竞争中,双方仍有通过合作来降低系统性风险的基础。


“能动性”的概念为这类安排提供了价值共识基础。尽管美中两国在政治体制与价值取向存在深层分歧,双方在“捍卫技术变革中的国家能动性”这一底线上却拥有高度共识。中国对“民族复兴”的追求及对国家主权的维护,同美国对“自由”与“自决”传统的坚持,虽出发点不同,但在抵制技术异化导致的核心自主权丧失方面,展现出明确的协同空间。这种战略重叠为双方开展务实协调提供了支撑,正如冷战时期美苏在激烈的意识形态对抗中,依然能就共同管控核风险达成现实路径。无论是在东方还是西方传统中,维持人类对自身命运的最终掌控,都是地缘政治博弈中不可退让的公约数。


Both the United States and China share an interest 

in avoiding futures where their capacity 

for self-determination is foreclosed.

中美两国都不愿看到自身自决能力被彻底剥夺,

在这一点上双方存在共同利益。


兼容并蓄:地缘博弈中的共识基础


本框架的设计旨在为两种互补的战略视点提供理论支撑:


1.人类命运共同体视角:

该视角识别了维系人类未来生命力的普世条件。它超越了特定的意识形态偏好,将关注点聚焦于人类作为一个整体,如何在技术浪潮中保留塑造自身文明轨迹的能力。


2.国家战略利益视角:

以报告原文关注的美国视角为例,该框架识别了其核心国家利益,即在一个能够规避毁灭性灾难、防范技术霸权永久主导并确保社会治理自主权的全球秩序中,国家利益将获得最大化保障。


这两个视角并非完全尖锐地对立,而是深度兼容的逻辑统一体。基于此框架制定的战略,在追求自身战略优势的同时,亦能转化为对全球公共福祉的贡献。这客观反映了通用人工智能(AGI)时代的深刻现实:面对可能导致全人类覆灭的系统性灾难,防范极端风险既是维护国家安全的核心利益,也是履行全球治理责任的必然要求。


图片

图片来源:Rand.org

05

结语:将“战略选择权”作为制胜核心



人类在AGI时代的“胜利逻辑”并非达成某种固定的最终状态,而是保留战略选择权(Optionality)。即随着技术的演进与人类理解的加深,我们依然拥有不断选择、适应调整和修正方向的能力。本报告提出的两大支柱,即人机共生生态系统与全球安全架构,正是达成制胜目标的战略手段。


本研究的核心贡献并非提供某个具体的政策方案,而是为AGI确立一套超越技术宿命与风险争论的共同基础。存续与能动性不只是需要权衡的价值,更是一切价值得以追求的前提。没有生存,就没有可塑造的未来;没有能动性,人类将沦为历史的客体,而非创造者。


诚然,这一框架无法直接保证成功,我们依然面临着严峻的技术约束、高度的不确定性以及竞争中的协调难题。但它提供了一个连贯的起点:一个阐明利害关系的“诊断”,一个明确构建目标的“对策”,以及一套兼顾人类普遍利益与主权国家利益的战略逻辑。唯有在此基础之上,制定更具针对性、更具操作性的 AGI战略这一艰巨任务,才算真正拉开序幕。




原文链接




https://www.rand.org/pubs/perspectives/PEA4448-1.html