作者:袁露铭 发布时间:2026-04-19 01:35:07 来源:全球人工智能创新治理中心+收藏本文
编者按
当前,围绕人工智能未来走向的讨论日益分化:有人强调技术加速带来的巨大机遇,有人则聚焦其可能引发的失控风险与系统性冲击。然而,在这些看似对立的判断背后,一个更具现实意义的共识正在浮现,即人工智能的广泛应用将持续重塑经济运行、社会关系与国家安全结构。美国兰德公司(RAND)最新发布报告,主张将“韧性”而非单纯的“限制”或“放任”作为回应人工智能时代挑战的核心政策理念。以韧性为导向的主动性、结构性政策安排,更有可能提升社会承受冲击、适应变化并从中恢复的能力。
编者认为,文章的价值在于,它并未停留于对人工智能具体风险的零散列举,而是尝试从更具统合性的视角,将人工智能带来的冲击放置于经济、个人与社区、国家安全三大领域中加以系统审视。
以下译文仅代表原作者的研究观点与分析立场。详细内容请参阅文末原文链接。
摘要
文章围绕人工智能广泛应用所带来的社会变迁,提出应以“韧性”作为公共政策回应的核心框架。文章指出,人工智能正在持续重塑经济结构、社会关系与国家安全格局,其影响不仅表现为岗位替代或效率提升,也体现为工作质量恶化、儿童心理健康风险上升、监控型商业模式扩张,以及自动化战争、CBRN风险与网络安全脆弱性加深等更广泛问题。与“放任技术扩散”或“待问题显现后再应对”的政策路径相比,文章主张采取更具前瞻性和结构性的主动策略,在经济、个人与社区、国家安全等层面预先嵌入增强承压能力、适应能力与恢复能力的制度安排。文章据此强调,人工智能治理的关键不在于拒绝变化,而在于通过制度设计主动塑造变化,并建设一个能够在技术加速扩散条件下保持稳定、自由与安全的韧性社会。
作者
Asad Ramzanali,范德堡大学“政策加速器”人工智能与技术政策主任;Ganesh Sitaraman,范德堡大学法学院“纽约校友校长法律讲席教授”、范德堡大学“政策加速器”主任。

图片来源:报告原文
01
围绕人工智能(Artificial Intelligence,AI)未来走向的讨论,始终存在明显分歧,尤其是在技术进步的速度、这一速度是否值得鼓励、技术扩散的风险以及公共政策应如何回应等问题上,各方判断并不一致。然而在这些分歧背后,也存在一个越来越清晰的共识:人工智能的广泛应用将对社会产生深刻而持久的影响。技术加速主义者(Accelerationists)认为,人类正处于一场智能跃升的前夜,人工智能将把人类能力推向前所未有的高度;悲观主义者(Doomers)则担心,人工智能最终可能在数量、能力和效率上全面超越人类,并由此引发失控风险;务实主义者(Pragmatists)将人工智能视为一种“常规技术”,认为其影响更可能像以往的通用目的技术一样,在较长时期内渐进展开;民粹批判视角(Populists)则更关注企业权力集中、经济不公、技术寡头化和威权倾向加剧等现实问题。
尽管未来变化的节奏、路径和形态仍存在较大不确定性,但无论乐观者还是悲观者,大体都承认一个基本事实:变化本身难以避免。问题在于,变化往往伴随着扰动,并可能在短期和长期层面引发一系列社会问题。就人工智能而言,相关担忧几乎已覆盖经济、社会、政治和国家安全等多个领域:从就业流失带来的经济冲击,到人们对陪伴型机器人的情感依赖所引发的社会问题;从深度伪造对舆论环境和政治秩序的干扰,到新型生物武器可能造成的安全风险,人工智能的影响正在不断外溢,并呈现跨领域扩散的趋势。
理想状态下,社会应当能够在承受技术变革冲击的同时,避免严重的社会代价和核心价值受损,并尽可能释放新技术带来的积极效益。换言之,一个成功的人工智能广泛应用过程,不仅要尽量预防和减少负面后果,还应推动社会及时适应变化,并确保个人和社会在遭遇冲击后能够较快恢复。这种围绕“承受冲击—调整适应—恢复功能”展开的能力建设,正是“韧性”(Resilience)概念的核心所在。
下文首先将从工程学、心理学和生态学三个领域出发,界定“韧性”及其与人工智能政策的关系,并提出一个将韧性理念引入人工智能公共政策的基础分析框架。随后,文章将围绕经济、社会和国家安全三个领域,分析人工智能可能带来的主要风险及其社会影响。尽管尚无法准确判断这些变化将以何种形式、在何时以及以多大程度出现,但人工智能持续扩散的现实趋势表明,这些影响很可能会在不同层面逐步显现。更重要的是,这些变化并非局部性、短期性的波动,而可能对既有社会结构产生深远影响,并削弱社会原有的稳定性和承压能力。
基于这一判断,文章在各部分分析之后,均提出相应的韧性导向回应思路,既包括具体的联邦或州层面立法建议,也包括需要政策推动的更广泛的文化和制度调整。这一路径的一个重要特点在于,它并不依赖于对技术进步速度或具体形态的精确预测;同时,其政策建议也不仅适用于应对人工智能带来的冲击,还有助于提升社会面对其他现实挑战时的适应能力。尤其需要指出的是,韧性战略并非“无所作为”或“静待观察”的被动态度,也不是围绕个别具体风险展开的零散修补,而是主张通过更具前瞻性和结构性的政策安排,增强经济体系、社会体系和国家安全体系的整体韧性。

图片来源:business-reporter.com
02
所谓“韧性”,是指个人、机构或系统在面对冲击时承受压力、作出调整并恢复功能的能力。韧性越强,应对外部挑战的能力也越强。其背后的基本判断是:风险防范固然重要,但在许多情况下,完全避免有害后果并不现实。因此,政策目标不能只停留在事前预防,还应转向如何降低损害程度、缩短恢复时间并减少长期代价。
“韧性”这一概念已在多个学科中形成较成熟的理论传统。文章主要借鉴工程学、心理学和生态学的相关理解,并据此讨论人工智能政策的可能路径。三种视角虽各有侧重,
在工程学中,韧性主要指系统在外力作用下保持形态、恢复原状或避免永久损伤的能力,通常可概括为抗性、弹性和稳定性。这一视角有助于理解国家安全领域的韧性建设。心理学中的韧性则更强调个体在逆境中的适应能力,其形成与问题解决能力、沟通能力、生活目标感以及稳定的社会支持网络密切相关,这对理解人工智能对个人与社区的影响尤具启发性。生态学中的韧性,则强调复杂系统在持续变化中通过调整维持基本功能,这一视角有助于分析人工智能对经济体系的长期影响。
尽管三种理论来源不同,文章借用这些思路来分析人工智能带来的不同影响,但这种对应关系主要是分析上的启发,而非严格的一一映射。
在人工智能政策讨论中,已有研究指出,韧性框架尤其适用于这类高度不确定、跨领域扩散的新兴风险治理。相比之下,现有研究更多关注人工智能技术发展本身的不确定性,如支持风险研究或完善举报人保护机制,而对人工智能广泛应用后可能带来的经济、社会和安全后果关注相对不足。文章认为,正是在这一层面,韧性能够提供更具统合性的政策框架。
第一种是尽量减少干预、避免监管影响创新的“放任式”路径。这一路径往往低估人工智能广泛扩散可能引发的社会扰动及其累积效应,容易削弱经济体系、社区结构和国家安全体系的稳定性。第二种是在问题充分暴露后再逐项回应的“事后修补式”路径。这类做法虽然更符合现实中的政治操作逻辑,但往往介入过晚,也难以从根本上提升社会承受和消化冲击的能力。
因此,面对人工智能的广泛应用,更合适的政策路径既不是放任不管,也不是等问题全面显现后再作反应,而应采取更具前瞻性和结构性的主动策略。韧性并不是在危机发生时临时形成的能力,而需要在制度设计阶段预先构建。换言之,
:一类是程序性机制,主要涉及规则、流程和决策方式,例如预案设计、核查机制、适度冗余和事后评估等;另一类是实体性机制,强调应对风险所需的实际能力,如社会安全网、物资储备和社区支持。二者结合,才能真正增强系统面对不确定冲击时的稳定性。
就人工智能而言,政策制定者应优先考虑那些能够增强经济体系、个人、社区和国家安全机构韧性的政策安排。这既包括为更具适应性的劳动力市场和经济体系提供制度支撑,减轻不稳定性和不平等,也包括增强个人能动性、巩固社会支持网络,以及提升关键机构应对新型风险的能力等。其意义不仅在于应对人工智能,也在于提升社会面对其他现实挑战时的整体承压能力。最终目标,是建设一个能够在大规模采用人工智能的同时,尽可能减少社会不稳定和破坏性冲击的社会。

图片来源:thedigitalspeaker.com
03
人工智能的经济后果一直是公共讨论中最受关注的议题之一。该节主要讨论人工智能对工作质量、短期价格机制、市场集中度以及收入不平等的影响,并在此基础上讨论如何增强经济体系的韧性。
一些观点认为,人工智能可能显著压缩初级白领岗位,并已开始影响特定行业和群体的就业状况;也有学者持更审慎的判断,认为人工智能未必一定导致大规模失业,其重要作用也可能在于增强劳动,而不只是替代劳动。可以较为确定的是,人工智能带来的自动化与增强效应将同时存在:一方面,效率提升可能减少部分岗位;另一方面,也会催生新的职业形态。其规模、节奏和净影响仍有较大不确定性,但这并不意味着不会出现调整、过渡和冲击。历史上,其他通用目的技术的扩散也曾带来类似变化。
不过,如果仅从岗位增减的总量层面讨论人工智能的经济影响,就容易忽视技术对工作本身的深层改变。卡车运输和客户支持行业就是两个具有代表性的例子。
以卡车运输业为例,自动驾驶曾一度被视为很快将取代司机的技术,但至少到2025年,美国卡车司机数量仍维持在较高水平。这说明,技术替代的实际进程往往比预测更复杂。与此同时,技术确实改变了这一职业的工作体验。为解决长时间驾驶带来的安全问题,政策推动安装电子记录设备,但这一做法在现实中加剧了行业原有的薪酬和管理矛盾,使司机对收入和工作条件的不满进一步加深。客户支持行业则呈现出另一种趋势:越来越多企业开始利用人工智能管理工具,通过图像识别、语音分析、键盘和鼠标追踪等方式对员工进行高频监控。这类系统常被用于考核和纪律处分,结果是员工压力上升、缺勤增加、工作满意度下降,而技术本身的准确性却仍存在争议。

图片来源:transamcarriers.com
除改变工作的性质外,人工智能还可能在更广泛层面重塑市场运行机制。首先,在价格方面,尽管其长期影响尚难准确判断,但短期趋势已较为明显:人工智能正越来越多地被用于动态定价和个性化定价。企业在掌握大量用户数据后,可以借助人工智能识别消费者的价格敏感度,并据此尽可能提高收费水平。航空业长期以来就是动态定价的典型场景,而零售和配送服务领域也已开始出现类似做法。其次,人工智能可能进一步加深垄断和寡头格局。由于进入门槛高、网络效应强、规模经济突出以及转换成本较高,芯片、云计算和基础模型等关键领域本身就不易形成充分竞争。而大型人工智能企业还在沿技术栈上下游持续整合,将会进一步压缩中间层和中小企业的竞争空间。长期来看,这不仅可能推高价格,也会削弱创新活力和市场开放性。
更值得重视的是,在当前政策路径下,人工智能还可能进一步加剧不平等。从社会韧性和政治稳定的角度看,经济不平等本身就是一个高度敏感的问题。历史经验表明,重大技术变革往往会扩大财富集中,并重新塑造权力结构。当前,极端财富集中的迹象已经相当明显:与本轮人工智能浪潮密切相关的企业高管和技术精英,正在获得前所未有的财富回报,而普通劳动者则可能在就业稳定性、收入预期和劳动条件方面承受更大压力。因此,建设更具韧性的经济体系,必须正视不平等问题,并为更广泛人群提供稳固的经济安全基础。这里所说的经济安全,不只是维持最低生活水平,而是使个体在面对变化时,不至于因失业、降薪或职业转型而迅速陷入财务困境。
从政策层面看,增强经济韧性,首先意味着强化并简化现有社会保障体系,包括失业保险、医疗保障、教育支持、退休保障、集体谈判和其他基本社会保护,以对冲人工智能扩散可能带来的不稳定性。同时,还需要通过更公平的市场规则塑造竞争环境,例如强化反垄断执法、增强劳动者集体协商能力,并在必要时运用价格规制等政策工具。在工作场所,应赋予劳动者更多参与权,使其能够在人工智能何时部署、如何部署的问题上拥有发言权,并限制过度侵入性监控。对消费者而言,则应警惕基于监控的数据定价和价格歧视。除此之外,还必须通过税收等再分配工具回应不平等加剧的问题,例如提高企业税负、讨论财富税,或探索让公众共享人工智能发展收益的制度安排。只有在提升经济安全、改善市场规则并强化劳动者与消费者保护的基础上,人工智能带来的经济转型才更有可能沿着有利于社会韧性的方向展开。

图片来源:MIT News
04
过去二十年间,互联网由静态网页转向基于用户生成内容的互动平台,Facebook、Twitter/X、Instagram、Snapchat和TikTok等社交媒体由此迅速兴起,并深刻改变了社会文化生活。伴随这些变化而来的,不仅有便利与连接,也有越来越突出的代价。该节聚焦其中两个问题:儿童和青少年的心理健康风险,以及以监控为基础的商业模式,并指出,这两类问题正在被人工智能进一步放大。
之所以需要重视社交媒体时代的这些教训,是因为人工智能产品正日益呈现出“社交网络化”趋势。人工智能公司开始推出带有社交属性的平台和产品,传统社交媒体平台也在加大对人工智能的投入;陪伴型人工智能应用越来越接近社交媒体的数据—注意力逻辑,主流聊天机器人也逐步加入广告、购物等功能。也就是说,人工智能不只是新的技术工具,也正在嵌入并重塑既有的数字社交环境。
首先需要关注的是儿童和青少年的心理健康问题。近年来,社会越来越意识到,网络环境尤其对年轻群体,特别是青春期女孩造成了明显伤害。有研究指出,自2010年代以来,智能手机、社交媒体和持续在线互动,与焦虑、抑郁、孤独感、自杀意念上升,以及自信心和注意力下降等现象密切相关。尽管也有研究者认为,现有证据尚不足以严格确立因果关系,但如果因此推迟行动,实际上就是延续“等到危机完全显现后再应对”的被动逻辑。现有研究或许尚未穷尽全部机制,但已经足以说明,社交媒体对儿童和青少年的心理健康构成了不容忽视的风险。
随着人工智能与社交媒体进一步融合,这类风险很可能继续加剧。现实中,已经有人将聊天机器人作为“心理治疗者”使用;新的陪伴型机器人产品不断推出;个别极端案例中,未成年人在使用相关产品后自杀,其家长已提起诉讼。如果说社交媒体在无意间削弱了部分青少年的自信,那么当儿童越来越依赖“非人类朋友”来获得情感陪伴和社会互动时,其影响可能更为深远。围绕这些风险,当前政策回应并不一致:联邦层面的儿童数字安全立法推进有限,部分州已出台相关法律但仍面临司法挑战,一些地方政府则在家长和社会团体推动下,实施了校园禁用手机等措施。与此同时,要求减少儿童技术伤害、为线下社交腾出空间的社会呼声,也正在不断增强。

图片来源:《卫报》(The Guardian)
另一项重要风险,来自大型科技公司长期依赖的广告商业模式。互联网广告最初与传统广告差别不大,但随着平台掌握越来越多用户行为数据,广告逐渐演变为高度依赖数据追踪和精准投放的数字模式,并进一步发展出以持续收集、分析和交易个人信息为特征的“监控资本主义”。人工智能的引入又强化了这一趋势:广告内容生成、实时竞价、用户微定向、内容匹配和效果测试等环节,都越来越依赖人工智能。近期,OpenAI也表示将把广告整合进 ChatGPT 产品。问题在于,这类商业模式会进一步刺激数据收集,并把内容推荐、用户黏性和广告转化更紧密地绑定在一起。
原文链接
https://www.rand.org/pubs/perspectives/PEA4525-1.html