全球AI创新治理|弥合AI保障鸿沟:发展中国家的政策策略

作者:陈韵仪 发布时间:2026-04-06 来源:全球人工智能创新治理中心+收藏本文


编者按


从全球人工智能治理的宏观视角来看,当前全球AI保障体系正陷入严重的南北发展失衡困境。AI保障的规则制定、工具研发、能力建设等核心环节,完全由欧美等发达经济体主导,广大发展中国家的本土AI风险特征、文化社会语境、资源禀赋条件被长期忽视,最终导致AI保障沦为“西方标准的全球简单移植”。这种治理偏差不仅让AI技术带来的安全、公平、人权等风险在全球南方地区被成倍放大,更切断了AI技术助力可持续发展、实现普惠价值的关键路径。


本报告提出,全球AI保障绝非单纯的技术合规工作,而是深度嵌入社会结构、历史语境与发展需求的系统性治理工程作者认为,弥合全球AI保障鸿沟,绝不能盲目照搬西方治理框架,必须立足本土实际,以社会技术适配、基础能力建设、多方协同合作、国际话语权提升为核心抓手,构建兼具技术严谨性、成本效益与本土价值适配性的AI保障生态,让AI保障真正服务于发展权与人权保障,而不是阻碍发展中国家技术创新与数字转型的无形壁垒。


图片

图片来源:报告原文


本文为该报告的中文学术编译版本,旨在向中文读者呈现其核心论点与政策启示。编译过程中,我们在忠实原文逻辑的基础上进行了必要的学术化提炼,以符合智库研究的发布规范。


以下译文仅代表原作者的研究观点与分析立场,不代表编译者或发布平台的立场。


摘要


AI保障是评估并向社会传递AI系统可信性的核心治理流程,也是平衡人工智能创新发展与安全、公平、合规要求的关键抓手。当前全球范围内规模最大的一批AI应用市场,恰恰集中在发展中经济体,但AI保障体系的建设与实践却始终集中在发达经济体,这一错位直接导致发展中国家面临的海量AI风险无法得到专业、有效的应对,形成了难以忽视的全球AI保障鸿沟。


弥合这一鸿沟具有极为迫切的现实意义。一方面,AI技术引发的各类风险在发展中国家往往会被进一步放大,而不同发展中国家对AI技术的信任度呈现出显著分化,部分国家出现过度依赖 AI 的倾向,另一些国家则对AI持普遍怀疑态度。一套健全完善的AI保障体系,既能为已有AI信任提供科学合理的支撑,避免盲目信任带来的风险,也能为信任缺失的领域构建正当、可靠的信心基础。另一方面,AI保障体系能够有效推动联合国可持续发展目标落地,包括促进性别平等、维护和平与安全、强化社会问责机制等核心议题,同时助力各国政府履行国际人权公约规定的人权保护义务,推动企业承担应有的社会责任。


图片

联合国可持续发展目标

图片来源:UN News


在发展中经济体搭建行之有效的AI保障生态,面临着三重突出挑战第一,全球南方内部及各个国家之间,在语言体系、文化价值观念、AI 风险特征、法律政策框架等方面存在巨大差异,无法用单一、统一的治理模式实现全覆盖。第二,AI保障本身属于资源密集型工作,需要充足的时间投入、完善的配套基础设施以及高度专业化的跨学科技能,而这类核心资源在发展中经济体普遍处于稀缺状态。第三,监管体系存在空白、市场激励机制不足、在国际AI治理平台中缺乏代表性、担忧出台相关政策引发外交反制等现实问题,进一步制约了发展中国家AI保障体系的落地推进。


破解全球AI保障鸿沟的困境,需要发达国家与发展中国家的政府、AI技术研发与部署主体、专业AI保障从业者等多方利益相关者协同发力。发展中经济体应坚决摒弃 “一刀切” 的僵化治理思路,定兼具灵活性与针对性的策略,在技术严谨性、社会技术适配性和成本效益之间找到最佳平衡点。本报告提出五大核心策略:基于国家AI风险评估与分类体系,明确需要保障的对象与范畴;结合本土社会文化与技术语境,选择适配的保障工具与技术路径;通过提升全民AI素养、完善数字基础设施、培育专业保障人才、构建可持续投融资机制;以法律规则、行业规范、技术标准相结合的方式,制定兼具具体性与灵活性的AI保障准则;通过南北合作、南南合作及多边国际合作,提升全球南方在国际治理中的话语权。


作者


Talita Dias,Partnership on AI 国际政策与政府负责人,北约协同网络防御卓越中心(CCDCOE)高级研究员。

01

引言



全球AI保障鸿沟


AI保障是指通过审计、认证、各类专业评估方法等工具,对AI模型、AI系统及其核心组件的可信性进行全面评估,并向社会传递评估结果的治理过程。开展AI保障的主体主要分为三类:AI技术的内部研发与部署方、与研发部署方签订合约的外部专业机构、民间组织与学术机构等独立第三方组织。尽管AI保障已成为全球人工智能治理的新兴核心领域,但该领域的规则制定、工具研发、实践落地等关键环节,始终由发达经济体主导,其核心逻辑、价值导向、评估指标与方法,均完全贴合发达国家的社会语境与治理需求。


举例而言,AI公平性评估大多聚焦种族、性别、残疾、性取向等西方社会主流关注的偏见维度,全球AI保障活动也几乎以英语为唯一核心语言开展。这种严重的权力失衡,根源在于当前全球AI技术的研发主体仍以发达地区的科技企业为主,发展中国家的利益相关者通常仅被定位为AI技术的消费者或使用者,而非技术研发与治理体系构建过程中的平等合作伙伴。这一现状直接导致现有AI保障工具与发展中经济体的适配性极低,无法满足本土治理需求。


图片

基于国际货币基金组织分类标准的世界发达经济体与发展中经济体分布图

图片来源:报告原文


AI保障对全球南方的重要性


即便全球AI保障存在显著的南北失衡,AI保障对于全球南方地区的价值与重要性,与发达经济体完全等同,其核心意义集中体现在风险防控、信任构建、可持续发展、人权尽职调查四大维度。


首先,AI技术带来的风险与现实危害,在全球南方的边缘弱势群体中会被显著放大。发展中经济体的全民AI素养水平、社会风险抵御韧性普遍偏低,同时缺乏足够的资源用于AI风险防控技术的研发与落地,这直接导致AI驱动的仇恨言论、虚假信息在部分国家快速传播,甚至引发社会迫害、暴力冲突乃至武装冲突。从缅甸、叙利亚到苏丹、埃塞俄比亚,AI技术的不当应用都成为加剧社会动荡的推手,而这类风险在缺乏专业AI保障体系的情况下,既无法提前预警,也难以在事后有效纠偏与追责。


图片

图片来源:乔治·华盛顿大学(GWU)中东研究所


其次发展中经济体已成为全球最大的AI技术消费市场之一,印度、巴西分别是ChatGPT全球第二、第三大使用国,但不同国家对AI技术的信任水平呈现出两极分化的态势。马来西亚、越南、泰国等国对AI呈现出高信任度,甚至出现过度依赖的情况,而部分国家则对AI技术表现出质疑、不信任乃至漠视的态度。AI保障体系能够为高信任场景提供科学的合理性验证,避免盲目依赖引发的技术与社会风险;也能为低信任场景构建正当、可靠的信心基础,让AI技术的应用始终建立在可信、可控的前提之上。


第三,AI保障是推动全球南方地区实现可持续发展的核心动力,能够直接助力性别平等、减少社会不平等、促进和平安全与社会问责等可持续发展目标落地。通过开展性别偏见评估、多元群体偏见评估、AI合规性与安全评估等核心保障举措,能够有效降低AI技术对个体与社会的负面影响,提升政府、社区与普通民众对AI研发与应用的信心,进而释放AI在医疗、教育、农业、金融等关键民生领域的社会价值,推动更多可持续发展目标的实现。


最后,从人权保障与企业社会责任层面来看,AI保障是人权尽职调查的核心环节,能够有效预防并缓解AI技术研发与部署过程中带来的各类人权风险。各国政府搭建健全的AI保障生态、常态化开展AI保障活动,能够切实履行国际人权公约赋予的人权保护义务;企业主动开展AI保障工作,则契合联合国工商业与人权指导原则的要求,履行企业应尽的社会责任,同时彰显对环境、社会与治理理念的践行。

02

挑战:构建全球南方AI保障生态


AI保障作为全球新兴治理领域,本身就存在标准缺失、行业专业化不足、市场激励机制不完善等共性问题,而发展中经济体面临的挑战更为尖锐突出。即便部分AI技术成熟度较低的发达经济体也存在类似困境,但低收入与中等收入国家的资源短板、治理缺口更为明显,困境也更难破解。当前构建全球南方AI保障生态的核心障碍,集中在三大维度:文化政治经济的深度多样性、技能资源基础设施的持续性能力缺口、全球治理代表性不足与法律政治约束,这三类问题相互交织、彼此影响,从根本上制约了本土AI保障体系的搭建与推进。


图片

全球南方AI保障挑战概要

图片来源:报告原文


多样性


将发展中国家作为一个整体看待,能够有效跳出西方中心主义的治理视角,凸显殖民掠夺、结构性压迫给全球南方带来的共同发展挑战,但全球南方绝非同质化的整体,各个国家及国家内部的文化、政治、经济语境存在天壤之别,适配单一国家或场景的AI保障工具,根本无法在全球南方实现通用。


从语言层面来看,非洲大陆拥有1500至3000种语言,东南亚地区约有1200种语言,仅印度一国就有22种官方语言、超过19500种方言,而全球范围内能够使用英语的人口不足20%。这意味着,如果自然语言处理技术仅以英语为核心进行训练与评估,非英语语言的AI系统性能缺陷、安全漏洞将持续暴露,且无法被现有保障工具检测发现。


从AI风险特征与风险容忍度来看,不同地区也存在显著差异。东南亚地区的核心AI风险是AI驱动的网络诈骗与金融欺诈;太平洋岛国重点关注AI的环境影响与本土语言、数据的主权保护;拉美加勒比地区将人权保障作为AI治理的核心;非洲与中东地区则聚焦数字基础设施建设与AI技术在公共服务中的整合应用。不同区域的AI保障目标、评估组件、核心关注属性各有侧重,无法用统一标准衡量。


除此之外,平、隐私、稳健性等AI保障核心准则,在不同国家的法律体系、行业规范与社会公众期待中,定义与内涵各不相同。现有AI保障工具仅完成指标的语言翻译,远不足以实现本土适配,部分特殊场景甚至需要对保障工具进行深度改造,或全新研发评估方法,覆盖自然语言处理、传统预测模型、音视频生成等全类型AI技术。


能力缺口


AI保障是典型的高资源消耗型治理工作,需要时间、资金、基础设施与专业技能的多重支撑,而这类核心资源在发展中经济体普遍处于稀缺状态,形成了难以填补的能力缺口。


从时间成本来看,从本土AI风险图谱绘制、现有保障工具的本土化适配,到最终落地执行,整个流程往往需要数月时间,若需针对本土语境进行深度改造,周期还会进一步延长。


从基础设施与资金成本来看,AI技术评估需要海量专业数据集、配套软硬件支持,闭源模型的API访问权限、高端算力资源的使用成本极为高昂。数据显示,全球75%的GPU算力集群集中在美国,仅有33个国家拥有可支撑AI训练与推理的专业数据中心,绝大多数发展中国家缺乏开展AI保障的基础算力,云服务算力的租赁成本,对于学术机构与民间社会组织而言更是难以承受。


图片

图片来源:https://www.worldjournal.com


从专业技能来看,AI保障需要兼具机器学习、编码、统计等技术能力,以及社会学、人类学、伦理学、法学等跨学科能力,这类复合型专业人才在全球南方极度稀缺。人才培养的经济成本高昂、优质教育资源不足、行业职业路径不清晰,再加上严重的人才流失问题,导致本土认证机构缺乏足够的资金与人员开展AI保障业务。此外,发展中经济体的公共资金对AI治理、社会科学、法学等AI保障核心学科的投入,远低于发达经济体,进一步加剧了行业能力缺口。


法律与政治障碍


在标准化层面,AI技术标准是保障工具一致性、可比性的核心基础,但过度技术化的标准会排斥适配本土的社会技术治理路径,过高的专业标准会将全球南方的保障从业者直接排除在外。尽管国际标准组织已承诺在标准制定中融入社会技术维度,但相关承诺的落地仍需要较长时间,短期内无法解决发展中国家的现实困境。


在监管与市场激励层面,绝大多数发展中国家尚未出台专门针对AI的法律法规,政策制定者普遍将AI监管视为技术创新与数字转型的障碍,对AI保障的重视程度严重不足。从市场层面来看,仅有面向国际客户的本土企业,会因欧美等发达经济体的法规要求开展AI保障工作,本土市场的AI保障激励机制严重缺失,无法形成行业发展的内生动力。


在法律壁垒层面,发展中经济体的数据保护法律与AI治理政策存在明显冲突,严格的数据本地化要求、跨境数据传输限制,导致AI训练与评估所需的本土数据获取成本极高、流程极繁琐。部分机构为实现合规,不得不采用联邦学习、区块链加密等成本高昂、实施难度大的技术方案,而美国《电子通信隐私法》又直接阻碍了跨境数据调取,进一步影响了全面AI保障工作的协同开展。


图片

美国《电子通信隐私法》

图片来源:Captain Compliance


在国际治理代表性层面,全球有118个发展中国家未参与任何核心国际AI治理机制,国际AI安全机构网络仅纳入肯尼亚一个发展中国家,全球南方的治理诉求、本土需求根本无法融入国际规则制定过程。


在政治意愿与外交压力层面,相比于粮食安全、平息冲突等民生与安全议题,AI 保障在欠发达国家中缺乏政策优先级,同时社会普遍存在 “AI保障会阻碍技术创新” 的认知误区。更关键的是,发展中经济体普遍缺乏对抗外交反制的经济与政治实力,担心出台本土AI保障法规会引发贸易制裁、国际援助缩减等后果,这进一步削弱了各国推动AI保障工作的动力与决心。

03

建议:破解全球南方AI保障难题


全球南方的AI保障挑战具备系统性、复杂性特征,无法依靠单一主体或单项措施解决,亟需各国政府、AI研发部署方、专业保障从业者及国际社会多方协同发力。本报告基于全球实践调研,提出五大核心策略,为发展中经济体搭建兼具技术严谨性、社会技术洞察力与成本效益的国家AI保障生态提供可行路径。


图片

图片来源:报告原文


明确保障对象


搭建国家AI保障生态的首要任务,是精准界定保障范畴与对象,核心依托国家AI风险评估与清晰的AI风险属性分类体系,并严格锚定国际、区域及国内公认的人权标准。开展国家AI风险评估需采用社会技术视角,联合技术专家、受影响群体代表与社会学、经济学等本土领域学者,全面覆盖AI全价值链的个体、机构与社会影响,精准识别面部识别、招聘、医疗、信贷等高风险场景的算法偏见,以及仇恨言论、隐私泄露、犯罪滥用、环境危害等本土特有安全隐患。


国家可通过红队演练等探索性评估,挖掘本土AI风险特征,结合本国AI发展目标、法律义务与市场需求,构建覆盖技术性能、社会风险的AI属性分类体系。针对开源权重模型需单独纳入风险分类,此类模型虽能降低发展中国家技术依赖与应用成本,但存在微调数据污染、权重修改失效等突出风险,需强化组织流程、数据治理、用户审核与全流程文档记录等保障环节。所有分类体系均应以国际人权文书为核心基线,结合世界人权宣言、区域人权公约与国内人权框架,确保AI保障始终坚守人权保护宗旨。


优化保障路径


明确保障属性后,需结合本土需求与现有能力匹配适配工具,将评估、审计、认证、认可等手段与具体保障目标精准对接,优先适配本土场景与实际应用案例。AI保障评估分为实质性评估与程序性评估两类:实质性评估覆盖技术组件、人机交互、社会系统影响三个层级,核心采用红队测试、人工标注、基准测试等方法;程序性评估聚焦组织流程合规性,可将 ISO/IEC 42001 人工智能管理体系标准作为核心参考。


图片

图片来源:David Lin 顾问笔记


全球南方的AI基准测试必须完成本土化改造,现有开源基准需结合本土语言、文化调整数据集,特殊场景需全新研发适配工具,参与式评估与人工审核是保障适配性的关键,开源工具可有效降低自动化评估的成本与技术门槛。系统级评估比模型级评估更贴合发展中国家应用实际,人机交互与社会影响评估需结合社会科学定性定量方法,审计、认证、认可机制则用于提升评估可信度。政策制定者应明确各类工具适用场景,支持国家认证机构能力建设,根据医疗、信贷、人力资源等不同用例定制评估重点,国际标准应聚焦专业能力与流程透明,而非固化方法与阈值。同时依托政府AI安全机构,培育民间、学术、商业第三方保障力量,弥补公共部门资源短板。


强化保障能力


弥合南北AI保障能力缺口,需要开展针对性、体系化的能力建设工作,核心聚焦AI素养、基础设施、技能培育与资金支持四大维度,充分依托国际资金与资源助力本土能力提升。AI素养是构建保障生态的基础,需要面向政策制定者与社会公众,普及 AI 治理、伦理与核心技术概念,东南 AI安全亚洲组织(AI Safety Asia)的实践证明,政企社合作的定制化培训,能有效提升政策层面的AI保障认知与执行能力。


图片

RAISE SEA是由AI Safety Asia (AISA) 开发的一个AI增强型情景模拟平台

图片来源:巴黎和平论坛 (Paris Peace Forum)


基础设施层面,需保障算力、网络、专业数据集的基础供给,中等规模AI模型评估需匹配基础算力配置,超大模型需高端算力集群支撑。政策制定者应平衡数据主权与云服务依赖,通过加密、差分隐私、匿名化、合成数据等技术,平衡隐私保护与AI保障需求。高质量本土数据集是评估核心,需建立国家数据战略,推动数据跨境流动、开放共享与系统互操作,依托数字公共基础设施生成适配本土的评估数据。技能培育需覆盖技术与跨学科综合能力,借助在线教育降低培训成本,国际合作项目可提供标准化评估模板加速人才成长。资金层面,依托多边开发银行、国际发展机构、慈善资金与联合国全球AI基金,通过拨款、赠款、实物支持缓解资金压力,将AI保障纳入国际资金核心支持范畴。


设定保障准则


发展中经济体需制定国家层面AI保障准则,通过法律规则、行业规范、技术标准有机结合,平衡技术严谨性与治理灵活性,适配技术迭代与本土语境。规则指具有法律约束力的法规,可参考欧盟《人工智能法案》(《AI Act》)、巴西人工智能法案的风险分级保障要求,立法需兼顾严谨性与时效性,匹配AI迭代速度。规范为非强制性最佳实践,包括国家AI战略、治理指南、伦理建议,制定修订效率高,需配套落地举措强化执行。


标准由国际、区域、国家专业机构制定,涵盖AI组件、评估方法、人员资质等要求,自愿性标准纳入法规后具备约束力,国际标准需完成本土化适配。准则制定应避免过度技术化与严苛化,保留社会技术路径与本土实践空间,明确保障核心底线,确保准则契合全球治理趋势且能落地实施。


深化国际合作


发展中经济体可通过南北合作、南南合作、三角合作等多种形式,依托区域、双边、多边国际治理机制,有效弥合AI保障鸿沟。联合国作为全球最具代表性的多边治理平台,是全球南方参与国际AI治理、表达本土诉求的核心载体


图片

图片来源:The United Nations


南北合作可通过资金、专家、工具、算力援助快速填补资源缺口,多国多语言测试已证实,非英语语言AI模型防护存在短板,单纯数据集翻译无法满足保障需求。南南合作可实现知识、经验、资源共享,提升全球南方治理话语权,各国可联合整合数据集与算力资源,联合国工发组织是重要合作平台。区域合作依托地理与文化共性形成治理合力,《东盟人工智能治理和伦理指南》、新加坡亚太红队挑战等实践已取得实效。多边合作聚焦集体责任与可持续发展平衡,联合国人工智能国际科学小组与全球治理对话机制应充分吸纳南方诉求。多方利益相关者合作需搭建全球 AI 保障网络,弥补南方代表性不足问题,联合全球力量推动保障体系普惠化。

04

结论


自2018年学界揭示AI人脸识别的群体偏差问题以来,生成式AI的包容性与透明度建设虽有进步,但全球AI保障体系仍未适配全球南方的社会与个体需求,发展中经济体搭建本土保障生态仍面临多重壁垒。发达经济体仍在完善AI保障体系,而发展中经济体的多样性差异、能力缺口、法律政治障碍更为突出,若无法及时破解,全球人工智能鸿沟与数字不平等将持续加剧。


全球南方的多元性是构建AI保障生态的核心挑战,因为AI保障无法脱离本土语言、文化、经济与法律框架独立开展,因此必须深度本土化改造甚至全新研发。算力、技能、资金的能力缺口,监管、国际代表性、政治意愿层面的制度障碍,共同制约保障工作推进,但这些挑战并非不可逾越,全球多方协同可搭建适配本土的保障体系。


本报告提出五大核心结论:社会技术路径是AI保障适配全球南方的关键;通用保障工具需以人权与国际标准为基线;工具必须本土化适配,特殊场景需全新研发;资源有限时优先保障医疗、教育等高风险场景与易实施举措;弥合全球鸿沟需同步化解发展中经济体内部的不平等与治理差距。


尽管构建自主、适配、高效的AI保障体系仍任重道远,但国际社会仍需立即行动。AI的普惠价值依赖社会信任,而信任的根基是健全的保障体系。唯有弥合全球人工智能保障鸿沟,才能让AI服务全人类发展福祉,让全球南方从AI治理的旁观者,转变为规则制定、实践落地、价值共享的核心参与者。




原文链接




https://partnershiponai.org/resource/closing-the-ai-assurance-divide/