作者:梁若璇 发布时间:2026-04-21 13:00:23 来源:全球人工智能创新治理中心+收藏本文
编者按
随着生成式人工智能加速向“智能体(Agentic AI)”阶段演进,人工智能正从辅助决策工具转变为能够自主执行任务的关键基础设施。这一转变显著放大了AI应用的潜在价值,同时也使风险从单纯的内容输出偏差,扩展至系统性的失控。在此背景下,传统以技术安全或模型性能为核心的治理框架已经难以满足现实需求,企业与公共部门均面临如何在促进创新与控制风险之间取得平衡的挑战。
麦肯锡发布的《2026年人工智能信任成熟度调查》报告,通过对全球约500家组织的调研,认为,AI信任正在从单纯的合规议题,转变为支撑业务价值释放的重要能力;在智能体时代,能否建立起责任清晰、控制有效、监测持续的治理体系,将越来越直接地影响组织推进AI规模化应用的能力。
以下译文仅代表原文作者的个人观点与分析立场。详细内容请参阅文末原文链接。
摘要
报告基于麦肯锡《2026年人工智能信任成熟度调查》对全球人工智能信任治理状况进行系统梳理。调查显示,随着生成式AI和智能体AI逐步进入企业核心业务流程,AI信任已成为推动技术规模化应用的重要基础。研究从战略、风险管理、数据与技术、治理以及智能体AI管控五个维度评估组织成熟度,发现当前整体水平虽有所提升,但在治理与战略层面仍存在显著短板。
报告进一步指出,安全与风险问题是智能体AI规模化部署的首要障碍,不准确性与网络安全仍是最主要风险。此外,风险认知与治理能力之间仍存在明显差距。AI事件发生频率持续稳定,但组织对自身应对能力的信心下降,反映出系统复杂性提升对治理体系提出了更高要求。与此同时,知识与培训不足成为实施负责任人工智能(RAI)的主要阻碍,明确责任归属与治理结构的组织表现出更高成熟度水平。
总体而言,AI信任正从合规导向转向价值导向,逐步成为企业提升运营效率、增强客户信任并释放AI潜力的关键能力。报告认为,在智能体时代,及早构建涵盖政策、流程、人才与技术的可信治理体系,将决定组织能否实现人工智能的长期规模化价值。
作者
Gabriel Morgan Asaftei,麦肯锡纽约办公室合伙人;Abby Sticha,麦肯锡纽约办公室咨询顾问;Roger Roberts,麦肯锡湾区办公室合伙人;Cécile Prinsen,麦肯锡伦敦办公室副合伙人。
01
人工智能的应用正在快速从实验阶段走向规模化部署,生成式AI与智能体AI逐步进入企业核心业务流程。随着AI系统开始自主做出决策、触发操作并与其他系统交互,其失效带来的后果显著增加。在这一背景下,AI信任与负责任AI实践不再是次要问题,而是成为释放技术潜力的基本要求。
信任是两大关键成果的基础。一方面,它使企业能够持续采用AI并将其嵌入核心流程,从而实现投资价值;另一方面,它帮助组织管理不断扩展的风险环境。在智能体AI时代,企业不仅需要防范AI“说错话”,还必须防止系统采取不当行动、滥用工具或越过安全边界。
为了解各组织如何应对这一转变,麦肯锡开展了《2026年人工智能信任成熟度调查》。该调查于2025年12月至2026年1月期间进行,收集了来自不同行业和地区的约500家组织的反馈,受访者均在人工智能治理、风险管理或人工智能投资决策方面直接负责或具备专业知识。研究团队基于麦肯锡人工智能信任成熟度模型对受访者的反馈进行了评估。该模型以负责任人工智能(RAI)的五个维度为框架,包括战略、风险管理、数据与技术、治理,以及今年新增的“智能体AI管控”维度,这一新增维度反映出,随着AI系统自主性不断增强,对其进行治理的重要性日益上升(见图1)。研究将RAI成熟度划分为四个等级,从建立基础性负责任AI实践,到形成全面且具有前瞻性的治理体系。

该模型以负责任人工智能(RAI)的五个维度为框架,包括战略、风险管理、数据与技术、治理,以及今年新增的“智能体AI管控”维度,这一新增维度反映出,随着AI系统自主性不断增强,对其治理的重要性日益上升(图1)
图片来源:报告原文
02
该调查揭示了关于AI信任的十项核心洞见,这些洞见涵盖三个主题:AI信任的现状、新兴风险与挑战,以及为弥合差距并实现规模化应用,组织该如何应对。
一
当前AI信任状况
尽管整体成熟度有所提升,但仍存在显著差异,不过企业正日益认识到对负责任人工智能(RAI)投资的重要性:
1.RAI成熟度持续提升,但战略、治理以及智能体AI管控仍然滞后,仅约30%的组织在这些维度上达到了三级或以上的成熟度水平。
2.RAI成熟度因行业和地区而异:亚太地区在全球处于领先地位,科技、媒体、电信及金融服务行业表现优于其他行业。
3.对RAI的投资与更高的RAI成熟度及实现价值密切相关。
二
新兴风险与挑战
随着AI应用的普及或相关考虑的增加,风险与挑战也随之增多,同时组织对自身应对这些风险的信心有所下降:
1.安全与风险问题是智能体AI实现规模化部署的首要障碍。
2.随着AI应用的普及,不准确性与网络安全仍是最常被提及的AI风险。
3.在几乎所有AI风险类别中,实际缓解措施均落后于风险意识。
4.AI相关事件的发生频率保持稳定,但组织对自身应对能力的信心有所下降。
三
企业与组织的应对方式
在实施RAI的过程中,组织面临实施障碍与成熟度差异,同时RAI正日益成为推动业务发展的关键因素:
1.知识与培训缺口是实施RAI的主要障碍。
2.对RAI设定明确责任归属的组织,其成熟度评分高于缺乏清晰责任的组织。
3.AI信任正日益被视为业务赋能因素,而非单纯的合规要求。
03
“人工智能信任成熟度调查”详细展示了各组织在应对信任与责任问题时的做法。下文将对上述十项关键洞察进行逐一深入分析,重点考察整体成熟度水平、不同行业与地区之间的发展差异,以及对RAI的投资如何与信任能力和AI价值相关联。
一
RAI成熟度持续提升,但战略、治理及智能体AI管控仍然滞后
2026年,RAI的平均成熟度评分从2025年的2.0升至2.3。然而,仅约三分之一的组织在战略、治理及智能体AI治理方面报告了三级及以上的成熟度水平(图2)。这种不平衡表明,尽管技术能力与风险管理能力在不断增强,但组织协调与监督机制却难以跟上AI应用快速扩张的步伐。

仅约三分之一的组织在战略、治理及智能体AI管控方面报告了三级及以上的成熟度水平(图2)
图片来源:报告原文
二
RAI 成熟度因行业和地区而异
技术、媒体与通信行业以及金融服务行业在RAI成熟度方面持续领先,这主要得益于其更为完善的风险管理能力和数据基础(图 3)。从区域来看,亚太地区在整体成熟度方面领先全球,但在所有地区中,治理以及智能体AI控制能力均落后于数据与技术维度,这表明全球范围内普遍存在治理能力不足的结构性缺口(图 4)。

技术、媒体与通信行业以及金融服务行业在RAI成熟度方面持续领先(图3)
图片来源:报告原文

亚太地区在整体成熟度方面领先全球(图4)
图片来源:报告原文
三
对RAI的投资与更高的RAI成熟度及价值实现密切相关
在RAI项目上投资2500万美元及以上的组织,其成熟度评分显著更高,并且更有可能实现实质性的AI收益,包括息税前利润(EBIT)增幅超过5%(图5)。这种关联进一步表明,对RAI的投入并非创新的成本负担,而是实现持续价值创造的重要推动因素。

在RAI项目上投资2500万美元及以上的组织,其成熟度评分显著更高,并且更有可能实现实质性的AI收益(图5)
图片来源:报告原文
04
研究结果还考察了不断演变的风险格局,包括智能体AI规模化部署所面临的障碍、组织优先关注的风险类型,以及风险意识、缓解措施与事件应对准备之间存在的脱节。
一
安全与风险问题是智能体AI实现规模化部署的首要障碍
近三分之二的受访者将安全与风险问题视为全面扩大智能体AI应用的首要障碍,这一比例明显高于监管不确定性或技术限制(图6)。这表明,组织面临的制约更多在于对其能否安全地大规模部署自主系统的信心,而非实验能力。

近三分之二的受访者将安全与风险问题视为全面扩大智能体AI应用的首要障碍,这一比例明显高于监管不确定性或技术限制(图6)
图片来源:报告原文
二
随着AI应用的普及,不准确性与网络安全仍是最常被提及的AI风险
随着人工智能应用的普及,74% 的受访者将不准确性视为高度相关风险,72% 的受访者则将网络安全列为重要风险(图 7)。即便智能体AI带来了新的风险类型,这两类风险仍然是基本的关注点。这表明,组织不仅需要管理传统的模型风险,还必须应对由系统自主性提升带来的更广泛的安全威胁。

随着人工智能应用的普及,74% 的受访者将不准确性视为高度相关风险,72% 的受访者则将网络安全列为重要风险(图 7)
图片来源:报告原文
三
在几乎所有AI风险类别中,实际缓解措施均落后于风险意识
在几乎所有风险类型中,受访者均表示,他们认为重要的风险与实际正在采取缓解措施的风险之间存在明显差距(图8)。这种差距在知识产权侵权和个人隐私方面尤为明显,这表明组织对风险的认知提升速度,已经超过了相应控制措施、流程以及工具建设的落地速度,从而难以及时、有效地进行风险管理。

在几乎所有风险类型中,受访者均表示,他们认为重要的风险与实际正在采取缓解措施的风险之间存在明显差距(图8)
图片来源:报告原文
四
AI相关事件的发生频率保持稳定,但组织对自身应对能力的信心有所下降
报告发生AI相关事件的组织比例一直稳定在约8%,但人们对事件响应质量的评价却有所下降。经历过相关事件的受访者中,近60%对其所在组织的应对措施持一般或负面的看法。这表明,虽然AI事件的数量并未明显增加,但随着系统复杂性不断提升,组织在事前准备和事件响应方面的能力未能同步提升(图9)。

虽然AI事件的数量并未明显增加,但随着系统复杂性不断提升,组织在事前准备和事件响应方面的能力未能同步提升(图9)
图片来源:报告原文
05
为应对不断出现的风险与挑战,各类组织正着力强化AI信任的基础,包括弥合能力差距、明确责任归属,并构建必要的RAI能力,以确保信任能够促进创新,而非构成对创新的约束。
一
知识与培训缺口是实施RAI的主要障碍
近 60% 的受访者指出,知识与培训缺口是实施RAI实践的主要障碍,这一比例较去年的约 50% 有所上升(图10)。尽管高层管理者的支持有所增强,但数据表明,组织在培养必要技能、提升风险认知以及构建运营能力方面,仍面临较大挑战,而这些正是在各团队中持续贯彻RAI理念所必需的。

近 60% 的受访者指出,知识与培训缺口是实施RAI实践的主要障碍,这一比例较去年的约 50% 有所上升(图10)
图片来源:报告原文
二
明确RAI责任归属的组织成熟度更高
为RAI设定明确责任主体的组织,尤其是通过设立专门的AI治理岗位,或由内部审计与伦理团队承担相关职责的组织,平均成熟度水平最高,平均得分达到2.6。相比之下,缺乏明确责任主体的组织明显落后,其平均得分仅为1.8。这一差异进一步凸显了明确责任归属与决策权配置,在提升RAI成熟度方面的重要性(图11)。

相比之下,缺乏明确责任主体的组织明显落后,其平均得分仅为1.8(图11)
图片来源:报告原文
三
AI信任正日益被视为业务赋能因素,而非单纯的合规要求
受访者报告中,业务结果改善、运营效率提升以及客户信任增强等正面影响的出现频率,高于负面影响(图12)。与此同时,一些监管框架对AI实践的影响力有所下降,这表明组织推动AI信任建设的动机,正从以合规为导向,转向以价值创造和绩效提升为驱动。

受访者报告中,业务结果改善、运营效率提升以及客户信任增强等正面影响的出现频率,高于负面影响(图12)
图片来源:报告原文
06
随着AI系统自主性不断增强并深度嵌入关键业务流程,治理与风险管理方面的缺口将带来越来越高的成本。未能建立清晰责任机制、健全控制体系以及有效监测机制的组织,将面临AI应用推进缓慢、事件影响加剧以及利益相关方信任下降等风险。
相反,将AI信任视为核心业务能力而非合规要求的组织,更有条件释放AI规模化应用的全部潜力。这种能力并非可以通过简单采购和部署获得,而需要通过政策、流程、人才与技术的协同建设,构建智能体、机器人与人类协同工作的基础。及早打造可信的创新引擎,将决定哪些组织能够在智能体AI时代获得长期价值。
原文链接