作者:蔡翠红 发布时间:2025-07-30 来源:学术前沿杂志+收藏本文
作者简介
蔡翠红,复旦大学国际问题研究院、美国研究中心教授、博导。研究方向为网络空间治理、数字治理、数字战略、网络政治与中美关系,主要著作有《全球网络空间治理》《Cyber Politics in US-China Relations》《中美关系中的网络政治研究》《网络时代的政治发展研究》《美国国家信息安全战略》《信息网络与国际政治》等。
摘要
人工智能正深度嵌入全球网络空间治理体系,以高效的数据处理和风险识别能力重塑治理的主体结构、方法流程与模式机制,有效提升治理效率。必须清醒地认识到,人的作用在全球网络空间治理中仍具有不可替代性,因为人工智能尚不具备规范判断与制度设计能力,其透明性、伦理性与权责属性仍依赖人类塑造。未来全球网络空间治理将呈现人机协同趋势,即技术负责初步识别与响应,人类完成价值设定、制度构建并承担最终责任。人机共治的关键在于通过结构嵌套、规则共创与责任协同等机制,构建开放、透明、可问责的全球网络空间治理新范式。
引言
在数字技术迅猛发展的当下,全球网络空间治理正面临深刻的结构性变革。全球网络空间治理是指通过制定和实施政策、规则及技术标准,协调各国政府、国际组织、私营部门和公众等多方主体,共同管理和规范网络空间,以维护其安全、稳定与繁荣的活动。以人工智能(Artificial Intelligence, AI)为代表的新兴技术,正从单一工具型手段演变为嵌入式治理要素,深度参与政策执行、内容监管、风险预警、数据管理等多个关键环节。这种变化不仅显著提升了治理效率和响应能力,而且给传统治理逻辑、权力结构与制度安排带来前所未有的挑战与重塑压力。
人工智能之于网络空间治理,不仅是一场技术革新,更是一种治理范式转型,对于网络空间治理而言是一把“双刃剑”。一方面,依托强大算力与可持续优化的算法,人工智能在信息甄别、趋势识别、行为监测等方面具备独特优势,推动治理从被动响应走向主动预测,从集中管理走向去中心化协作;另一方面,人工智能技术治理应用中的透明性缺失、伦理模糊、问责困难等问题,也引发了各界对治理正当性与责任归属的深层忧虑。这意味着,我们正进入一个技术推动与人的协调监管并举的人机共治新阶段。然而,技术本身并不具备自治能力。治理本质上是一种集合法律制度、社会共识与政治判断于一体的复杂工程。在人工智能广泛介入全球网络空间治理实践的同时,人类在价值设定、规则制定、道德判断与多边协商中的不可替代性愈加凸显。从平台内容审查中的伦理分歧,到跨国数据流动中的主权博弈,从技术滥用引发的风险纠错,到未来治理机制的制度前瞻,人类始终是治理链条中的最终责任者与价值“守门人”。
因此,理解人工智能时代的网络空间治理变革,不仅要关注技术赋能与效率提升,而且必须正视人类主导作用的持续必要性,并思考人机协同的新制度形态。本研究拟从技术嵌入、人类主导、人机协同三个维度出发,系统探讨全球网络空间治理的结构性转型逻辑。首先,聚焦人工智能对网络空间治理的结构性变革,分析其在治理效率、主体结构、流程机制与制度模式等方面的深度介入与重塑。其次,讨论网络空间治理中的人类不可替代性,强调在伦理判断、规则设计、政治协调与公众参与等关键领域,人工智能无法取代人类的规范性与判断力。再次,展望迈向“人机协同共治”的网络空间治理图景,提出一种更具前瞻性的制度设想,即人类主导、人工智能辅助的人机协同机制。通过上述分析,本文希望为理解人工智能驱动的全球网络空间治理提供一套兼具结构观察与规范反思的理论框架,进而为未来制度设计提供启示与参考。
人工智能对全球网络空间治理的嵌入
随着人工智能技术的快速演进,全球网络空间治理正经历深层次的结构性转型。人工智能不仅提升了治理效率,更在悄然重塑治理主体格局、操作流程与制度架构。下面以效率、主体、过程、模式四个维度为线索,系统分析人工智能如何嵌入网络治理体系,并揭示其在权力分布、制度路径和治理逻辑等方面的重塑机制。
治理效率的跃升:从人工操作到智能驱动。人工智能技术的嵌入,显著改变了网络空间治理的效率逻辑。传统治理依赖人工操作,在数据处理、内容审核、安全防护等方面面临人力成本高、响应速度慢、覆盖面有限等结构性困境。人工智能的引入,使网络空间治理从依赖人类的点状响应,转变为全天候、高速率、广覆盖的系统性机制,开启了治理效率跃升的新阶段。
在内容治理方面,人工智能极大提升违规内容的筛查和响应速度。以Meta公司为例,其在2022年第四季度报告中指出,旗下平台使用人工智能识别并处理约90%以上的仇恨言论和暴力内容,且多数能在用户举报前实现系统捕捉。YouTube与TikTok也广泛使用图像识别与语义分析技术,在上传初期对内容进行分类和处理。尽管人类仍需在复杂内容判断中参与复核,但人工智能显著减轻了审核负担,提升了响应速度。
在网络安全领域,人工智能可提高对威胁的即时监控与主动防御能力。例如,微软的“Azure Sentinel”安全平台利用自动化整合技术可在毫秒级别识别异常网络行为并自动启动防御机制。该系统利用机器学习训练识别“零日攻击”“钓鱼邮件”等潜在威胁,有效提高了网络防御的敏捷性。中国国家计算机网络应急技术处理协调中心(CNCERT)也在探索将人工智能算法引入国家级态势感知平台,实现关键基础设施的风险自动识别与响应。
在数据治理方面,人工智能显著增强数据融合与决策支持能力。新加坡的“Smart Nation Sensor Platform”集成了交通、环境、公共安全等多维数据,辅助政府使用人工智能实时分析交通与城市运行数据,为城市管理提供支持。人工智能作为治理效能提升的加速器,正推动全球网络空间治理自动化、智能化并向前瞻治理演进。
治理主体的转型:从人类主导到人机共治。随着人工智能深度嵌入全球网络空间治理,传统由人类主导的治理格局正经历着转向“人机协同、多元共治”的重大变革。在新的治理体系中,人工智能不再只是被动执行的技术工具,而成为具备辅助判断、主动识别、风险预警等能力的辅助治理主体。人工智能开始在数据分析、内容筛查、风险建模等前端环节发挥关键作用,提升治理系统的响应效率与覆盖能力,而政策制定、价值判断与责任追究等规范性环节仍由人类主导完成。二者相辅相成,构成“技术驱动—人类裁量”的复合型治理结构。无论是在网络安全领域,还是在平台自我规制与技术伦理治理中,越来越多的实践印证了这一协同治理模式的发展与落地。
全球网络安全巨头卡巴斯基旗下的卡巴斯基工业网络安全(KICS)和异常检测机器学习(MLAD)产品都使用人工智能算法来识别特定工业环境中的间接攻击指标和细微活动异常。其托管检测和响应(MDR)平台则采用基于人工智能的自动分析器,该分析器接收安全运营中心团队收到的警报后能自动对警报内容进行处理。据统计,经过训练和分析师评估后,MDR平台能够较为可靠地过滤错误警报,从而将减少安全运营中心约25%的工作量。这一实践展示了人机协作在网络安全治理中的有效性,即人工智能负责初步筛查和风险标注,人类专家进行复审和决策,从而提升治理的效率、精度和可靠性,构建起一个分工互补、责任清晰的协同治理模式。
人工智能不仅提升平台内部监管的精度与覆盖率,也赋予平台更大的规制能力,重塑治理边界。例如,阿里巴巴于2022年设立“科技伦理治理委员会”,并引入外部顾问机制,推动包括算法审查、风险评估、数据隐私保护等在内的技术治理框架。该委员会主导制定了“科技伦理六大准则”,明确要求重要算法上线前需进行伦理与合规评估,确保平台在“可控、可信、安全”基础上运行治理机制。这一实践展示了阿里巴巴如何通过人工智能技术和内部治理机制的完善,提升平台治理能力,从而在商业组织基础上承担更多治理主体责任。
治理过程的重构:从线性流程到智能自动化。人工智能的介入,正在深刻重塑全球网络空间治理的流程架构。传统治理模式通常遵循“问题发现—人工介入—响应处理”的线性链条,严重依赖人力审批和多部门协同,导致流程迟滞、反馈滞后与资源浪费等治理瓶颈。在传统架构下,内容审核、风险识别、违规处置等任务往往由不同部门各自为政,形成“治理孤岛”。在人工智能介入的新治理范式中,平台不再仅仅是承载治理任务的执行载体,而是逐步演化为集感知、调度、决策于一体的智能中枢。人工智能对治理流程的重构,不仅提升治理效率,更促成从人工审批线性链向以平台为中枢的并行自治范式转变。
TikTok的广告审核流程结合了自动化审核与人工复核,以提高审核效率和准确性。广告提交后,系统通常会在24小时内完成初步审核。对于低风险内容,人工智能可自动批准,而高风险或复杂内容则交由人工复核处理。这种协同机制避免了资源浪费与误判过度,体现了人工智能在治理任务智能分流与并行处理方面的应用价值。
百度推出的内容审核平台,集成人工智能内容审核系统,实现多业务线的统一风控调度。该平台支持对图像、文本、语音、视频等多模态内容进行审核,具有审核模型精准、审核维度丰富和规则配置灵活等特点。通过界面化选择审核维度、个性化调整松紧度,自动检测涉黄、涉恐、恶意推广等违规内容,降低业务违规风险。这一实践充分展示人工智能可推动以平台为中枢的智能治理中台建设,整合原本分散的资源与模块,提升内容安全治理的效率与精准度。可以认为,百度内容审核平台在部分流程节点中实际上获得了“自治执行权”,成为流程中的代理治理者。管理员的职责从“执行者”转为“规则设计者”,人工智能负责持续运作并自我学习,形成智能化流程的微观自治单元。
治理模式的重塑:从静态规制到动态适应。人工智能的引入正在深刻重塑网络空间的治理模式,不仅变革治理工具与流程,也重构治理的根本逻辑。传统的治理框架通常依赖于静态、线性的规制设计,在应对已知风险方面尚可运作,但面对快速演进的技术生态与多元不确定的风险情境,常常显得滞后、低效、缺乏弹性。在这种背景下,人工智能凭借其高频感知、多源整合和快速反馈等能力,正成为网络空间治理系统动态调节的核心引擎。其不仅能在治理流程前端发挥实时监测与识别功能,还可以嵌入制度设计后端,推动治理结构实现“反馈—调整—再执行”的循环更新机制;更进一步,人工智能的独特能力还使部分制度具备在监管不确定情境下进行政策试验的可能。
传统治理侧重于对既成违规行为的事后处置,而人工智能则推动风险识别和资源调度向前置部署转型。例如,百度公司通过其安全态势感知系统,可针对全网文字、图片、视频、代码等进行智能建模和7×24小时实时监控,对欺诈、违法、风险等恶意网站及第三方浏览器、第三方APP、社交平台、短信网址有害信息采取风险标注、拦截提示、搜索屏蔽等拦截措施,其治理逻辑转变为“事前监控—事中拦截—事后追溯”,为用户提供了更为完善的安全保障体系。
面对不断变化的技术生态和社会需求,人工智能助力构建以反馈为核心的动态治理模式。例如,欧盟于2022年通过了《数字服务法案》(Digital Services Act, DSA),要求大型在线平台建立动态风险评估体系,持续依据算法反馈和舆情数据,调整内容审核机制、推荐逻辑和用户提示方式,从而创建一个更安全的数字空间。在技术尚未成熟、风险尚不明确的生成式人工智能、元宇宙等新兴领域,传统规制模式可能导致监管真空或创新受限。为兼顾探索与合规,部分国家引入“治理沙盒”“弹性监管”等柔性制度架构。英国政府于2023年3月发布了《支持创新的人工智能监管方式》(A pro-innovation approach to AI regulation)政策文件,提出基于原则的人工智能治理方法,强调在现有法律框架下对人工智能进行监管,并提出可信人工智能、监管沙盒等举措,以在防范潜在风险的同时促进产业发展。
综上所述,人工智能技术推动网络空间治理从静态规则走向动态弹性机制,从一次性部署走向持续调试,从封闭式制定走向开放式共建,为构建适应型、学习型全球网络空间治理体系提供了关键支撑,也使全球网络空间治理更具弹性与适应力。但与此同时,人工智能技术应用也带来了新的制度难题:谁主导规则迭代?反馈数据是否公开透明?政策试验失败由谁负责?这些问题仍需人类在制度设定与监督过程中行使终极裁量权,发挥责任担当。
全球网络空间治理中的人类不可替代性
在人工智能广泛嵌入网络空间治理的当下,其在数据处理、风险预测、内容识别等领域展现出卓越效率。人工智能在发挥极大赋能增效作用的同时,也日益暴露出数字控制、权力剥夺、价值偏好偏差等消极影响,暗藏颇为危险的技治主义倾向。治理本质并非单纯的技术工程,还关涉制度设定、权力协调与价值判断。特别是在多主权并存、技术快速演化的全球网络空间,人类在治理中的主导角色非但未被削弱,反而在制度建构、伦理决策与国际协商等关键环节中更加不可替代。
制度设计中的人类规范判断作用。人工智能的广泛应用正在重塑全球网络空间治理的技术图景。治理制度不仅是对运行机制的设定,更是对社会价值、权力关系与规范边界的系统构造。在网络空间这一跨文化、多主体、高变动性的场域中,制度设计远非技术性输入输出所能替代,必须由具备历史意识、价值判断与政治理性的主体亲自把关与主导。人工智能虽擅长数据演绎与模式识别,却难以处理涉及伦理争议、文化冲突与社会期望的规范性问题,这些构成了其难以逾越的认知边界。法律与政策等治理规范的制定,并非模型单独推导出的技术解法,而更是一场社会协商与道德评估的集体实践。
欧盟《人工智能法案》(Artificial Intelligence Act)体现了这种人类主导的制度判断过程。自2021年其草案提出以来,欧洲议会、理事会与成员国历经多轮辩论,最终在2023年12月达成政治共识。立法过程中设立的人工智能伦理框架将所有人工智能系统应用场景划分为“不可接受”“高风险”“有限风险”“最低风险”四类,并明确禁止用于社会信用评分、实时远程面部识别等“不可接受风险”用途。这一制度构造的背后,是围绕“人类尊严”“基本权利”“民主稳定”等核心价值展开的政治与法律协商,而非算法所能自主设定的技术逻辑。
在我国,《中华人民共和国个人信息保护法》亦展现了在本土社会逻辑中对制度价值的多重考量。该法案于2021年正式施行,既参考了欧盟《通用数据保护条例》(GDPR)中的部分经验,如数据最小化原则、跨境传输限制等,又根据中国国情强调了“国家安全”“社会稳定”“政府作用”等理念。在跨境数据流动部分,该法规定“关键信息基础设施运营者”和处理个人信息量达到国家网信部门规定数量的“个人信息处理者”必须接受国家网信部门安全评估,体现出对国家主权与公共利益的制度性偏好。这些条款体现了集体主义文化、秩序导向型治理观念在制度设计中的深层嵌入。
更具国际层面制度张力的是联合国政府专家组(UNGGE)在网络空间国际规则制定中的工作实践。UNGGE多轮谈判围绕“国家主权是否适用于网络空间”“武力使用是否涵盖网络攻击”等问题展开激烈讨论。美国坚持强调“自由开放的网络空间”,反对“国家主权过度扩张”;而俄罗斯与部分发展中国家主张国家政府在网络空间治理中的作用,反对技术霸权。这些立场分歧反映出不同国家的战略利益与治理观念,其制度文本的最终形成依赖的是人类外交代表在谈判、协商与利益妥协中的经验判断和价值权衡,而这种互动难以由人工智能代理。
人类始终在制度构建的核心判断中发挥着不可替代的作用。人工智能可在制度形成过程中提供辅助分析,但制度的合法性、正当性与文化适应性,必须源于人类社会的理性协商与规范共识。即便未来人工智能进一步嵌入治理过程,也无法改变人类在全球网络空间治理中拥有制度主导权的核心逻辑。
价值冲突中的人类伦理判断作用。在全球网络空间治理实践中,伦理判断是无法由算法替代的关键环节。特别是在不同社会价值观发生冲突时,只有人类才能凭借其伦理感知、社会共识与文化理解能力作出更具合法性与可接受性的决策。人工智能可以识别模式、执行规则,但缺乏主动提出伦理问题、衡量文化后果与承担社会责任的能力。诸如隐私保护与国家安全之间的张力、言论自由与社会稳定的平衡、人权保障与内容审查的界限,这些议题往往处于灰色地带,难以依靠逻辑演算或统计模型得出唯一答案。
Meta(原Facebook)平台的内容审核机制充分揭示了该问题的复杂性。尽管该平台部署了大规模人工智能系统以自动识别暴力、恐怖主义、仇恨言论等内容,并可在用户举报前完成大部分初步筛查,但在处理政治异议、人权表达和宗教敏感内容时,人工智能系统显得力不从心。为应对这一挑战,Meta于2020年正式设立“内容监督委员会”(Oversight Board),负责复审关键内容争议案件。该委员会强调审查标准需依据《世界人权宣言》与区域法律框架,明确了人工智能判断之外,人类在政治表达与文化张力中的裁定责任。
另一个体现伦理判断主导技术决策的事件,是谷歌(Google)在“Project Maven”项目中的战略退出。该项目由美国国防部于2017年启动,旨在利用人工智能图像识别技术提升无人机军事侦察与目标打击的效率。谷歌在该项目中负责提供机器学习平台工具,协助军方进行目标识别。然而,自2018年起,谷歌内部爆发大规模员工抗议,逾4000名员工联名反对公司参与该项目,认为这违反了公司“不从恶”(Don't be evil)的核心理念。在道德压力与公众争议下,谷歌最终决定退出该项目,并在公开声明中表示“人工智能必须服务于和平与人类价值,而非被滥用于武力控制”。这一事件清晰说明,即使在高科技公司内部,伦理价值仍然是最终决策的主导因素,而非由技术理性决定。
制度层面更为突出的案例是新西兰政府在“基督城清真寺枪击案”(2019)后发起的“基督城呼吁”(Christchurch Call)倡议。在该事件中,凶手通过社交平台直播其行凶过程,震惊全球。事件之后,新西兰联合法国等欧盟国家与多家科技公司,共同呼吁建立全球互联网内容治理机制。该倡议明确提出:“应在人类监督下加强极端内容的识别与处理,反对将此类工作完全外包给人工智能系统”,强调平台责任、人类干预与跨国合作的制度性路径,代表当前国际社会对人工智能内容治理边界的基本共识。
在涉及社会敏感议题的治理过程中,人工智能固然可以作为技术支持工具,但最终的伦理决策权必须由人类掌握。尤其在跨文化背景下,全球社会对“自由”“暴力”“安全”等概念的理解存在巨大差异,人工智能模型在此情境下往往无法提供广泛认可的方案,反而可能激化信任危机。因此,全球网络空间治理中,人类在伦理判断中的主导地位不可替代。
公众参与中的人类民主组织作用。在全球网络空间治理中,政策制定早已超出技术执行的范畴,成为一项涉及多元价值冲突、利益平衡与制度正当性的复杂政治工程。公众是否以及如何被有效纳入治理结构,不仅关乎程序正义,也决定了治理机制的合法性与可持续性。尽管人工智能在舆情识别、意见聚类与参与动员等方面展现出巨大潜力,但仍无法替代人类在公众参与和公共协商中的核心作用。
首先,公众参与而非简单的技术采样或数据建模,是民主政治的基石。2017年,美国联邦通信委员会(FCC)就“网络中立性”政策改革展开公共咨询,收到了约2200万条公众评论。然而,事后调查发现,其中近1800万条评论为虚假提交,很多使用了伪造的身份信息。这揭示了在政策制定过程中,虽然人工智能可以辅助分析评论内容,但对于评论的真实性验证、代表性评估以及程序的公平性判断,仍需依赖人类的制度裁定和监督。这一事件表明,治理合法性依赖的不是算法生成的统计概率,而是人类社会对过程正义的信任。
其次,在技术与民主并存的场域中,人工智能可作为“协助组织者”嵌入参与机制,但不具有决策主体地位。法国政府于2019年发起“全国大辩论”(Grand Débat National)项目,旨在回应“黄背心”抗议,促进全国性对话以化解社会冲突。政府在全国范围内组织了超过1万场线下集会,并结合人工智能技术对约200万条在线提交的意见进行文本分析与分类。数字化后的民意数据被委托给调查公司OpinionWay及其人工智能合作伙伴Qwam处理,他们通过人工智能工具识别民众共识与争议焦点,辅助政府制定改革优先事项。然而,这一人工智能辅助机制始终以“意见归纳工具”而非“政策决策者”角色存在,最终的制度调整仍由总统与议会通过民主协商裁定。
再次,公众参与在人权与道德议题中更具有不可替代性。英国在制定《在线安全法案》(Online Safety Bill)期间,广泛征求民意、组织听证会,并设立跨党派监督小组,以处理平台责任、算法偏见与未成年人保护等复杂问题。该法案涉及“如何界定有害内容”“平台是否过度审查”“人工智能在内容治理中的合法边界”等多重伦理风险。尽管技术专家参与算法模型与风险评级设计,但最终法律文本仍由议会通过,体现出人类在价值判断、权力设计和制度运行中的绝对主导地位。
人工智能可以在全球网络空间治理中作为信息赋能的工具,扩展参与范围、优化议题聚合、发现意见冲突,但规则设定、协商引导与责任归属的制度构建仍需由人类主导完成。特别是在多元文化、价值观冲突的全球网络空间,公众参与仍然不可替代。
跨境多方博弈中的人类协调作用。全球网络空间治理不仅关涉技术部署,更深刻映射出国际体系中的主权冲突、权力再分配与制度竞争。在这一多极互动的场域中,治理不再是行政命令的线性输出,而是一个充满政治张力的“协商—妥协—再协商”过程。人工智能虽然可以提供数据支持、语言翻译与风险评估,但缺乏政治敏感性、文化理解力与妥协能力,无法胜任高风险、多变量的跨境协调任务。
以TikTok与美国政府围绕“数据主权”与“国家安全”问题的争议为例,人类谈判的作用在其中展现得尤为明显。2019年,美国外国投资委员会(CFIUS)对字节跳动收购Musical.ly并将其整合为TikTok的交易展开了国家安全审查。尽管TikTok采取措施将美国用户数据存储在美国和新加坡,并退出香港市场以争取美方信任,但CFIUS仍认为TikTok构成国家安全风险,要求其剥离美国业务,甚至将其封禁。在这一过程中,关键决策并非基于事实理性,而是由美国国家安全委员会、法律顾问、企业高管等人类行为体根据所谓“逻辑”作出,更多是基于政治考量和无端猜测,目的是维护美国数字霸权。
欧盟与Meta(原Facebook)围绕“跨境数据传输合法性”的法律冲突验证了这一点。在“Schrems II”案中,欧洲法院于2020年裁定美国的监控机制违反欧盟隐私权标准,宣布《隐私盾协议》无效,直接影响了Meta等公司数据在欧美之间的自由流动。尽管Meta使用人工智能协助分析法规适配性与合规风险,但其应对策略,包括数据本地化、协议谈判、隐私政策修改等,均由法律顾问、数据保护官与欧盟监管机构共同主导完成。这类法律与政治高度交织的治理冲突,离不开人类在规范解释、信任建构与司法策略中的协调作用。
在更具制度性与全球性的场域,联合国“互联网治理论坛”(IGF)提供了一个高度人类主导的协商机制范式。自2006年设立以来,IGF汇聚了各国政府、技术组织、企业与公众,围绕数字主权、技术标准、互联网资源分配等问题展开多轮讨论。发展中国家持续要求改革现有治理结构,如扩大其在互联网名称与数字地址分配机构(ICANN)的影响力,而欧美国家则主张维持“多利益攸关方”机制的现状。人工智能虽可辅助完成文本分析、会议记录与议程规划,但在面临地缘战略分歧与制度诉求碰撞时,真正影响谈判进程的,是各方代表所展现的谈判意志、历史记忆与政治信仰。
全球网络空间治理的本质是多主权下的动态制度生成,其推进逻辑根植于人类社会对规则、秩序与正义的长期协商。在这一过程中,人工智能可以提供辅助性信息、提升谈判效率,但无法担任政治意图的表达者、妥协机制的建构者与责任体系的承载者。因此,构建可持续的全球网络空间秩序,仍需依赖人类在跨境事务中发挥协调功能。
监督与纠错机制中的人类最终责任。在全球网络空间治理中,人工智能系统被广泛应用于提升效率、扩大覆盖面、增强风险预测能力,尤其在行政决策、内容审查与资源分配等领域日益发挥核心作用。然而,越是深入推进技术嵌入的自动化治理,人类作为制度监督者与最终责任承担者的角色就越显关键。人工智能的判断依据来自训练数据与模型逻辑,而这些基础事项本身就可能包含偏见、盲区和逻辑缺陷。一旦人工智能作出错误决策,其带来的后果不仅限于技术层面,更可能波及公民权利与制度公信力。因此,人类仍是治理责任链条中不可替代的“最终责任方”——人工智能所造成的偏误,必须由人类识别、修复与追责。
澳大利亚的“Robodebt”案件是高度自动化治理失误的典型案例。2016年,澳大利亚政府引入自动数据匹配系统,以检测社会福利欺诈。然而,该系统在缺乏人工复核的情况下,简单对比税务与福利数据,自动判定大量低收入者涉嫌骗保,并下发追缴令。这一过程中超过50万人受到影响,许多人陷入财务困境,甚至引发个体心理创伤和个别自杀事件。2023年,澳大利亚皇家委员会裁定该系统“非法且缺乏基本正当程序”,政府随后公开道歉并启动了赔偿计划。该事件表明,人工智能可自动生成决策,却无法承担由此引发的制度责任与政治后果。
类似的情况也出现在英国签证系统中。英国内政部曾使用人工智能对申请人进行自动化风险评分,以加速审批流程。调查发现,该系统以国籍、申请模式等敏感变量为特征,将特定国家的申请人标记为高风险,导致大量合法申请被无理由拒签。2020年,多个民权团体起诉政府系统存在算法歧视,伦敦高等法院裁定其违反反歧视法,系统随即被废除。此事件再次表明,算法“效率”不能凌驾于程序正义与反歧视原则之上,而人类必须作为最终监管者介入与纠偏。
平台领域亦存在类似困境。微软于2016年推出的人工智能聊天机器人“Tay”,在上线不到24小时内即因用户操纵而开始发布种族主义、性别歧视和极端政治言论。微软虽迅速下线系统并道歉,但事件暴露出平台人工智能产品设计中缺少对价值防护机制的考量。人工智能虽能生成内容,但无法把握社会语境与伦理边界,其生成逻辑不具备自主道德判断能力,必须由人类制定限制、明确责任与建立动态干预机制。
上述三个案例虽涉及不同国家与治理领域,却揭示出同一个本质问题:人工智能是治理工具或辅助者而非问责主体。全球网络空间治理的合法性、透明性与正义性,最终仍需依靠人类制度设计者与政治责任人来守护。因此,构建有效的全球网络空间治理体系,必须以“人类可监督、可介入、可纠偏”为前提。治理的每一个环节都应设有人类可触达的“责任接口”,确保当人工智能系统运行失效时,能够及时回归人类干预机制,从而维护制度运行的韧性与正当性。
制度滞后与技术治理中的人类前瞻作用。在全球网络空间治理中,技术的快速发展往往超前于制度的完善,形成制度滞后的现象。人工智能、元宇宙等新兴技术的崛起,拓宽了人类社会的行为和价值边界,但相应的法律体系、治理机制和伦理规范却未能同步更新,导致出现“制度真空”。这种滞后不仅源于政策工具的缺乏,更反映出人类对技术带来的不确定性和潜在风险的认知不足。在此背景下,治理的关键在于“预见未知”——即人类主动识别新问题,预设制度框架,填补规则盲区。这种前瞻性功能需要判断力、价值设定和政治洞察力,而这些正是当前人工智能所不具备的。
一个典型的制度盲区是人工智能在内容审核中的应用。例如,YouTube等视频平台利用人工智能技术自动检测并删除涉嫌侵犯版权的内容。然而,这些人工智能系统有时会错误地删除合法内容,或未能及时识别新的侵权形式,导致内容创作者和权力持有者之间的争议。这反映了在内容审核领域,单纯依赖人工智能可能导致过度删除或漏判,需要人类制定前瞻性的审核标准和纠错机制,以平衡版权保护与言论自由。因为人工智能无法提出“什么是可接受行为”或“虚假信息应如何界定和治理”等问题,这类判断超出模式学习范畴,需人类凭借经验、伦理与社会洞察作出。
类似前瞻性机制也体现在国家监管层面。英国政府2023年发布的《人工智能监管白皮书》明确拒绝“一刀切”式立法,而主张“轻触监管”(light-touch regulation)与“部门自适应”(sector-specific flexibility)相结合的模式。该文件强调,人工智能作为尚未完全成型的通用技术,应在治理上保留“实验空间”,由各行业根据风险特征与成熟度进行规则试点。这背后体现的是一种政治判断:人工智能的治理边界不能由人工智能自身设定,而需人类制度设计者在风险外溢前构建缓冲带,主动设定规则演化节奏。
在全球治理层面,制度前瞻性尤为关键。世界经济论坛(World Economic Forum)于2022年启动了“定义和构建元宇宙”倡议,旨在构建元宇宙的治理框架。这份报告探讨了元数据身份,倡导采用安全、包容和注重隐私的方法。报告强调,需要以平等和无障碍为基础构建元宇宙,强调负责任的数据实践和包容性设计,体现了人类在预设未来治理规范方面的制度努力。该文件的产生并非技术专家闭门造车,而是由来自全球各地的150多位专家通过多轮磋商达成。这一过程本质上是人类通过政治、文化与价值对话共同“预设未来治理规范”的制度努力。
无论是在企业平台设定内容边界,还是国家层面制定行业规范,抑或在国际社会达成治理共识,制度前瞻性的逻辑始终是人类主动识别风险、提出规范,并创造性地设定边界。人工智能可以优化执行路径,但无法承担制度开创的职责。制度前瞻性不是对现有规则的泛化延伸,而是对全新问题作出结构性响应。“制度前瞻”,正是人类能力的制度化表达,是确保技术发展不脱离价值轨道的关键保障。
迈向“人机协同共治”的全球网络空间治理
前面内容揭示了人工智能如何在效率、流程与结构层面重塑全球网络空间治理体系,以及人类在价值判断、制度设定与风险监督中的不可替代性。这一双重动力交汇的关键问题是:在人工智能时代的全球网络空间治理中,如何推动人类与人工智能的有效协作?如何避免“替代幻想”与“人类依赖”的双重极端?下面将从理念、结构、制度与风险四个维度,探讨人机协同治理的内在逻辑与实现路径。
从任务分工到角色互补:人机协同的治理理念。在全球网络空间治理的早期阶段,人工智能多被视为“自动化工具”,承担信息筛查、风险识别和流程管理等标准化任务,治理权力与责任依然集中在人类决策者手中。但随着深度学习、多模态分析等技术突破,人工智能开始具备在政策建议、内容风险评估、趋势预测等方面的主动性能力,推动治理理念从“人控人工智能”的线性分工向“人机共治”的角色互补演化。这一转变不仅涉及技术能力的提升,更反映出治理责任结构与认知体系的系统重构。
从认知结构上看,人工智能擅长处理大规模、跨平台数据,在识别虚假信息扩散路径、仇恨言论聚集区域等方面展现出高效性。例如,Meta表示其内容审核人工智能系统近几年对一般类别违规内容的主动检测率达到90%以上,显示了人工智能在内容审核中的重要作用。然而,人工智能在理解文化语境、隐喻含义和历史背景等复杂信息方面存在局限性。同一句话在不同文化中可能具有完全不同的含义或敏感度,这种细微差别仍需人类参与者的经验和伦理直觉来判断。因此,“人机协同”需结合人工智能的高效数据处理能力和人类的深度理解与价值判断,实现优势互补。
在全球网络空间治理中,人工智能与人类的协同合作已成为提升内容审核效率和准确性的关键策略。传统上,人工智能被视为中立的工具,其错误通常由系统设计者或操作者承担责任。然而,在“人机共治”的框架下,人工智能不再仅仅是执行流程中的一环,而是成为治理链条的重要组成部分。这要求建立制度,纳入人工智能推理与人类判断的协作机制,实现“动态授权+审慎监督”的组合模式。还以Meta为例,该公司在内容审核中采用了人类与人工智能协同的策略。人工智能系统首先对内容进行初步筛选,识别潜在的违规内容。随后,人类审核员对人工智能标记的内容进行复核,以确保决策的准确性和上下文理解。这种协作模式结合了人工智能的高效处理能力和人类的复杂判断力,提高了内容审核的质量和效率。
此外,研究人员也在探索人机协作的新方法。例如,一项研究提出了“条件委派”(conditional delegation)的概念,即人类制定规则,指定在哪些情况下信任人工智能的判断,在哪些情况下需要人类介入。这种方法在内容审核领域展开实验,结果表明,通过人机协作,结合人工智能的高效处理能力和人类的复杂判断力,可以同时提高决策的准确性和效率。这些实践显示,“人机共治”并非职责替代,而是以优势互补为基础、以人类价值判断为核心的新型治理结构。
从平台调度到结构嵌套:治理主体的组织协同。随着数字平台逐渐成为网络空间的基础设施,其调度能力也逐步转化为全球网络空间治理体系中的核心依托。从内容审核到数据监管,从账号治理到信息披露,平台承担的治理职能不断拓展。然而,这种治理机制虽显著提高了响应效率,却引发了对治理权力过度集中、“技术公司即监管者”的正当性质疑。人工智能赋予平台更强大的决策与执行力,使其能通过算法系统调控内容排序、识别风险行为、预测舆情波动。然而,当治理决策开始影响公共利益、触及基本权利时,仅靠企业内部流程无法保障治理的透明度与正当性。因此,需要引入外部力量与公共制度,实现权力的嵌套分布与功能协调。
Meta(原Facebook)设立的“监督委员会”(Oversight Board)便是典型的结构嵌套机制实践。作为一家技术平台公司,Meta通过此机制引入独立第三方机构来对其内容管控决策进行再审查。监督委员会由前国际法院法官、人权专家、学者及媒体代表组成,独立处理平台标记为争议性或具有广泛社会影响的内容案件,具备有限但实质的“准司法”功能。委员会有权推翻平台的初始决定,并提出政策建议,而Meta则承诺对所有裁定予以公开回应。这种“平台决策—外部复核—政策反馈”的结构设计,使平台内部审核机制与外部社会监督形成嵌套协同,有效缓解了平台公司“既当运动员又当裁判员”的合法性困境。
新加坡的“可信数据共享框架”(Trusted Data Sharing Framework)展示了政府与平台之间协作治理的数据嵌套模式。该框架由新加坡资讯通信媒体发展局(IMDA)牵头,于2020年正式发布,旨在建立一种可持续、透明、受信任的数据交换环境。平台需在其技术架构中集成政府设定的监控API模块,实时报告数据流转情况,政府则基于人工智能模型对数据活动进行风险评估与合规监测,并对平台的数据使用行为进行认证与审计。该框架还通过责任共担机制明确平台在数据滥用、违规收集数据时的问责路径,捍卫数据治理中的权力边界与协调机制。
相较于传统平台自律模式,结构嵌套治理的优势在于制度性分权与程序性监督。平台的“执行效率”、政府的“合规把关”、公众的“外部监督”、人工智能系统的“技术中枢”得以整合为一个多元分工、动态互动的治理生态系统。这种模式既能保障治理效率,又能在程序正义、权力约束与多元代表性之间取得相对平衡。
从规制统一到协商调优:规则共创的实践机制。在网络空间治理中,传统模式通常由政府或平台单方面制定规则,通过法律或服务条款约束用户行为。然而,随着技术的快速发展和文化的多元化,这种“规制统一”模式逐渐暴露出合法性不足、响应滞后和治理僵化等问题。平台规则难以涵盖复杂语境下的价值冲突,政府立法往往滞后于技术更新迭代,用户也缺乏实际参与的渠道。这些挑战推动全球网络空间治理从“规制统一”向“协商调优”转变,即将规则视为可反馈、可演化的共创机制。
“协商调优”指的是规则制定不再是一成不变的文本,而是在多方参与的基础上,通过持续反馈和动态修正不断完善的治理过程。人工智能技术在其中发挥了关键作用:一方面,人工智能通过对用户行为、舆论变化和风险态势的实时分析,提供高频率、结构化的治理反馈;另一方面,这些数据又能反哺规则优化,形成“数据—规则—反馈”的闭环系统,塑造出“可学习”的治理结构。
以美国社交新闻和网络社区公司Reddit为例,其社区管理机制允许用户依据设定条件上报争议内容,后台人工智能系统据此评估风险等级并提出处理建议,最终由社区管理员与用户代表共同决定是否执行操作。这一“算法+协商”结构既增强了社区自律,又避免了平台独断,为社群赋予了规则演绎空间。
另一个案例是美国众议院于2022年颁布的《算法问责法案》(Algorithmic Accountability Act of 2022),要求使用自动化决策系统的企业研究并报告这些系统对消费者的影响,包括是否存在偏见或歧视性决策。该法案推动形成企业、监管机构和公众之间的协商机制,确保算法决策的透明度和公平性。值得强调的是,协商调优并不意味着规则松动或治理弱化,而是将动态反馈和协商调优嵌入规范生成中,从而提升规则适应力与治理包容性。
从算法执行到责任共担:治理责任的协同分布。传统治理中,责任集中在人类治理主体上,而人工智能系统的引入打破了这一清晰归属逻辑。若治理偏差、技术误判等问题出现,仅将责任推给“算法”或“平台”既不具备伦理正当性,也难满足公共治理的法律要求。因此,全球网络空间治理正在转向多方主体责任共担的制度阶段,形成覆盖平台、政府、开发者与公众的责任协同体系。
首先,平台企业作为系统设计与运营的核心主体,必须承担首要责任。无论是内容审核还是风控系统,平台对其人工智能模型的逻辑、边界与偏差风险负有直接责任。在2023年,IBM发布了《信任和透明度原则》(IBM's Principles for Trust and Transparency),明确提出平台企业在开发和部署人工智能系统时必须承担首要责任,特别是在模型的透明性、公平性和问责机制方面。IBM强调,企业在设计人工智能系统时应对其逻辑、边界和潜在偏差进行全面评估,并对系统可能带来的社会影响负责。
其次,政府监管机构需履行制度框架责任。他们不仅制定治理底线,还必须对人工智能系统执行审查、风险预警与纠错监督。2024年正式生效的欧盟《人工智能法案》(AI Act)将资格审核、司法协助等领域纳入“高风险人工智能”分类,要求企业进行事前评估与事后问责,保障公众利益。该法案明确政府需构建“算法问责链”,降低“黑箱治理”带来的影响。
再次,算法开发者与模型训练人员应承担源头责任,确保人工智能系统的训练数据和建模逻辑的公正性和准确性。2020年,荷兰税务机关人工智能系统在识别社会福利欺诈时,因算法存在偏见,错误处罚了数千个少数族裔家庭,造成严重后果,最终导致政府高层集体辞职。该事件揭示了开发阶段对数据偏误与建模逻辑把控不足造成的严重后果,推动多国出台了“模型文档留存”“可解释性标准”等技术责任规范。
此外,用户与公众也需在全球网络空间治理中扮演“反馈责任者”角色。在日益复杂的网络空间中,人工智能系统的判断虽能提高效率,但其所依赖的算法逻辑、训练数据与规则设定往往难以覆盖所有社会语境,极易产生偏差、遗漏或误导。在这种背景下,公众作为规则接受者和实际使用者,往往最早察觉算法运行中的异常与隐患。许多治理失效的早期信号,都来自用户的日常体验与个体反馈。正是公众的主动投诉、集体抗议与社会舆论的推动,促使平台与监管机构及时调整策略,弥补制度短板。以YouTube为例,其曾因推荐算法引导用户观看极端内容而遭批评,最终通过调整推荐机制并开放部分评估数据,加强了平台治理的透明度与公众监督的可行性。这些举措体现出一个重要趋势,即公众反馈不仅是治理效果的测量标尺,更是治理机制自我纠偏、自我进化的重要动力源。
平台设计者、政府监管者、技术开发者与用户群体共同构建责任链条,使“人机共治”不仅体现在操作层面,也落实在价值判断与权责分配之中。只有当责任不再空悬,人机协同治理才能实现合法性、透明性与可持续性的动态平衡。
结语
人工智能正以前所未有的深度嵌入全球网络空间治理体系。凭借强大的数据处理能力、模式识别技术与即时响应速度,人工智能在内容审核、数据监管、智能合约等领域大幅提升了治理执行力与适应性,推动治理机制从人工驱动向智能驱动演化。然而,治理不仅关乎效率,更关乎规范设定、价值判断与责任归属。这一张力正是人工智能参与全球网络空间治理面临的核心困境:其可以优化路径,却难以判断方向;可以支持响应,却难以解决冲突;可以执行操作,却无法承担责任。
因此,全球网络空间治理的本质从未脱离政治与制度的核心属性。人工智能赋能不应被误解为人类角色的让渡,而应视为治理逻辑、责任结构与价值共识的重构契机。技术能力的提升,对治理者提出了更高要求:如何引导人工智能服务公共利益、限定边界、保障纠错机制——这些问题的答案将决定全球网络空间治理秩序的稳定与韧性。
未来的全球网络空间治理需警惕两个极端:一是“技术决定论”或“技治主义”,盲目推崇人工智能主导治理,忽视制度设定与价值约束;二是“技术恐惧论”,因风险忧虑而拒绝技术介入,错失变革式发展契机。真正前瞻性的路径,是构建人类主导、人工智能辅助的人机协同治理体系:重大规范与价值判断由人类协商决定;人工智能专注于执行操作与初步识别,人类则负责监督与复审,形成责任闭环;任何治理失误最终仍由人类承担制度责任。
总之,人机协同治理不仅意味着治理工具升级,更是治理哲学与制度伦理的再定义。问题不在于人工智能能做什么,而在于人类应让人工智能做什么;不在于人工智能能否取代人类,而在于人类如何智慧地引导和规范人工智能。唯有在人类价值主导的治理框架下,我们才能在高度数字化的时代,实现效率与正义、自动化与人本治理的动态平衡。人工智能不应是治理的终点,而应成为制度进化的新起点,推动我们重新定义权力结构、责任边界与治理价值的未来。
文章来源:《学术前沿》杂志2025年第13期(注释从略)
原文责编:桂 琰
原文美编:梁丽琛
新媒体责编:梁丽琛
声明:《学术前沿》杂志原创文章,任何单位或个人转载请回复本公众号获得授权,转载时请务必标明来源及作者。