作者:姚旭 张傲 发布时间:2024-09-16 来源:跨境数科+收藏本文
引言:2024年9月5日,美国、欧盟、英国等10个国家和组织在欧洲委员会司法部长会议上签署了首个《人工智能框架公约》。该公约旨在公约旨在应对AI系统的整个生命周期中出现的具体挑战,并鼓励审议AI相关的各类风险和影响,审议AI相关的各类风险和影响。在AI飞速发展和竞争日趋激烈的当下,关于如何在人工智能治理方面达成更大的全球共识的紧迫问题依然存在。尽管外界意见不一,但《人工智能框架公约》无疑在管理和规范人工智能技术、推动国际合作方面迈出了具有里程碑意义的一步。
姚 旭 复旦发展研究院副研究员
张 傲 复旦发展研究院研究助理
01
为AI设立全球标准:
首份人工智能国际公约联署出炉
2024年9月5日,美国、欧盟和英国签署欧洲委员会《人工智能、人权、民主与法治框架公约》(下文简称《公约》)旨在强化国际社会联动合作,强化人工智能(AI)有效有力监管,应对AI可能带来的技术风险。这也是全球首个对AI具有国际性法律约束力的法律框架公约,标志着世界各国在管理和规范人工智能技术方面迈出了具有里程碑意义的一步,确保AI发展在人权、民主和法治的轨道上行稳致远。
2024年9月5日,《人工智能框架公约》签署现场。来源:欧洲委员会
作为第一份具有法律约束力的国际AI条约,此次美欧英主导签署的《公约》意在基于共同价值观搭建起AI治理“统一战线”,以应对可预见的未来AI伴生的技术危机和伦理风险。《公约》总则写道“本公约的规定旨在确保人工智能系统生命周期内的活动完全符合人权、民主和法治”,并鼓励各国密切关注AI对人类健康和环境、就业和劳动等社会经济方面的风险与影响。此外,《公约》要求签署国对AI造成的任何有害以及歧视性后果负责,从而在合作伙伴间搭建起覆盖广泛、密切联动的安全保障体系。
从内容上看,作为具有广泛约束性法律条约,《公约》篇幅不长,重点阐明AI应用领域的重大原则性问题。包括保护人权、公共 部门和民主程序、个人隐私和自主权益;提升国际社会识别和阻止AI风险的能力;树立技术应用的广泛性原则;对那些具有潜在风险的AI系统进行管控,保证监管机构及时得到信息响应,并告知受波及群体,还要让波及群体能向政府机构有效申诉、维护权益。
在包护公众及其数据、人权、民主和法治方面规定了诸多条款:①缔约国应适当使用数据,避免使AI系统注入歧视观念,防范AI传播错误信息或使用可能损害决策的偏见数据,确保个人隐私权和个人自主权得到保护;②缔约国应采取实际措施,来防止AI对公共机构的完整性、独立性和有效性造成干扰③缔约国应承担监管人工智能的特定风险、保护其公民免受潜在伤害并确保其安全使用的责任,确保法治进程不受影响。这些条款将确保各国监测其发展,并确保任何技术都在严格的参数范围内进行管理。此外,《公约》还承诺缔约国会采取行动,共同打击超出这些参数范围的非法活动,解决当下社会公众对于AI模型被滥用的广泛担忧。
图源:路透社
从适用场景上看,《公约》区分了AI在公共部门和私人部门应用场景,并明确了二者的责任划分。就公共部门而言,不仅要确保其AI系统的合法性,还必须确保这些系统不会侵犯公民的基本权利。而公共部门在涉及国家安全利益、保密阶段的科研活动、国防的AI活动则享有豁免,可不受《公约》约束。在私人部门,任何在缔约国境内开发、部署或使用人工智能产品和服务的私人实体,尤其是那些代表公共机构行事的企业,必须遵循这些国际标准。以此确保私人部门在追求技术创新的同时,不忽视对社会安全和技术伦理的维护责任。从修约过程来看,《公约》立法和谈判过程已酝酿多年。2022年8月,欧洲委员会(The Council of Europe)即着手推进《公约》的制定工作,两年多来,共50多个国家参与起草工作,还有多国作为观察员国家参与了《公约》的修订和谈判工作,为完善《公约》草案做出了积极贡献。
值得注意的是,《公约》是由欧洲委员会(Council of Europe)而非欧盟委员会(European Commission)制定。与后者不同,欧洲委员会并非欧洲的行政机关,而是一个公益性质的国际组织。在AI法治建设领域,欧盟也取得了显著立法成果。2024年3月,欧盟颁布《人工智能法案》(简称《法案》),被认为是全球首部综合性AI治理立法,在数据管理、透明度、可解释性、人类监督等方面,设置了全面的监管办法,并对AI系统进行了细化分类,根据风险等级制定了相应的监管要求。2024年,欧盟还新设立了人工智能办公室,旨在更好推动实施《法案》。
2024年9月5日,在维尔纽斯(立陶宛)举行的欧洲委员会司法部长非正式会议上,欧盟委员会代表欧盟签署了《欧洲委员会人工智能框架公约》。来源:欧盟
相比较而言,《公约》和《法案》各有侧重、有所不同:《公约》规定了管控AI技术风险的广泛原则,但缺乏《法案》的详细监管框架,并需要缔约方通过自主立法、行政等配套措施来具体实施《公约》的具体规定。而《法案》则规定了欧盟区市场内AI开发与运用的总体规范,且包含对违规违法行为的具体处置办法,例如,对于AI应用领域存在违规行为的企业,欧盟将最高对其处以全球年营业额7%的罚款,由此外界存在对《公约》过于笼统的批评。然而,欧盟《人工智能法案》仅由欧盟作为制定与发布主体,并希望通过其适用范围的广泛性以辐射更多的国家和地区,《公约》则明确向全球各国敞开大门,所以缺乏具体执行机制和问责机制也为更多国家参与缔约降低了“门槛”。
02
AI监管全球竞速:
《公约》签署前后的各方反响与动向
自从Chatgpt问世以来,全球各国都纷纷推进AI立法。当下世界多地针对AI监管已有多项举措,除了欧洲主导制定的《法案》和《公约》。2023年10月,七国集团也针对研发AI的相关组织,制定了国际行为准则,这份不具约束力的准则是新建立的广岛人工智能进程(2023年10月发布)的一部分;2023年11月,包括中国、美国在内的28国同欧盟签署《布莱切利宣言》,是全球第一份针对AI的国际性声明。
在这一背景下,欧洲的AI立法实践格外亮眼,“欧洲方案”的在国际社会的影响力和示范性随着AI技术的研发运用持续上升。哥伦比亚大学教授布拉德福德(Anu Bradford)提出“布鲁塞尔效应”概念,用以描述以欧盟为代表的欧洲机构所制定的规则对国际规范和各国国内政策均产生重要影响的现象,这一现象如今在数字领域尤为突出。如欧盟2016年通过的《通用数据保护条例》(General Data Protection Regulation),立法层面限制了科技公司收集个人数据的行为,对全球数据保护立法产生了深远影响,催生了美国加州《消费者隐私法案》、日本《个人信息保护法》、巴西《通用数据保护法》等立法成果。2022年,欧盟发布通用充电器指令,将共同市场上的充电规格统一为Type-C,直接影响了苹果公司放弃其独特的Lightning接口。如今在AI领域,《公约》的签订标志着欧洲又在这一新立法赛道迈出重要一步,包括业内人士和政治人士也都对其激起全球涟漪,持续外溢积极效应。
英国科学、创新和技术大臣彼得・凯尔(Peter Kyle)来源:Thomas Krych/Zuma Press Wire/Rex/Shutterstock
英国科学、创新和技术大臣彼得・凯尔(Peter Kyle)表示:“(公约)是全球范围内具有真正影响力的协议,我们迈出的这一步真的很重要。它汇集了一些非常不同的国家,显示了我们作为全球社会正在共同应对AI带来的挑战。” 目前美国国会尚未通过任何人工智能监管框架,但是如加州等美国地方已经在推动AI立法实践。另外据路透社消息,拜登政府的一名高级官员称,美国“致力于确保人工智能技术支持对人权和民主价值观的尊重”,并看到了“欧洲委员会在这一领域的关键附加值”。
然而,《公约》的最终版本并非尽善尽美,有批评的声音指出,尽管新公约被标榜为具有法律效力,但是它没有罚款等制裁措施,因此执行力仍有待观察。参与《公约》起草的欧洲非营利法律研究中心(ECNL)的法律专家弗朗西斯卡·法努奇 (Francesca Fanucci)批评《公约》已经被稀释成一套笼统的原则,对其法律清晰度和可执行性的表示怀疑。此外,法努奇还批评该条约对用于国家安全的AI系统进行豁免,并且与公共机构相比,对私营公司的审查较少,这种双重标准令人失望。
英国大法官兼司法大臣沙巴娜·马哈茂德 来源:英国首相府
尽管《公约》存在不足,亦有业内人士对其示范性报以积极态度,仍为各国制定符合自身实际的AI法律提供了有益参照。英国大法官兼司法大臣沙巴娜·马哈茂德(Shabana Mahmood)认为,《公约》签署体现了人类主动应对AI风险的利好,随着AI深度参与生产生活,这一点更为迫切:“我们不能让人工智能塑造我们,我们必须塑造人工智能。这项公约可确保我们在利用这些新技术的同时,不侵蚀我们最古老的价值观,例如人权和法治。”
03
尽管《公约》更多地在法理层面推进了AI监管的法治建设,但是就制度建构层面,其着力推动跨国合作、凝聚全球合力,将产生可持续的积极影响。在全球范围内,AI的研发运用的全生命周期都不可避免的具有跨国性质,在《公约》的谈判进程中,除了欧洲委员会的46个成员国以及下设机构外,欧盟、11个来自多地区的观察员国和非成员国、政府间组织(如经合组织、联合国教科文组织、欧洲安全与合作组织)以及来自民间社会、企业、学术界的代表均积极参与其中。除了多视角参与的文本制定,《公约》的开放性和包容性也进一步促进了其具有全球影响力的潜力。为保证《公约》的后续落实,缔约国建立了缔约方大会(Conference of the Parties)的机制,以监督缔约国对《公约》的落实,围绕《公约》的配套机制完善也将成为国际社会衡量其长期有效性的重要标准。
目前《公约》已于签约当日开放签署,不仅允许欧洲理事会的46个成员国参加,也将开放给非成员国,加强了欧盟与其他可能缔约的欧洲和非欧洲国家之间的国际合作,这对于推进人工智能的跨国法律监管具有重要作用。目前,缔约方只有美国、欧盟、安道尔、格鲁吉亚、冰岛、挪威、摩尔多瓦共和国、圣马力诺、英国和以色列10个国家,随着随着未来缔约方规模持续扩大,对于《公约》实际约束力和体制机制完善还需要进一步观察。下一步,《公约》将等待各缔约国立法机构的批准,并将在获得5个签署国(包括至少3个欧洲委员会成员国)立法机构批准三个月后生效。此外,《公约》向全球开放,世界各国都有资格加入《公约》。
来源:EUDEL
如何把握AI技术利好的同时,对其进行法律规制,这极大考验着各国立法者的智慧。任何新兴技术发展都面临控制风险的难题,监管者控制风险的同时,往往会给技术发展套上枷锁,为把握好新技术带来的风险与收益间的平衡。此外,应当注意到率先形成AI治理标准、争夺监管主导权已然成为新形势下大国博弈的焦点。各国政府和国际组织在AI全球治理领域的参与程度和战略部署明显提升,各方均在主动发力,扩大自身治理模式的影响。而随着AI的国际竞争日趋激烈,基于不同的国情和立场,AI监管在推进国际协作的同时必然要求各国求同存异、保持特色。从这个角度出发,《公约》也在私权保障、国家安全、产业发展等价值领域为各方制定符合自身实际的AI监管方案提供了重要参考,并辅助探寻AI立法的着力方向。一方面推动各国和各主体对AI可能造成的影响作出回应,另一方面也要结合自身输出有特色有针对性的监管原则和工具。
总体而言,关于如何在人工智能治理方面达成更大的全球共识的紧迫问题依然存在,《公约》的出台不仅是对当前人工智能技术挑战的回应,更是为未来的技术发展提供了一份具有前瞻性的蓝图。政策效果的观察或许尚待时日,但《公约》所体现的诉求和价值,有利于推动形成全球人工智能安全治理共识和创新合作,使人类在更为清晰和安全的框架下,使AI技术为全球社会创造更多福祉。