作者:姚旭、林壑平 发布时间:2026-03-28 来源:全球人工智能创新治理中心+收藏本文
2026年3月20日,白宫发布《国家AI立法框架》(National Policy Framework for Artificial Intelligence)。此前白宫AI事务“沙皇”戴维·萨克斯(David Sacks)称“这是为了应对日益混乱的 50 个州不同的监管制度,这些制度有可能扼杀创新,并危及美国在人工智能竞赛中的领先地位”,并表示下一步是与国会合作,将政府的原则转化为联邦立法。
表面上看这是美国首次尝试建立统一的联邦AI监管标准,而实质上是一场围绕联邦与州权力、科技资本与公共利益、创新自由与社会责任的深度角力。
碎片化危机:框架出台的现实背景
对白宫来说,联邦监管框架的发布酝酿已久。截至2025年,全美50个州和领地共引入超过1000项AI相关法案。加州、科罗拉多、德州、犹他州已通过涉及私营部门AI的州级法律。这种立法碎片化态势令科技行业深感不安。
令白宫不满的是,加州和科罗拉多州被指要求AI公司审查输出内容并注入“左翼意识形态”。这与特朗普政府“防止审查、保护言论自由”的科技政策基调直接冲突。2025年12月11日,特朗普签署AI行政令,明确要求制定能够“预先排除抑制创新的州AI法律”的国家立法框架,并威胁对有冲突州法律的州扣留宽带资金。
在此时间节点发布框架,另一层考量是2026年11月中期选举。科技公司已投入数千万美元游说资金,旨在阻止支持AI监管的候选人当选。因此,此时框架的发布既是政策信号,也是针对中期选举的政治动员。
尤其是将此框架与拜登政府2023年10月的AI行政令对比,差异一目了然。拜登政策的核心理念是“安全、可靠、值得信赖的AI”,要求大型AI模型开发者向联邦政府报告安全测试结果,关注AI系统的偏见和歧视风险。特朗普框架则转向“创新主导、赢得AI竞赛”,将“打败中国”确立为核心叙事。

特朗普在“赢得AI竞赛”活动的演讲
图源:路透社
在监管哲学上,拜登政府倾向于积极的联邦监管,特朗普政府则主张轻监管和联邦优先权取代州监管。在意识形态维度上,拜登政府关注AI偏见和多元、平等、包容(DEI)议题,特朗普政府则明确反对将DEI嵌入AI模型,将此定义为“觉醒AI”的意识形态问题。
立法框架的核心举措与六大优先目标
框架中最重要也是最具争议的部分是联邦优先权主张。白宫明确要求:州政府不应被允许监管AI开发,不应因第三方使用AI产品进行的违法行为而惩罚AI开发者,不应过度限制美国人在合法活动中使用AI。
这种主张直接挑战了美国联邦制的传统权力分配。加州州长加文·纽森(Gavin Newsom)办公室的回应直截了当:“特朗普又一次试图废除加州保护居民安全和消费者的法律——这是州的核心职责。”
值得注意的是,即便是共和党内部也存在分歧。2025年,参议员玛莎·布莱克本(Marsha Blackburn)曾成功阻止特朗普此前阻止州政府监管AI的尝试。此次布莱克本虽表态欢迎框架,称其为“路线图”,但她去年提出的AI法案本身就包含一定程度的州级监管元素。耶什瓦大学卡多佐法学院教授索拉布·维什努巴卡特(Saurabh Vishnubhakat)指出,联邦法“可能废除德州AI法规的部分内容而保留其他部分”——即使是共和党州长推动的法律也可能被预先排除。
这意味着,框架要最终在国会变成法律,必须在联邦优先权的边界上做出实质让步。框架确实保留了例外条款,不预先排除“保护儿童、防止欺诈和保护消费者”的一般法律执行权,以及数据中心选址和州政府采购AI工具的决定权。但这种有限的让步能否满足各方诉求,仍是未知数。
除了联邦优先权外,这份框架的主要内容是六个优先事项:保护儿童、维护社区安全、尊重知识产权、防止审查、推动创新与保护美国AI主导以及培养具备AI能力的劳动力。总结来看,这6个主要目标透露出了三个关键的信号:
第一个信号是用“去监管”换取领先:这是共和党政府偏好自由市场的政策的直观体现,立法框架明确不会建立新的AI监管机构而是利用现有机构进行垂直管理,通过“监管沙箱”给企业试错空间,同时简化审批流程,加速数据中心的建设;
第二个信号是用保守价值观作为社会防线:针对美国社会对AI最大的痛点(儿童保护和反诈骗),立法框架强制要求AI平台建立年龄验证的机制,同时严厉打击Deepfake和AI诈骗等犯罪行为。或许是出于一定的政治考量,这份框架同时还提出保护消费者,AI公司的扩张成本不得转嫁给普通民众;
第三个信号是反对审查,设立亲科技企业的数字确权:立法框架里明确提出禁止AI提供商基于意识形态进行内容修改(特朗普政府一贯地科技反觉醒立场),同时维持“模型训练不侵权”的倾向,支持由法院而非政府来审议训练数据版权的公平性问题。
多方博弈:谁在支持,谁在反对
对于这一立法框架的支持阵营的版图已明显超出传统科技行业本身,呈现出向制造业、医疗、金融等实体经济部门外溢的趋势。框架发布后,众议院共和党领导层与相关委员会主席迅速表示支持,显示其在国会共和党内部获得了较强的制度性背书。与此同时,支持声音也来自跨行业利益集团:全国制造商协会(National Association of Manufacturers)、医疗保健领导委员会(Healthcare Leadership Council)以及美国金融服务协会(American Financial Services Association)均于2026年3月20日发布官方声明,明确支持该框架,强调统一规则有助于降低合规分裂、提升跨州经营可预期性,并巩固美国在人工智能领域的竞争优势。
部分支持者还将该框架视为推动国会人工智能立法的现实折中方案。丰裕研究所(Abundance Institute)的人工智能政策主管尼尔·奇尔森(Neil Chilson)即公开表示,该框架触及了若干可能阻碍人工智能法案在国会推进的关键争议点,体现出利益诉求扩散、为后续立法搭建更大帐篷的政策意图。

2026年3月20日,特朗普政府公布《国家AI立法框架》文件
图源:The White House官网
与之相对,反对阵营的分歧并不只是一般意义上的监管宽严之争,而是更深层的结构性法理分歧。以公众公民(Public Citizen)联席主席罗伯特·魏斯曼(Robert Weissman)为代表的消费者权益和公共利益组织批评该框架偏袒大型科技公司,认为其以统一监管为名压缩公众保护空间,可能牺牲普通民众的安全、隐私与救济权利。更具政治分量的阻力则来自共和党内部强调州权保守主义的州级政治力量。2026年3月3日,来自22个州的50余名共和党州立法者联名致信特朗普政府,明确反对联邦优先原则排挤州级人工智能立法空间,强调各州有权根据本地治理需要自行制定人工智能规则。这说明,在当下美国人工智能治理争论中,核心的矛盾之一并非是否监管,而是由谁监管。
这一州权反弹并非抽象法理之争,而已在具体州法博弈中提前显现。2026年2月,白宫通过跨政府事务办公室向犹他州(Utah)立法者表达对第286号众议院法案(HB 286)的反对,试图阻止该州推进一项针对前沿人工智能开发者的安全与儿童保护要求。该法案要求相关企业制定并披露公共安全计划等内容,因此白宫的介入被广泛解读为联邦政府对州级人工智能立法的直接干预,也随即引发地方保守派对华盛顿越权的警惕。
在此背景下,阿肯色州州长(Arkansas Governor)莎拉·赫卡比·桑德斯(Sarah Huckabee Sanders)等人也曾牵头抵制此类联邦扩权行为。换言之,白宫此次全国性框架并非突然引爆争议,而是在此前已多次介入州级人工智能治理进程的基础上,进一步把联邦与州权的冲突制度化、公开化。
从更长时段看,这种结构性分歧早已有鲜明先例。早在2025年7月,美国参议院(United States Senate)就曾以99比1的压倒性票数,删除预算协调法案中拟议的州级人工智能监管暂停(moratorium)条款。该结果表明,无论民主党还是共和党内部,都存在对联邦一刀切压制州级人工智能执法空间的系统性抵制。因此,白宫此次在《国家人工智能立法框架》中继续强调联邦优先,虽然在产业界和部分国会共和党人中获得支持,但在国会层面仍将面临显著立法阻力。
此外,围绕人工智能治理的反对意见还延伸至劳动力市场层面。安全人工智能联盟(Secure AI Coalition)负责人布伦丹·斯坦因豪瑟(Brendan Steinhauser)等保守派倡议者指出,当前联邦框架虽然提到劳动力准备和技能提升,但对企业以人工智能替代人力所带来的结构性冲击回应不足。这意味着,白宫试图以创新促进与统一监管塑造全国性立法共识时,仍未能充分化解劳动者保护、就业替代与产业转型成本之间的张力。就此而言,该框架的支持联盟确实较以往更广,但其反对力量同样具有制度根基和跨议题延展性,未来在国会立法转化过程中,联邦优先原则及其对州级自治空间的压缩,仍将是最难跨越的政治障碍。
特朗普的AI立法框架到最终的立法, 还有多远的路要走?
在2026年中期选举年,国会通过全面AI立法的概率较低。参议院民主党不会轻易接受大幅削弱州权的框架,而共和党内部对联邦优先权的边界也存在分歧。更可能的情况是,框架中的部分元素被拆解并入其他法案,或在2027年新一届国会重新推进——而这就将取决于中期选举的结果,如果共和党在中期选举中失去任何一院,那么极大可能特朗普的AI立法就不太可能在2028年前实现了。
如果这一框架最终转变成了真正的立法且修改不大,其影响将是深远的。从积极层面来看,统一的联邦标准确实可以消除企业的合规碎片化成本,加速AI技术部署。与欧盟《AI法案》的严格监管相比,美国选择轻监管路径,可能在全球AI竞赛中获得短期优势。

特朗普2025年7月在活动中展示签署的放松AI监管的行政令
来源:盖蒂图像
而从消极层面来看,联邦优先权将实质性削弱州政府的消费者保护能力。在缺乏强有力联邦替代机制的情况下,对州干涉权的“预先排除”可能意味着监管真空。如果消费者保护和创作者权益没有可靠的联邦执行机制作为兜底,所谓的“国家框架”不过是一纸空文。
版权争议的走向同样值得关注。框架在训练数据版权问题上采取的观望态度,实质上是将裁决权让渡给正在审理中的多起联邦诉讼。如果法院最终裁定训练数据使用构成合理使用,创作者群体将几乎失去法律救济渠道。
中美AI竞争是特朗普这份框架反复调用的叙事工具。《南华早报》的报道以中美科技竞争为框架进行解读,强调特朗普政府“统一AI规则以巩固对华优势”的意图。但将复杂的国内治理问题简化为“打败中国”的二元叙事,既有政治便利性,也有政策风险——它可能掩盖真实的监管需求,为行业游说提供道德掩护。
总结来说,特朗普的《国家AI立法框架》试图在创新自由与社会责任之间寻找平衡点,但目前的文本明显向前者倾斜。它是一份精心设计的政治文件,而非深思熟虑的技术治理方案。而对于这份立法野心来说,真正的考验在于:特朗普是否能赢得中期选举?
参考文献
注:可上下滑动查看
附录:国家AI立法框架中文翻译
白宫立法建议:国家政策框架:人工智能
2026年3月
1. 保护儿童并赋权家长
AI服务和平台必须采取措施保护儿童,同时赋权家长控制子女的数字环境和成长教育。
国会应在特朗普政府迄今为止保护儿童的行动基础上再接再厉,包括签署具有历史意义的《下架法案》(Take It Down Act)——这是第一夫人梅拉尼娅·特朗普(Melania Trump)保护儿童及成年受害者免受深伪(deepfake)侵害的一项关键倡议。
国会应赋予父母和监护人强大的工具,以管理子女的隐私设置、屏幕使用时间、内容接触和账号控制。
国会应为未成年人可能接触到的AI平台和服务建立商业上合理且保护隐私的年龄确认要求(如家长证明)。
国会应要求未成年人可能接触到的AI平台和服务实施相关功能,以降低未成年人遭受性剥削和自残的风险。
国会应确认现有的儿童隐私保护规定适用于AI系统,包括限制为模型训练和定向广告收集数据。
国会应避免针对许可内容设定模糊的标准或开放式责任,以免引发过度诉讼。
国会应确保不预先排除(preempt)各州执行其保护儿童的通用法律,例如禁止儿童性虐待材料,即使此类材料是由AI生成的。
2. 维护并加强美国社区
AI的发展(包括数据基础设施建设)应通过经济增长和能源主导来加强美国社区和小企业,同时确保社区免受有害影响。
根据《费率支付者保护承诺》,国会应确保居民用电户不会因新建AI数据中心的建设和运营而承担电费上涨。
同时,国会应简化AI基础设施建设和运营的联邦许可审批,以便AI开发者能够开发或获取现场及“表后”(behind-the-meter)发电,从而加速AI基础设施建设并增强电网可靠性。
国会应加大现有执法力度,打击针对老年人等弱势群体的AI冒充诈骗和欺诈行为。
国会应确保国家安全部门内的相关机构拥有足够的技术能力,以了解前沿AI模型的功能及相关的国家安全考量,并建立减轻潜在担忧的计划(包括与前沿AI模型开发者协商)。
国会应向小企业提供AI资源(如赠款、税收激励和技术援助计划),以支持AI工具在美国工业界的广泛应用。
3. 尊重知识产权并支持创作者
应保护美国的创作者、出版商和创新者免受侵害其受保护内容的AI生成输出的影响,同时不损害合法的创新和言论自由:
尽管政府认为利用受版权保护的材料训练AI模型并不违反版权法,但政府承认存在相反的观点,因此支持由法院解决这一争议。同样,国会不应采取任何可能影响司法机关判定“版权训练是否构成公平使用”的行动。
国会应考虑为权利持有人建立许可框架或集体权利制度,以便他们集体协商来自AI提供商的补偿,且不承担反垄断责任。然而,任何此类立法不应规定何时或是否需要此类许可。
国会应考虑建立一个联邦框架,保护个人免受未经授权分发或商业化使用其声音、肖像或其他可识别特征的AI数字副本(数字孪生)的侵害,同时对讽刺、模仿、新闻报道及其他受第一修正案保护的表现性作品提供明确豁免。国会应防止任何人滥用该框架来压制网络言论自由。
国会应继续密切监测法院版权先例和执法的发展,并评估是否由于AI带来的新情况,需要采取除本文建议之外的额外行动来填补潜在漏洞或为内容创作者提供额外保护。
4. 防止审查并保护言论自由
联邦政府必须捍卫言论自由和第一修正案的保护,同时防止AI系统被用于压制或审查合法的政治表达或异议。
国会应防止美国政府强迫技术提供商(包括AI提供商)根据党派或意识形态议程禁言、强制发布或修改内容。
国会应为美国民众提供有效手段,就政府机构试图审查AI平台上的表达或指令AI平台提供特定信息的行为,向联邦政府寻求补救。
5. 推动创新并确保美国AI主导
美国必须通过消除创新障碍、加速AI应用在各行业的部署,并确保广泛获得构建世界级AI系统所需的测试环境,从而在AI领域领导世界。
国会应为AI应用建立“监管沙箱”,帮助释放美国的创造力,进一步提升美国在AI开发和部署方面的领导地位。
国会应提供资源,使联邦数据集能够以“AI就绪”的格式提供给工业界和学术界,用于训练AI模型和系统。
国会不应创建任何新的联邦监管机构来管理AI,而应支持通过具有专业领域知识的现有监管机构以及行业主导的标准,来开发和部署特定行业的AI应用。
6. 教育美国民众并培养具备AI能力的劳动力
美国工人必须从AI驱动的增长中受益,而不仅仅是受益于AI开发的产出。这应通过青年培养和技能培训、在AI驱动的经济中创造新工作岗位以及扩大各行业的机遇来实现。
国会应使用非监管手段,确保现有的教育计划、劳动力培训和支持计划(包括学徒制)明确纳入AI培训。
国会应扩大联邦政府在研究“由AI驱动的任务级劳动力调整趋势”方面的努力,以为支持美国劳动力的政策提供参考。
国会应加强赠地大学(land-grant institutions)的能力,以提供技术援助、启动示范项目并开发AI青年发展计划。
7. 建立联邦政策框架,预留(Preempt)繁琐的州级AI法律
联邦政府必须建立联邦AI政策框架,以保护美国人的权利、支持创新,并防止零散的各州法规阻碍国家竞争力,同时尊重联邦制和州权。
国会应预先排除(Preempt)那些施加不当负担的各州AI法律,以确保建立一个与这些建议一致的、负担最小的全国标准,而不是50个互不协调的标准。
这一国家标准应尊重联邦制的关键原则,且不预先排除以下各项:
各州保留的传统警察权力,用于针对AI开发者和用户执行通用法律,包括保护儿童、防止欺诈和保护消费者的特定法律。
各州的区划法律(Zoning laws),包括各州决定AI基础设施安置的权力。
管理州政府自身使用AI的要求(无论是通过采购还是其提供的服务,如执法和公共教育)。
预先排除(Preemption)必须确保各州法律不会管辖更适合联邦政府的领域,或采取与美国实现全球AI主导国家战略相悖的行动:
不应允许各州监管AI开发,因为这本质上是一种跨州现象,具有关键的外交政策和国家安全影响。
各州不应针对“如果不使用AI则属于合法”的行为,因使用AI而对美国人施加不当负担。
不应允许各州因第三方涉及其模型的违法行为而惩罚AI开发者。