作者:李亚琦 姚旭 发布时间:2025-05-20 来源:复旦中美友好互信合作计+收藏本文
引言
2025年5月8日的美国参议院AI听证会标志着美国AI政策的一个关键转折点。在特朗普政府重塑政策环境和美国各界对中国AI发展保持高度关注的背景下,此次听证会可能成为美国从风险审慎到竞速优先的国内AI监管思路转变。以OpenAI首席执行官奥特曼戏剧性的立场变化和参议院商业委员会主席克鲁兹力倡的“轻监管”为代表,为AI创新松绑、加速美国在全球AI竞赛中的步伐,正在美国国内形成新的声量。本文将深入剖析此次听证会所展现的政策转向、背后的逻辑动因、政府与企业互动的新模式,及其对美国AI生态和中美竞争格局的深远影响。
01
美国参议院听证会
成为AI“轻监管”风向标
2025年5月8日,美国参议院商业、科学和交通委员会举行了一场题为“赢得AI竞赛:加强美国在计算与创新方面的能力”的听证会。这场备受瞩目的会议不仅汇集了OpenAI、微软、AMD和CoreWeave等AI产业链关键企业的掌门人,更成为观察特朗普政府领导下美国AI政策新动向的重要窗口。会议的核心议题是如何通过移除“监管障碍”来加速创新,确保美国在AI领域的全球主导地位,尤其是在与中国的竞争中胜出。听证会上的关键发言和其所处的政策背景,共同勾勒出美国AI监管思路的重大调整。
5月8日,OpenAI首席执行官奥特曼在国会山出席参议院商务、科学和运输委员会听证会
来源:华盛顿邮报
1
OpenAI奥特曼:
从需要监管到抨击监管的转向
本次听证会最引人注目的现象之一,是部分行业领袖在AI监管问题上态度的显著变化,尤其是OpenAI的联合创始人兼首席执行官萨姆·奥特曼(Sam Altman)。与此同时,委员会主席、共和党参议员特德·克鲁兹(Ted Cruz)则高调倡导放松管制,得到了其他科技巨头高管的呼应。
奥特曼的立场转变尤为突出。在5月8日的听证会上,他多次明确反对具体的监管提议。他直言,要求AI开发者在推出系统前进行审查的提议对行业而言将是“灾难性的”。当被问及由美国国家标准与技术研究院(NIST)制定AI标准等更为保守的监管议案时,奥特曼回应称:“也许有帮助,但我们不需要。”他最终主张的是“不拖慢我们步伐的明智监管”。这与他两年前的态度形成了鲜明对比,“很难想象要遵守50套不同法规”,“我们需要一个联邦层面、轻监管、易于理解的框架加速发展”。
在2023年5月的首次国会作证中,奥特曼曾明确表示,随着更强大AI模型的开发,“政府监管机构可能需要干预”,并建议对超过关键能力阈值的AI模型实施“潜在的许可或注册要求”,以确保其遵守安全规定。他当时甚至提议设立专门的监管机构,并强调了应对强大AI系统过度监管和监管不足双重风险的必要性。
奥特曼态度的转变并非孤立事件,而是对美国政治和政策环境变化的策略性适应。特朗普政府上台后,迅速将政策重心放在移除创新“障碍”和加速AI的大国竞争。参议院商业委员会主席克鲁兹在听证会上的发言,为这种“轻监管”思路提供了清晰的理论框架和政策方向。他开宗明义地指出,美国正面临抉择:是拥抱“创业自由和技术创新的历史”,还是采纳“欧洲的命令控制政策”。他强烈批评欧盟的“糟糕的监管方式”导致其在全球AI创业投资中仅占6%,远低于美国,并指责拜登政府试图与欧盟“失败的政策”保持一致。克鲁兹认为,即使是看似温和的干预措施,如测试制度和政府指导文件,也是“奥威尔式的官僚主义”,是“穿着羊皮的狼”,会扼杀创新和应用。
2
微软、AMD和CoreWeave:
美国必须“跑得更快”
其他出席听证会的行业领袖也表达了对加速发展和有利政策环境的需求,尽管各有侧重。微软副董事长兼总裁布拉德·史密斯(Brad Smith)强调,美国需要赢得“创新竞赛”和“扩散竞赛”。这不仅需要对数据中心、电网等基础设施进行大规模投资,还需要提升劳动力技能,更关键的是要确保美国技术在全球范围内的广泛采用和信任。他指出,“决定美国或中国谁将赢得这场竞赛的首要因素,是谁的技术在世界其他地区得到最广泛的采用”。
2025年5月8日,微软公司副董事长兼总裁史密斯(右)在华盛顿出席参议院商务、科学和运输委员会听证会,与会人员(从左至右)依次为:OpenAl联合创始人兼首席执行官奥特曼、AMD首席执行官兼董事长苏姿丰以及CoreWeave联合创始人兼首席执行官因特拉特
来源:美联社
AMD首席执行官兼董事长苏姿丰(Lisa Su)则从硬件和生态系统角度出发,提出美国必须“跑得更快”,倡导开放生态系统以促进更广泛的创新和竞争,利用《芯片与科学法案》(CHIPS and Science Act)建立国内半导体供应链韧性,投资 STEM 人才和改革移民政策以吸引顶尖人才,并制定平衡的出口管制规则。她警告说,美国的领先地位“绝非必然”。
作为AI计算基础设施提供商,CoreWeave的联合创始人兼首席执行官迈克尔·因特拉特(Michael Intrator)聚焦于高性能计算能力的瓶颈。他指出AI模型训练所需的计算量呈指数级增长,而高效率地提供和运营大规模计算集群是关键,目前存在显著的“AI效率差距”。他同时警告,陈旧的基础设施和碎片化的许可流程正在拖慢美国的步伐,呼吁建立“稳定、可预测的政策环境”以促进投资和增长。
奥特曼在证词中认为,AI潜力将“至少与互联网同等重要,甚至更大”,并强调“投资基础设施至关重要”。这些来自AI软件、平台、硬件和基础设施领域领导者的证词,虽然侧重点不同,但共同强化了一个核心信息:赢得AI竞赛需要政府在消除障碍、促进投资和构建有利生态系统方面提供支持,覆盖从底层硬件到顶层应用的整个技术堆栈。
5月8日,美国国会参议院商务、科学和运输委员会听证会上展示的图表
来源:华盛顿邮报
3
政策语境:
特朗普新政与“去风险化”退潮
上述言论背后,是近年美国联邦AI政策环境的重大变化。特朗普政府上任伊始便签署了第14179号行政令,题为“消除美国在人工智能领域领导地位的障碍”。此行政令最核心的行动是撤销了前总统拜登于2023年10月30日签署的第14110号行政令——“关于安全、可靠和值得信赖的人工智能开发和使用的行政令”。拜登的行政令曾试图建立一个全面的AI治理框架,强调进行严格的安全评估,减轻生物技术、网络安全和关键基础设施等领域的风险,要求提高透明度和问责制,促进公平和公民权利,并设立了安全研究所等机制。
相比之下,特朗普的行政令则明确指示联邦机构审查并废除那些阻碍创新的政策,其目标是“增强美国在全球AI领域的统治地位” ,并鼓励开发“不受意识形态偏见或精心策划的社会议程影响”的AI系统。为了追求发展速度和地缘政治优势,新政府愿意接受更高程度的潜在AI风险(如安全、偏见、社会影响等)。
2025年1月31日公布的特朗普关于AI的行政令
来源:Federal Register
在这一政策转向的大背景下,另一项引发广泛讨论的政策是关于AI出口管制的“扩散规则”(Diffusion Rule)。该规则于2025年1月(拜登政府任期末发布,由特朗普政府继承并管理)公布,原定于5月15日生效,旨在对全球范围内的先进AI芯片和闭源权重AI模型实施出口管制。规则基于国家安全风险建立了一个三级体系:第一级包括限制最少的亲密盟友,第二级包括有一定限制的大多数其他国家,第三级则包括受严格控制的对手国家(包括中国)。
然而,“扩散规则”自诞生之初就充满争议。一方面,像Anthropic这样的人工智能公司支持加强该规则,认为其对于维持美国的计算优势、防止通过空壳公司等手段走私至关重要。另一方面,包括芯片制造商英伟达(Nvidia)和参议员克鲁兹在内的反对者则批评该规则可能“削弱”美国公司向全球销售技术的能力,并将市场拱手让给中国。克鲁兹甚至称其为“拜登深夜颁布的失策人工智能扩散条例”(Biden's misguided midnight AI diffusion rule)。AMD的苏姿丰则呼吁平衡,担心过于严格的管制会迫使全球市场转向其他技术替代方案。美国的盟友,如欧盟,也对该规则可能分裂单一市场、影响其成员国获取技术表示担忧 。
为回应业界的担忧,特朗普政府在2025年5月7日宣布将撤销并替代“AI扩散规则”,理由是原规制“过于复杂、官僚化”,若继续实施将扼杀美国创新活力;商务部发言人透露,新方案拟以更简洁的政府间全球许可体系取代先前按三层国家分类设限的做法,同时针对有将先进芯片转移至中国风险的第三国(如马来西亚、泰国)收紧出口把关,以在保持技术外销通路的同时强化关键环节控制,确保美国在人工智能领域的主导地位。
总体来看,特朗普政府废除前任行政令、参议院听证会的基调以及围绕出口管制的激烈辩论,共同指向了一个明确的政策范式转变:从拜登时代强调识别和减轻AI风险(安全、偏见、就业冲击等),转向特朗普政府优先考虑加速创新、消除监管障碍、建设基础设施,并确保美国在全球AI竞赛中对中国的绝对优势。这种转变以竞争和产业民族主义为核心叙事逻辑,将对美国未来的AI发展路径产生深远影响。
政策对比:拜登 EO 14110 vs. 特朗普 EO 14179
来源:作者整理
02
美国加速国内AI发展背后的“中国焦虑”
美国AI政策的转向并非仅仅是高层姿态的变化,其背后蕴含着一套新的政策逻辑,并催生了政府与企业之间互动模式的调整。其核心在于希望通过“先创新后治理”的理念为AI发展松绑,同时期待能精准地移除物理和制度瓶颈,以期在政府引导和企业投入的合力下,快速构建起强大的AI创新生态系统。但这种理想化的方案是否能如预期面临重重困难。
1
先创新后治理?
“轻监管”下的对华AI竞速逻辑
当前主导美国AI政策的逻辑是,为了在激烈的国际竞争中获胜,必须优先保障创新的速度和广度,而将复杂的治理问题推后处理或最小化干预。这种“先创新后治理”(Innovate First, Govern Later)的思路,在参议院听证会上得到了充分体现。
在克鲁兹的叙事中,今日的AI与上世纪九十年代“网景浏览器刚上线、电子邮件尚称新奇”的互联网草创期处于同一历史方位。彼时的克林顿—戈尔团队奉行一种被学界归纳为“宽跑道、窄护栏”的数字治理哲学:政府只在必要时介入,其余交由市场自我演化。1996年的《电信法案》将宽带业务定性为“信息服务”,大幅削减事前审批;同年写入《通信端正法》的第230节则给予网络平台广泛的内容责任豁免。随后,《互联网税收自由法》冻结州际电商课税,1997年发布的《全球电子商务框架声明》也主张以事后权利救济替代事前许可。克鲁兹借此历史经验论证:如果今日的AI被欧盟式繁琐审批束缚,美国就可能错失下一个互联网般的战略窗口;而他主张的“AI监管沙盒”正是要把当年克林顿时代的轻触式框架(light-touch)移植到人工智能领域。
5月8日,特鲁兹与奥特曼在听证会上握手
来源:Fox Business
可以预见,美国监管重点将更多地放在事后监督和责任机制上,例如通过行业标准和法律责任来约束不当行为,而非事前审批来预防假想风险。这种转变意味着企业在开发和部署AI时享有更大自主权,同时也承担确保安全与诚信的责任。
美国业界已在讨论类似“责任安全港”的方案:其核心思想是:政府或行业首先制定一套可验证的技术与治理基线——例如红队测试、透明度报告、外部审计——企业只要能够持续证明其模型符合这些基线,就可在发生偏见或安全事故后得到有限责任减免。伯克利法学院学者邓普西(Jim Dempsey) 在提交给美国国家电信和信息管理局(NTIA)的意见与随后发表于Lawfare的论文中提出,“理想做法是产品层面设置硬性底线,流程层面提供安全港;若开发者严格执行经第三方验证的流程保障,就不必为难以避免的残余风险承担灾难性赔偿”。哥伦比亚大学奈特第一修正案研究所的研究团队则将其概括为“透明度安全港”,主张用有限责任换取企业公开模型文档和权重,以便外部研究者独立评估,从而“把责任豁免转化为强化监督的激励”。智库R街研究所(R Street Institute)在2025年报告中进一步提出“风险分级责任盾牌”,即对教育等低风险模型给予更宽豁免,高风险场景保留严格责任,以引导资源投入到最需要监管的领域,同时避免“一刀切”扼杀初创企业活力。学界普遍认为,这种“合规先行、责减后置”的机制能够在不设前置许可的前提下,让企业为自律投入真金白银,又能让监管者保留对恶意或重大过失行为追责的硬权力。
将“轻监管”与赢得对华竞争直接挂钩,是支撑这一逻辑的关键论据。在听证会及相关政策讨论中,“赢得与中国的AI竞赛”被反复强调为采取去监管化路径的首要理由 。其核心论点是,像欧洲那样繁琐的监管 会束缚美国自身手脚,从而将战略优势拱手让给那些面临较少(或不同类型)限制的“威权竞争对手”。在此逻辑下,“速度”本身被视为一种核心战略,任何被认为会延缓创新或应用推广速度的政策,都被视为对国家安全和经济领导力的损害。
然而,将“加速创新”奉为最高准则的治理哲学并非没有代价。历史经验与产业组织理论都表明,当监管先行缺位而标准尚未固化时,真正受益的往往并非“车库里的创业者”,而是已坐拥资本、专利与游说网络的大型平台。这些巨头不仅拥有足够的合规预算来“追着移动靶”调整流程,还能够通过智库资助、草案评审与旋转门机制参与规则拟定,甚至影响最终的立法走向。
相形之下,资源有限的早期公司面对“先跑后补”的模糊环境,既要承担潜在法律追责的尾部风险,又难以提前判断投资回报期限;风投机构一旦预期合规成本或诉讼敞口不可控,便倾向于将资金注入已具备防御能力的头部企业,或者干脆敦促被投项目尽快卖出以“借壳”避险。于是,“轻触式”在纸面上喊出的是“降低门槛”,在路径依赖中收获的却可能是更高的市场集中度:巨头凭借算力、数据与监管话语权形成护城河,新进入者被迫绕行或依附,生态活力反而因缺乏异质竞争而减弱。
2
撤障+互惠:
打通供应链与能源瓶颈
除了宏观层面的“轻监管”导向,美国AI新政的另一个关键特征是精准识别并着力消除AI发展中的具体瓶颈,特别是围绕计算能力、能源供应和数据中心等物理基础设施的障碍。这种“撤障”努力,伴随着政府对产业界加大投入和开拓全球市场的期望,形成了一种新的政企互动模式。
移除阻碍AI发展的具体障碍成为政策焦点。克鲁兹计划中的法案明确提出要“消除AI应用的障碍”并促进供应链发展。CoreWeave首席执行官因特拉特的证词指出了陈旧基础设施和碎片化许可审批流程对美国AI进展的拖累,暗示需要改革以加速数据中心的建设。奥特曼则称赞德克萨斯州在激励大型AI项目方面的“令人难以置信”的表现,并建议其他州效仿。
解决基础设施瓶颈问题尤为突出。首先是计算能力的稀缺。CoreWeave强调,高性能计算是AI发展的“限制性边界”(limiting boundary),不仅需求量巨大且呈指数级增长,还需要专门优化的基础设施和更高的运行效率来克服“AI效率差距”。其次是数据中心的建设。支撑 AI研究所需的庞大数据中心需要巨额投资 。由特朗普宣布、OpenAI、甲骨文、软银等参与的总投资额高达 5000 亿美元的“星际之门计划”(Project Stargate),正是这种规模需求的体现。
2025年5月8日, AMD首席执行官兼董事长苏姿丰博士(中)在华盛顿出席参议院商务、科学和运输委员会听证会,与OpenAl联合创始人兼首席执行官奥特曼(左)以及微软公司副董事长兼总裁史密斯(右)一同出席听证会
来源:美联社
再次是能源供应的挑战。AI的巨大能耗已成为一个主要关切点。美国能源部估计数据中心耗电量占全国比重将从2023年的4.4%飙升至2028年的12%。这要求对老化的电网进行现代化改造,投资建设新的输电线路,并开发包括核聚变在内的新型能源。CoreWeave首席执行官因特拉特警示称,AI计算极为耗能,训练数百万小时、推理查询上亿次、模型参数数万亿,导致对算力和电力的需求“呈指数级”激增。因特拉特据此呼吁加快电力基础设施建设审批,以增加新的发电来源并完善电网输电能力。
同样地,AMD首席执行官苏姿丰指出,要引领AI,就必须“快速大规模建设数据中心,并以可靠、可负担且清洁的能源来为其供电”。她还强调,应加速推动“AI下沉到云端之外”,让AI像电力一样无处不在、可靠可及。微软总裁史密斯在书面证词中则直言,美国的电力等基础设施“老化了50年,无法满足AI时代日益增长的用电需求”。因此他倡议联邦政府简化能源项目审批、升级电网,并开放更多政府数据供AI模型训练,以支持AI发展。
在解决这些瓶颈的过程中,政府与产业界的合作关系得以强化。一方面,政府积极撤销法规限制。另一方面,企业在政策松绑的激励下加大投入。一些州的议员也在主动招商引资:阿拉斯加州参议员丹·苏利文热情邀请企业将AI数据中心落户当地,奥特曼回应“我们需要你们的帮助”,显示企业有意愿在政策支持下扩张业务版图。
克鲁兹则在听证会上宣布他将很快推出一项新法案,旨在创建一个“AI监管沙盒”(regulatory sandbox for AI),效仿克林顿时期国会对互联网初期的做法。就具体制度设计来看,克鲁兹团队向行业游说者概述了三层试验机制:一是面向“早期部署”模型的豁免试点,企业只需向商务部备案并提交风险减缓计划,即可在限定规模与场景内跳过冗长许可流程开展真实世界测试;二是针对已通过NIST或第三方基准测评的系统,设立 “责任安全港”——只要持续满足沙盒技术基线,未来如出现可预见但难完全规避的残余风险。
三是为缓解当下最受诟病的电力、选址和出口瓶颈,拟引入“联邦一站式绿色通道”:沙盒项目可享加速能源与湿地许可、海关预裁定及《国际武器贸易条例》(ITAR)和《出口管理条例》(EAR)快速核查,配合“可信云”清单替换现行芯片出口三档限额,以确保先进算力能在盟友之间快速扩散、却难以被对手分流。在治理工具上,法案还计划复制金融科技、自动驾驶领域行之有效的做法——为沙盒参与者设置两年期可续的定期评估节点,并要求企业定期向国会递交“创新—风险”量化报告,用数据说服立法者继续维持轻管模式。此外,为防止“沙盒”成为大厂专属俱乐部,草案草拟了一条“中小企业配额”条款:要求商务部每年至少核准一定比例的初创团队或大学衍生项目进入沙盒,且其合规测试费用由专项基金部分抵扣,以降低小型创新者门槛。
3
联邦 vs. 州:
碎片化风险与抢夺主导权
在美国联邦政府层面大力推行统一的“轻监管”方针的同时,各州并未停止在AI领域的立法步伐,反而呈现出加速态势。这种联邦与州在AI监管上的不同步调,正在制造一个日益复杂的法规环境,引发了对“碎片化风险”的担忧,并触发了一场关于AI治理主导权的争夺。
联邦层面,特别是以参议员克鲁兹为代表的国会共和党人,正积极推动联邦优先权(federal preemption)。克鲁兹明确表示,他即将推出的法案旨在“阻止不必要的州过度监管”。这清晰地表明,联邦立法者希望通过制定统一的联邦标准来取代或限制各州自行制定AI规则的权力。产业界也对此表示支持。奥特曼在听证会上就警告说,要遵守“50套不同的法规”是极其困难的,这反映了行业对单一、可预测的联邦监管框架的偏好。
然而,州一级的AI立法活动却异常活跃。仅在2025年,就有至少45个州和波多黎各提出了超过550项与AI相关的法案。这些立法尝试覆盖了广泛的议题,形成了与联邦层面“轻监管”趋势不同的景象。
继科罗拉多州2024年通过全美首个针对消费者保护和安全的综合性AI法规后,弗吉尼亚州也在2025年通过了类似的《高风险AI开发者和部署者法案》。至少还有8个州提出了关注高风险系统和防止算法歧视的综合性法案。加州议员斯科特·维纳(Scott Wiener)则在2024年推动了一项全面的AI安全法案,内容涉及对高级AI模型的更多监督以及防止算法歧视和版权侵犯等。尽管在科技公司游说下,加州州长纽森最后时刻否决了该法案,“加州版AI法案”仍可能以精简形式卷土重来,包括对AI公司内部举报人提供保护等条款。
而针对AI生成的虚假信息,特别是用于选举欺诈或制作非自愿私密图像(NCII)的“深度伪造”(deepfakes),联邦层面有不久前通过的《删除法案》(TAKE IT DOWN Act),州层面更是涌现出大量要求披露或禁止传播此类内容的法案。许多州正在制定规则,规范州政府机构在采购、部署和使用AI系统时的透明度、影响评估和问责机制。针对AI在医疗保健、雇佣、住房租赁、保险等敏感领域的应用,各州也纷纷提出监管要求,试图解决具体场景下的风险。一些州出台了通用性的规定,例如犹他州要求企业在使用生成式AI与用户互动时进行披露。
这种州级立法的繁荣,反映了各州在联邦政府转向“轻监管”后,为回应本地选民对AI潜在危害(如偏见歧视、虚假信息、就业冲击、隐私侵犯等)的担忧而采取的积极行动。由于联邦层面的缺位或行动迟缓,各州正在填补治理真空,导致了监管方法和标准的日益多样化。然而,从联邦决策者和产业界的角度来看,这种多样性被视为效率低下、成本高昂,并且可能阻碍实现“赢得AI竞赛”的国家目标。因此,推动联邦优先权,以一个统一的、可能更为宽松的联邦标准来覆盖全国,成为了他们的重要诉求。
这场关于联邦优先权的争夺,其意义超越了单纯的监管效率问题。它实质上是一场关于由哪一级政府来定义和平衡AI时代的创新与保护之间关系的权力斗争。如果联邦优先权得以确立,特别是在一个“轻监管”的框架下,将极大地限制各州根据自身情况和价值观制定更严格保护措施的能力。这将导致全国范围内的AI监管标准向联邦政府(当前倾向于放松管制)看齐,使地方层面对AI社会影响的独立应对空间受到压缩,并确保州级行动不会干扰以速度和竞争为核心的国家战略。
03
尚未终结的政策辩论:
班农和MAGA派的强监管倾向
尽管克鲁兹等共和党主流议员高举“轻触式”大旗,但在保守派光谱的另一端,以前总统首席战略顾问史蒂夫·班农(Steve Bannon)、参议员乔什·霍利(Josh Hawley)为代表的 MAGA 民粹派,却将 AI 视为可能被硅谷巨头“劫持”的战略资产,主张以更强硬的国家安全和反垄断工具对其加以约束。
班农在《战情室》节目中多次警告“大型语言模型一旦被左翼精英独占,后果堪比‘曼哈顿计划落入敌手’”,并抛出“必要时应考虑将关键算力国有化”的激进论调,指责现行沙盒思路“把国家命运押给少数资本寡头”。在其推动下,保守派草根媒体连番炒作“AI 觉醒会压制言论自由”“农工阶层将被算法取而代之”等议题,要求通过国家干预“把方向盘抢回来”。与此同时,传统基金会的“2025计划”提倡“把 AI 视作与稀土、芯片同等级别的战略物资”,建议建立政府‐工业“算力储备体系”,对出口、并购和源码开放实施比沙盒更严格的安全审查——这一立场与产业界的全球扩散战略明显冲突。
MAGA活动家班农曾支持持较强烈反垄断立场的拜登政府联邦贸易委员会主席丽娜·汗续任该职,支持对AI巨头加强监管的努力
来源:AP
在国会层面,霍利与民主党人布卢门撒尔共同提出的《无第230条豁免AI法案》(No Section 230 Immunity for AI Act)试图剥夺生成式AI享有的内容中立保护,要求平台对模型输出承担严格责任,并暗示将探索“强制许可+高额保证金”制度来遏制深伪与诈骗。霍利还公开批评奥特曼从“监管派”转向“放任派”是“向华尔街输诚”,宣称“真正的保守主义不是给大公司开绿灯,而是守护工薪阶层的饭碗与国家安全”。
这种“右-右分裂”令共和党内部出现罕见的监管路线竞争。Politico调查显示,在众议院自由党团(House Freedom Caucus)中,有超过三分之一的成员支持对AI模型实施出口前许可或直接限制大科技公司收购AI创企,以防“寡头垄断”与“算法偏见”并行蔓延。与此同时,部分州级保守派政府也开始对联邦“轻管”路线表示质疑:佛罗里达州议会正在起草的《关键算法监督法》要求所有在州内运营的高级模型向州司法部长注册,并交由独立测试机构进行年度偏见审计,违者最高可被处以5%全球营业额的罚款。
总的来看,5月参院听证会及其背后的政策生态显示,美国AI战略正经历一场速度优先的重大转向。特朗普政府“移除障碍”的导向与中美竞争的压力,共同催生了以竞速为核心的新叙事;然而,这场提速并非没有成本。国内监管碎片化的风险、AI滥用与社会冲击的概率,以及“放松管制”与“国家安全”之间的张力,都为这场战略豪赌蒙上阴影。它最终能否稳固美国领先地位尚未可知,却已注定深刻影响未来全球技术轨道与中美关系。对所有关注技术前沿与国际竞合的观察者而言,持续追踪并深入理解这一动态,将是未来数年的重点课题。