作者:姚旭 李琛峣 发布时间:2026-03-05 12:47:22 来源:全球人工智能创新治理中心+收藏本文
2025年7月,阿莫迪在五角大楼的新闻发布会上与国防部官员握手,宣布Claude成为首个进入美军机密网络的商业大模型。《华尔街日报》此前报道,在2026年初那场针对委内瑞拉总统马杜罗的突袭行动后,Claude经由Palantir的系统集成深度参与了情报处理与行动模拟。随后Anthropic向五角大楼求证该消息是否属实,并向对方表示公司不能接受Claude用于大规模监控美国公民或自主决定物理攻击的目标,这种姿态也引发了五角大楼强烈不满。
2026年2月24日,华盛顿波托马克河畔的五角大楼内,“战争部”(原称“国防部”)部长皮特·赫格塞思(Pete Hegseth)在办公室中对Anthropic的首席执行官达里奥·阿莫迪(Dario Amodei)给出了最后期限:当地时间2月27日17时01分前,Anthropic必须解除其大模型Claude在军事用途上的全部护栏,允许美军用于目标识别、火力引导及大规模监控等“所有合法用途”。若拒绝,五角大楼将考虑两种手段:其一,将Anthropic列为“供应链风险”,事实上切断其与联邦体系的商业往来;其二,援引冷战时期的《国防生产法》,以国家安全之名强制征用模型并按军方需求改写。
当地时间2月27日下午四点左右,美国总统特朗普下令所有美国机构停止使用Anthropic公司的人工智能技术,并给予五角大楼六个月的时间淘汰Anthropic。“最后通牒”时间后,赫格塞思亦发文响应总统的举措,表示五角大楼“必须拥有充分、不受限制地使用人脑公司模型的权利,以用于保卫共和国的一切合法目的”。至此,联邦政府与Anthropic之间就人工智能安全问题展开的罕见公开冲突达到高潮。

Anthropic的领导层多来自OpenAI的早期核心成员,担心商业化速度压倒安全议程是他们离开OpenAI的重要动因之一。因此,Anthropic在对外沟通中长期强调“安全第一”,并将模型护栏视为企业信誉的重要组成部分。图源:Observer
一、Anthropic安全优先的沟通路径
生成式人工智能真正嵌入美国国家安全体系是有迹可循的。自冷战后互联网繁荣时期起,在反建制技术文化、资本逐利逻辑与国家安全需求的作用下,硅谷一方面以“去中心化”“反监管”为意识形态底色,强调技术自主与市场效率;另一方面又不断通过政府订单、军方合作与基础设施共建,与美国权力结构深度捆绑。例如,由彼得·蒂尔(Peter Thiel)、亚历克斯·卡普(Alex Karp)等人创立的公司Palantir是美国中央情报局、国防部和国土安全体系的忠实合作伙伴。Palantir的成功证明:当算法能够压缩感知、决策、打击的链条时,科技公司不再只是承包商,而是战场体系的一部分。也正是在这种范式示范下,大模型企业逐渐被纳入军方视野。
在特朗普第二任期内,政府更倾向以能源保障、行政松绑和资本动员为人工智能产业铺路,客观上加深了算力、资本与安全体系的复合。硅谷企业既是市场主体,也是技术民族主义的重要执行者。今天,硅谷仍然诉诸开放创新与全球市场叙事,但其资本结构、算力基础设施与主要收入来源却日益与美国国家安全体系难分难解。在国家将先进模型能力视为战略资产的背景下,“安全优先”的企业伦理很可能与主权安全逻辑发生摩擦。
在一些评论人士眼中,Anthropic自创立起就树立了重视模型安全的形象,不提倡发展先行、治理滞后的产业路径。阿莫迪曾公开批评特朗普放任自流的人工智能政策,直言不讳地指出人工智能可能终结人类文明。他警告说,人工智能有10%到25%的概率会失控,引发全球性的混乱。白宫人工智能与加密货币负责人大卫·萨克斯(David Sacks)抨击Anthropic公司是“人工智能末日论者”网络的一部分,将可能扼杀蓬勃发展的人工智能产业。与许多后起的人工智能企业不同,Anthropic的对外沟通从一开始就带有一定的规范设计色彩,至少在表述中反复阐述风险框架、护栏逻辑与可控性叙事。这种话语风格有助于其在民用市场赢得信任红利,但当合作对象变为美国防务体系时,同样的叙事却逐渐暴露出风险。Anthropic进入的并不是一个等待被说服的市场,而是一个以任务完成度和可用性为优先指标的权力体系。

阿莫迪在OpenAI成立不久后便加入这家非营利组织,后因与首席执行官山姆·奥特曼(Sam Altman)在安全问题上发生冲突,于2020年离职,创立了Anthropic公司。阿莫迪在2022年夏天没有发布Claude的早期版本,他担心这会引发一场危险的技术竞赛。一些Anthropic员工也在Slack的投票中表示,出于同样的原因,他们也不想发布这款聊天机器人。几周后,OpenAI发布了ChatGPT,迫使Anthropic奋起直追。阿莫迪表示,他不后悔这个决定。 图源:美联社
(一)合作初期:有限开放的技术伙伴关系
2025年7月,美国国防部通过其首席数字与人工智能办公室(CDAO)授予Anthropic公司一份为期两年、金额上限为2亿美元的原型开发其他交易协议。公司接受其旗舰模型Claude进入机密环境,并配合完成必要的安全适配。一旦模型进入涉密网络,它就不再只是商业软件,而开始接入国家安全工作流。更关键的是,Claude很快成为当时唯一在军方敏感系统中实际运行的商业大模型。一方面,它让Anthropic获得了难以替代的技术地位;另一方面,也显著提高了五角大楼对其可用性的路径依赖。
在具体运作层面,双方形成了一种颇具硅谷特色的分层协作结构:国防体系获得前沿模型能力,用于情报整理、态势理解和决策辅助;Anthropic通过使用政策保留用途层面的解释空间;系统集成与任务落地则大量依赖Palantir等中间商完成。军方可以说自己获得了先进人工智能赋能;公司可以说自己仍然保有伦理护栏;集成商则承担了相当一部分操作层的不透明性。Anthropic显然有意推动这种模糊持续存在。Anthropic认为自己的的确确参与国家安全,但方式是负责任的。然而,这种默契仰仗于军方愿意长期容忍企业在用途层面的二次裁量权。而这一前提从一开始就并不稳固。
(二)红线划定:军事用途的禁忌领域
随着合作逐步深入,Anthropic开始完善其技术可用边界的表述。公司领导层对外反复强调,禁止完全由人工智能驱动、无需人类最终决策的致命系统,禁止面向美国本土人口的大规模监控能力。Anthropic认为这两类高风险场景都违反了其对“负责任的人工智能”(Responsible AI)的定义。
Anthropic并未否认人工智能在军事体系中的广泛应用空间,也没有挑战美国国家安全机器本身的合法性,而是将争议集中压缩到两个政治敏感度极高的应用区间。Anthropic在回应国防部的声明中写道:“我们从未对任何具体的军事行动提出异议,也从未试图以任何临时性的方式限制我们技术的使用......公司强烈希望在两项保障措施到位的情况下,继续为国防部和美军服务。”这种沟通框架在硅谷与华盛顿之间的政策对话中并不罕见。它试图把一场可能演变为全面对抗的争议重新包装为边界管理问题。
Anthropic的论证路径还包括技术与伦理的混合论证:在技术维度,公司强调当前模型可靠性、可解释性与鲁棒性仍不足以支持完全自主武器系统;在伦理维度,公司反复提及企业对公民权利与民主社会的责任;在商业维度,公司始终没有关闭与军方继续合作的大门。而在五角大楼看来,一旦某项用途在法律与行政授权框架内被认定为合法,那么具体技术供应商是否认可该用途,本不应构成实质约束。

国防部长赫格塞思认为,在当前充满不确定、不稳定和界限模糊的地缘政治环境下,Anthropic的限制过于苛刻。赫格塞思于今年1月9日发布的一份备忘录指出,在未来的国防部人工智能服务合同中,应在180天内加入“任何合法用途”一词。 图源:彭博社
(三)坚守技术底线,但留有余地
面对五角大楼的施压,Anthropic于2月26日晚再度发文,重申不会接受其模型被用于大规模国内监控或完全自主武器,并表示,若国防部终止合作,Anthropic将协助实现向其他供应商的平稳过渡,“这些威胁不会改变我们的立场:我们不能昧着良心答应他们的要求。”
Anthropic的表态整体语气并不强硬,且明确表示公司愿意配合“合法的对外情报和反情报任务”,愿意将模型用于“建模与仿真、作战规划、网络作战”,承认“部分自主武器对于捍卫民主至关重要”。但这还是一个明确的拒绝,因此招来随后美国军政要员的强烈反弹。
其实声明中潜在的一个重要问题是:一条技术红线如果画在“对外监控”(external surveillance)与“对内监控”(domestic surveillance)之间,画在“部分自主”(partially autonomous weapons)与“全自主”(fully autonomous weapons)之间,这条线本身是否经得起推敲?
因此声明中对“大规模监控”的定义留下了许多可追问的空间。“大规模”(at massive scale)究竟以什么为标准?如果“大规模”国内监控“与民主价值观不符”,那么适度、小范围且出于国家安全而“必要”的监控是否是“民主国家”可以接受的?中央情报局在海外针对外国公民的监控,是否在Anthropic的许可范围内?如果一项技术被证明在海外行动中有效,它是否会不可逆转地向国内应用蔓延?
至于人工智能在武器中的应用,阿莫迪在声明中表示,即使是当今最先进、最强大的人工智能系统“也还不够可靠(simply not reliable enough),无法为完全自主的武器提供动力”。“可靠”仅仅是一个技术判断。原文提到,在乌克兰使用的那些部分自主武器对于捍卫民主至关重要,这似乎暗示了如果未来足够可靠(reliable enough),在“捍卫民主”的正当理由下,Anthropic也许可以接受完全自主武器。声明表示愿意与国防部合作“提高这些系统的可靠性”,但“他们拒绝了”。拒绝的原因是什么?是因为国防部不愿意接受附加条件,还是因为Anthropic要求保留某种形式的监督或审计权?如果是后者,那么争议的核心就不再是“全自主”本身,而是谁有权判断系统是否“足够可靠”。
Anthropic毕竟不像传统军工承包商那样完全服从任务逻辑,现实压力下,Anthropic变得身不由己。其一,能力竞赛显著提速。包括Google、OpenAI以及xAI在内的主要参与者均在加快模型扩展与部署节奏,单边放缓意味着技术话语权可能迅速流失。公司首席科学官贾利德·卡普兰(Jared Kaplan)亦公开表示,在竞争对手持续推进的情况下,单方面承诺放缓“并无意义”,并强调Anthropic仍致力于安全开发AI,但不愿在未降低系统性风险的前提下自我边缘化;其二,全球监管节奏明显滞后于技术扩散。公司早期寄望以自律触发行业“向上竞赛”的设想并未兑现,缺乏同步制度环境使得维持高护栏的边际成本持续上升;其三,风险评估本身遭遇方法论困境。随着模型能力逼近通用智能边界,许多所谓红线风险不再呈现清晰阈值,而转为连续谱分布,削弱了基于明确触发点的治理设计。
二、政府的强硬表态
当地时间2月27日下午,特朗普在社交媒体撰文指示所有联邦机构停止使用Anthropic的技术,并抨击后者为“失控的、激进左翼的人工智能公司”。“我们不需要它,不想要它,也绝不会再与他们做生意!对于国防部等正在不同层级使用Anthropic产品的机构,将有六个月的过渡期。Anthropic最好在过渡期内配合行动,否则我将动用总统的全部权力迫使他们服从,并追究其重大民事和刑事责任。”两个多小时后,赫格塞思亦发帖回应配合此次“脱钩”。“他们披着有效利他主义的伪善外衣,试图胁迫美军屈服——这是一种懦弱的企业作秀行为,将硅谷意识形态置于美国人的生命之上”“Anthropic的立场从根本上与美国原则相悖。因此,他们与美国武装部队及联邦政府的关系已被永久改变。”
特朗普政府的国防体系致力于减少外部依赖的不确定性,并将关键能力重新纳入可控边界之内。在这一视角下,人工智能不再只是提升效率的工具,而逐渐被视为与通信、导航、加密同等级别的关键作战基础设施。鉴于此,特朗普系统认为企业护栏应“顾全大局”,伦理设计作为潜在的战时约束机制应当让步于战争决策本身。因此赫格塞思才会在帖文中称“服务条款永远不能凌驾于战场上美军的安全、战备状态与生命之上。他们的真实目的昭然若揭:企图攫取对美军作战决策的否决权。这是不可接受的。”

2025年1月,特朗普上台初便推出“星际之门”(Stargate)计划,以OpenAI、软银和Oracle为核心,规划数千亿美元级数据中心网络,将算力基础设施视为国家战略资源。五角大楼高级计算副主任罗伊·坎贝尔(Roy Campbell)表示,“星际之门”计划将为人工智能驱动的网络安全、情报行动和军事应用提供支持,使美国在对抗中国、俄罗斯和伊朗等国家时拥有重大优势。 图源:盖蒂图片社
(一)护栏与决策权外包
军方关切的焦点集中在三个问题上:谁拥有“合法用途”的最终解释权;谁能够在危机时刻限制、降级或关闭模型能力;私营公司是否可能在国内外政治压力下单方面改变服务政策。
在五角大楼的风险评估语境中,这些问题无一不指向任务连续性。从这一视角出发,如果商用人工智能公司保留用途裁量权,那么军方在某些情境下可能无法按需调用能力;如果公司基于伦理或舆论压力调整政策,作战系统可能出现突发性能力退化;如果公司试图审计具体用例,可能触及高度机密的作战流程。在赫格塞思等高层看来,一旦人工智能成为战术决策辅助甚至作战编排的一部分,那么任何由商业实体保留的用途开关都将限制指挥效率。这种架构在平时尚可容忍,在危机或冲突情境下则成了不可接受的风险。在五角大楼谈话时,赫格塞思以飞机的案例告诉阿莫迪,当美国政府采购波音公司的飞机时,波音公司无权干涉五角大楼如何使用这些飞机。军方使用人工智能产品时也应如此。
(二)谈判筹码和替代方案可行性有限
国防部此次对Anthropic施压是留有后手的。比如,军方可以引入更务实的合作伙伴,欢迎其它既有大模型巨头入局,甚至推进更可控的定制化人工智能能力栈。
但是,如果Claude真的可以被轻松替换,五角大楼为何还要如此施加压力,Anthropic为何还要冒着被逐出市场的风险坚持这两条红线?正如Anthropic回应声明提到的那样,五角大楼的两个威胁自相矛盾:一边将Anthropic列为“供应链风险”,试图切断合作;一边援引《国防生产法》,试图强制合作。这种矛盾恰恰反映了国防体系的两难处境:它既无法接受一家保留否决权的供应商,又无法承受失去Claude的代价。一位熟悉谈判情况但不愿透露姓名的人士表示,早在几个月前(当时还没有发生抓捕马杜罗的行动),Anthropic和五角大楼之间的关系已日趋紧张,但五角大楼此前依然维持了双方的合作。
即便内部评估仍认为Claude在若干高复杂度任务上保持优势,五角大楼也已具备足够筹码重新界定合作关系。因此,“供应链风险”标签的出现具有鲜明的策略含义,它既是正式的风险分类工具,也是谈判语言升级的信号,意味着争议已从合同层面上升至国家安全层级的重大关切,对整个大模型行业起到了杀鸡儆猴的威慑。至于动用《国防生产法》的威胁,更像是一种象征性的施压信号。
退役空军将领、五角大楼联合人工智能中心创始主任杰克·沙纳汉(Jack Shanahan)指出五角大楼现阶段还相当依赖Claude:“国防部长办公室(MSS)就在使用 Claude,你找不到任何一个在军方应用范围更广、深度更深的系统。如果禁用 Claude,首先受损的就是国防部长办公室,更不用说 Claude Code 在其他诸多关键场景中的应用了。”沙纳汉进一步还认为,这场冲突本该低调处理,而政府的做法并不理智,也缺乏建设性。“把矛头对准 Anthropic 或许能博眼球,但最终只会是双输。为何不共同探讨需要建立何种新的治理机制,以确保所有公司的前沿模型都能被安全、可靠、可预测地使用?”
特朗普政府对硅谷的敲打还具有一定的意识形态意味。特朗普称,Anthropic是一家激进左翼、觉醒主义的公司,“根本不懂现实世界”。这种对立叙事客观上有助于巩固保守派基本盘,使政府对科技公司的监管正当化,为后续强制措施铺垫舆论合法性。参议院情报委员会首席民主党议员、弗吉尼亚州参议员马克·沃纳(Mark Warner)质疑道,“人们严重担忧国家安全决策是由谨慎分析还是政治考量驱动的。”
这场争执也蔓延到硅谷。Anthropic的主要竞争对手OpenAI和Google的大量员工都在公开信和其他论坛上表示支持阿莫迪的立场。Google并不是第一次受到来自内部的、呼吁抵抗政治压力的声音。2017年底至2018年初,Google秘密与五角大楼签署了一项名为“Maven计划”的合同。该项目旨在利用Google的机器学习和人工智能算法,帮助军方分析无人机拍摄的海量监控视频,以提高自动目标识别和打击的效率。当这一内部消息在2018年3月向员工公布时,立刻引发了轩然大波。
彼时,约4000名谷歌员工联名向Google领导层提交了一封公开信,其核心诉求是一句著名的口号:“谷歌不应涉足战争业务 (Google should not be in the business of war)”。伴随着研究人员的强烈不满,以及一批高级工程师与研究员的离职抗议,最终Google领导层选择妥协,宣布不再在2019年合同到期后续约。
这次站在大模型发展速度越来越的时间节点上,技术与政治交错的互动模式正在产生剧变。掌控xAI的埃隆·马斯克(Elon Musk)则在社交媒体上拥护特朗普,称“Anthropic憎恨西方文明”。OpenAI首席执行官萨姆·奥特曼(Sam Altman)显得更加“老练”,OpenAI并未和军方撕破脸面。虽然奥特曼本人在接受CNBC采访和致员工的一封信中一方面担忧五角大楼的威胁,称OpenAI也认同同样的底线,但OpenAI已经在和五角大楼探讨一套更加灵活的合同方案。

xAI公司已经与五角大楼签订了一份价值2亿美元的合同,将xAI的技术集成到军事系统中。值得注意的是,马斯克此前曾主张禁止人工智能自行选择和攻击目标,并在不受人类有效控制的情况下运行进攻性自主武器。 图源:彭博社
三、大模型时代军方与科技公司的关系
冷战结束后的三十余年间,美国国防技术生态经历了一场静默的转型。以往由军工体系内部主导的研发、生产、部署闭环被逐步拆解、外包、市场化。从早期的软件系统外包,到商业卫星的采购使用,再到云计算与大数据分析平台的引入,五角大楼事实上已经建立起对私营部门创新体系的高度依赖。
这套模式曾带来效率与灵活性的提升,也让国防体系得以持续接入民用技术的前沿浪潮。但这种依赖始终伴随着一种潜在的焦虑:当能力来源掌握在商业公司手中,而使用责任落在国家安全体系肩上,控制权究竟归属何处,从来没有被真正回答过。
在大模型时代,这一焦虑更加明显。与传统武器系统不同,前沿生成式人工智能具备几项使军方难以内生复制的关键特征。其一,算力、算法工程与顶尖研究人才高度集中于少数头部公司。OpenAI、Anthropic、Google、xAI背后是数千亿美元市值、数万颗GPU集群、以及全球最密集的机器学习博士密度。国防体系内部的实验室无法匹敌这种资源集中度。其二,模型性能的提升高度依赖商业规模的数据飞轮与持续巨额资本投入。每一次模型迭代,背后都是数亿美元的算力成本和数千万条人类反馈数据。这种烧钱、迭代、再融资的节奏与传统军工预算的年度周期、项目制管理、合规审查流程并不同步。其三,技术进步呈指数型加速,而国防体系的采购、测试与认证流程仍以线性节奏运转。一个模型从发布到迭代可能只需要几个月,而一套军用系统的安全认证周期可能长达数年。当技术跑在制度前面,能力的引入就必然伴随着风险敞口。
这三项特征共同塑造了一种新的不对称结构:能力来源在商业部门,使用责任在国家安全体系,而实际控制权却落在两者之间的灰色区域。五角大楼既离不开这些公司,又难以完全信任其长期可控性。这在历史上并非没有先例。冷战时期的半导体产业、九十年代的信息技术外包,都曾面临类似的博弈。但这一次,被外包的不再是某个可边界化的子系统,而是正在逼近认知、决策乃至指挥辅助层的通用能力基础设施。当人工智能开始介入“看什么情报”“怎么定目标”“何时做决策”这些核心环节,控制权问题就不再是合同条款的细枝末节,而是国家安全体系必须正面回应的命题。
如果说军方面临的是控制权焦虑,那么Anthropic所承受的则是规范承诺与技术可验证能力之间日益扩大的难题。在公开叙事层面,公司可以相对清晰地划定用途边界。阿莫迪的两条红线是Anthropic品牌信誉与政策合法性的核心资产。但在真实的军用技术栈里,这些红线很难被干净利落地执行。
嵌入复杂系统后,大模型的可观察边界会迅速收缩。模型提供方通常只能看到输入与输出接口,却难以掌握下游如何被二次集成,更无法完整追踪最终决策链条。当Claude经由Palantir这类系统集成商进入更大的情报或作战体系后,这种可见性断层会显著放大。模型在技术上是“通用能力”,但在组织流程中却被切割为多层模块,责任与控制随之碎片化。
回应声明同一天,Anthropic公司的一位发言人补充说,虽然Anthropic在周三晚上收到了国防部关于其合同的更新措辞,但这实际上并没有取得任何进展”。她说:“被包装成妥协的新措辞与一些法律术语并用,而这些法律术语将允许随意无视那些保障措施。”
Anthropic的困境大致分为三类。一是承诺压力。一旦在军方压力下松动红线,Anthropic将面临显著声誉与信任成本;二是应用可预见性有限。在情报辅助、作战支持和决策建议日益模糊的功能区间,公司难以从接口层面准确判定模型是否越界使用;三是责任不可外包。即便争议用途发生在系统末端,舆论与监管首先追责的仍是模型源头而非集成方。这种风险与控制的不对称使Anthropic在国家安全合作中始终处于天然脆弱的位置。
知情人士透露,为准备将Anthropic列为供应链风险,五角大楼官员最近几天联系了包括洛克希德-马丁公司(Lockheed Martin Space Systems Company)和波音在内的国防承包商,以评估他们使用Claude的程度。负责研究与工程的国防部副部长埃米尔·迈克尔(Emil Michael)在社交媒体X上指出,根据《第四修正案》,大规模监控已属非法。迈克尔认为阿莫迪“一心只想亲自控制美国军队,并且不惜将我们国家的安全置于危险之中”,称国防部不会让任何大型科技公司来决定美国人的公民自由。他还在接受采访时强调,“在某种程度上,你必须相信你的军队会做正确的事。”
如果在国家安全市场被边缘化,Anthropic可能在三类关键资源线上受损。其一是长期算力与稳定资金来源。军方合同不仅是收入,更是支撑巨额算力支出的重要背书;其二是高价值应用场景的数据回流。没有真实场景的反馈,模型能力的迭代节奏将放缓;其三是华盛顿政策生态中的话语权。一旦被排除在核心对话之外,公司在未来监管框架塑造中的影响力将大幅削弱。因此,公司同样缺乏轻易退出合作的战略空间。
政府全面禁用Anthropic可能造成风声鹤唳的后果。整个产业界都在观察政府的强硬表态。白宫实际上在向所有前沿模型公司释放一个明确信号:如果你试图对军方用途指指点点,政府有能力把你快速“安全化”。白宫前科学技术政策办公室人工智能与新兴技术高级政策顾问、未来人工智能研究所(FAI)的高级研究员迪恩·鲍尔(Dean Ball)认为,“如果赫格塞思得逞,英伟达、亚马逊、谷歌将不得不从Anthropic撤资。这简直就是企图谋杀企业。”
华盛顿的表态将深刻影响大模型时代军方与科技公司的关系,未来,要么企业逐步妥协并拥护暴力机关,要么国防体系加速自研与定制模型,或形成严格分层的军民人工智能体系。结果是,双方实际上进入一场非对称时间赛跑。军方希望尽快锁定完全可控的能力供应,以减少未来冲突情境下的不确定性;业界则试图在不牺牲安全护栏与品牌定位的前提下,维持原先的合作关系。渐进式协商的缓冲带逐渐被压缩,谈判语言由技术接口、安全协议、用途审计等具体议题日益滑向法律工具、供应链风险分类、国家安全豁免框架等更具强制力的制度话语。
短期看,双方重修旧好、打破僵局依然存在足够的想象空间:例如,对模型进行分级部署——在涉密作战系统中使用一个“特制版”Claude,该版本在架构层面就剔除了某些功能模块,从而使Anthropic可以声称其“红线”未被触碰,而五角大楼则获得了一个不受外部伦理审查掣肘的能力。这种技术性切割既能保全双方的面子,也能维持合作。再比如,五角大楼口头上认为Claude有“供应链风险”,但在实际操作层面,通过第三方集成商或分拆合同的方式,允许Claude出现在某些并非核心但实际敏感的任务中。
但中长期而言,围绕谁有权为人工智能设限的争议很难迅速消散。随着模型能力继续提升、作战链条进一步算法化,类似摩擦大概率还会反复出现,并逐渐从个别公司争议演变为更广泛的人工智能安全治理议题。