从ClaudeCode到政治行动委员会:Anthropic的决策链路深度拆解

2024年初,Anthropic还是AI安全领域的标杆企业。彼时公司高管频繁出现在国会听证席上,以技术理性的姿态阐述AI治理框架。那时候业内对这家公司的定位是:最接近OpenAI的技术能力,最远离政治博弈的行事风格。 从Claude Code到政治行动委员会:Anthropic的决策链路深度拆解 IT技术

转折点:五角大楼供应链危机

2025年初,美国国防部将Anthropic列入供应链风险名单。这个认定意味着什么?企业不仅失去当前军事合同竞标资格,更被排除在未来数年的政府采购池之外。Palantir在政府合同中的收入占比长期超过50%,单一项目金额可达数亿美元。Anthropic面对的损失规模可以类比。 从Claude Code到政治行动委员会:Anthropic的决策链路深度拆解 IT技术

冲突根源在于两条不可调和的红线:Anthropic拒绝将Claude用于大规模监控美国人,拒绝支持完全自主武器系统;国防部则坚持AI可用于任何合法军事用途。谈判破裂后,Anthropic于3月9日在加州和华盛顿两地提起诉讼,指控政府认定违法且带有政治报复性质。 从Claude Code到政治行动委员会:Anthropic的决策链路深度拆解 IT技术

新模型泄露:能力跃升背后的安全悖论

就在与政府关系最紧张的窗口期,Anthropic因内容管理系统配置失误,意外泄露了内部代号ClaudeMythos(又称Capybara)的新模型文档。泄露文件明确标注:这是公司迄今最强的系统。

技术参数层面,Capybara在推理、编码、网络安全三个维度均显著超越ClaudeOpus4.6。更值得关注的细节在于:泄露文档披露该模型在网络安全能力上“远超”现有系统,可能被用于大规模自动化漏洞利用。Anthropic因此决定首批仅向网络安全防御机构开放早期访问。

这个决策印证了Anthropic对模型安全性的真实顾虑。当新一代模型能力边界持续扩展,应用风险已经从理论推断变为可量化的技术现实。

PAC成立:资金通道的制度逻辑

美国法律明确禁止企业直接使用公司账户向候选人捐款。科技行业的通行解法是:由员工自愿出资,企业负责组织运营,形成企业PAC。这种机构的核心优势在于可跨选举周期持续运作,并可根据国会委员会动态、法案进展灵活调整支持对象。

Anthropic本次成立的AnthroPAC,签字人为财务主管AllisonRossi,计划在2026年中期选举中支持两党候选人,资金来源为员工自愿捐款,年上限5000美元每人。这与今年2月向PublicFirstAction捐赠的2000万美元性质不同:前者属于501(c)(4)组织,可进行政策倡议和选举动员;后者是企业PAC,可直接向候选人提供竞选资金。

竞争格局:AI选举资金已超1.85亿美元

Anthropic并非孤例。超级PAC“LeadingtheFuture”已扩大至1.25亿美元规模,重点支持AI发展和算力基础设施候选人;“InnovationCouncilAction”准备投入超过1亿美元,聚焦数据中心建设和联邦监管框架。

资金效果已经显现。统计数据显示,获得AI相关资金支持的20场选举中,19场候选人成功晋级或当选,胜率95%。当模型能力成为地缘政治变量,谁能进入决策层,谁就能定义下一轮AI规则的边界。

Anthropic的选择很清晰:在规则制定权转移之前,先把自己的人脉和资金通道部署到位。这不是情怀,这是商业逻辑的必然推演。