
美军被曝在委内瑞拉行动中使用AI模型,军事AI化引关注
这事儿听着像科幻片,但发生在真实世界。
2月13号,《华尔街日报》和Axios同时爆了个料:美军1月3号强行控制委内瑞拉总统马杜罗那场行动里,用了Anthropic的Claude模型 。轰炸加拉加斯、把人弄出境,整个流程背后有AI在跑。
消息一出,舆论炸了。
Anthropic的尴尬处境
这事儿最尴尬的,是Anthropic自己。
这家公司一直以“安全至上”自居,CEO达里奥·阿莫代伊没少公开喊话,要加强对AI的监管、要防止技术被用到武器上 。他们的使用政策写得清楚:禁止Claude用于“促成暴力、研发武器或实施监控” 。
结果呢?自家产品被用在了军事行动里。
知情人士说,Claude是通过Anthropic跟Palantir的合作部署到军方机密平台的。Palantir那套东西,国防部、执法机构都在用,一搭上线,Claude就进了机密系统 。
事后Anthropic员工还专门去问Palantir那边的人:我们东西到底用没用?
五角大楼的态度:打仗要紧
五角大楼那边态度挺直接。
国防部长赫格塞思1月就放过话:国防部不会用“那些不让你打仗的AI模型” 。这话基本就是冲着Anthropic这种“有顾虑”的公司去的。
五角大楼想要的很简单:法律允许的场景里,AI模型想用就用。他们正在跟几家头部AI公司谈,要把这些工具放到机密网络上,而且不能有太多限制 。
现在Anthropic是唯一一家能通过第三方在机密系统里跑的,但政府那边不爽的是,他们还得受制于Anthropic的使用政策 。
有政府官员直接说,如果Anthropic不配合,那2亿美元的合同可能就黄了 。这句话的意思是:你不让我打仗,那我也不用你的东西。
更大的趋势:AI正在进战场
这事儿不是孤例。
以色列在加沙已经在用自主作战无人机,用AI建目标数据库 。美军之前在伊拉克、叙利亚的空袭里也用过AI做目标定位 。五角大楼正在把AI往里塞,从分析文档到生成报告,再到最敏感的作战通信,都在试 。
Anthropic现在是唯一一个能进美军机密系统的,但OpenAI、谷歌、xAI也都跟军方签了协议,只不过还跑在非机密网络上 。
脑渊AI科技观察
这事儿有意思的地方,不是“AI被用在军事行动”这个事实,而是背后那场冲突——商业伦理和国家安全的对冲。
Anthropic从成立那天起,打的就是“安全牌”。CEO满世界演讲,说要防范AI风险、要加强监管,把自己架在道德高地上。结果自家产品真被用去打仗了,那些漂亮话瞬间变得苍白。
但换个角度,五角大楼那套逻辑也没错。打仗这种事儿,本来就是法律允许的极端场景。你要是真担心AI被用坏,要么就别接军方的单,要么就别假装自己能管住。
现在两边互相僵着——Anthropic想守住“不用来杀人”的底线,五角大楼想要“任何时候都能用”的自由。
这场拉锯的结局,可能会定义AI时代的军工关系。是科技公司守住了伦理红线,还是国家机器拿到了所有权限,等着看吧。
至于2亿美元的合同会不会黄?我觉得最后大概率还是黄不了,毕竟钱太多了,而且“独家进机密系统”这个位置,战略价值太大。但Anthropic想再立“道德标兵”人设,怕是难了。
部分回答由 AI 生成专业配资炒股,内容仅供参考,请仔细甄别。
尚红配资提示:文章来自网络,不代表本站观点。