简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 他把AI模型卖给美军,如今却害怕成为“末日博士”

他把AI模型卖给美军,如今却害怕成为“末日博士”

文章来源: 环球人物杂志· 于 2026-03-06 06:36:30 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数



美以对伊朗的军事行动已持续数日,一则新闻再次吸引了全球的目光。

据《华尔街日报》报道,美军在对伊朗的大规模轰炸行动中,用上了美国AI公司Anthropic旗下的大语言模型克劳德(Claude)。

知情人士证实,包括美国中央司令部在内的全球各司令部,都在使用Anthropic的AI工具。对此,英国《卫报》称,“这是危险的转折点” 。

这已不是AI第一次走上战场。今年1月美军抓捕委内瑞拉总统马杜罗时,克劳德就已被用于军事行动。而这也引发了美国政府与Anthropic之间持续数月的争执——关于五角大楼究竟该如何使用AI模型。

而站在风暴中心的,是Anthropic创始人兼首席执行官达里奥·阿莫迪。

当导弹能像人一样思考

据《华尔街日报》报道,克劳德主要服务于指挥部门,承担情报分析、目标识别以及战斗场景模拟等任务。

Anthropic与美军的合作始于2024年11月。同一时期,美国数据分析公司Palantir和亚马逊网络服务也开始为美军提供技术支持。

据《华盛顿邮报》报道,由Palantir开发的军方“梅文智能系统”,能从卫星、监控及其他情报来源的数据中提取关键信息。而被集成进这套系统的克劳德模型,则负责对敏感情报进行分析处理。目前,克劳德已成为美军许多部门使用的日常工具。

对美军而言,AI带来的最大改变,是战争节奏本身。《战争律师》一书的作者克雷格·琼斯在接受英国《卫报》的采访时提到,在一战和越南战争期间,美军从空中侦察到执行轰炸任务通常需要6个月。但现在,整个周期已经被AI大幅压缩。“AI系统会给出打击目标的建议,速度远超人类思维。”

新美国安全中心执行副总裁保罗·沙雷则向路透社介绍,对美军而言,AI已经从理论假设走向真实战场。“这让美军能够以机器速度,而非人类速度来制定打击方案。”

在此次对伊军事行动中,以军也用上了AI技术。其使用的新型空对地巡航导弹“破冰者”,深度融合了AI算法。它能像人一样思考,自主规划飞行路径,精准辨别目标,甚至可以在空中与其他导弹实时沟通、分工协作。

此外,据《财富》杂志报道,AI目前也出现在了其他战场上。以色列在巴以冲突期间曾利用AI识别哈马斯目标。而在俄乌冲突中,自主化无人机已经投入使用,俄罗斯和乌克兰都采用了不同形式的自主技术。

对于AI介入军事行动,外界普遍感到不安。以色列《耶路撒冷邮报》评价,将大语言模型融入战争,标志着现代战争的重大转变,“最初用于编写代码和诗歌的工具,如今已成为致命的武力”。

“要么配合,要么出局”

在此次美以对伊朗的军事行动中,Anthropic公司的AI模型扮演了关键角色。然而颇具戏剧性的是,就在空袭开始前几个小时,这家公司刚刚被美国国防部和特朗普双双“拉黑”。

据英国广播公司报道,Anthropic与美国当局的紧张关系“可以追溯到几个月前”。

今年1月,美军在抓捕委内瑞拉总统马杜罗的突袭行动中,使用了克劳德模型。Anthropic随后提出反对,声明其使用条款明确禁止将AI用于暴力目的、武器研发或监控活动。此后双方关系持续恶化,开始了长达数周的谈判。

据美国有线电视新闻网报道,谈判中Anthropic在两个问题上寸步不让:一是AI控制武器,二是AI对美国公民的大规模监控。他们认为,AI目前还不足以可靠地操控武器,而且也无法律规范大规模监控的行为。

面对Anthropic的坚持,美国国防部长赫格塞斯下了最后通牒。

当地时间2月24日,他与阿莫迪会面,要求对方放宽AI模型的安全限制,并给出了最后期限:2月27日前,美军必须获得克劳德模型的无限制使用权,否则公司将被列入政府“供应链风险”黑名单。进入黑名单意味着,所有签有军事合同的公司,此后不得在任何军事工作中使用Anthropic的产品。

26日,阿莫迪公开发文,表明立场不变。“即便是当今最先进、最强大的AI系统,其可靠性也不足以支撑完全自主武器的运作。”他在文中写道,“我们不能昧着良心答应美军的要求”。

阿莫迪发文不久后,五角大楼给出了回应。一名美国国防部官员对媒体表示,Anthropic必须做出选择,“要么配合,要么出局”,否则国防部将强制使用克劳德模型,无论Anthropic是否愿意。

紧接着,特朗普下令所有联邦机构立即停用克劳德。他还在真实社交(特朗普于2021年自创的社交媒体平台)上痛批Anthropic,称其为“由一群不懂现实世界的人运营的左翼疯子公司”。

几小时后,美军战机从部署在中东的“林肯号”和“福特号”航母以及海外军事基地起飞,与以色列空军一起,向伊朗发动了大规模空袭。

“技术的青春期”

Anthropic刚被踢出局,竞争对手立刻补上了空缺。特朗普禁令发布几小时后,美国AI公司OpenAI就与五角大楼达成协议,开始向机密系统提供AI技术。

与美国当局“硬刚”的阿莫迪,实际上与OpenAI的渊源颇深。

阿莫迪出生于1983年,本科毕业于美国斯坦福大学物理学专业,后取得美国普林斯顿大学生物物理学博士学位。毕业后,他曾在百度硅谷AI实验室工作,后加入谷歌从事语音识别研究。

2016年,他加入OpenAI,一路做到研究副总裁,主导开发了GPT-2和GPT-3大语言模型。然而在2021年,他与OpenAI创始人萨姆·奥特曼在AI安全理念及商业化方向上产生了分歧。

此后,阿莫迪带着包括妹妹丹妮拉·阿莫迪在内的十多名公司核心成员离职,创办了Anthropic,并推出克劳德系列模型。

离开OpenAI后,阿莫迪与奥特曼的分歧并未消解。就在今年年初,他与奥特曼在新德里的一场AI峰会上同台,但彼此拒绝握手、没有眼神交流。他曾在播客里直言,“不相信奥特曼能让AI不走弯路”。

两人最大的分歧,还是在于对AI安全的担忧。今年1月,阿莫迪在题为《技术的青春期:直面并克服强大AI的风险》文章中警告“AI海啸将至”,但社会远未准备好。他认为,当“智力、工具规模、时间优势”叠加,AI将是一个会重写安全、经济与权力结构的变量。他担心,一旦强大的AI被大型组织掌控,将对外形成压倒性优势,带来不可预估的后果。

然而也有观点指出,阿莫迪的AI恐惧论实际上是刻意利用科技伦理问题,打压竞争对手。

今年2月,阿莫迪曾公开指控DeepSeek等三家中国AI企业发动“工业级蒸馏攻击”,“抽取”克劳德模型能力。但在AI领域,“蒸馏”本就是将大参数模型迁移到小模型的常用技术,类似于模仿学习,而非抄袭。而阿莫迪此番发言却把这一技术污名化,试图抹黑中国同行。

从这个角度看,阿莫迪似乎并非单纯追求AI的正确发展,而是在争夺谁有做AI的权利。正如普利策奖得主、国家安全记者斯宾塞·阿克曼所指出的,阿莫迪在最初与美国军方签订协议时就忽略了科技伦理问题。阿克曼批评道:“当你收了末日博士(漫画中的反派角色)的钱,给他制造零件时,你难道不知道他要造的就是末日机器人吗?”

  • 春季特大酬宾!美国专利产品【骨精华】买6送2、买12送5!六周改善关节疼痛,延缓骨质疏松。
查看评论(5)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

特朗普女发言人与记者吵起来,被问这个问题时暴怒
哈梅内伊儿子因阳痿接受治疗?曾发生两次“临时”婚姻
第一批玩OpenClaw的人,已经开始清醒了
一文读懂GPT-5.4 打个招呼80美元就烧完了
特朗普解雇“芭比”部长,广告合同高达数百万




24小时讨论排行

美签遭亲戚小孩涂鸦 男子无法登机 怒揭熊孩黑历史
文学城记者目击华裔青年旧金山街头遭歹徒背刺命危
“是我们要求美国攻击的” 伊朗女子遗言看哭全网
全国政协委员建议:继续简化240小时过境免签条件
伊朗为了活下去,把世界拖入战场
当认知被立场绑架,美伊战争成了照妖镜
忽视法律信件 贝克汉姆大儿计划出书爆料原生家庭
美国前国务卿布林肯:特朗普明天就可以宣布胜利
婚后不改口,年轻人开始“断亲式”婚姻
复仇的决心:伊朗“非对称作战”搅动中东
为什么要提高农民的养老金,因为“这个土地不养人”
你一命换四命,你爸讨烈士被警方罚款200元
冯小刚夫妇现身洛杉矶 开特斯拉当司机 逛华人超市…
特习会前博弈升级:华盛顿施压北京转买美国能源
打击伊朗,AI怎么就默默成了帮凶的?
在日留学生亲述遭遇“撞人族”:他们专挑玩手机的人
文学城新闻
切换到网页版

他把AI模型卖给美军,如今却害怕成为“末日博士”

环球人物杂志· 2026-03-06 06:36:30



美以对伊朗的军事行动已持续数日,一则新闻再次吸引了全球的目光。

据《华尔街日报》报道,美军在对伊朗的大规模轰炸行动中,用上了美国AI公司Anthropic旗下的大语言模型克劳德(Claude)。

知情人士证实,包括美国中央司令部在内的全球各司令部,都在使用Anthropic的AI工具。对此,英国《卫报》称,“这是危险的转折点” 。

这已不是AI第一次走上战场。今年1月美军抓捕委内瑞拉总统马杜罗时,克劳德就已被用于军事行动。而这也引发了美国政府与Anthropic之间持续数月的争执——关于五角大楼究竟该如何使用AI模型。

而站在风暴中心的,是Anthropic创始人兼首席执行官达里奥·阿莫迪。

当导弹能像人一样思考

据《华尔街日报》报道,克劳德主要服务于指挥部门,承担情报分析、目标识别以及战斗场景模拟等任务。

Anthropic与美军的合作始于2024年11月。同一时期,美国数据分析公司Palantir和亚马逊网络服务也开始为美军提供技术支持。

据《华盛顿邮报》报道,由Palantir开发的军方“梅文智能系统”,能从卫星、监控及其他情报来源的数据中提取关键信息。而被集成进这套系统的克劳德模型,则负责对敏感情报进行分析处理。目前,克劳德已成为美军许多部门使用的日常工具。

对美军而言,AI带来的最大改变,是战争节奏本身。《战争律师》一书的作者克雷格·琼斯在接受英国《卫报》的采访时提到,在一战和越南战争期间,美军从空中侦察到执行轰炸任务通常需要6个月。但现在,整个周期已经被AI大幅压缩。“AI系统会给出打击目标的建议,速度远超人类思维。”

新美国安全中心执行副总裁保罗·沙雷则向路透社介绍,对美军而言,AI已经从理论假设走向真实战场。“这让美军能够以机器速度,而非人类速度来制定打击方案。”

在此次对伊军事行动中,以军也用上了AI技术。其使用的新型空对地巡航导弹“破冰者”,深度融合了AI算法。它能像人一样思考,自主规划飞行路径,精准辨别目标,甚至可以在空中与其他导弹实时沟通、分工协作。

此外,据《财富》杂志报道,AI目前也出现在了其他战场上。以色列在巴以冲突期间曾利用AI识别哈马斯目标。而在俄乌冲突中,自主化无人机已经投入使用,俄罗斯和乌克兰都采用了不同形式的自主技术。

对于AI介入军事行动,外界普遍感到不安。以色列《耶路撒冷邮报》评价,将大语言模型融入战争,标志着现代战争的重大转变,“最初用于编写代码和诗歌的工具,如今已成为致命的武力”。

“要么配合,要么出局”

在此次美以对伊朗的军事行动中,Anthropic公司的AI模型扮演了关键角色。然而颇具戏剧性的是,就在空袭开始前几个小时,这家公司刚刚被美国国防部和特朗普双双“拉黑”。

据英国广播公司报道,Anthropic与美国当局的紧张关系“可以追溯到几个月前”。

今年1月,美军在抓捕委内瑞拉总统马杜罗的突袭行动中,使用了克劳德模型。Anthropic随后提出反对,声明其使用条款明确禁止将AI用于暴力目的、武器研发或监控活动。此后双方关系持续恶化,开始了长达数周的谈判。

据美国有线电视新闻网报道,谈判中Anthropic在两个问题上寸步不让:一是AI控制武器,二是AI对美国公民的大规模监控。他们认为,AI目前还不足以可靠地操控武器,而且也无法律规范大规模监控的行为。

面对Anthropic的坚持,美国国防部长赫格塞斯下了最后通牒。

当地时间2月24日,他与阿莫迪会面,要求对方放宽AI模型的安全限制,并给出了最后期限:2月27日前,美军必须获得克劳德模型的无限制使用权,否则公司将被列入政府“供应链风险”黑名单。进入黑名单意味着,所有签有军事合同的公司,此后不得在任何军事工作中使用Anthropic的产品。

26日,阿莫迪公开发文,表明立场不变。“即便是当今最先进、最强大的AI系统,其可靠性也不足以支撑完全自主武器的运作。”他在文中写道,“我们不能昧着良心答应美军的要求”。

阿莫迪发文不久后,五角大楼给出了回应。一名美国国防部官员对媒体表示,Anthropic必须做出选择,“要么配合,要么出局”,否则国防部将强制使用克劳德模型,无论Anthropic是否愿意。

紧接着,特朗普下令所有联邦机构立即停用克劳德。他还在真实社交(特朗普于2021年自创的社交媒体平台)上痛批Anthropic,称其为“由一群不懂现实世界的人运营的左翼疯子公司”。

几小时后,美军战机从部署在中东的“林肯号”和“福特号”航母以及海外军事基地起飞,与以色列空军一起,向伊朗发动了大规模空袭。

“技术的青春期”

Anthropic刚被踢出局,竞争对手立刻补上了空缺。特朗普禁令发布几小时后,美国AI公司OpenAI就与五角大楼达成协议,开始向机密系统提供AI技术。

与美国当局“硬刚”的阿莫迪,实际上与OpenAI的渊源颇深。

阿莫迪出生于1983年,本科毕业于美国斯坦福大学物理学专业,后取得美国普林斯顿大学生物物理学博士学位。毕业后,他曾在百度硅谷AI实验室工作,后加入谷歌从事语音识别研究。

2016年,他加入OpenAI,一路做到研究副总裁,主导开发了GPT-2和GPT-3大语言模型。然而在2021年,他与OpenAI创始人萨姆·奥特曼在AI安全理念及商业化方向上产生了分歧。

此后,阿莫迪带着包括妹妹丹妮拉·阿莫迪在内的十多名公司核心成员离职,创办了Anthropic,并推出克劳德系列模型。

离开OpenAI后,阿莫迪与奥特曼的分歧并未消解。就在今年年初,他与奥特曼在新德里的一场AI峰会上同台,但彼此拒绝握手、没有眼神交流。他曾在播客里直言,“不相信奥特曼能让AI不走弯路”。

两人最大的分歧,还是在于对AI安全的担忧。今年1月,阿莫迪在题为《技术的青春期:直面并克服强大AI的风险》文章中警告“AI海啸将至”,但社会远未准备好。他认为,当“智力、工具规模、时间优势”叠加,AI将是一个会重写安全、经济与权力结构的变量。他担心,一旦强大的AI被大型组织掌控,将对外形成压倒性优势,带来不可预估的后果。

然而也有观点指出,阿莫迪的AI恐惧论实际上是刻意利用科技伦理问题,打压竞争对手。

今年2月,阿莫迪曾公开指控DeepSeek等三家中国AI企业发动“工业级蒸馏攻击”,“抽取”克劳德模型能力。但在AI领域,“蒸馏”本就是将大参数模型迁移到小模型的常用技术,类似于模仿学习,而非抄袭。而阿莫迪此番发言却把这一技术污名化,试图抹黑中国同行。

从这个角度看,阿莫迪似乎并非单纯追求AI的正确发展,而是在争夺谁有做AI的权利。正如普利策奖得主、国家安全记者斯宾塞·阿克曼所指出的,阿莫迪在最初与美国军方签订协议时就忽略了科技伦理问题。阿克曼批评道:“当你收了末日博士(漫画中的反派角色)的钱,给他制造零件时,你难道不知道他要造的就是末日机器人吗?”