简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » AI战场识别漏洞频出 以军曾将3600人误判为目标

AI战场识别漏洞频出 以军曾将3600人误判为目标

文章来源: 天下事 于 2026-03-05 07:37:57 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数



美军在对伊朗的军事打击中首次披露使用AI辅助决策,而类似技术在加沙冲突中已被证实存在10%误判率。

彭博社3月5日报道,能够帮你起草营销邮件或晚餐食谱的同一个人工智能模型,也被用来打击伊朗。美国中央司令部在对伊朗的打击行动中,使用了Anthropic公司的Claude人工智能进行“情报评估、目标识别和模拟战场场景”。

报道称,人工智能长期以来一直被用于战争,比如分析卫星图像、检测网络威胁和引导导弹防御系统。但如今,聊天机器人正在战场上投入使用。值得注意的是,所有这些都发生在监管真空中,而且所使用的技术是已知会出错的。

这并非不可靠的人工智能系统首次被用于战争。“薰衣草”(Lavender)是一个人工智能驱动的数据库,曾用于帮助以色列识别与加沙地带的哈马斯有关的军事目标。它并非大型语言模型,而是通过分析海量监控数据(如社交联系和位置历史)为每个人分配1到100的评分。当某人的评分超过特定阈值时,“薰衣草”会将其标记为军事目标。

问题是,根据一份调查报告显示,“薰衣草”的错误率高达10%。牛津大学的玛丽亚罗萨里亚·塔德奥教授称,“大约有3600人被错误地锁定为目标。”

伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨表示,“这些系统存在难以置信的漏洞和极端的不可靠性……而对于战争这样动态、敏感且充满人性因素的事务而言,这尤其危险。”

施瓦茨指出,人工智能在战争中通常被用于加快速度,而这往往会导致不希望看到的结果。决策的制定速度更快、规模更大,而人类的审查却更少。她说,过去十五年里,人工智能在军事上的使用变得更加不透明。

当前关于Anthropic公司与五角大楼争执的公共辩论——涉及人工智能在对美国人进行大规模监视或创造完全自主武器方面,什么是合法和道德的——忽略了一个更大的问题,即这项技术如何在战争中使用缺乏透明度。对于这种容易出错、新颖且未经测试的系统,透明度至关重要。塔德奥说:“我们作为一个社会,还没有决定是否接受由机器来决定一个人是否应该被杀死。”

  • 北美最大中英文保健网“母亲节特大酬宾”!美国专利[骨精华][心血通][益脑灵]健骨強心护脑,用过的都说好!
查看评论(5)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

排名下降!北方人口增量第一城,GDP失速了
白宫慌忙应对,“一通电话把AI巨头们全摇来了”
疯狂?短短4天超4300万人请愿要求姆巴佩离队
从买下半个英国,到如今大撤退:李嘉诚又先下车了
“4只皮皮虾1035元”:43岁老板被网络批评攻击后病逝






24小时讨论排行

回国观察:致成都市长公开信 也写给我的袍泽乡亲
普京红场阅兵演讲全文:我们的事业是正确的!
特朗普青铜镀金像亮相,创作者两次加价至45万美元
BBC调查:朝鲜为俄罗斯出战 阵亡了多少士兵?
伊朗足协公布参加2026年美加墨世界杯10项条件
旧金山移民法庭被关 华裔法官遭秒裁 12万案件迁移
离谱!俄罗斯宣布“胜利日”莫斯科等地暂时断网!
女孩坠亡,这套游玩生意背后的高危、高收益
与伊朗战争有关 阿联酋被曝大规模驱逐巴基斯坦劳工
俄罗斯今天举行胜利日阅兵 罕见不展示重型装备
缅甸又挖出2.2公斤顶级红宝石 价值达数百万美元
知名制片人“加戏”:特朗普不能公布UFO文件 原因是...
美国提结束战争提案 特朗普:伊朗今晚可能给我们答复
文学城新闻
切换到网页版

AI战场识别漏洞频出 以军曾将3600人误判为目标

天下事 2026-03-05 07:37:57



美军在对伊朗的军事打击中首次披露使用AI辅助决策,而类似技术在加沙冲突中已被证实存在10%误判率。

彭博社3月5日报道,能够帮你起草营销邮件或晚餐食谱的同一个人工智能模型,也被用来打击伊朗。美国中央司令部在对伊朗的打击行动中,使用了Anthropic公司的Claude人工智能进行“情报评估、目标识别和模拟战场场景”。

报道称,人工智能长期以来一直被用于战争,比如分析卫星图像、检测网络威胁和引导导弹防御系统。但如今,聊天机器人正在战场上投入使用。值得注意的是,所有这些都发生在监管真空中,而且所使用的技术是已知会出错的。

这并非不可靠的人工智能系统首次被用于战争。“薰衣草”(Lavender)是一个人工智能驱动的数据库,曾用于帮助以色列识别与加沙地带的哈马斯有关的军事目标。它并非大型语言模型,而是通过分析海量监控数据(如社交联系和位置历史)为每个人分配1到100的评分。当某人的评分超过特定阈值时,“薰衣草”会将其标记为军事目标。

问题是,根据一份调查报告显示,“薰衣草”的错误率高达10%。牛津大学的玛丽亚罗萨里亚·塔德奥教授称,“大约有3600人被错误地锁定为目标。”

伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨表示,“这些系统存在难以置信的漏洞和极端的不可靠性……而对于战争这样动态、敏感且充满人性因素的事务而言,这尤其危险。”

施瓦茨指出,人工智能在战争中通常被用于加快速度,而这往往会导致不希望看到的结果。决策的制定速度更快、规模更大,而人类的审查却更少。她说,过去十五年里,人工智能在军事上的使用变得更加不透明。

当前关于Anthropic公司与五角大楼争执的公共辩论——涉及人工智能在对美国人进行大规模监视或创造完全自主武器方面,什么是合法和道德的——忽略了一个更大的问题,即这项技术如何在战争中使用缺乏透明度。对于这种容易出错、新颖且未经测试的系统,透明度至关重要。塔德奥说:“我们作为一个社会,还没有决定是否接受由机器来决定一个人是否应该被杀死。”