简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » AI战场识别漏洞频出 以军曾将3600人误判为目标

AI战场识别漏洞频出 以军曾将3600人误判为目标

文章来源: 天下事 于 2026-03-05 07:37:57 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数



美军在对伊朗的军事打击中首次披露使用AI辅助决策,而类似技术在加沙冲突中已被证实存在10%误判率。

彭博社3月5日报道,能够帮你起草营销邮件或晚餐食谱的同一个人工智能模型,也被用来打击伊朗。美国中央司令部在对伊朗的打击行动中,使用了Anthropic公司的Claude人工智能进行“情报评估、目标识别和模拟战场场景”。

报道称,人工智能长期以来一直被用于战争,比如分析卫星图像、检测网络威胁和引导导弹防御系统。但如今,聊天机器人正在战场上投入使用。值得注意的是,所有这些都发生在监管真空中,而且所使用的技术是已知会出错的。

这并非不可靠的人工智能系统首次被用于战争。“薰衣草”(Lavender)是一个人工智能驱动的数据库,曾用于帮助以色列识别与加沙地带的哈马斯有关的军事目标。它并非大型语言模型,而是通过分析海量监控数据(如社交联系和位置历史)为每个人分配1到100的评分。当某人的评分超过特定阈值时,“薰衣草”会将其标记为军事目标。

问题是,根据一份调查报告显示,“薰衣草”的错误率高达10%。牛津大学的玛丽亚罗萨里亚·塔德奥教授称,“大约有3600人被错误地锁定为目标。”

伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨表示,“这些系统存在难以置信的漏洞和极端的不可靠性……而对于战争这样动态、敏感且充满人性因素的事务而言,这尤其危险。”

施瓦茨指出,人工智能在战争中通常被用于加快速度,而这往往会导致不希望看到的结果。决策的制定速度更快、规模更大,而人类的审查却更少。她说,过去十五年里,人工智能在军事上的使用变得更加不透明。

当前关于Anthropic公司与五角大楼争执的公共辩论——涉及人工智能在对美国人进行大规模监视或创造完全自主武器方面,什么是合法和道德的——忽略了一个更大的问题,即这项技术如何在战争中使用缺乏透明度。对于这种容易出错、新颖且未经测试的系统,透明度至关重要。塔德奥说:“我们作为一个社会,还没有决定是否接受由机器来决定一个人是否应该被杀死。”

  • 春季特大酬宾!美国专利产品【骨精华】买6送2、买12送5!六周改善关节疼痛,延缓骨质疏松。
查看评论(4)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

中国初创公司在美军动手前 就把 F-22的位置公开!
卢比奥喊出“松绑蒋介石” 一段跨越70年的战略隐喻
特朗普“护航”失效,亚洲市场崩了
特朗普父女决裂?伊万卡为何在第二任期“人间蒸发”?
“成本颠覆战”开打!揭“消耗型战争”新时代




24小时讨论排行

学者细数北京重大损失:国防出口崩溃 一带一路断裂
伊朗曝光地下“导弹城”!数千无人机排满隧道…
彭博分析:为何中国不太可能军事支持伊朗
挂出“中国所有”信号 货船安全通过霍尔木兹海峡
"和我有什么关系?":中国年轻人为何不再关注"两会"
伊朗“无人机大军”视频曝 气氛肃杀 呛“地狱之门已开”
纽约时报:伊朗冲突如何影响世界石油和天然气供应
特朗普政府遇挫:美国贸易法庭下令退还关税
伊朗革命卫队宣称击沉美国油轮
强硬执法闹人命惹众怒 美国土安全部长遭撤换
过去一周,台湾空域中国军机罕见“清零” 前所未有
一文看懂“圣战令”:延续千年的教令动员机制
美军80年大招"鱼雷击沉军舰",伊朗:美国将无比后悔
“是我们要求美国攻击的” 伊朗女子遗言看哭全网
彭博:中国军费预算数字绝对远超你想象
拒绝特朗普不借基地,西班牙首相为何敢如此强硬?
文学城新闻
切换到网页版

AI战场识别漏洞频出 以军曾将3600人误判为目标

天下事 2026-03-05 07:37:57



美军在对伊朗的军事打击中首次披露使用AI辅助决策,而类似技术在加沙冲突中已被证实存在10%误判率。

彭博社3月5日报道,能够帮你起草营销邮件或晚餐食谱的同一个人工智能模型,也被用来打击伊朗。美国中央司令部在对伊朗的打击行动中,使用了Anthropic公司的Claude人工智能进行“情报评估、目标识别和模拟战场场景”。

报道称,人工智能长期以来一直被用于战争,比如分析卫星图像、检测网络威胁和引导导弹防御系统。但如今,聊天机器人正在战场上投入使用。值得注意的是,所有这些都发生在监管真空中,而且所使用的技术是已知会出错的。

这并非不可靠的人工智能系统首次被用于战争。“薰衣草”(Lavender)是一个人工智能驱动的数据库,曾用于帮助以色列识别与加沙地带的哈马斯有关的军事目标。它并非大型语言模型,而是通过分析海量监控数据(如社交联系和位置历史)为每个人分配1到100的评分。当某人的评分超过特定阈值时,“薰衣草”会将其标记为军事目标。

问题是,根据一份调查报告显示,“薰衣草”的错误率高达10%。牛津大学的玛丽亚罗萨里亚·塔德奥教授称,“大约有3600人被错误地锁定为目标。”

伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨表示,“这些系统存在难以置信的漏洞和极端的不可靠性……而对于战争这样动态、敏感且充满人性因素的事务而言,这尤其危险。”

施瓦茨指出,人工智能在战争中通常被用于加快速度,而这往往会导致不希望看到的结果。决策的制定速度更快、规模更大,而人类的审查却更少。她说,过去十五年里,人工智能在军事上的使用变得更加不透明。

当前关于Anthropic公司与五角大楼争执的公共辩论——涉及人工智能在对美国人进行大规模监视或创造完全自主武器方面,什么是合法和道德的——忽略了一个更大的问题,即这项技术如何在战争中使用缺乏透明度。对于这种容易出错、新颖且未经测试的系统,透明度至关重要。塔德奥说:“我们作为一个社会,还没有决定是否接受由机器来决定一个人是否应该被杀死。”