美军在对伊朗的军事打击中首次披露使用AI辅助决策,而类似技术在加沙冲突中已被证实存在10%误判率。
彭博社3月5日报道,能够帮你起草营销邮件或晚餐食谱的同一个人工智能模型,也被用来打击伊朗。美国中央司令部在对伊朗的打击行动中,使用了Anthropic公司的Claude人工智能进行“情报评估、目标识别和模拟战场场景”。
报道称,人工智能长期以来一直被用于战争,比如分析卫星图像、检测网络威胁和引导导弹防御系统。但如今,聊天机器人正在战场上投入使用。值得注意的是,所有这些都发生在监管真空中,而且所使用的技术是已知会出错的。
这并非不可靠的人工智能系统首次被用于战争。“薰衣草”(Lavender)是一个人工智能驱动的数据库,曾用于帮助以色列识别与加沙地带的哈马斯有关的军事目标。它并非大型语言模型,而是通过分析海量监控数据(如社交联系和位置历史)为每个人分配1到100的评分。当某人的评分超过特定阈值时,“薰衣草”会将其标记为军事目标。
问题是,根据一份调查报告显示,“薰衣草”的错误率高达10%。牛津大学的玛丽亚罗萨里亚·塔德奥教授称,“大约有3600人被错误地锁定为目标。”
伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨表示,“这些系统存在难以置信的漏洞和极端的不可靠性……而对于战争这样动态、敏感且充满人性因素的事务而言,这尤其危险。”
施瓦茨指出,人工智能在战争中通常被用于加快速度,而这往往会导致不希望看到的结果。决策的制定速度更快、规模更大,而人类的审查却更少。她说,过去十五年里,人工智能在军事上的使用变得更加不透明。
当前关于Anthropic公司与五角大楼争执的公共辩论——涉及人工智能在对美国人进行大规模监视或创造完全自主武器方面,什么是合法和道德的——忽略了一个更大的问题,即这项技术如何在战争中使用缺乏透明度。对于这种容易出错、新颖且未经测试的系统,透明度至关重要。塔德奥说:“我们作为一个社会,还没有决定是否接受由机器来决定一个人是否应该被杀死。”