战争中人工智能辅助轰炸的毁灭性影响
随着关于机器学习的争论质疑人工智能对人类的威胁,人工智能辅助轰炸揭示了战争中算法程序死亡的新维度。
2023年12月1日,以色列国防军(IDF)发布了一张由600多个区块组成的网格化的加沙地带地图。这些区块旨在帮助平民识别活跃的战斗区域。尽管停电和炮击,巴勒斯坦人仍必须通过二维码访问该地图,旨在提醒他们针对遭受猛烈炮击的地区发出有针对性的疏散命令。
该地图提供了精确性,并作为公共关系工具发挥作用,旨在塑造有关保护平民的国际舆论。以色列国防军将这张交互式地图作为其努力减少平民伤亡的证据,旨在向世界表明,对于以色列国防军来说,加沙地带的居民不是敌人。
人权观察表示,这些撤离令忽视了当地的现实,不应抹杀战争法提供的保护。 12月5日,联合国儿童基金会(UNICEF)发言人詹姆斯·埃尔德(James Elder)表示,前往所谓的安全疏散区无异于被判了死刑。
独立新闻平台 +972 Magazine 和 Local Call 于 11 月 30 日发表的一项调查对人工智能在以色列针对加沙的战争中的更广泛使用提出了质疑。根据对以色列情报界现任和前任成员的采访显示,以色列国防军的情报部门已经成为一个“大规模暗杀工厂”,在具有统计意义的情报工具的掩护下运作,精确且技术先进。
调查揭露了一种名为“Habsora”(“福音”)的系统的使用,该系统部署人工智能技术来生成四种类型的目标:战术目标、地下目标、电力目标和家庭目标。目标是根据哈马斯武装人员在设施内的可能性制定的。对于每个目标,都会附上一个文件,其中“规定了可能在袭击中丧生的平民数量”。这些文件提供了数字和计算出的伤亡人数,以便当情报单位发动袭击时,军方知道可能有多少平民被杀。
尤瓦尔·亚伯拉罕在接受非营利新闻组织“民主现在”采访时表示,人工智能的使用依赖于自动化软件来生成具有生死攸关后果的目标。虽然过去对附带损害有严格的限制,但这些人工智能生成的目标是前所未有的——它们是自动化的,依赖人工智能驱动的数据处理技术,可能造成数百名平民的附带损失,并且产生的速度“比现有技术更快”。攻击率”。
以色列国防军前参谋长阿维夫·科查维 (Aviv Kochavi) 表示,2019 年成立的目标定位局处理数据以生成可操作的目标。利用“矩阵能力”,该系统“一天内生成100个目标,其中50%受到攻击”,而过去情报部门每年生成50个目标。在人工智能生成的目标不断升级的过程中,杀害平民的标准已大大放宽。
12 月 6 日,半岛电视台 The Take 播客主持人马利卡·比拉尔 (Malika Bilal) 发布了一集,进一步调查以色列军队的战争协议及其对福音的使用。它提出的核心问题之一是平民伤亡限制如何以及何时改变以及谁选择减少限制。
比拉尔采访了卡塔尔多哈哈马德·本·哈利法大学中东研究副教授马克·欧文·琼斯,他表示:“人工智能正在被用来选择死亡和毁灭的人。”
琼斯表示,当以色列军方训练人工智能模型时,情报部门非常清楚这些目标将包括平民。
“他们正在将人们的生活和命运外包给一种可能继承了占领和灭绝意识形态的技术,”他说。
训练人工智能模型时,是根据既定的先例进行的。就以色列军队而言,杀害平民是这种模式的一部分。人工智能技术的一个关键部分是它依赖于收集的数据和使用的模型。如果人工智能技术从有偏差的数据中学习,那么不仅该技术的使用会存在偏差,而且如果部署在该技术用于服务和证明某种意识形态的背景下,预测模型和操作建议也会存在偏差。
以色列国防军依赖算法的正确性,而忽视公平性和问责程序。主流媒体的政治营销部门将人工智能生成的目标的临床有效性描述为先进的工具,赋予以技术之名的杀戮权利。