界面新闻记者 |
界面新闻编辑 | 刘海川
根据非盈利杂志《+972》和希伯来语新闻网站Local Call2024年4月3日的消息,以色列军队正在使用一种名为“Lavender”(薰衣草)的人工智能辅助瞄准系统,将成千上万的巴勒斯坦人隔离,并确定其为潜在的轰炸目标。根据半岛电视台报道,这个数据库“负责制定多达3.7万个目标的杀戮名单”。不过,以色列国防军(IDF)向媒体否认了存在这样一个“杀戮名单”,并将该项目描述为仅仅是一个用于交叉参考情报来源的数据库。
报道称,该AI工具由以色列军方数据科学家“训练”,通过筛选大量监控数据和其他信息,生成暗杀目标。《+972》和Local Call引用了六名匿名以色列情报官员提供的信息,他们都在战争期间服役,并“直接参与”使用人工智能来选择要消灭的目标。
根据《+972》的描述,以色列军队在目标在家时有系统地攻击他们,通常选择目标全家都在家中的夜间,而不是在军事活动期间。据消息人士说,这是因为他们认为从情报的角度来看,在私人住宅中更容易找到这些人。因此还存在一个额外的自动化系统(包括一个名为“Where’s Daddy?”的系统),专门用于跟踪目标个人,并在他们进入家庭住宅时实施爆炸。
与此同时,一名消息人士表示,虽然有人工人员参与到此人工智能系统之中,但他们通常只是为机器的决定“充当橡皮图章”——通常情况下,他们在授权轰炸前只会对每个目标投入“大约20秒”的时间,仅仅为了确保被“Lavender”标记的目标是男性。而一位不愿透露姓名的以色列情报官员对媒体说,“Lavender”的错误率约为10%。
有以色列出版物分析说,这种方法可能会导致加沙大量平民死亡。与此同时,媒体援引消息人士的话说,以色列军队在本次冲突的头几周就做出了决定,并且,“对于Lavender标记的每一个初级哈马斯特工,都允许杀死多达15或20名平民”。此消息人士还透露,如果哈马斯高级官员是目标,那么“军队在几次被授权暗杀一名指挥官时,杀死了超过100名平民”。
有观点认为,以色列对于“Lavender”的使用可能有助于解释其对加沙地带造成的大规模破坏,以及高伤亡人数。半岛电视台4月7日称,加沙卫生部表示,自2023年10月7日冲突开始以来,至少有33137名巴勒斯坦人在加沙被以色列军队杀害。在遇难者中,儿童和妇女占绝大多数,已有超过13800名儿童被杀害。另外,还有数千人在倒塌的建筑物和基础设施的废墟下失踪,据推测已经死亡。
以色列在对哈马斯的战争中使用的人工智能系统,引发了一系列法律和道德问题,并改变了军事人员与机器之间的关系。《卫报》称,一名使用过“Lavender”的情报官员认为“机器冷冰冰地做了这件事,这让事情变得容易了。”联合国人权和反恐问题特别报告员Ben Saul表示,如果相关细节被证实属实,那么“因为发动了不成比例的袭击,以色列在加沙的许多袭击将构成战争罪”。
悉尼新南威尔士大学的人工智能专家Toby Walsh教授表示,法律学者们可能会认为,使用人工智能瞄准目标违反了国际人道主义法。他在接受半岛电视台的采访时表示,从技术角度来看,以色列军方的行为表明,那些人工智能系统可怕而悲惨地扩大了战争规模,但让人类参与其中、进行有意义的监督是“多么困难”。
卡塔尔的哈马德·本·哈利法大学中东研究副教授Marc Owen Jones在接受采访时称,以色列军队正在“部署未经测试的人工智能系统……以帮助做出有关平民生死的决定”。他补充说,在未来,人们需要呼吁暂停在战争中使用人工智能。