Laura Nolan,去年辞职的前谷歌软件工程师,警告称自治武器(Autonomous weapons)恐 “意外” 触发下一次世界大战。
Nolan 去年被公司指派参与美国军方无人机项目,因理念不同愤而辞职。上周末,她指出,军用技术中融入越来越多复杂人工智能可能产生严重负面效果。
Nolan 后来参加了 “禁止杀手机器人运动” (Campaign to Stop Killer Robots),就此话题发表多篇言论。她最近的担忧是人工智能 (AI) 可能最终会发动战争或犯下暴行。
接受英国《卫报》采访时 Nolan 说道:我不是要禁导弹制导系统或反导防御系统。这些毕竟都在人类完全控制之下,终归有人负责。
但自治武器不仅是战争中的技术变革,也是战争伦理的巨大变化。很少有人谈论这些,但如果我们不引起重视,这些杀手机器人可能意外引发战争,摧毁核电站造成大规模杀伤。
其中一个重大问题是,此类军用自治系统只能在战场测试,这就引发更深远的诸多问题了。她诘问道:你怎么训练一个完全基于软件的系统检测细微的人类动作,或者分辨猎人和暴乱分子的不同?
18 岁的战士和 18 岁抓兔子的猎人,这些杀人机器要怎么自行区分?
去年,谷歌拿下美国国防部改进无人机视频识别技术的 Maven 项目,Nolan 为此辞职。3,000 多名谷歌员工签署反对公司参与军方项目的请愿书后,谷歌最终于今年 3 月退出该项目。
与此同时,谷歌设立由八名 “数字伦理专家” 组成的伦理委员会,就 AI 问题提供建议。然而,一个月后,另一个伦理委员会被悄悄解散。
禁止杀手机器人运动详情: