9月19日报道 西班牙《阿贝赛报》网站9月17日发表了题为《自动化武器:杀人机器人的威胁》的报道,具体内容编译如下:

全世界的军队因为全自动化武器的生产而发生了翻天覆地的变化。然而,正如爱尔兰信息工程专家劳拉·多兰所言,人类却尚未掌握能够保证这些武器不犯错或误伤大批平民的办法。

多兰指出,假如使用不当,这种武器就很可能导致大规模意外事故。因此任何武器都应当受到人类控制。假如无法受到控制,就必须禁止使用,因为此类武器或造成意想不到的危险后果。

多兰多年来一直致力于信息工程领域的研究。他曾在谷歌公司任职,2017年曾参与美国国防部的“梅文计划”。该计划旨在招募人工智能领域的专业企业,以达到在伊拉克、叙利亚和阿富汗等战乱地区利用图像识别技术作战的目的。

从技术角度看,得益于人工智能技术的发展,美军无人自动化武器(无人机)能够识别打击目标并实施攻击,因此似乎没有必要配备专人监控这些自动化武器。但多兰认为,这构成了一个巨大的风险,因为任何人都无法保障战争机器能够准确识别一个举着枪的战士和一个同样举着枪的猎人。

多兰还表示,如果由全自动化武器来决定孰死孰活,而无需人类介入,那么这无疑意味着一个巨大的道德缺口。机器毕竟是机器,它们缺乏人类特性,例如在作出艰难的道德伦理抉择时所必需的同情心和同理心。

点击图片进入下一页

资料图片:科幻电影《终结者》中的“天网”猎杀机器人。(西班牙《阿贝赛报》网站)

热点新闻