“杀手机器人”将成为现实!人类只剩1年时间阻止


据英国《每日邮报》报道,随着人工智能技术的进步,机器人越来越有可能独立选择和射击目标。 全自动武器或“杀人机器人”正迅速从科幻变为现实。 然而,新的技术突破可能会导致人类失去对致命武器使用的控制。人类只有一年的时间来阻止“杀人机器人”的诞生

“杀戮机器人”可以部署在陆地和海洋空领域,它有望以惊人的方式彻底改变武装冲突和执法的现状。 支持者说,“杀死机器人”的存在是必要的,因为现代战争速度非常快,机器人的参与可以确保士兵和警察不受伤害。

然而,“杀死机器人”对人类的威胁可能超过任何军事或执法部门获得的利益。如果人类失去了对执法目标的决策权,世界将面临危险,机器将能够独立决定人类是生是死。 平民不对称受伤或被错误瞄准的风险将大大增加,没有人对此负责。

鉴于全自动武器的道德、法律和责任风险,迫切需要控制其开发、制造和使用。 应对这一威胁的最佳方式是颁布一项具有法律约束力的国际禁令。 至少有20个国家已经在4月份的联合国大会上表示支持人类选择执法目标。 人权观察和哈佛法学院国际人权诊所联合发布的一份报告也呼吁禁止全自动武器。

保持人类对“杀死机器人”的控制具有道德意义 因为人类有同情心,他们能感受到受害者的情感变化。 他们尊重人的尊严,并将认真考虑自己行为的后果。 机器人缺乏这些情感,包括同理心。 此外,无情的机器不理解人类生命的价值。 机器人决定是否使用武力会伤害人类尊严。

人类对“杀人机器人”的控制也将促进对国际法的遵守,国际法主要用于保护平民和士兵。 人类可以根据过去的经验和道德准则做出判断,但是“杀死机器人”不能重复这种判断,也不能预先编程来处理所有假设的情况。 因此,这些“杀人机器人”不能像“理性指挥官”那样做出选择和判断。

根据国际刑法的规定,在大多数情况下,操作人员不必为武器伤害承担责任。 除非人类使用全自动武器犯罪,否则追究人类对机器人行为的责任是不公平的。毕竟,人类操作员不能阻止或惩罚机器人。 此外,在寻求让全自动武器程序员和制造商承担责任方面存在法律障碍,例如,大多数美国武器制造商享有豁免权。

在4月份的联合国会议上,94个国家支持启动关于处理“致命自动武器系统”的正式讨论,以确定这些系统是否受到《常规武器公约》限制。 这些国家将参加12月的评估会议,为今后的工作制定议程。 在12月的评估会议上,已经加入《常规武器公约》的国家可以提议全面禁止全自动武器。

他们应该启动新的国际协议谈判,以应对全自动武器的威胁,但制定国际法的进程相当缓慢,许多国家应该更快地采取行动应对全自动武器的威胁。 他们应该抓住评估会议的机会,让技术失控可能导致可怕的空人道主义灾难。