联合国正在商量人工智能机器人能否登上战场……

联合国正在商量人工智能机器人能否登上战场……
2017年11月14日 23:15 企业思想家

人工智能的研究人员告诫世界各国领导人,不应有将人工智能应用于自主武器这样的致命决策。

作者/ Kelly McSweeney

来源/ZDnet

编译/钱馨瑶

预计将有70多个联合国成员国的代表将出席会议。根据联合国的新闻公告,这是第一次正式的政府间关于武装冲突法和国际安全的讨论会。

是关于致命自主武器系统《特定常规武器公约》(CCW)政府专家组的第一次会议。《特定常规武器公约》旨在禁止或限制使用某些被认为具有过分伤害力或滥杀滥伤作用的常规武器,涵盖了地雷、饵雷、燃烧武器、激光致盲武器以及战争遗留爆炸物的清除。这份协议是在1980年建立的,无限期有效但可以修改,比避免新的先进技术,如1995年议定书,禁止致盲激光器使用等。现在被称为“杀手”的机器人正面临争议。

协调员玛丽·韦勒姆在一份声明中说:“现在是各国从谈论致命自主武器问题引发的道德和其他挑战转向采取预防行动的时候了。赞同科学界和非政府组织的呼吁,禁止在没有人为控制的情况下瞄准并射击目标的机器人成为武器。”

韦勒姆是人工智能专家和人权倡导者之一,一直在努力敦促联合国禁止自主武器研发。8月份 ,伊隆·马斯克和另外115名人工智能机器人的领导人签署了一封给联合国的公开信。信中提及:

致命的自主武器威胁将成为第三次战争革命。一旦任其发展,它们造成的武装冲突的规模比以往任何时候都大,到来的速度也比人类能够理解的要快的多。这些武器可以是恐怖武器,恐怖行动和恐怖分子用来对付无辜人民的武器,以及以不良方式行事的武器。我们没有太长的时间来考虑,一旦这个潘多拉盒子被打开,它将很难关闭。

另外一组人工智能研究人员也发布了一个视频,视频描述的正是如果完全自主的武器研发成功会发生什么。

本周的会议并不是关注完全自主武器的禁令,而是朝着这个方向迈出第一步。

印度事务主席印度大使吉尔(Amandeep Singh Gill)在11月10日的日内瓦会议前向日内瓦记者表示,我们不应该期待禁令。 他说:“立法禁止是很容易的,不管是什么,我们都是禁止的。”他补充说:“但是我认为,作为国际领域负责任的行为者,我们必须清楚我们立法是为了什么。”

相反,这将是即将到来的军事技术在法律和道德方面的挑战。

·END·

版权声明:

如果您认为我们的授权或标注与事实不符,

请告知我们,我们会与您共同协商解决,

谢谢!

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部