图片来源图虫创意
2019年5月24日,美国国家邮报主编、奇点大学教师黛安·弗朗西斯(Diane Francis)在《美国国家利益杂志》网站发文指出,人工智能未来可能会引发比核战争或全球霍乱更大的危害,并直接将人工智能比作核武器,阐述了美国在日本曾投掷核武器而引发的一系列危害和对人类造成的恐慌,探讨了人工智能可能引起的诸多危害现象,指出目前对人工智能潜在危害的控制还远远不够,以引起人们对人工智能危害防御的高度关注。
奥本海默和核战争
1945年7月16日,当第一颗原子弹被引爆时,世界便发生了囧变。物理学家J.罗伯特·奥本海默当时默默的写道:“我们知道世界已大不相同。几人欢笑,几人愁。而大多数人都在保持沉默。”
奥本海默便是这颗原子弹--曼哈顿计划的开发者。当时,奥本海默同其科学家团队在曼哈顿计划上花了四年时间,以开发有助于结束第二次世界大战的超级武器。开发完成的几周后,两颗原子弹便降落在了日本的广岛和长崎,致使这两座城市遭到了巨大破坏,数十万人被杀或致残。1945年8月17日,奥本海默亲自致函当时的美国国务卿,表达了他的反感,并希望看到核武器被禁止。9月,日本投降。
在战争期间,奥本海默被招募成为一名技术专家为军方研制这种超级武器。但他对研制这种致命性武器的懊悔使得他在后来带头游说以实现对核武器的国际控制。他使世界各国领导人和科学家都相信,只有通过新成立的联合国才能实现安全。于是到1957年,国际原子能机构(IAEA)成立;1970年,189个国家签署了“核不扩散条约”(NPT);从那以后,该条约一直是全球核控制的基石。
奥本海默预见到了一场核浩劫,并征召了世界上最著名的物理学家如爱因斯坦、伯特兰德等,发起了禁止核武的圣战。而当今的世界需要另外一个奥本海默,因为正如核武器开发速度一样的新一代变革性技术开发正在演进,它们将很快会产生比原子弹更严重的威胁。
人工智能技术及其危害
人工智能(AI)正是这种快速变革的技术之一。根据一些预测,由AI驱动的机器人将比人类更智能,并且能够在几年内自行开展机器人设计。如果这种情况真的出现,它将比核武或全球霍乱、气候变化等给人类带来更大的威胁。
当前,很多科学家一方面在提醒着人工智能技术可能带来的危害,另一方面仍在大力发展该技术,还没有谁会一心一意地去寻求补救措施。全球核不扩散条约的签订花了25年时间,而今天对人工智能危害的控制将花费更长的时间。核武器的发展依赖于有限的、可追踪的资源,并需政府的大量投资,相比可控很多。而人工智能在未来产生的灾难可能只是一个疯狂的计算机科学家便可实施。互联网技术已将人工智能知识分散到了全球各地,任何个人都可轻易的获得制造灾难的原材料。
当今世界变革性技术的开发和研究尚未与道德、伦理或安全框架相关联,这可能会增加灾难发生的可能性,无论是故意渎职还是偶然。目前与控制人工智能危害相关的行动仅停留在重要科学家签署的请愿书和公开信。但这些请愿书和公开信中的建议并没有引起全球关注,也还没有引发政治运动。1975年,关于DNA重组的阿西洛马尔会议产生了关于生物安全的指导方针,其中包括停止将来自不同生物的DNA结合起来的实验。2015年,包括苹果联合创始人史蒂夫·沃兹尼亚克和传奇物理学家斯蒂芬·霍金、伊隆·马斯克等在内的1000多名名人签署了一份关于禁止人工智能与核武器融合的公开信,呼吁禁止人工智能战和自主武器,并最终促成了联合国倡议。今年3月份,联合国秘书长仍在敦促所有成员国同意禁令,但到目前为止也只有125个国家签署了该禁令。
2017年,著名哲学家、牛津大学人类未来研究所创始主任尼克·博斯特罗姆发布了一系列人工智能限制,称为“阿西洛马尔人工智能准则”,概述了人工智能的价值观、研究限制、道德、安全和风险缓解策略。波士顿未来生命研究所也提出建议:“利用核武器、合成生物学和未来更强大的人工智能等技术,做好预先规划,是比从错误中学习经验教训更好的一种策略”,建议要提前防范而不要酿成灾难后再吸取教训。但是无论如何,如果没有强有力的道德和法律框架预先约束,这种失误或教训迟早会产生。
本文来源:航空工业信息网,转载目的在于传递更多信息,如侵权请联系删除。
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有