人类难以监管AI的三个原因,马化腾老师钧鉴(附论文)

人类难以监管AI的三个原因,马化腾老师钧鉴(附论文)
2017年06月22日 08:00 量子位

唐旭 编译自 Inverse

量子位出品 | 公众号 QbitAI

昨天马化腾在出席腾讯云未来大会时透露,端午期间他层短信回复广东省长:《人工智能可管可控可用,不用担心》。

然而要让AI能够对自己的行为负责,做起来可能没有说得那么容易。

最近,来自英国的三位研究者Sandra Wachter、Brent Mittelstadt和Luciano Floridi在《Science Robotics》发表了一篇论文,论文指出,对机器人进行监管是极为困难的,而随着人工智能的进一步普及,这也将成为一种越来越大的社会问题。

为什么机器人和AI将会难与管控?具体原因有三个:

问题之一:机器人和AI的多元性

关于在AI监管方面我们正在面临的问题,“随机暗网购物者”的出现便是一个例证。

2014年,一组来自瑞士的艺术家构建了一个AI,他们给了这个AI每周100比特币的预算,并对其进行编程,使得AI能够在Agora(一个暗网上的在线市场,购物者可以在上面购买到毒品以及其他一些违禁品)上随机购买商品。

最后,这个被命名为“随机暗网购物者”的AI买到了摇头丸、匈牙利护照、冒牌迪赛牛仔裤、带有隐蔽摄像头的棒球帽、开了洞能够存放现金的雪碧罐、香烟、耐克运动鞋以及一套指环王电子书……

因为非法购买行为,瑞士警察起初没收了这个机器人以及它所购买的物品,但后来又把东西还了回去(除了毒品)——而那些对此事负有责任的艺术家则并没有受到指控。

在这个案例中,尽管机器人有一个特定的目的,但造成其非法行为的初衷却是无害且偶然的,因此警方没有提出指控。

但不难想象,日后可能会有人带着更为不光彩的想法,利用AI做同样的事情。

这就是问题所在。“AI难以预测和多元化的特点让相关的法律编纂变得更为复杂,如果管得太宽,很可能会无形之中阻碍创新的步伐;而如果管得不够,极为有限的保护又会失去意义。”研究者们写道。

问题之二:透明度

利用神经网络来创建AI可以让它更好、更快地学习,但这么做意味着,你将不会明白AI为什么做出这些事情。

如今,为了让AI能够完成类似图像分析这种复杂任务,利用神经网络是一种非常成功的战略——然而,这种成功却让对AI行为的监管变得更为困难,因为这种“黑箱”正在越来越流行。

如果你不能看清“随机暗网购物者”在做的究竟是什么事情,那么判定其是否有害就变得几乎不可能了。

问题之三:结构

“不管包括在内的硬件、软件和数据如何混合在一起,对于公平性、透明度、可解释性和责任承担方面的关切都是平等的,它们起源相同,也应该被一起解决。”研究者们说。

我们更倾向于将机器人和AI视为不同的实体,但随着人脸识别这类软件越来越多地被机器人警察所应用,二者之间的界限正变得不再清晰。如果人脸识别软件带有种族主义偏见,我们就能创造出种族主义机器人警察,这意味着,我们将不得不对应用AI的机器人进行监管。

而如果AI也能建造AI——如同谷歌在今年I/O大会上展示的一样——事情将变得更为困难。

最后,要解决这一问题,需要极其精确的管控措施,以及能够对黑箱系统进行解释的方法,而这些我们目前都还未能做到。研究者们在报告中说:“民间关于机器人的法律决议也仍在努力确立更为严谨、准确的问责制度。”而随着AI的进一步铺开,问题将会变得更为严重。

想进一步查看上面提到的论文?可以在量子位微信公众号(QbitAI)后台回复:“监管”两个字。

【完】

一则通知

量子位正在组建自动驾驶技术群,面向研究自动驾驶相关领域的在校学生或一线工程师。李开复、王咏刚、王乃岩等大牛都在群里。欢迎大家加量子位微信(qbitbot),备注“自动驾驶”申请加入哈~

招聘

量子位正在招募编辑记者、运营、产品等岗位,工作地点在北京中关村。相关细节,请在公众号对话界面,回复:“招聘”。

△ 扫码强行关注『量子位』

追踪人工智能领域最劲内容

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部