让机器做得对 人工智能伦理性亟待更多关注 ——专访香港浸会大学副校长郭毅可

让机器做得对 人工智能伦理性亟待更多关注 ——专访香港浸会大学副校长郭毅可
2020年10月21日 11:10 金融界网站

本文源自:新华网客户端

  当下,人工智能的应用与研究已经成为全球最热门的话题之一。不久前,当“钢铁人”马斯克带着他的另一个神奇而伟大的设备——一枚硬币大小的脑机接口新设备出现在Neuralink发布会上,再度惊艳了人们对于AI世界的梦幻与想象。人机交互,脑机相连,人类与AI共生的时代真的到来了吗?新华网客户端专访香港浸会大学副校长、英国皇家工程院院士郭毅可教授。

  新华网客户端执行CEO席卿:您说人工智能的研究,不仅仅是一个科学的命题,也是一个哲学的命题。我们应该怎么理解?

  香港浸会大学副校长郭毅可:当我们打开手机刷读想要了解的新闻,一条条滑过眼前的“推送”是我们真正感兴趣的新闻吗?当我们点开网页寻找想要购买的商品,一个个弹入视线的“宝贝”是我们真正心仪的商品吗?当我们登录程序想要网约一部Uber,系统显示的价格是我们真正需要支付的费用吗? 对于这些生活中司空见惯的场景,大多数的我们早已习以为常。不经不觉中,人工智能已经“侵入”了我们的生活。每当我们开启一次与互联网的远程对话,我们已经分辨不清想要获得的结果,究竟是人给予的还是机器给予的?我们沉浸于人工智能为我们构建的生活中,也封闭在人工智能为我们构建的“泡沫”里。拨开人工智能神秘的万象以及人们追赶潮流的热望,我们希望回归本真,在哲学命题下关注人工智能的伦理性问题,为人工智能未来的发展带来“清凉”的冷思考。

  席卿:随着人工智能应用的范围越来越广,出现的争议性问题也越来越多。智能推荐背后的准则是否合理?金融市场的算法定价是否隐藏恶意竞争与价格操控?社会信用系统对权利的剥夺是否具有法理的依据?性爱、聊天机器人的出现是否改变了人类自然的情感?这些争议性的问题为人工智能的研究带来了全新的视角,这些是伦理性研究问题吗?

  郭毅可:其实所谓智能伦理,是人机共存社会中法理及组织的形式与变化。众所周知,人工智能的发展离不开大数据、模型算法和算力三大要素。高质量的数据资源、先进的学习算法以及支撑算法执行的算力为人工智能的腾飞插上了助力的翅膀,而良好的数据生态环境、社会伦理则是人工智能得以飞得平稳致远的两个重要因素。人们不断地要求机器做得更多,却往往忽略机器做得对与不对。这也是为何一直以来人工智能的伦理学没有得到更多的关注。人在赋予机器智能的同时,也要对机器行为理解与审视,这便是智能伦理学的研究范畴。人工智能伦理学不仅仅是技术问题、科学问题,更多的是哲学问题。不同的理解与价值观未必得到相同的答案,因此人工智能伦理学的研究将作为一个开放的课题伴随着未来人工智能的发展。

  探讨人工智能伦理问题产生的本源,我们先从机器学习说起。如果从认知学的角度理解机器学习,它和人脑学习的逻辑和过程非常相似。我们把人脑中的知识看作是一种模型,人脑的认知模型就是对世界的看法、对观察结果的抽象。人脑通过观察获取信息、获得结果,当观察的结果与人脑的认知模型一致,人脑除了对产生一些使人愉悦的多巴胺,不会做出什么行为;当观察的结果与人脑的模型不一致,人脑就会做出反应,它可以很理性,认为自己的认知有问题,于是就对脑中的认知模型做出改变,或者它很自信,充分相信自己的模型,于是,就付诸行动,去改变世界。人脑改变认知是学习,改变世界是决策指导下的行动。这是认知学对学习的理解。

  机器学习也是如此,在机器学习中,模型是以函数的形式来表达的。机器学习的目的是找到一个函数的形式,以及函数的参数,机器用这个参数来对观察的结果作比较,进而使误差最小化。机器学习中,无论是监督学习、非监督学习、强化学习,目标都只有一个,找到与观察具有一致性的模型。审视机器学习的过程,我们会发现一系列的根本性的问题。首先,如何向机器表达人的认知目的。人告诉机器做什么,是通过效用函数来表达的。用效用函数来定义人的认知目的非常困难。我们既要达到最好的结果,又要满足对社会伦理的要求,效用函数难以完美表达这一要求。其次,机器学习也是一个效用函数求优的过程,这个过程我们很难理解。求优必须调整很多参数,改变一些可控制的变量,就像“炼金术”,调参的过程会导致很多的问题。

  席卿:人们在赋予机器“超能力”的同时,一边享受着机器行为带来的诸多得益,一边也对机器行为产生诸多质疑,包括新闻撰写中的生成算法是可靠的吗?法律庭审中的机器助审会有偏见吗?医学诊断中机器得出的结果是正确的吗?

  郭毅可:机器行为是机器对世界的改变,也是人对机器的感知。机器行为可以从行为目的、行为原则、行为结果和行为依据四个方面来理解和考虑。理解机器行为对于我们更好地应用机器至关重要。然而,人们一旦掌握了机器行为,有时也会变成攻击机器的武器。自动汽车的投入使用就存在这样的痛点。自动驾驶最大的问题在于路权选择,当人与车出现在同一路面上,如果人知道机器的选择是保证对人的伤害最小,人就会恶性地同机器进行较量,导致车永远无法开走。在城市交通管理方面,当交通非常流畅高效的时候,人们即使不需要开车也想要开车,这就会再次造成污染问题。这些全局性行为的平衡,也是人工智能发展必须要应对的。

  理解机器行为是人工智能研究的一个重要问题,也是人工智能未来研究的主要方向。未来的人工智能,不是要求机器做得多,而是要求机器做得对。什么是对,不仅是个哲学的问题,也是一个价值观的问题。如何向机器表达对的行为目的,如何判断机器做得对不对,如何理解机器做对的缘由,以及机器行为的解释和验证,这些都是理解机器行为的重要课题。向机器表达正确的目的是人工智能伦理学研究的主要方向。当我们用效用函数向机器表达学习目的,函数表达的正确性,以及验证函数的正确性需要考虑;利益最大化,谁的利益最大化?这里有一个所谓的“代理人”原则:你找律师为你办事,你要搞清楚,到底这个律师是为你办事,还是把你的事越搞越复杂,他好赚钱?还有一个“不可预知”原则——即好心办坏事的问题也需要认真思考。向机器表达目标函数所考虑的伦理性、合理性、公平性归根结底都是表达的问题。判断机器做得对与不对,如何验证?在求证的过程中,什么是最优?最优是否合理? 人工智能系统应该具有怎样的性质才能赢得信任?这些也都是有待深入研究的人工智能伦理性问题。未来的学习要增加对机器行为的因果性予以理解。我们正在进行的关于隐空间的语义解释的研究便与此相关。机器进行零样本学习的时候,我们对隐空间的语义进行解释,将一些特征编辑成向量,当一个没出现过的物体出现时,机器可以通过编码得到向量,再由质点推演出特征。我们计划将隐空间的概念再放大,用一个概率模型映像到概念空间去,来解释很多深层的方法。

  席卿:您介绍了人工智能的伦理性,我们发现,与真正的“图灵时代”还相距甚远。因为当我们向人和机器共处的黑屋提问,并无法区分得到的回答来自人还是机器的时候,我们可以追问一句:“请告诉我,你是如何得到这个问题的答案的?”人是能回答这个问题的,而机器则一定很茫然。未来,对于人机共存的世界,您怎么理解?

  郭毅可:人是能回答这个问题的,而机器则一定很茫然。然而,对于人机共存的世界,我们毋庸置疑。事实上,我们越来越习惯和机器共生在这个二元的新世界。我们一边与机器相互交流,一边也要尝试理解机器行为。只有理解了机器行为,才能相信机器行为,相信和我们朝夕相处的机器。人要理解机器的表达行为,机器也要学会理解人的意图。对机器行为的解释、理解和验证,以及机器行为的伦理性将成为人工智能研究的核心重点,也是科学家们着力克服解决的难点与痛点。在没有解决和深入理解这些问题之前,我们奢谈对未来人工智能统治人类未免为时过早。

  人工智能,不是“神话”,而是一个实实在在的算法。人工智能的研究体现了人类对未来的不断追求,对未知的不断探索。人工智能,我们既不能轻视,也不能恐惧,更无法回避。我们要透过踏实地努力、艰苦地劳动,以丰富的思想,开发出扎实的技术;以东方文明特有的包容与理解,建设二元的新世界。智能的机器和人类的共生共存,是人工智能未来发展的方向,也是我们未来社会的蓝图。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部