马云:人工智能可能引爆第三次世界大战

马云:人工智能可能引爆第三次世界大战
2017年06月22日 10:35 中经报与老板对话

机器永远不会胜过人类,但我们必须重视人工智能等新兴技术带来的风险和机遇。这就是阿里巴巴董事局主席马云发出的最新警告。

本周三出席美国底特律活动期间,马云向CNBC表示,人工智能和全球化既带来机遇又产生风险,这是他游说各国政府领导人的原因,“如果他们不迅速行动就会有麻烦”,现在必须未雨绸缪,亡羊补牢为时未晚。

马云说,人工智能可能带来一些益处,比如减少人类的工作时长,多一些旅游休闲的时间。他预计,如果今天人们能去30个地方旅游,以后能去300个地方,因为

“未来30年,人们每天只需要工作四小时,可能一周工作四天。我祖父当年在农村一天干16小时,非常忙。我们一周工作五天,每天八小时,也很忙。”

马云认为,除非政府表现出做“艰难抉择”的意愿,否则数据和自动化就会越来越深化贫富差距。他警告应技术革命对就业的巨大影响,认为各国领导人应该关注教育系统,避免自动化可能造成的伤害。他说,第一次技术革命和第二次技术革命先后引发了一战和二战。这次是第三次技术革命。

随着机器学习和人工智能消灭工作岗位,“第三次技术革命可能引爆第三次世界大战。”

不过,马云还是认为,机器永远不会获得人类那样的智慧和经验,“人类会赢”。现在不应该制造像人类的机器,应该保证机器可以做人类无法胜任的工作。

今年3月深圳举行的中国IT领袖峰会上,马云表示,未来要思考的不是人工智能,而是机器智能,如何让机器成为人类最好的伙伴、而不是人类最大的对手。5月的贵阳数博会上马云又重申观点,还说“机器比人做得好不算什么,机器做人做不了的才了不起。”

防范高科技“伤痛” 创造就业

据新华社报道,本周二也是在底特律,马云向与会约3000名美国中小企业和合作伙伴代表表示:“未来五年,我们将支持100万个美国中小企业向中国乃至亚洲销售产品,如果每个企业创造一个就业机会,就将新增100万个就业机会。”

马云当时说,“错过了中国就错过了未来”,过去30年,美国的内需拉动了全球经济发展;未来30年,中国的内需将拉动全球经济发展。他自称是全球化和自由贸易的坚定支持者。

本周三马云同样提到了帮助小企业。他说,创造就业的最佳方式就是帮助小企业,将他们本地的产品推销到各地,“我们必须现在做准备,因为未来三十年会痛苦。”

马云认为,随着更多小企业接触互联网,苹果、亚马逊等巨头的实力在下降。大规模曾经是典范,“个人化、定制是未来。”

【延伸阅读】人工智能会不会带来世纪灾难?

来源:一财网 作者:章星球

新一轮人机大战落幕,中国围棋国手柯洁落泪,因为他无法接受以0:3的比分落败。

这一消息的讨论余热还没有退去,又一个关于人工智能(AI)的爆炸性消息传来。近日,Facebook在实验中让两个AI聊天机器人互相对话,发现机器人竟逐渐发展出人类无法理解的独特语言。看到此情景,研究人员不得不对其进行人工干预。

Facebook在研究报告中指出,机器人有时可以很好地胜任客服谈判的角色,甚至懂得使用“先假装而后承认”的对话策略。但是实验中机器人自行发展出新语言让人不安,人们或许可以从中一窥未来世界的样子。语言被认为是人类独有的技能。Facebook的聊天机器人的表现刷新了人们的认知。

作为人类,面对这样的消息,显然不能以“机器人是人制造的,最终还是受人控制”这样自欺欺人的逻辑来安慰。机器人有独立意识后,一旦它们在商量怎么摆脱人类的约束,人类该怎么办?

前几天,看到杨小刚先生在第一财经APP发表了《阿尔法狗炒股摸彩票一定能战无不胜吗?》,对人工智能会否给人类带来灾难表达了积极乐观的态度,我其实同意该文很多观点,如机器可能超越人类,但却无法取代人类;如应该为技术文明的飞跃欢呼,以及由此还可以引发人类终极话题的重新思考等。

这样的乐观当然是有强大理由的,因为人类毕竟在风雨跌撞中走过了几千年,拥有了今天的繁荣与自信。这篇文章倾向于相信这样一种哲学:人工再怎么发达,都不可能超越人类,世界虽然是客观存在,但人类所及只是人类思维的主观反映结果,如果有一种人类人工可以超越人类,则意味着其已经进入超验范畴,那就是人可以造神,而不是神造人了。

乐观的理由虽然不少,但我觉得悲观的理由也可以找出一箩框。而且这种“乐观”很大可能会建立在巨大灾难的基础上,即表现为所谓风雨过后的“彩虹”,至于“彩虹“之前的“暴风雨”会是怎样烈度的肆虐,从人类有过的无数次的战争灾难来看,我想没有人会愿意身处那个“彩虹”之前的“暴风雨中”吧。

人类历史几千年的真实经验就是,科技的飞跃每每伴随着灾难的升级,每一次“彩虹”之前的“风雨”,都可能是动辄千万计的生灵席卷其中。

中华民族共祭的人文始祖黄帝,也是中国第一位诗人,写下了史载的中国第一首诗《弹歌》,《弹歌》共八个字,“断竹,续弹;飞土,逐肉”,记载的是华夏民族研发弓箭应用于生产生活的场面。这一生产工具不久被应用到了战争,尽管我们找不到相关死亡人数记录,但完全可以合理相像,弓箭的应用导致战争死伤人数在当时必然是一次“飞跃”。

毕竟,弓箭和木棒一样,当时还只是一种最原始的竹木“科技”,杀伤力的飞跃也只是相对那个时代而言。金属应用于农业生产无疑又是人类史上一次科技的飞跃,而与此同时,人类战争也就进入了残酷的冷兵器时代,一场战争几十万人死亡的情况也就逐渐演变为常态。秦驽无疑也是当时的“大杀器”,但秦驽的登场,伴随着的却是数以百万计的士兵与平民死亡,与此同时则是华夏文明最开放最具活力时代的夭折,最终酿造“百家皆行秦政法”的历史悲剧。

宋朝人发明火药、随后火炮开始应用于战争,人类开始从冷兵器向热兵器过渡,也正是在这个过渡期,蒙古人抓住了机遇,把宋朝发明的这个“大杀器”师其长技了一把,使得作为野战之王的蒙古军团成功克服了攻城短板,同时也使人类战争灾难死亡人数一跃而至千万级。

在蒙古军团南征北伐中,历史学家估计战争导致约3000万至6000万人口死亡,强大的金国据说死亡人数超过90%,而南宋人口消亡一半。火药号称中国四大发明之一,但这个发明甫登历史舞台,就引发了战争灾难又一次飞跃。

更不用说第一次世界大战,是人类历史上应用科技产品规模最大的战争,重机枪、坦克、毒气甚至刚刚试飞成功不久的飞机,都一一闪亮登场,这场战争导致1500万人死亡,但这显然已经创造了欧洲的记录,因为一战的主战场是在欧洲,亚洲主要人口大国如中国和印度都只是有所波及。一战无疑为人类史谱写了一幅前所未有的壮阔死亡图景,证明科技文明再次为人类灾难的升级推波助澜。

然而,一战的伤痛尚未愈合,短短二十年相对平静的“繁衍生息”后,二战又爆发了。二战的科技产品应用无疑又是一个新的高峰,飞机、坦克和航母成为主流武器,核武器也初试身手,而战争导致的死亡人数也飙升到7000万,科技文明谱写的灾难乐章又是一次划时代的飞跃。

人类几千年走过来,无数人口惨遭战争荼毒,即使尸骨如山,即使血流成河,人类的记性到目前为止却看不出有多少长进。因此,中国的历史学家总结出了治乱无休止循环的“周期律”,现实政治中不乏热衷“大杀器”的领导人。

战争灾难的本质是什么?目前甚至连准确的定义都没有,更谈不上已经找到和平的钥匙。既然战争难以避免,我们人类就难以避免有人把先进武器运用于战争。

我对战争灾难的理解是:人类价值伦理及其催生的制度体系跟不上科技文明体系发展的节奏导致的悲剧。科技文明已经形成了高度健全的研发体系,就像汽车的发动机一样动力不断升级,而人类的价值体系却仍然被一些古老的法则所支配,就好比1.0版本的控制系统搭配10.0版的发动机,拖拉机的驾驶室搭配泰坦尼亚级巨轮,你坐在这样的巨轮上觉得安逸,其实只是因为暂时风平浪静没啥暗礁而已。

今天世界的大体安宁,一方面得益于科技文明爆发式增长创造的物质社会相对充裕,自然资源的稀缺性被暂时掩盖(科技可以创造一切的信念使很多人注意不到空气和水资源、动植物资源这几类核心资源的总量并没有随着科技快速增长的事实),另一方面则受益于核武器的可怕力量使大国之间不敢轻启战事。至于价值伦理体系严重滞后于科技文明体系的事实则仍无根本改观。

杨小刚先生的文章预期,当人工智能发展到一定程度,就像“不扩散核武器条约”一样,人类也会出台一个如何利用和开发人工智能的条约。

问题在于,核不扩散条约真的已经解决核危机了,还是仅仅暂时缓解?力量博弈下的妥协能否可以视作问题的解决?不同国家、民族、宗教之间的仇恨未解决,仅仅是担心一打架大家都得死伤惨重就放弃攻击,这种和平显然只是相对和平,也许在平衡打破的时候有人想动手,也许还有人丧心病狂就抱同归于尽的决心想动手。再说,核不扩散条约的公平性能获得多少国家认同?还有多少没进核俱乐部的国家还在梦想着拥有“大杀器”呢?仅仅二十年间,拥核国家不也从五个飙升到了八个吗?再给一百年会发展到多少个?

所以实际情况是,人类其实还没有解决核危机时,人工智能时代又到来了。1.0的驾驶室控制10.0的发动机已经疲于应付,20.0版的发动机又诞生了。

杨小刚文章说到:人工智能最可怕之处不在于其本身,而是制造者—----人本身。

我恰恰从这段话看到了不乐观。首先,在人工智能协助下,一个人可以拥有巨大的毁灭力量,这一刻是一定会随着科技的爆发而到来的。人工智能从某种功能和片面属性上超越人类,是已经不断发生的事实,没有发生甚至也不可能发生的应该是整体超越人类,尤其是价值判断能力方面,比如机器人能不能进化到怀疑杀死某个人的指令是否合乎道德?人工智能的危险就在于科学家可能不会优先去研究如何创造机器人的价值判断能力,而会片面发展人工智能的技术能力直至这种片面能力可以让个别人拥有远超常人的力量。尤其战争和恐怖活动的需要更会刺激这种研究偏向于优先发展人工智能的破坏能力。

但是,能够制约这种力量的力量,人类的道德价值系统,我认为从目前的现状来看,未来几十上百年都不会有根本的改观,有些人指望“道德风险意识”能抑制能人的疯狂,但这显然是很难保障的,因为学科的分工决定了一个卓越的科学家不一定是道德和伦理方面高度理性自觉的人,甚至偏偏还就是一些非常偏执疯狂的人。

当然,世界上总是偏执疯狂与理性自觉的人都有,关键要看工具掌握在谁手中,用来干什么。

这恰恰也是很难乐观的事,这种工具说白就是一种权力,权力能不能就掌握在正义者手里,从来都是打不了包票的事。尽管当今世界大多数的“大杀器”是掌握在“负责任”的领导者手里,但显然也有很大几率落入到无良政客手里。要想最大几率避免工具落入无良政客手里,显然需要公民权利对公共权力的有效选择与制约,但这对当今世界显然还是一件任重道远的事,还远未达到可以乐观的地步。

除了权利与权力关系的再造,要想尽可能地降低人工智能带给人类灾难的几率,我还想提一种古老的智慧,那就是来自《易经》和孔夫子的“知崇履卑”观念。《易?大传》上说“知崇礼卑,崇效天,卑法地。”我的理解就是,要以认识世界为目的,而不是以改造世界为目的。认识是天,行动是地。求知要放开思路,大胆思考,行动或应用则要谨慎小心,如履薄冰,诚惶诚恐,三思后行。

回到人工智能研究与开发,就应该将研究目标优先定在通过人工智能研究认识人类自身,也就是从高科技层面回到苏格拉底“认识自己”这个古老命题,是要通过模仿和再现人类智慧来认识人类自身,最核心则是将人工智能的价值判断能力放在主攻方向,通过人工智能研究再现人类的价值判断能力这一目标如能实现,则即使人工智能有朝一日进化到超越人类,也会因为拥有价值判断能力和道德意识而选择不与人类为敌。我们或许可以总结出如下两条:

一:如果人工智能不能在价值和道德意识方面超越人类,单纯的功能超越不能视为超越了人类。

二:如果人工智能进化到价值和道德意识方面也超越人类,那么人工智能多半不会与人类为敌,而可能与人类和平相处。

但是,我是比较怀疑第二条的,我相信人工智能在功能上片面地极大地超越人类是大几率事件,而人类落后的伦理体系导致的冲突随时可能再次打开潘多拉的宝盒。灾难与否,不取决于我们的乐观与悲观态度,而取决于人类自己的选择。历史一旦成为历史都是必然,但一切历史在发生之际却都是偶然。也许我们这一代有幸逃过战争灾难,但我们真的要为子孙后代祈福并做点什么才好,让权利有效制约权力,才能让工具最小几率落入丧心病狂者手里,这或许是我们最迫切需要做的一件事吧。(作者为深圳市马洪基金会智库百人会会员)

来源:华尔街见闻、一财网

“中经报与老板对话”所推送的文章,都会注明来源和作者。如有侵权,请联系我们删除。

.

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部