什么才是人工智能?会思考会压缩会抽象本片拍摄于2024年5月,播出于2025年4月5日21:20广东卫视《全球零距离》节目(),节目全片内容见文字预告《智能战争迫在眉睫了吗》()。最近,广东卫视《全球零距离》节目携手今日头条,邀请我回答一些关于人工智能的问题。《全球零距离》是由广东广播电视台与新华社国际部联手策划的国际新闻深度报道栏目,于每周二晚9点15在广东卫视黄金时段播出。我收到这些问题之后,首先是非常感谢邀请。不过我远不是人工智能专家,所以我立刻去咨询了若干位专家朋友,然后结合他们的回答,谈一点自己的理解。当然这些问题确实非常有趣,例如我的中国科学技术大学同事俞能海教授就说这些属于灵魂拷问,也是他们经常讨论的问题,所以他们都给出了兴味盎然的回答。第一个问题:什么样的系统才算人工智能系统?它和日常生活里的飞控计算机、辅助驾驶装置等有什么区别?我的科大同事周熠教授指出,智能体的特性首先是自主性,即机器自己主导。如果是人来主导,例如写程序或者遥控,那显然完全没有自主性。自主性可以分成很多级,就像自动驾驶的L1到L5。智能体的第二个特性是前瞻性,就是能够预判一些东西。第三个特性是灵活性,就是遇到问题之后能够灵活调整。还有一个更深入的分析,就是智能体需要会做信息压缩。这是因为智能问题的输入大多是高维的,输出可能是低维的,中间的处理过程必然需要降维。例如图像识别,一张照片有很多个像素,比如1024 * 768,然后每个像素还要乘以色彩的数量,比如256,这就得到了一个很大的数字。可是识别的结果呢?它只有几个选项,例如这张照片是一只猫或者一条狗或者一个人,信息量就只剩几个比特了。所以智能系统必然很擅长压缩。由此导致一种现象,就是一张照片只修改了几个像素点,人眼根本看不出区别,但在计算机眼里却可能完全变成了另一个东西。例如熊猫被识别成长臂猿,河豚被识别成螃蟹,甚至阿尔卑斯山被识别成一条狗()。这就是人工智能做压缩还不够好导致的。更深入地说,这是因为机器的信息压缩非常依赖于样例,而目前再大的样例都还远不如人的日常生活经验。第二个问题:人工智能生成的假视频假照片越来越多,这会造成什么影响?我们要怎么控制、分辨?现在,假视频、假照片可能比真的都多了。当然在很多领域它是有价值的,例如广告、影视,可以降本增效。但如果恶意使用,这就是个非常大的问题。显而易见的危害是诈骗,更严重的是对人类认知进行操控。还有一个问题,是对数据库的污染。人工智能拿其他人工智能制造出来的数据去训练,只会越练越糟糕。俞能海老师就是这方面的专家,而且是双面的专家:既擅长造假,也擅长鉴别造假。他们开发了钱学森的数字人,也开发了很多识别造假的技术。例如他不久前接受CCTV采访时说过,让跟你通话的人摁鼻子就可以判断他是不是AI换脸。最有趣的,就是用大模型来识别大模型,用魔法打败魔法。我国已经开始考虑对生成式内容进行管控,如《生成式人工智能服务管理办法》等文件要求对生成内容添加标注信息。甚至还有人提议反向标注,就是对没有用人工智能的内容添加标注。这是个魔高一尺道高一丈的军备竞赛,大家如果感兴趣,可以多问问俞能海老师。第三个问题:发展人工智能技术需要什么门槛和资源?中小国家还有可能发展自己的ChatGPT等人工智能吗?如果要开发大模型,那需要海量的数据、算力和优秀的算法。对中小国家来说,可能连电力都不够。到2027年,全球人工智能相关的电力消耗可能会增加85至134太瓦时,这相当于荷兰、阿根廷或瑞典等国家的年用电量。但另一方面,如果不是开发大模型,而是在已有的人工智能基础上发展具体的应用,那不要说中小国家了,中小公司都可以做。我的朋友、风云学会会员陈经指出,在这方面最需要的不是人工智能软硬件,而是行业的特定知识,例如行业训练数据、行业应用知识。很多国家并不是没有资源去做这些,而是看不到这么做的意义,所以没有这类公司。但国际大公司肯定不会放过这个市场,它们会给这些中小国家开发针对性的应用。因此,人工智能的未来格局可能会像互联网一样,中美这样的大国提供基座,中小国家在其中发展自己的特色应用。门槛是有的,但空间也是广阔的。#微博科普##微博公开课##微博新知##人工智能##智能体##标注##反向标注##电力##数据#
4001102288 欢迎批评指正
Copyright © 1996-2019 SINA Corporation
All Rights Reserved 新浪公司 版权所有
All Rights Reserved 新浪公司 版权所有
