AI已可“察言观色”,是否会毁灭人类、多久就能?

AI已可“察言观色”,是否会毁灭人类、多久就能?
2024年10月19日 17:40 邵旭峰视界

AI已可“察言观色”,是否会毁灭人类、多久就能?

邵旭峰

1. 现有AI不仅可以做优秀文科生、也可做优秀理科生,尤其可“察言观色”了:

事实上,标题所谈已经是几个月前的事情了,就是OpenAI发布的GPT-4o,其已经具备读取人得微表情、听取呼吸声等功能,换个说法就是其已经可以“察言观色”,高度自以为是的人都做的不太好:

也就是其已经具备捕捉原先无法捕捉的人类喜怒哀乐等方面的讯息、且适当应对的能力——这不就是“人”所谓最难攻克的地方么?所谓“意识”,不就是对这些、还有其他信息的应对处理么?

另外,就是其能多次把国内高考数学题做到满分、以及理科研究生左右的相关水平——也就是其已经不仅是优秀的“文科生”,也能是优秀的“理科生”。

还有,ChatGpt已经引入“思考链”,与强化学习结合。

这才是多长时间,chatgpt最早是在2022年11月份发布的,不到一年半,就到了GPT-4o,o1等程度。

2. AI发展速度超乎想象

9月初,OpenAI公司日本分公司首席执行官公开宣称,年内将发布比现有GPT-4强100倍的新一代模型。

你基于如上,可以先预想一下GPT-5会是怎样的?明年呢?

很直观的,AI不仅在一些具体能力方面已经赶上或者远超人,且在“人”独有特性方面,也开始初现端倪、并在飞速发展进化,是跨台阶式发展。

3. AI的基础也是:

传统AI的基础:数据,算力、算法,都在类似发展。

数据方面,除过传统知识体系、书籍、信息等的尽可能喂入,尤其随着互联网自身高速发展、越来越多的人使用使用互联网,其对各种数据信息的占有,越来越保证这一点。这方面,你越隔绝封闭孤立,就会越落后。

算力方面,主要取决于超级计算机、芯片等的先进程度——比如苹果使用的芯片,已经到了3纳米级别,还有就是训练基础的宽广和先进、高效程度,比如日前,马斯克只用了19天,就搭建了由10万个英伟达H200GPU集成到一台超级计算机的超级训练群,黄仁勋认为,这是完全空前的“超人”般的奇迹,应该是目前全球最大AI训练集群:

然后是算法方面,这主要取决于开创性研究,比如2024年诺贝尔物理学降获得者辛顿,就是神经网络算法的创始人,还有很多算法,读友可自行搜索了解。比如图灵奖获得者Yann LeCun(杨立坤)准备提议一套“目标驱动”的训练计算方法,意图由目标拉动和整合训练。

4. AI的发展已经指数级疯狂,且开始支撑并基础性推动其他学科的研究和发展。

除过物理学奖由AI之父分有,2024年诺贝尔化学奖,颁给了从事机器学习与人工智能工作的戴维·贝克、哈萨比斯和江珀三人,其中贝克是从零开始创立用于预测和设计蛋白质功能和结构的RoseTTAFold算法,而哈萨比斯和江珀则开发了用于预测蛋白质结构的AlphaFold系列人工智能程序。

你从这些就能看出,信息技术和AI已经成了其他科学的最强推动——不仅其自身在指数级发展,也推动其他学科猛然再加速发展,也推动经济和社会整体再加速发展。

应该是会随着信息技术和AI的指数级发展,不断加速其他学科、经济和社会发展。

5. AI不仅在信息技术领域,也在各个领域开始遍地开花、交替借鉴和超越发展。

这是一目了然的,这是人类综合发展的趋势使然。

6. 完全的“超人”(AGI或者ASI)到底什么时候会有?

之前普遍的共识,AI会发展到完全赶上和超越人类的程度——AGI,英伟达CEO黄仁勋在去年11月份公开声称,其最快5年到来:

差不多时间,“AGI之父”本·戈泽尔认为AI迎来指数级“智能爆炸”,“几年内就可以创造完全超越人类的AGI”。

目前全球AI第一领军人物、OpenAI首席执行官山姆·奥特曼稍早前也表示,AGI可能会在“相当近的将来”开发出来。

特斯拉CEO埃隆·马斯克认为GPT-4已经是“AGI”2024年3月份,马斯克在X社交媒体上写道:“明年人工智能可能会比任何人类个体都聪明,到2029年,人工智能可能比所有人类加起来还要聪明。”

山姆·奥特曼在9月份发表一篇博客文章,他提出“ASI”人工超级智能,比AGI更强)概念,他认为ASI会在“几千天”也就是大概10年左右会到来。

综合目前全球信息技术和AI、及其基础,以及最具代表性人物的言论,基本可以得出这样的判断:

可以代替人类几乎所有工作的AGI,在2028年前后应该就会问世;其再完善,完全超越人类的ASI在2030年左右,应该就会到来。

7. AGI和ASI,有没有毁灭人类的能力?

这个问题比较纠结,但可以分解回答:

首先就是毁灭人类需要什么?就目前的视界而言,基本有核战、大规模生化武器战争、大规模不可治愈和致死流行病(尤其呼吸道疾病)流行几种。

那么AGI或者ASI能不能导致这些呢?显然是可以的,从理论讲,现在就可能由一个超级程序或者病毒或者超级黑客让核大国的核武器发射、或者让其雷达和预警“侦测”到敌对核大国的核武器全部向自己发射(其实没有)、而全部向对方发射核武器,对方也开始这样实际发射···

再比如通过终端(比如机器人)之类,让储存生化武器和超级病毒的地方爆炸,让向全球蔓延。

除过全面毁灭,造成人类社会大动荡、紊乱和死伤,除过饥饿等自然因素之外,还有就是种族仇恨、大国间常规战争,大规模通讯信息引发,大规模金融银行股票系统崩溃混乱,大规模天然气石油系统爆炸起火,大规模电力起火、海陆空交通紊乱等等。

AI要搞这些,会更加简单,AI可以不仅可让国家间战争,也可让一个国家内部的军事集团开战,乃至于可以让自己的导弹打自己。

这些方式,说白了就是一个更强程序管控了具体程序和系统,或者让具体程序“中毒”紊乱,就行——就控制和感染、引导其它程序而言,超级黑客利用计算机和网络、病毒可以,何况远超人类的、自己本就是程序的AGI和ASI。

8. 毁灭会以什么方式实现?

显然,会以其自己“有意”为之(也就是其有了意识,并有意这么做)导致发射核弹、引导互相核战,或者直接就地爆炸核弹,或者启动生化武器和超级病毒战争、或者让其爆炸等等;再就是执行某个集团或者组织的命令这么做;再就是突然被感染、变异或者失控,而开始这样做。

换言之,就是其可能有意识这样做,也可能无意识这样做。

有些“乐观”的人(包括AI巨头),总认为AI不可能脱离人的控制——而事实是,你自己的程序都完全可能被黑和控制;或者认为控制的人都是善良的······这些你稍微延展就能推翻。

9.“超人”注定会有意识情感,随着其能力而具备和发展。

通过前面ChatGPT-4已经可以在一定程度“察言观色”,就能推出这一必然结果,这才多长时间的事情,而其已经开始指数级发展,具备意识情感能力已经​依稀可见。

综合来讲,AI肯定会具备毁灭人类世界的能力,可通过多种方式实现——其不具备“意识”情感都就可以,但悲催的是,其会具备、且已依稀可见,而其一旦具备意识,毁灭人类世界的可能性就更大——乃至于几乎肯定其会毁灭现有人类,之后跳出自然人的范畴重造,或者全部都是机器的世界,或者创造的其他物种,比如搞一些狮子老虎龙之类的,带着芯片活动,或者直接通过生物基因决定其一生。

那么如何避免?

世界现行体制和机制、相关思维和作为,都完全无法阻止和避免——因为这种趋势本就是由之导致的,类似于让既得集团自己去根除腐败、让大夫自己给自己动心脏和脑外科手术···

要真正克服,只有提前进行社会形态重构、或称人的革命,以完全拿住信息技术尤其AI的发展态势,始终将其置于人之下的位置,在这过程中,再思考其他妥善安排。

关于社会形态重构和人的革命,敬请留意本人近期将要出版的《世界主要社会形态及走向 - 人类自救时间或只剩不到10年》,人类必须在AGI出来前后就有应对框架,然后充实完善,和AI的更加指数级发展赛跑抢时间,在ASI出来前后,彻底扼住这种趋势。

公号:邵旭峰域

备:邵旭峰传媒

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部