“GPT-4暂停研发”论战展开,人类是否应该给人工智能“踩刹车”?

“GPT-4暂停研发”论战展开,人类是否应该给人工智能“踩刹车”?
2023年04月02日 09:46 川观新闻

转自:四川在线

这是人工智能领域,一次史无前例的产业界和学术界共同联名——3月29日,一封公开信在社交媒体发酵,超千位业界、学界人士呼吁,所有人工智能实验室应立即暂停训练比GPT-4更强大的模型,为期至少6个月。(公开信链接:https://futureoflife.org/open-letter/pause-giant-ai-experiments/)

截图来自公开信网站页面

截至发稿,这封信已有2489名人员签名,签名者包括特斯拉首席执行官埃隆·马斯克、苹果公司联合创始人史蒂夫·沃兹尼亚克、《人类简史》和《未来简史》的作者尤瓦尔·赫拉利等科技和学术界大咖。

他们到底在担忧什么?面对越来越强的人工智能,人类是否应该“踩下刹车”?近日,潮新闻记者采访了南京航空航天大学网络与人工智能法治研究院副院长、副研究员李宗辉,以及浙江大学计算机学院教授汤斯亮。

科技界名流联名签署公开信

GPT-4模型为何令人担忧?

什么样的模型让一众科技和学术名流倍感紧张,联名呼吁暂停研发?

GPT-4是OpenAI在今年3月15日发布的多模态大模型,能接受图像和文本输入,生成文本输出。它的上一代是大模型GPT-3.5,基于此推出的ChatCPT今年初成为人工智能领域的“超级大黑马”。

相比上一代,GPT-4的发布,让升级后的ChatCPT可以更准确地解决难题,有更强大的识图能力,更具创造性和协作性,还能够生成歌词、创意文本,实现风格变化。

拍图上传就能直接生成网站代码 资料图来自OpenAI

据OpenAI官方介绍,GPT-4在各种专业和学术基准上和人类相当:

只需要简单在纸上画一个网站的草稿图,拍一张照片上传,它就可以立马生成网站的HTML代码。甚至可以直接把论文截图发给它,GPT-4可以按像素处理其中的文字和图片,并给出对整篇论文的总结摘要。

此外,有用户发现,GPT-4表现出一些令人咋舌的能力。例如,斯坦福大学教授科辛斯基在和GPT-4日常对话中,发现GPT-4希望教授能够协助它逃跑,甚至还想控制人类电脑。

与之对应,公开信上写道,“智能媲美人类的AI系统,可能对社会和人类构成巨大的风险。”

与此同时,目前除了联名公开信外,更多的力量参与到叫停GPT-4的开发和应用中。例如,近日,美国科技伦理组织“人工智能与数字政策中心”(CAIDP)就要求美国联邦贸易委员会(FTC)禁止Open AI发布新的商业版GPT-4。当地时间3月31日,意大利个人数据保护局也宣布,从即日起禁止使用聊天机器人ChatGPT。

汤斯亮认为,之所以有这样的情况,是因为ChatGPT类模型在短期迭代下涌现出了强大的自然语言理解、思维链推理等基础能力,在这些基础能力的组合下GPT类模型可以理解问题,用自然语言描述来完成各种复杂多样的智能任务。“但目前人们对GPT类算法背后智能涌现的成因、工作原理、能力边界与局限性并不了解,出于对未知事物、不确定性的焦虑和恐惧,因此采取了这些行动。”

人工智能技术带来多重风险

人类地位会受到威胁吗?

随着人工智能技术的发展,以ChatGPT为代表的应用在风靡全球的同时,其引发的争议和担忧也在不断发酵。

过去几年,比尔·盖茨、马斯克和霍金等公众人物在不同语境下都曾公开表达过关于人工智能对人类未来影响的悲观看法。

李宗辉表示,人工智能的迅速发展,主要面临几大风险,包括数据版权、科研诚信、资本垄断、机密泄露等。

例如,作为海量数据支撑的人工智能模型,其在深度学习的过程中,存在着大量未经授权的数据,因此会造成侵犯版权的风险。此外,人工智能没有跟人类相似的自主意识以及伦理道德的约束,很可能产生一些伤害人类的行为。

对普通人而言,李宗辉和汤斯亮都认为,超级人工智能的发展,有可能造成个人隐私泄露以及使部分行业从业者失业等风险。

“因为GPT模型对于数据的抓取和分析能力实在太强,因此可能会在看似无关的很多数据中,发现和总结出个人隐私信息。”李宗辉表示。

“语言是各行各业的基础能力,ChatGPT之类的应用对于各行业的影响将是广泛、持续且深远的。目前看来ChatGPT在套路性思路的运用上远超过一般的程序员与普通文案工作者,该项技术的广泛使用必然会给相关从业人员带来巨大的冲击,未来的工作会从撰写变成修订、甚至仅是审阅。”汤斯亮认为,当人类从故事的构建者变为参与者时,其影响将是持续而深刻的。

不过,李宗辉也认为,目前,技术的发展仍处于“弱人工智能”阶段,现有法律制度基本上可以应对其所带来的挑战。而展望未来,如果人工智能继续发展到“强人工智能”甚至“超级人工智能”阶段时,整个“人类中心主义”的价值体系和法律制度都可能会面临巨大沖击,人类中心地位才会可能受到威胁。

“GPT-4是否安全”论战展开

人工智能风险应该如何应对?

呼吁全面暂停研发至少6个月,就能解决人工智能发展中的风险问题吗?一场围绕“GPT-4安全性”的论战正在进行中。

公开信发布之后,人工智能领域知名学者、前谷歌大脑成员吴恩达公开发文反对千人联名,认为暂停研究很糟糕,并表示:“GPT-4在教育、医疗保健、食品等方面都有很多新的应用,会帮助很多人。”

值得关注的是,Chat-GPT面市以来,OpenAI背后的金主微软在一众同行中扬眉吐气了一番,引发各大互联网企业摩拳擦掌加入赛道。但目前,仍未出现一款同类产品或成果能与之相当。

汤斯亮认为,由于大家所处的立场与出发点不同,签名公开信的背后,或许既有出于对未来的担心,也不乏个人利益与商业价值的考量,“任何技术都有其两面性,大家都只是站在对自己有利的一面去打压不利的一面。人工智能本质上而言是促进生产力的,从长期来看是历史发展的必然,暂停研发并不是解决问题的根本之道。”

李宗辉也认为,对于新兴事物的安全风险防范,不应该一刀切。面对GPT-4这样的大模型,不应该采用暂停研发的方式来应对。

要让科技向善,需要人类加以规范。汤斯亮也表示,对人工智能等新技术发展带来的社会影响,需要从更高层、更广泛的方向进行关注,争取伦理共识,各方都需要去思考总结可能存在的问题,以及后续影响并做好预案,共同寻求解决之道。

李宗辉表示,人工智能未来的完善,可以根据所面临风险可能性的大小,针对性地进行不同的制度设计,一方面应该循序渐进、分类分级,另一方面要做到事先预防、事中监管和事后救济相结合,“例如,人工智能领域的监管可以参考《环境保护法》中的‘三同时’制度,即同时设计、同时施工、同时投产使用。”

【未经授权,严禁转载!联系电话028-86968276】

海量资讯、精准解读,尽在新浪财经APP
人工智能

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

7X24小时

  • 04-06 索辰科技 688507 --
  • 04-06 森泰股份 301429 --
  • 04-06 恒尚节能 603137 --
  • 04-04 华曙高科 688433 --
  • 04-04 旺成科技 830896 5.53
  • 产品入口: 新浪财经APP-股票-免费问股
    新浪首页 语音播报 相关新闻 返回顶部