特约文章丨人类物种存续发展:大模型与人工智能伦理第一原则初探

特约文章丨人类物种存续发展:大模型与人工智能伦理第一原则初探
2024年03月18日 13:23 中国人工智能学会CAAI

文 / 刘方喜

摘 要:

基于伦理精神与科学精神统一理念,可将“以人类物种存续发展为目的”设定为 AI 伦理第一原则,而威胁人类存续的力量主要来自人类外部自然力和人类内部社会结构性冲突;把 AI 拟人化而将其视作威胁人类物种的外部力量,既不科学,也有违物种伦理。大模型符合人类智能发展史基本规律,将推动 AGI 的实现;而 AI 能力越大,可能造成的危害也越大,工具伦理强调 AI 危害的伦理责任主体,不是工具,而是人或社会组织,监管先行非常必要;来自人类内部的社会结构性冲突,会使具有超强能力的 AI 的滥用或误用威胁人类物种存续发展,变革社会结构等非常重要。科学揭示大模型的“实然”及符合规律的“必然”,坚持 AI“应然”的伦理先行原则,会为 AI 科学发展和合理运用扫清障碍。

关键词:

物种伦理;工具伦理;伦理先行;科学精神;大模型

ChatGPT 的发布宣告 AI 发展进入了“大模型时代”,暂停大模型研究的千人签名信、辛顿(Geoffrey Hinton)退出谷歌等事件表明:随着 AI 能力的极速提升,伦理先行意识也在增强。2023 年 5 月 30 日,美国非营利组织 Center for AI Safety 官网公布了只有 22 个英文单词的关于 AI 风险的声明(以下简称“风险声明”),超过 350 名 AI 领域的企业界和学界名流签署了该项声明,签名中的前 4 人是辛顿、本希奥(Youshua Bengio),以及谷歌 DeepMind 的哈萨比斯(Demis Hassabis)、OpenAI 的奥特曼(Sam Altman):Mitigating the risk of extinction from AI should be a global priority alongside other societalscale risks such as pandemics and nuclear war——用extinction 这个词表明 AI 进一步发展将有可能威胁人类物种存续,“以人类物种存续发展为目的”似应成为 AI 伦理第一原则。探讨 AI 应用伦理,首先要讲科学,要把伦理精神与科学精神高度统一在一起,这就要求对大模型之“实然”、实现 AGI 符合发展规律的“必然”,做出科学的辨析,而非主观想象性的臆测,如此,AI 伦理学在价值观上所宣示的“应然”,才不至于空置或空转。在探讨 AI 社会影响的多种学科中:① “法学”关注“不应然”或不该做的,法律对 AI 应用的影响是刚性的;② “伦理学”则既关注“不应然”也关注“应然”,伦理原则对 AI 应用的影响是非刚性的;③ AI 的应用又总是在由个人与个人之间的具体关系构成的社会结构系统中进行的,“社会学”揭示社会结构系统的“实然”,不结合这种“实然”,或者说不放在特定的社会结构中来加以审视,AI 伦理原则就会流于空洞或虚化,比如脱离今天过度竞争的社会组织特性来抽象地谈“AI 向善”,就可能沦为空谈。

首先看与 AI 相关的“物种伦理”。中国科学技术大学陈小平教授讨论 ChatGPT 的文章指出:“事实上,人工智能是包含内在伦理追求的,而不仅仅以科学发现、技术发明和经济发展为目的。根据人工智能内在伦理观,人类不应研发不利于增进人类福祉的 AI,而让人类变成低配版 AI 显然不利于增进人类福祉”——以“增进人类福祉”、避免人类灭绝而以人类物种存续发展为“目的”,应成为 AI伦理第一原则。研究“实然”的科学并不直接具有特定的价值立场,而伦理学研究的“应然”本身就体现了特定的价值立场。伦理学并不包揽 AI 研究的所有方面,但作为 AI 研究的一个方面,并且针对全球有关 AI 的认知混乱和伦理混乱,AI 伦理学必须旗帜鲜明地宣示自己基本的价值原则。人类伦理原则在不同的社会历史发展阶段、不同的民族文化空间中会有所不同,但是,以“人类物种存续发展”为“目的”,当是人类伦理的“第一原则”和“底线原则”,这是康德“人是目的”伦理原则的具体化。将这种第一伦理原则落实到 AI 活动中就是:“人类”不是“智能”发展或所谓“智能进化”的“手段(工具)”,而“智能”发展乃是“人类物种存续发展”的“手段(工具)”。

AI 伦理混乱往往与认知混乱尤其对 AI 的非科学认知交织在一起:“让人类变成低配版 AI”就会形成所谓人类与 AI 之间的“地位之争”——这种认知与 AI 进化论密切相关,未来的 AGI 尤其超级 AI被视作一种新的“硅基智能物种”,而其思想根源又与“拟人化”倾向密切相关——陈小平指出:“大模型 LaMDA 曾被认为具有自我意识,不应被当作机器对待”,而这是由“拟人化想象”的“投射效应”引起的,“这些看法是没有科学依据的,不符合科学事实的”。在未来较长一段时间里,创造所谓新的“硅基智能物种”,在科学上“做不到(can not do)”“不必然”——这是个“科学”问题,要在“科学”上加以辩驳;而在“伦理学”上则应宣示和强调“不该做(should not do)”“不应然”,不以人类物种存续发展为目的的 AI 的累积性发展,将会产生巨大负面影响。

再从人类伦理原则本身的发展历史看,伦理既规定“应该”做什么(“应然”),同时也规定“不应该”做什么(“不应然”),即存在“伦理禁忌”。现代人类学研究发现,不同的原始部落会有不同的伦理禁忌,但是一个相通的禁忌是“乱伦禁忌”,因为乱伦会导致人类物种的退化,而在自然界中人类物种的身体力量不如很多动物物种,退化会导致人类物种本身的灭绝——“乱伦禁忌”也正是为了维持“人类物种存续发展”。

“风险声明”涉及威胁人类物种存续的三种因素,一是核技术;二是流行病,与此相关的是基因技术,对人的基因进行编码和克隆,已成为“伦理禁忌”;三是 AI 技术,科幻作家阿西莫夫提出的“机器人三原则”,关乎的大抵就是维持人类物种存续伦理原则。在 17 世纪前后现代自然科学发展的初期,弗兰西斯·培根就提出利用科学“创造新种”的构想,这也成为今天滥用基因和智能技术者所追求的目标之一,就像乱伦一样会威胁人类物种存续——尽管乱伦所导致的是人类物种的“退化”,而滥用基因和智能技术者,则声称是为了人类物种的进一步“进化”。因此,“(创)造(新)种禁忌”应该像曾经的“乱伦禁忌”一样,成为当今极致技术时代的人类伦理第一原则和底线原则。有人声称 AI 技术发展的终极目标,是为了创造出不同于人类“碳基物种”的新的更加智能的“硅基物种”——这实际上假设“智能”是目的,而人类物种则是智能发展的“手段(工具)”,并且是较为低级的工具即 AI 低配版——这是一种“反人类”的智能拜物教,不过是“人类存在是实现神的目的的手段”等宗教观念的翻版而已。人类物种不是智能发展的手段,智能只是人类物种发展的手段,应成为 AI 伦理第一原则。

再看 AI 应用的“工具伦理”,讨论这一问题应坚持动态发展的“历史原则”和系统的“社会原则”。乱伦会导致人类物种退化,进而在与其它动物的生存竞争中被淘汰,在此意义上“乱伦禁忌”是一种消极原则;而人类应对生存竞争和外部自然压力的积极而能动的做法,是发展自身的智力和科学、创造并使用各类技术:人的身体力量不如许多动物,维持自身存续就要发展智能力量,由此创造并不断发展文化、技术等,而发明和发展技术的初心,也正是为了维持人类物种的存续发展——今天我们发展 AI 这种极致技术不应该忘记这个初心。

首先从动态发展的“历史原则”看,进入私有制社会和“文明时代”以后,人类发明的技术不仅被应用于征服人类外部自然力和生存竞争,而且越来越被应用于人类内部的竞争——到了技术发达的现代资本社会,人类与外部动物的竞争原则,就被转化为人类内部的竞争“社会达尔文主义”原则。人类迄今为止的文明史,一直伴随着人类内部相互厮杀的战争,而辩证的历史事实是:许多技术恰恰是在人类内部相互杀戮的战争中发展起来的——AI计算机与核技术就是在第二次世界大战中发展起来的。陈小平强调:AI 治理和伦理策略,应该随着 AI的“技术条件”的变化而变化,才能具有现实针对性——这种方法论上的动态发展的历史原则,同样适用于分析技术及其应用与人类物种存续的关系。

在“风险声明”所涉及的要素中,流行病及相关病毒来自人类外部的自然力,而技术则是人类内部的社会力量:在核技术发展之前,战争会使人类物种有所损耗,但总体上不会导致人类灭绝,而现在的基因、核技术、AI 的武器化等则开始威胁人类物种存续——形成这种威胁的现实根源,并非发达的技术本身,或者说并非人类外部的超强力量,而是人类内部的过度竞争性的社会结构所形成的冲突及其导致的技术滥用。因此,科学考察 AI 的威胁,还需坚持系统的“社会原则”,不应只孤立地看 AI机器对人类的威胁,而应放在现实的社会结构系统中考察。

以“人类物种存续发展”为“目的”,则以AI为“工具”、以 AI 的发展为“手段”,这是体现“物种伦理”的“工具伦理”,关乎人类与外部世界的关系;而从人类内部关系即人与人的关系看,“人是目的”伦理原则要求把属于人类物种的每一个具体的个人都作为“目的”。但是,进入私有制社会和文明时代以后的实际的历史事实却是:在人类“内部”,一些人总把另外一些人当作“手段”,比如奴隶主就把奴隶当作像骡马等动物物种一样为自己生产财富的“工具”,兹不多论。具体地看,“工具伦理”体现为:工具所产生的危害,不是由“工具”本身负责,而是由使用工具的“人”负责——在 AI 运用中就体现为:一个人使用 AI 工具对另一个人所产生的负面后果的责任主体,是“人”而不是“AI 工具”——这关乎人与人关系的“社会学”的“工具伦理”。在这方面,伦理学曾出现过一种诡辩:“人”用“刀”杀“人”,究竟是“刀”杀“人”,还是“人”杀“人”?对于非自动化工具的“刀”等来说,这种诡辩还相对容易辩驳,对于自动化工具的“机器”来说,似乎更难辩驳,而 AI 的“人形化”(智能机器人)外观,以及赋予 AI 机器以“自我意识”“自由意志”的人格化、拟人化等,又使这种诡辩更加貌似有理——这会成为 AI 研发和使用人规避伦理责任的借口。因此,在“科学”上揭示机器拟人化谬误,有助于在“社会学”层面上确立 AI 危害的伦理责任主体,而非科学的认知混乱则会导致 AI 伦理上的混乱。

ChatGPT 发布之后,奥特曼在接受访谈中强调:“我们应该努力向人们解释,教育人们这是一个工具,而不是一个生物”“把生物性投射到工具上是危险的”——这就是我们强调的“工具伦理”,当前 AI伦理上的最大混乱,是有些人声称不能把 AI 机器当作“工具”而要当作“物种”,并获得与人类物种“平等”的地位——仅仅在所谓“本体论”层面很难将此辨清,但是,从人类当下真实的社会状况看,就会发现这种认知的荒谬和矫情:在许多人还被当作资本增殖的“工具”的现实社会状况下,有人却声称不要把作为人类创造物的机器当作“工具”!因此,坚守 AI 工具伦理原则,不仅要明确“承担责任的主体”是人或社会组织而不是 AI 机器,同样还要明确“被负责的对象”是人类、个人而不是 AI 机器——这是 AI 伦理第一原则的具体落实。

对AI“实然”和符合规律的“必然”的科学识别,是探讨 AI“应然”伦理原则的科学基础。一般不会否认 ChatGPT 等大模型是 AI 发展的一次重大突破,但对大模型的能力是否足够强大(“实然”)、沿着大模型路径是否可以实现 AGI(“必然”)的认知存在分歧,由此还产生对大模型应用风险大小的不同判断。

立 昆(Yann LeCun) 认 为:未 来 几 年 内, 大模型会被抛弃,因为“这些系统没有物理世界的经验,这使得它们(的能力)非常有限”,因而无法实现 AGI——这种判断使他认为:大模型应用的风险没那么大,“这就好像你在 1930 年问航空工程师‘如何让涡轮喷气式飞机安全可靠’?工程师会说‘什么是涡轮喷气式飞机’?因为涡轮喷气发动机在 1930 年还没有被发明。”辛顿则指出:“我过去认为风险是遥不可及的,但现在我认为这是严重的,而且相当近”——在他看来,现有大模型能力已经比较强大,进一步发展后失控的风险将很大,这是他退出谷歌的原因之一。奥特曼认为现在的大模型也确实还不是 AGI,但他显然并不同意立昆所说的未来实现 AGI 后再加强监管,而是强调“千里之行,始于足下”——“监管先行”非常必要。

陈小平对大模型的“实然”做了较全面的科学辨析。他首先把自然语言大模型运作机理,概括为“从人类规模语料中自动提取关键性语言痕迹”,并把“机器的语言行为”的基本单位 token 翻译为“语元”,如此,大模型“机器的语言行为”就可描述为“语元组合运动”,其“底层原理”是“基于(语元)关联度的预测”——这种“关联度”表明“语元组合运动”并非杂乱无章的,而是符合一定“规律”的——而这又是对“人类的语言行为”的“学习”的结果,人类语言行为存在一定规律,大模型掌握了这种规律并将其运用到文本的自动生成。他用不同于“概括性模型”的“实例性模型”、不同于“原理模拟”的“功能模仿”、不同于“强共识”的“弱共识”等两两相对的范畴,揭示了大模型基本特性,并指出:“在 AI 发展早期,原理模拟引起了更大的关注,被视为 AI 走向成功的唯一可行道路”,而阿尔法狗和ChatGPT大模型等则表明“‘唯一可行道路’的猜测已经失去了现实基础”,未来 AGI 的实现也必然不会只有“唯一可行道路”——立昆认为实现AGI 要抛弃大模型而另起炉灶,大抵依然信奉“唯一可行道路”的 AI 发展理念。语言文字等符号的发明和使用,在人类智能发展史上是划时代的,由此,人类智能的发展,也就主要不是表现为人脑内部的“神经元系统”的进一步进化,而是表现为人脑外部的“语言行为”的发展——大模型取得突破的原因之一,就是符合人类智能发展史这一基本规律,因此,在大模型基础上集成其他功能,也将是实现AGI 符合规律的“必然”。

大模型“从人类规模语料中自动提取关键性语言痕迹”,而作为人类语料载体的文字是一种非个人性的社会性的符号,由其生成的“符号智能”就是一种非个人性的社会性的智能,不同于个人大脑生成的非社会性的智能——在此意义上,AI 大模型所具有的是“非个人智能”,但却依然是“人类性”的“社会性”智能,流行表述称之为“非人类智能”,不准确,并且会把 AI 尤其 AGI、超级 AI 视作存在于人类“外部”的力量,引发不科学的认知混乱和伦理混乱,进而引发不必要的恐慌。

陈小平指出:“透过大模型重新认识人工智能,重新思考 AI 时代的社会治理,具有重大的现实意义。随着 AI 等新技术推动全球经济效率不断提升,甚至以超常规的速度提升,近代以来行之有效的以效率提升为基本动力的发展模式或将面临拐点。”科学揭示大模型的“实然”及符合规律发展的“必然”,有助于科学辨析 AI 应用的风险及应对之策。大致说来,带来风险的 AI 应用可分为“有意”之“滥用”和“无意”之“误用”两大类。比如,把本身具有“弱共识”特性的自然语言大模型,不加限制地运用于一些需要“强共识”的领域比如医学诊断等,就可能产生无意误用之风险。更广泛地看,对于不了解能力越来越强大的 AI 技术特性的普通大众尤其青少年用户来说,无意误用的风险会越来越大;加强新技术通识教育、弘扬科学精神、培育伦理责任意识,可以减少无意误用及其风险。

对于 AI“有意”之“滥用”来说,法律可以限制“不合法”的滥用,但却不能阻止“合法”的滥用——在这方面“伦理先行”尤为必要。通过科学辨析,可以揭示“不会发生 AI 与人类之间的‘地位之争’”,但是,陈小平强调,“AI 与人类之间仍会出现职业竞争,也可能引发其他重大社会问题”——而这显然与“近代以来行之有效的以效率提升为基本动力的发展模式”密切相关,奥特曼说“我对资本主义创造并捕获无限价值的激励有些害怕”,效率优先在企业内部就表现为利润最大化,相应地要求劳动力成本最小化,如果 AI 机器可提供的智力成本比人类智力成本低,企业选择裁员就是“合法”的,但由此造成的大量失业却会冲击社会稳定,不加限制和调整,最终会对人类物种存续、社会文明发展形成冲击——“伦理先行”而转变发展模式、变革社会结构和制度非常必要。

科学地、发展地看,未来 AGI 甚或超级 AI 本身也不会成为存在于人类之“外部”的力量,被超级 AI 赋能的人类物种也不会成为存在于自然之“外部”的“神”,即使超级 AI 也不是某种超自然、超人类力量发展的产物,不是外在力量馈赠给人类物种的神奇能力,而是人类物种自身智能发展的产物;而始终处在自然之“内部”的人类,也就不可能绝对地支配自然力:比如现在的 AI 正在天气预测上发挥作用,而避免各类自然灾害、极端天气的危害等还任重道远;面对微生物病毒的侵袭,人类依然无法完全有效应对,如此等等——由此来看,停止或减缓 AI 的进一步发展,既无可能,也无必要。从人类“内部”关系来看,世界局势依旧动荡不安,继核武器之后,AI 武器也将成为悬在人类头上的达摩克利斯之剑,AI 能力越强,这悬顶之剑的凶险越大,人类内部过度竞争性的关系及其引发的矛盾冲突如果得不到缓解,人类物种灭绝的风险必然越来越大;而 AI 自动化所带来的大量失业等负面影响,又会进一步激化社会矛盾冲突——如果孤立地、不科学地把AI尤其超级AI当作威胁人类的存在于人类“外部”的力量,就会把人们的关注焦点从这种更现实的冲突及其形成的风险上转移开来。

总之,人类物种存续发展依然面临着一系列内忧外患,在弘扬科学精神以澄清有关 AI 的不科学的认知混乱,明确责任主体以澄清 AI 伦理混乱进而增强伦理责任意识,为 AI 进一步科学发展和合理运用扫清障碍等方面,AI 伦理研究可以有所作为,当然任重而道远。

(参考文献略)

刘方喜

CAAI 人工智能伦理与治理工委会委员,中国社会科学院文学研究所马克思主义文学理论与文学批评研究室主任、二级研究员,中国社会科学院领军人才。出版专著《脑工解放时代来临:人工智能文化生产工艺学批判》等。

选自《中国人工智能学会通讯》

2024年第14卷第1期

人工智能伦理治理新挑战专栏

扫描加入我们获取更多学会资源

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部