吴大奎|基于生成式人工智能服务风险的分级法律规制研究

吴大奎|基于生成式人工智能服务风险的分级法律规制研究
2024年04月18日 10:00 媒体滚动

转自:上观新闻

基于海量数据、先进算法和雄厚算力构建出的生成式人工智能服务一经出现,便给社会各行各业带来极大的变化。过往法律零散地对生成式人工智能服务产生的风险进行回应式规制,具有滞后性,不能及时的应对各种风险。而最近出台的针对生成式人工智能服务的一系列针对性法律规制,又对生成式人工智能服务的风险分级类别、依据、后果规定得不够细致,无法引导生成式人工智能服务兼顾发展与安全。因此以现有立法为基础,综合国外立法经验和国内学者观点,从生成式人工智能服务的“基础模型-专业模型-服务应用”的现实风险出发,厘清生成式人工智能服务风险分级的种类、依据及后果,为生成式人工智能服务在法治轨道上发展提供法律规制指引。

生成式人工智能服务的代表——ChatGPT是美国OpenAI实验室开发的一款提供对话交互服务的应用,其凭借着海量的语料库和先进的算法模型,给用户带来了仿佛与真人对话一般的体验。近来,众多生成式人工智能服务井喷式涌现,给人们带来了工作学习方面的诸多便捷。但是与此同时,以ChatGPT为代表的生成式人工智能服务也在国家安全、社会舆情、个人信息等诸多方面产生了安全隐患问题。积极立法应对生成式人工智能服务在网络空间中带来安全隐患问题,既是党和人民的共同期盼,也是顺应国际形势的潮流。具体而言,生成式人工智能服务在训练基础模型过程中使用海量数据,可能对国家数据安全、社会舆情、个人信息安全造成危险;生成式人工智能服务在建设算法模型的过程中,由于代码的自动迭代导致算法透明度低,可能产生侵权行为发生后责任划分困难的风险;生成式人工智能服务的服务应用端可能由于自动收集用户生成内容,出现隐私泄露,超出最小限度收集个人信息的问题。目前我国也就生成式人工智能服务出台了《生成式人工智能服务管理暂行办法》,但还是存在相关概念不清、立法理念不明、规制措施不具体等问题。目前中国国内学者对于生成式人工智能服务的治理路径观点大致分为三类,一类学者认为规制生成式人工智能服务需要法律法规提出针对生成式人工智能每一项可能风险的具体解决措施;另一类学者认为规制生成式人工智能服务首先要提出与技术相关的各项法律原则;还有一类学者认为针对生成式人工智能服务的不同层级需要采取不同的规制模式。本文将在第三类学者的研究基础上,通过梳理国内国外生成式人工智能相关立法,吸纳学界相关研究观点,秉承国家对于新兴技术持有的发展与安全并进的理念,基于生成式人工智能的风险提出分级规制措施。

规制生成式人工智能服务,首先需要了解生成式人工智能的运行机制并总结生成式人工智能服务的特点,从而明确生成式人工智能服务可能会产生哪些风险。

根据OpenAI官网的描述,生成式人工智能的产生(以ChatGPT为例)分为四个阶段,包括:(1)给生成式人工智能提供训练数据帮助其构建模型。(2)进行人工标注,引导生成式人工智能模型向人类期待的方向作答。(3)通过人工对GPT生成的多个答案进行排序建立奖励模型。(4)将GPT的生成结果再投入模型,实现模型的不断迭代优化。可以将生成式人工智能服务的产生大致总结为三个层面:(1)通过各种途径收集大量数据构建基础模型阶段。(2)通过人工标注和奖励模型构建算法模型阶段。(3)通过服务端生成内容反馈迭代优化阶段。

生成式人工智能服务(以ChatGPT为例)的智能由两方面产生,一方面是利用一个叫“转换器”的基于神经网络的深度学习模型对用户的提问文本和海量语料进行概率性匹配分析,从而使得计算机生成结果接近自然人语言;另一方面是通过“人类反馈强化学习机制”和一个叫“生成式对抗网络”的深度学习模型,让人类和人工智能自身对用户提问和人工智能生成结果做出正面和反面的评价,从而推进人工智能不断迭代优化。据此,本文总结出了生成式人工智能服务具有的三个特点:(1)生成式人工智能服务的生成结果具有随机性,生成式人工智能服务需要依靠海量数据进行预训练才能提高生成结果的真实性和准确性。(2)生成式人工智能服务具有反馈性,生成式人工智能服务的迭代优化需要人工标注者和用户不断反馈。(3)生成式人工智能服务具有人机交互性,生成式人工智能服务智能的展现一方面离不开强大的算力整合海量数据进行预训练,另一方面也需要人类参与人工标注和生成内容反馈,从而使服务不断迭代优化。

我国对于生成式人工智能服务法律规制是从通过其他部门法相关法律条款对生成式人工智能服务的风险进行回应式治理到制定专门的部门规章进行集中式治理,这个过程中治理的针对性、有效性、直接性逐渐增强,但还是存在缺乏对生成式人工智能服务的翔实定义、对生成式人工智能服务的管理存在“一刀切”的情况、生成式人工智能服务相关规定不够具体等问题。

2023年8月15日,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组发布了人工智能法示范法1.0(专家建议稿),其中第23条规定:“国家建立人工智能负面清单制度,对负面清单内的产品、服务实施许可管理,对负面清单外的产品、服务实施备案管理。国家人工智能主管机关根据人工智能在经济社会发展中的重要程度以及一旦遭到攻击、篡改、破坏或者非法获取、非法利用,对国家安全公共利益或者个人、组织合法权益、经济秩序造成的危害程度,牵头制定并定期更新人工智能产品、服务负面清单。”人工智能法示范法虽然不是正式立法,但是具有很强的借鉴意义,第23条涉及的负面清单制度,实际上就是对人工智能产品、服务进行分级治理,分级的依据一方面是人工智能产品、服务本身在经济社会发展中的重要程度,另一方面是一旦该产品、服务受到攻击时可能产生的损失,分级的结果是高风险的人工智能产品、服务投入市场时需要事前许可,与此同时风险较低的人工智能产品、服务在投入市场时只需要事后备案即可,同时兼顾了人工智能产品、服务的发展与安全。但是人工智能法示范法第23条也存在与《生成式人工智能服务管理暂行办法》第3条同样的问题,就是分级的依据太过宽泛,没有具体的判断标准,在实践中很难操作,同时分级的种类还是不够细致,不能够充分的兼顾生成式人工智能服务的发展与安全。

基于对我国生成式人工智能服务相关法律规定的梳理和目前学界研究现状,我国生成式人工智能法律服务规定主要存在以下三点不足:

《生成式人工智能服务管理暂行办法》第22条指出生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。这个定义既没有体现出生成式人工智能服务的智能性,也没有突出生成式人工智能服务的交互性,因此基于这个定义很难有针对性地化解生成式人工智能服务可能产生的风险。

《生成式人工智能服务管理办法(征求意见稿)》中完全没有提到对生成式人工智能服务进行分类分级管理,《生成式人工智能服务管理暂行办法》第3条提到对生成式人工智能服务进行分类分级管理,但也只是一笔带过。显然目前我国立法并没有基于生成式人工智能服务可能存在不同等级风险进行详尽的分级治理,这种“一刀切”的做法,一方面会导致高风险的生成式人工智能服务产生的大量法律问题不能及时解决,另一方面又会阻碍低风险的生成式人工智能服务的正常发展,迟滞技术进步的脚步。

国外生成式人工智能服务相关法律规制以美国和欧盟为代表分为两个大的类别,分别是以欧盟为代表基于风险分级的硬法规制和以美国为代表确立人工智能相关原则的软法规制。下面将详细论述两种不同规制方式的概况以及我国立法可以借鉴之处。

以欧盟的人工智能法案为代表的硬法规范大多基于风险对人工智能服务分级规制,通常将人工智能服务基于风险分为禁止级、高风险级、有限风险级、最小风险级四个等级,分级的依据包括:人工智能服务基础模型训练数据的数量与质量;人工智能服务涉及算法的透明性、可靠性、可解释性;人工智能服务本身在经济社会中的重要性以及其可能对社会产生的危害。

以经合组织的《人工智能原则》为代表的软法规范,大多是从一个宏观层面阐明人工智能服务需要具备的特征,概括成以下三个方面:(1)以人为本的价值、公平、可靠等原则强调人工智能服务基础模型训练数据要保质保量,避免出现歧视、非客观、非公正等伦理问题;(2)透明度、可解释、稳健性等原则强调人工智能服务算法模型需要置于人的控制之下,每一行代码都能够被解释,从而保证算法生成的结果在可控范围之内;(3)包容性、可持续性发展、责任导向等原则强调人工智能服务产出的结果以及使用人工智能服务的过程都要置于法律的监管之下,从而兼顾人工智能的发展与安全。

在梳理了国外生成式人工智能服务相关法律规制后,本文认为我国可以从以下几个方面进行借鉴:

只有明确生成式人工智能服务的定义,才能明晰生成式人工智能服务的运行涉及哪些要素、可能面临哪些风险,从而为进一步提出规制生成式人工智能服务的措施提供理论依据。

法律不能管到社会生产生活的方方面面,尤其是生成式人工智能服务的算法层面。由于算法的复杂性、多变性、黑箱性,法律很难直接规制,此时就需要提取生成式人工智能服务运行的“最大公约数”,确立相应的治理原则,并将其内嵌入算法当中,从而在技术层面避免生成式人工智能服务可能带来的风险。

通过前文对于中国立法现状不足的梳理,合理借鉴国外相关立法以及吸收现有研究成果优势,本文认为我国生成式人工智能服务的法律规制改良需要从以下三个方面进行。

根据欧盟人工智能法案第3条有关定义,人工智能服务是指“基于机器的系统,旨在以不同程度的自主权运行,并且可以针对明确或隐含的目标生成例如预测、建议或决策等输出,影响物理或虚拟的环境”。我国可以将该定义延伸至生成式人工智能服务领域,即将生成式人工智能服务界定为“基于机器的系统,通过分析海量数据和算法优化迭代,以不同程度的自主权运行,针对用户提示明确或隐含的目标生成例如预测、建议或决策等输出,影响物理或虚拟的环境”。充分阐明生成式人工智能服务涉及的要素,从而为后续规制生成式人工智能服务可能产生风险做好铺垫。

根据美国相关人工智能服务框架,本文认为我国应当结合国情,创造性地将相关生成式人工智能服务应当遵守的包括技术向善、技术透明、技术受控等原则内嵌入算法当中,从而抑制技术惯性、避免算法歧视、掌握技术轮舵,使得算法在现代化法制轨道上蓬勃发展。

本文认为在生成式人工智能服务风险等级的确立上,可以沿用欧盟人工智能法案对于人工智能系统的风险等级四分法,但是出于推进基础模型发展的需要,仅从原则层面规定基础模型语料库的来源,而不做更多的硬性规定,对于算法模型和服务应用端可能产生的风险则应当全部纳入风险等级的分类依据内。同时对于风险不可接受的生成式人工智能服务应当禁止投入市场;对于风险较高的生成式人工智能服务应事前审查得到国家有关机关的许可后,方可投入市场;对于风险较低的生成式人工智能服务应在国家有关机关备案后,方可投入市场;对于无风险的生成式人工智能服务应在地方有关机关备案后,方可投入市场。具体而言,建议国家将生成式人工智能服务的分为以下级别:(1)禁止级:产生的内容不符合社会主义核心价值观,容易造成各种歧视,严重损害他人合法权益的生成式人工智能服务,禁止投放市场。(2)高风险级:不生成禁止级可能产生的内容,但人工智能自动生成的算法占算法总比例过高,以至于算法透明度和可靠度较低,或者在服务应用端收集用户输入信息,可能导致生成结果造成严重不良社会影响的生成式人工智能服务,需要得到国家网信办等国家有关部门授权许可之后方可投入市场。(3)低风险级:不生成禁止级可能产生的内容,虽然存在人工智能自动生成的算法,但占算法总比例不高,不影响算法透明度和可靠度,不太可能导致生成结果造成严重不良社会影响的可能的生成式人工智能服务,需要在国家网信办等国家有关部门备案之后方可投入市场。(4)安全级:不生成禁止级可能产生的内容,不存在人工智能自动生成的算法的生成式人工智能服务,需要在省级网信办等地方有关部门备案之后方可投入市场。

上海市法学会官网

http://www.sls.org.cn

海量资讯、精准解读,尽在新浪财经APP

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 04-25 欧莱新材 688530 --
  • 04-01 宏鑫科技 301539 10.64
  • 03-29 灿芯股份 688691 19.86
  • 03-27 无锡鼎邦 872931 6.2
  • 03-25 中瑞股份 301587 21.73
  • 新浪首页 语音播报 相关新闻 返回顶部