我国极有必要制定人工智能法

我国极有必要制定人工智能法
2024年09月13日 09:05 光明日报

每一项重大科技应用取得突破前后,均有对其理论上的持续争论。著名小说《仿生人会梦见电子羊吗?》引发的人与仿生人之间界限的讨论虽产生于20世纪,但一直延续至今,其蕴含的法律问题是人工智能究竟是否具备法律人格。这一问题对外是研发与运用人工智能的前提,对内则是确立人工智能权利、义务乃至责任的基础。围绕此问题,光明日报理论版近期刊发了多篇文章,充分反映了反对说与支持说之间的争鸣。但笔者认为,此两类观点均有可供商榷之处,即都未能很好地针对不同级别人工智能的特质来分析。在学术讨论中,人工智能主要分为弱人工智能和强人工智能,其区别在于自身同人类智慧的距离。这种异质性决定了不同人工智能各自法律人格的有无以及如何具体地赋予,但在判断时均须遵循法律主体资格的一般要件原理。

人工智能有无法律人格的判准

法律并非当然地把某种自然存在(如自然人)或社会实在(如公司等)认定为法律主体,而是通过一定的条件设置或认可原则来判断是否以及如何赋予该存在以特定的主体资格。符合条件与认可原则者,即具备法律人格,反之则否。这只能是一种非此即彼的判断,而不可能存在《有限法律主体:人工智能法律地位的合理选择》一文提出的“有限性”这一中间状态。简言之,抽象的法律人格是不能附加条件或予以限制的,能够限制的只能是具体的权利,而非人格(即主体资格)。人工智能这种非自然人的社会存在是否具有法律人格,端赖其能否满足以下三方面要件。

第一,意志能力要件,即能否把内在思想通过外在行为表达出来。自然人的内在意志往往通过其外在行为表达出来,无论该行为是明示的、默示的,还是沉默的。表征法人意志的则是团体设立成员之间的共同信念,该共同信念便是法人意志能力的外在体现。判断人工智能有无意志能力的标准在于:决定其发挥具体功能或完成特定任务的算法能否与设计者、生产者等相分离;或者说,人工智能本身能否自主地创设出新的算法或摆脱既有算法的约束。若人工智能仍完全受制于既有算法的束缚,那就难谓它有意志能力;若人工智能可以摆脱既有算法束缚,能够自主地发挥特定功能,完成某种意志性行为,那就可以说它具有某种程度的意志能力,法律便可以赋予其主体资格,或至少具有这种可能。

第二,物质性要件,即是否拥有从事活动所需的财产或其他必要条件。物质性要件可以是技能或身份,但更多的应该是财产。对于人工智能来说,其物质性要件可谓纷繁多样,这完全取决于人工智能所要发挥的个体功能及社会功能。但无论如何,拥有财产是人工智能获得法律人格的一个极其重要的要件,因为讨论其是否具有法律人格,从最终意义上说还是在追问人工智能能否独立承担法律责任,尤其是财产性法律责任。

第三,形式性要件。一个社会存在实体能否成为法律上的人,还取决于其是否符合法律的形式要件要求。法律通过一套认可原则把客观实在纳入法律主体之中,自然人是随着出生、通过人的存在而具有权利能力的,法人的权利能力则通过特定的认可原则而授予。当下,承认非自然人主体资格的认可原则主要有自由设立、准则设立、行政许可、特许设立、强制设立等五种。主体的认可原则反映着一个国家对非自然人主体赋予法律主体资格的宽严松紧程度,其本身就是一种法律价值判断。

人工智能法律人格的分级认定

近期刊发的几篇文章,基本上都不加区分地肯定或否定所有人工智能的法律人格。但依据本文关于人工智能有无法律人格的判准,在现行法下,关于不同级别人工智能有无法律人格的问题,结论并不相同。

第一,部分弱人工智能无法律人格,其应被认定为权利客体,具体表现为物、产品、服务等。在意志能力要件方面,即便是高级弱人工智能的“智能”仍比较固定且单一,其仅能在算法设置的任务范围内具备某种超出人类的“智能”。《人工智能成为法律主体不存在理论障碍》一文在论证人工智能具备法律人格时指出,“人工智能的自动化决策,是人类所‘投喂’大数据与计算机程序共同合力形成的结果,两者均是人类智性的延续与‘放任’”,恰恰证明了弱人工智能难以产生自由意志。在物质性要件方面,《有限法律主体:人工智能法律地位的合理选择》一文虽主张“法律应当为人工智能创设特殊的责任承担的机制,在一定限度内以自己的财产独立对受害人承担责任”,但当下还难以看到人工智能可以拥有自己的财产,迄今也还没有出现责令人工智能独立承担或与他人共同承担侵权损害赔偿等法律责任的案例。即便人工智能发展的未来是让其独立或与其他主体共同承担责任,但至今仍还没有找到为人工智能注入“第一桶金”的现实路径。在形式要件方面,法律通过何种形式来认定弱人工智能具有法律人格,目前尚无制定法依据。因此,弱人工智能在现阶段原则上被认定为权利客体更妥。此做法并不妨碍区分具体情形解决其致害责任的分配问题。如自动驾驶汽车致害时,可能发生产品责任(民法典第1203条)与机动车交通事故责任(道路交通安全法第76条)的竞合。

其二,高级人工智能(包括强人工智能及部分高级弱人工智能)在特定条件下有可能被赋予法律人格。《破除人工智能成为法律主体的臆想》一文指出,“人工智能系统的‘决策’基于大量的数据处理和模式识别,但这些‘决策’并不涉及自主的理性判断”。但人工智能因其学习能力而在某些领域的应用已经超越人类的技术现实,显然不同于人类既有的科技进步。其导致的结果是,人工智能不再仅仅是工具,而是将“主体—客体”间单向的服务变为双向的交流,因而具备一定的自主性。这一根本性的变革,促使人类在制度设计时须将人工智能的智能程度及其带来的不可预测性纳入考虑范围。若出现需要对特定的人工智能予以保护或使其承担责任的具体情形,可将其扩张解释为法律主体。民法典第128条规定:“法律对未成年人、老年人、残疾人、妇女、消费者等的民事权利保护有特别规定的,依照其规定。”其立法目的在于保护该条列举和未经列举群体的民事权益,基于此,该条之“等”可认定为“等外等”,即在条文的列举之外,还包括有待特别保护的其他群体。在现阶段,司法实践可将人工智能扩张解释进该条的“等”字,适用该条对人工智能施加保护。

人工智能法律人格的未来设想

人工智能是否具备法律人格不能一概而论,仅通过扩张解释将部分人工智能纳入法律主体行列,尚属权宜之计。对于确有必要赋予法律人格的人工智能而言,未来可以采取准则主义(含登记)使之获得国家认可。此模式的合理性,一方面是有利于国家对弱人工智能尤其是高级弱人工智能进入社会实施更有效的控制;另一方面,人工智能国际标准正在确立并不断完善,技术标准的确立为人工智能之分级和设立准则的确立提供了依据。法人登记制度亦为人工智能登记提供了借鉴。

若未来采用准则主义肯认人工智能的法律人格,尚需进一步明确其取得主体地位的实质性要件。在意志能力认定方面,人工智能意志能力的认定原则是其本身至少能够适度摆脱固有算法的束缚,形成一定程度的自主学习与创造能力。这就需要结合国家或者特定国际组织有关人工智能的认定标准,尤其是建立在对人工智能具体智能分级的基础上。在物质性要件方面,人工智能应该拥有一定的财产。对于其初始财产来源,当下有两种方式可供参考:一是为人工智能强制投保责任保险。保险在现代交通事故赔偿中的作用已经过实践验证,人工智能保险是解决人工智能财产责任承担问题的现实选择。二是设立人工智能储备基金。对于那些不太可能造成重大生命和财产损失的人工智能(如Siri、人工智能家庭管家等),有学者建议应对购买人加收责任附加费以创立责任基金。如此,便可解决《人工智能不应成为法律主体》一文提及的人工智能因无独立财产从而不具备责任能力的问题。

面对各类人工智能的社会存在样态、是否准许特定种类人工智能的存在、存在后如何规制其行为以及相关法律争议如何解决等问题,《破除人工智能成为法律主体的臆想》一文主张的“在现有法律体系下解释和完善法律”诚然是一种可选方案。但是,作为一个大国,尤其是将发展人工智能列为国家战略的大国,应在人工智能立法方面做出率先尝试,从而可更为有效地引导人工智能的良性发展。基于此,我国极有必要制定“人工智能法”,立法目标包括:建立人工智能伦理委员会,确保伦理道德关系不受破坏;建立全流程监管体系,确保从研究到应用的负面效应可控;确定宽容审慎的监管原则、明晰法律责任制度;建立国家层级的人工智能公共专利池,加速技术成果商业转化速度与竞争优势等。其中也有必要对人工智能的法律人格问题做出回应。

总之,人工智能发展能否实现《人工智能全球治理上海宣言》中“赋能人类社会发展”的壮志,必须回答人工智能是否具有法律人格的重大争议。主体制度本身是一种价值判断,是否赋予人工智能法律人格,在根源上取决于如何平衡开发者、制造商、所有者、使用者以及第三人(受害人)等主体之间的利益关系。始终要注意的是,人工智能本质为智慧工具,即使人工智能具有自我意志也无法改变其服务社会与自然人类发展的属性。无论是否赋予人工智能法律人格,或者赋予人工智能何种法律人格,其目的或目标都应是关心与关爱自然人类及自然生态的健康发展与成长。否则,一切讨论既无法律意义,也无伦理价值。

(作者:彭诚信,系上海交通大学凯原法学院院长、教授)

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部