人工智能的应用,带来各种益处的同时,也不可避免地会造成各种损害并由此产生侵权责任承担问题。因此,如何妥善适用现有法律规定处理人工智能产生的侵权责任,成为当前司法审判工作中正在面临并迫切需要解决的问题。为此,笔者以民法典为基本依据,结合当前产业发展中人工智能的实际应用样态,就人工智能侵权责任的法律适用问题谈谈自己的看法,供今后办案和研究参考。
一、民法典侵权责任体系的总体分析
我国民法典是一个体系化的立法,具有比较完善的从总则到分则的系统。民法典总则中规定了人格权、身份权、物权、债权、知识产权等各种民事权益,分则侵权责任编则调整因侵害总则中各种民事权益产生的民事关系,并采取一般规定与特殊规定的方式构建了比较完整的侵权责任体系。
民法典侵权责任编的“一般规定”采取过错原则与无过错原则的两分法规定了基本侵权原则。其中,过错原则又进一步分为一般过错原则和过错推定原则。对于应当适用过错推定原则或者无过错原则的侵权行为,要求必须有法律明确规定。目前尚未有法律明确规定人工智能侵权责任可以适用过错推定原则或者无过错原则,因此在个案中不能将民法典侵权责任编“一般规定”中的过错推定原则或者无过错原则适用于人工智能侵权责任。换言之,就民法典侵权责任编的“一般规定”来说,仅一般过错原则具有适用于人工智能侵权责任的解释空间。
民法典侵权责任编的特殊规定主要包括责任主体的特殊规定,以及产品责任、机动车交通事故责任、医疗损害责任、环境污染和生态破坏责任、高度危险责任、饲养动物损害责任、建筑物和物件损害责任等7种特殊责任。“责任主体的特殊规定”部分主要规定了加害人和受害人以外的其他主体对侵权行为的责任承担问题,例如监护人对被监护人致害他人的侵权责任、用人单位对工作人员致害他人的侵权责任、劳务接受人对劳务提供人致害他人的侵权责任、定作人对于承揽人致害他人的侵权责任、网络服务提供者对网络用户致害他人的侵权责任、未尽安全保障义务的侵权责任和教育机构的侵权责任等。从文义解释的角度和司法实践看,定作人对于承揽人致害他人的侵权责任、网络服务提供者对网络用户致害他人的侵权责任通常有适用于人工智能侵权责任的解释空间。
同样,从文义解释的角度,就产品责任等7种特殊责任来说,环境污染和生态破坏责任、饲养动物损害责任、建筑物和物件损害责任显然无法适用于人工智能产生的侵权责任。集成人工智能系统的机动车发生交通事故造成损害,要区分发生交通事故的原因是由机动车驾驶行为造成的还是机动车产品造成的。对于前一种情形,应当直接适用民法典中机动车交通事故责任的有关规定处理交通事故所造成的损害赔偿责任;对于后一种情形,在处理交通事故造成的损害赔偿责任之后,应当依据民法典中产品责任的有关规定处理这种集成人工智能系统的机动车所造成损害的侵权责任。同样,诊疗活动中使用集成人工智能系统的医疗器械产品造成患者损害,要区分造成医疗损害的原因是由诊疗行为造成的还是诊疗活动中所使用集成人工智能系统的医疗器械产品造成的。对于前一种情形,患者在诊疗过程遭受的损害应当直接适用民法典中医疗损害责任的有关规定;对于后一种情形,在处理患者医疗损害责任之后,应当依据民法典中产品责任的有关规定处理这种集成人工智能系统的医疗器械产品所造成损害的侵权责任。因此,就前述7种特殊责任来说,只有产品责任和高度危险责任才有适用于人工智能侵权责任的解释空间。
为此,下文将结合产业场景中人工智能的实际应用样态,重点分析和探讨民法典侵权责任编“一般规定”中的一般过错原则,“责任主体的特殊规定”中定作人的侵权责任、网络服务提供者的侵权责任,以及特殊责任中产品责任和高度危险责任,如何适用于人工智能侵权责任。
二、禁用人工智能与高风险人工智能侵权责任的法律适用
《欧盟人工智能法》作为世界上第一部具有约束力的法律文件,将人工智能原则上划分为具有不可接受风险的禁用人工智能、高风险人工智能和低风险人工智能,并以此针对人工智能的提供者、运营者、进口者、销售者、制造者等市场主体分别规定了不同的义务和责任,其中高风险人工智能的分类参照了欧盟有关产品安全的条例、指令等法律文件。总体来看,该法的立法重心是人工智能的风险防控,目标导向是将人工智能可能造成的损害降低到人们普遍可以接受的程度。该法采取的人工智能风险类型化规制的立法思路,为人工智能侵权责任的法律适用提供了有益启示。
禁用人工智能属于人工智能领域禁止的实践,使用此等人工智能本身即为违法,由此造成他人损害的,理应适用无过错原则。但是目前法律既未明确规定这种情形应当适用无过错原则,也未明确规定适用过错推定原则,因此只能适用一般过错原则。使用禁用人工智能本身具有违法性,这足以证明使用人具有主观过错,因此即使适用一般过错原则,受害人也并未因此承担严重失衡的举证责任。
如果高风险人工智能作为产品的组成部分被集成到产品中,那么相应的产品也具有高风险,则可以视为高度危险物。高风险人工智能运营者利用高风险人工智能提供人工智能服务的运营行为,具有高度的危险性,可以列入高度危险作业范围。据此,由高风险人工智能产生的侵权责任,适用民法典中高度危险责任的有关规定。在具体案件中,根据涉案人工智能的实际应用样态,选择适用有关高度危险作业致害的侵权责任规定或者有关高度危险物致害的侵权责任规定。
目前,我国行政主管部门已经开展互联网信息服务算法、深度合成服务算法、生成式人工智能服务等人工智能相关事项的备案工作,但尚未开展人工智能的风险等级评估和登记备案工作。因此,在个案中,认定涉案人工智能是属于具有不可接受风险的禁用人工智能或者高风险人工智能,是目前司法审判过程中面临的一大技术性难题,并将直接影响后续人工智能侵权责任的具体法律适用。
三、低风险生成式人工智能侵权责任的法律适用
生成式人工智能是基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。这种技术能够针对用户需求,依托事先完成训练的基础大模型等,利用用户输入的相关资料,生成具有一定逻辑性和连贯性的内容。禁用生成式人工智能侵权责任与高风险生成式人工智能侵权责任的法律适用,可以遵照上文予以处理,本部分主要讨论低风险生成式人工智能侵权责任的法律适用。
目前,生成式人工智能服务提供者主要依托互联网,以在线方式向网络用户提供生成式人工智能服务并提供生成内容。因此,很多人认为,生成式人工智能服务是一种网络服务,生成式人工智能运营者是网络服务提供者,网络用户利用网络服务实施侵权行为的,生成式人工智能运营者的侵权责任应当适用民法典中的避风港原则。具体来说,就是依据民法典第一千一百九十四条至第一千一百九十七条,认定生成式人工智能运营者是否应当就网络用户利用其网络服务侵害他人民事权益的行为承担侵权责任。
避风港原则最早出现在美国1998年制定的《数字千年版权法》,并且仅适用于著作权保护领域。网络服务提供者没有能力对网络用户自行上传和传播的内容进行事先审查,对这些内容是否侵权事先并不知情,所以立法采取“通知﹢删除”规则,对网络服务提供者的间接侵权责任进行了一定程度的限缩。避风港原则的核心要义就是网络用户利用网络实施了著作权直接侵权,如果网络服务提供者能够证明自己接到通知后及时删除侵权链接或者网络用户提供的内容,则不承担损害赔偿责任。就我国来说,避风港原则最初体现在《信息网络传播权保护条例》的相关条款,分别针对自动接入或传输、自动存储、信息存储空间、搜索或链接等网络服务提供者在什么条件下可以适用避风港原则作出了规定。后来,侵权责任法、电子商务法和民法典等不断扩大避风港原则的适用范围,目前避风港原则在我国可以适用于各种网络侵权行为。
如上所述,生成式人工智能是根据网络用户需求,利用网络用户输入的各种限定条件、提示词等相关信息,生成文本、图片、音频、视频等内容并提供给网络用户,生成式人工智能提供者与网络用户共同参与内容的生成过程。在避风港原则中,网络服务提供者不参与侵权内容的生成,只是针对网络用户提供的内容提供传输、存储等网络服务,网络服务提供者的间接侵权责任也因此才得以限缩。由此可见,生成式人工智能服务提供者与避风港原则中的网络服务提供者存在根本性不同。因此,避风港原则不能适用于生成式人工智能服务提供者。
生成式人工智能服务提供者利用生成式人工智能技术,根据网络用户需求生成内容并提供给网络用户,显然符合民法典中“承揽人按照定作人的要求完成工作,交付工作成果”的承揽合同要件。其中,生成式人工智能服务提供者是承揽人,网络用户是定作人,生成式人工智能服务提供者与网络用户之间的权利义务关系可以适用民法典有关承揽合同的相关规定。生成式人工智能造成第三人损害的侵权责任,可以适用民法典中承揽合同履行过程中定作人和承揽人侵权责任的相关规定予以处理。
四、低风险判别式人工智能侵权责任的法律适用
人工智能大体上可以分为判别式人工智能与生成式人工智能,这也是当前人工智能应用的两大类主要模型。判别式人工智能的目标是确定输入数据的类别或者预测特定的输出,不生成新的数据实例。生成式人工智能是比判别式人工智能更为先进的人工智能技术,其核心在于其能够模拟和复制数据中的模式,进而创造出全新的数据实例,而不是简单复制或者重现之前的训练数据。禁用判别式人工智能侵权责任和高风险判别式人工智能侵权责任的法律适用可以遵照上文予以处理,本部分主要讨论低风险判别式人工智能侵权责任的法律适用。
低风险判别式人工智能运营者可以利用低风险人工智能技术,采取网络方式提供人工智能服务。这是一种无形的网络服务,由此产生的侵权责任显然不能适用民法典中产品责任的相关规定。同样,依据前述关于民法典侵权责任体系的总体分析,既不能适用民法典中承揽合同履行过程中定作人和承揽人侵权责任和网络服务提供者侵权责任的相关规定予以处理,也不能适用特殊责任中产品责任和高度危险责任,只有一般过错原则才有适用的解释空间。因此,低风险人工智能运营者利用低风险人工智能,采取网络方式提供人工智能服务,由此产生的侵权责任,在个案中应当具体区分涉案人工智能是判别式人工智能服务还是生成式人工智能服务。前者应当适用民法典侵权责任编“一般规定”中的一般过错原则,后者则应当适用民法典中承揽合同履行过程中定作人和承揽人侵权责任的相关规定。
低风险判别式人工智能可以被集成到有形产品中,然后以产品形式进行独立地市场销售和具体应用。例如前文提及的集成人工智能系统的机动车和集成人工智能系统的医疗产品以及现实中具备各种功能的人形机器人等。虽然这样的产品可能需要实时与相应的网络平台进行网络通信,相应的网络平台还可能不时地提供程序更新、数据更新等网络服务,但是这样的产品毕竟具备传统产品的有形性,并在相应的应用场景中能够像传统产品一样独立地发挥其功能。因此,集成低风险人工智能系统的产品所产生的侵权责任,应当适用民法典侵权责任编中产品责任的有关规定。
总体来看,由人工智能应用产生的侵权责任问题,目前在民法典框架下基本上都能比较妥当地得到处理。至于其他法律有特别规定的,理应优先予以适用。当然在具体案件中,需要解决诸如人工智能风险等级评估、产品缺陷认定等技术性难题,这些对司法审判实践来说都是不小的挑战。