对涉生成式人工智能产品的刑事治理应贯彻区分原则
2023-05-11 09:05:25 | 来源:人民法院报 | 作者:刘杰
 

  凭借高度“拟人化”“智能化”的表现,生成式人工智能模型ChatGPT一经面世,便引发法律及各行业诸多关注。与此同时,我国部分科技公司也相继确认正在研发ChatGPT类生成式人工智能技术。该类人工智能技术的突飞猛进,将会给各行各业带来深刻变革。但每一枚硬币都有正反两面,生成式人工智能技术也存在安全性和可靠性等问题。例如,语料体系的参数量来源问题;再如,生成内容虚假、违法的数据问题。

  面对新型人工智能产品,如果过于严苛对待,可能导致技术的萎缩,不利于我国科技产品在国际上的竞争;相反,如果不加监管,则可能造成生成式人工智能产品沦为违法犯罪行为的重灾区,危害民众的人身、财产安全,甚至可能危及国家安全。

  笔者认为,对涉生成式人工智能产品的刑事治理应当贯彻区分原则。具体而言,以产品上线前后作为区分节点,划分研发者不同责任。在研发阶段,只要研发的生成式人工智能产品符合国家标准、行业标准,并不存在当前科学技术水平能够发现的缺陷的,一般就不应追究研发者的刑事责任;而在产品投入流通后,则赋予研发者在发现漏洞时,及时更新程序、升级系统的安全管理义务。在有能力履行却不履行上述义务的情况下,可以追究相关责任主体的刑事责任。

  首先,区分原则有利于实现鼓励科技创新和防范产品风险之间的平衡。为了鼓励科技创新,避免研发人员产生心理负担,在产品的研发阶段,我国法律明确规定了研发者责任的免除条款。例如,产品质量法第四十一条第二款规定了生产者的三种免责事由,亦即,未将产品投入流通的;产品投入流通时,引起损害的缺陷尚不存在的;将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。根据该条第二款第(三)项,只要在生成式人工智能产品投入流通时,科学技术水平尚不能发现缺陷的存在的,研发者就不用承担赔偿责任。根据法秩序统一性原理,也不能按照刑法第一百四十六条生产、销售不符合安全标准的产品罪和第一百四十条生产、销售伪劣产品罪追究其刑事责任。然而,若只减少研发者责任,不赋予义务,则可能会使生成式人工智能产品的使用处于混乱、无序状态,间接造成利用生成式人工智能产品实施违法犯罪行为泛滥。鉴于产品投入流通后,研发者仍然可以通过程序更新、系统升级等手段解决漏洞问题,并且,由于生成式人工智能产品属于高端智能科学技术,只有研发者掌握其程序算法,因此,在产品投入流通之后赋予研发者更多义务,实属必要。

  其次,区分原则有利于法益保护。生成式人工智能产品的应用风险并不低,忽视研发者对产品的安全管理义务,可能造成法益侵害或危险。如果不加以限制,让人工智能技术超出人类的可控范围,一旦产品被利用作为犯罪工具,产生的危害可能数倍于传统犯罪,甚至可能给人类社会带来毁灭性打击。生成式人工智能产品的研发者掌握着技术、数据的优势,对其产品和服务保持着事实上的掌控关系,而国家监管部门缺乏足够的技术能力和管理资源,只能对产品进行间接管理。为了能够有效保护法益,维护社会秩序,应当对产品研发者赋予安全管理义务,而且有必要将此义务上升为刑法义务。

  再次,一般产品与智能产品之间的差异决定了区分原则的必要性。生成式人工智能产品的价值包含产品的使用及后续服务。根据产品质量法第二条第二款:“本法所称产品是指经过加工、制作,用于销售的产品。”在传统观念里,产品的生产发生在销售之前。换句话说,研发行为处于销售之前。既然产品投入流通时可以“发展风险”进行免责,那么,在此之后为何能够追究研发者的刑事责任?这主要是因为智能产品的特殊性问题。与一般产品相比,生成式人工智能产品更为复杂与特殊,当下并非完全安全、可靠。在不限制其发展的同时,只有明确其流通后研发者的安全管理义务并予以刑事规制,才能有效防范风险。

  最后,区分原则具有贯彻可行性,规避研发者义务不符合公众预期。如果生成式人工智能产品在投入流通后发现漏洞,且该漏洞不能被现有技术所解决,则因不具备期待可能性,不能追究研发者的刑事责任。相反,如果流通之后发现的漏洞,可以通过强制程序更新、系统升级等手段填补漏洞,而研发者在明知的情况下,在合理期限内拒不作为,致使产品被使用者用于违法犯罪,造成严重后果,此时,若仍然不追究研发者的刑事责任,将与刑法的目的相违背,背离民众对法规范的合理期待,不利于公平正义理念的实现。

  (作者单位:华东政法大学刑事法学院)


责任编辑:王娜