尚权推荐SHANGQUAN RECOMMENDATION

尚权推荐丨赵秉志、袁彬:人工智能的刑法主体价值问题研究

作者:尚权律所 时间:2022-09-20

摘要

 

对于人工智能能否成为刑法上的独立主体,刑法理论上存在着肯定论与否定论的激烈争论。技术和规范伦理是决定人工智能刑法主体价值的事实和规范要素。现代刑法上的主体是具有自主意识的行为与责任主体,按照现代刑法的主体标准,人工智能不具有独立的刑法主体价值。现代刑法正向预防刑法转型,并以预防为主要导向,未来刑法主体是具有适用刑罚、保安措施必要的责任主体。人工智能作为社会防卫对象的责任主体,将具有独立的刑法主体价值。当前我国应重视人工智能对人的刑事责任减免问题,重视完善新型人工智能犯罪的刑法立法。

 

 

关键词:人工智能;行为主体;人机关系;社会防卫;刑法价值

 

 

一、问题的提出

 

 近些年来,人工智能的发展取得了令世人瞩目的成就。亚马逊公司的个人助手Alexa、谷歌公司的AlphaGo、苹果公司的智能私人助理Siri、特斯拉公司的自动驾驶汽车等人工智能系统都已投入社会应用。人工智能在以技术投入社会应用的同时也引发了诸多事故,如2015年大众机器人“杀人事件”、2016年推特聊天机器人“言论侮辱事件”,2016年特斯拉自动驾驶汽车车祸致死事件、2018年亚马逊智能音箱“恐怖怪笑”事件等。2017年,我国浙江省发生的网络黑产系列专案中,已出现利用人工智能窃取数据、晒码撞库、分销数据、冒充诈骗等犯罪行为。这引发了法学界对于人工智能的法律主体地位的热烈讨论,并在刑法学者当中就人工智能能否成为独立的刑法主体形成了肯定论、否定论的争论,甚至出现了研究的“反智化”与“伪批判”的激烈对立。

 

  人工智能的刑法主体价值研究是一种前瞻性的假设型研究,即假定未来人工智能具有自由意志或者假定未来人工智能不具有自由意志,并以此展开人工智能能否成为刑法上的独立主体的探讨。例如,肯定说认为未来人工智能具有辨认和控制自己行为的自由意志,通过构建人工智能的刑罚体系可以对人工智能实施刑罚制裁,未来人工智能可以成为刑法上的独立主体;但否认说则认为人工智能永远都不可能具有自由意志,更无法适用刑罚,未来人工智能不能成为刑法上的独立主体。

 

  上述争论表明,当前刑法理论上关于人工智能的刑法主体价值研究,在逻辑起点(未来人工智能是否具有人的自由意志)和逻辑推导过程上都存在明显分歧,共识度很低,给相关研究与实践应用造成了很大的困扰。本文拟以刑法主体标准及其转变为视角,探讨当代及未来人工智能的刑法主体价值,以期对相关问题的研究有所促进。

 

二、科技水平与规范伦理:人工智能刑法主体价值的决定因素

 

 刑法主体是行为主体和责任主体的统一。根据“刑罚的一身专属性”原则,犯罪行为主体同时以成为承受刑罚的主体为原则。现代刑法对犯罪主体的要求是具有刑事责任能力,即具备刑法意义上的辨认和控制自己行为的能力。这种能力是事实与规范伦理的统一,在事实层面上要求行为人能辨认和控制自己的行为,在规范伦理层面上要求行为人的能力达到了合理的要求。对于人工智能而言,其主体要素在事实层面体现为技术水平与标准(技术导致人工智能具有一定的心理能力),在规范伦理层面要求其能力达到了刑法伦理的要求,两者共同构成了人工智能的科技刑法伦理,决定了人工智能的刑法主体价值。

 

(一)科技水平:人工智能刑法主体价值的事实基础

 

  科技伦理的基础是科学技术。人工智能的科技发展水平决定着人工智能的智能化程度和社会认可度。人工智能存在不同的技术等级和标准,是判定人工智能刑法主体价值的事实基础。

 

  第一,人工智能的技术等级。人类智力的核心是独立思维能力(包括独立发现问题、分析问题和解决问题能力),评判人工智能的智能化程度也主要看其是否具有独立发现问题、分析问题、解决问题的能力。根据智能化程度的不同,人工智能可分为弱人工智能、强人工智能和超人工智能三个不同等级。其中,弱人工智能是擅长单个领域的人工智能,不具有综合发现问题、分析问题和解决问题的能力,通常只是人类从事社会活动的辅助;强人工智能是一种类似于人类级别的人工智能,具有宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作,属于可以独立发现问题、分析问题和解决问题的人工智能;超人工智能是高级形态的人工智能,它在几乎所有领域都比最聪明的人类大脑还要聪明很多,包括科学创新、通识和社交技能,它不仅能够独立地发现问题、分析问题和解决问题,还可能存在完全的自主意识。通常认为,在人工智能发展的三个等级中,弱人工智能、强人工智能不具有独立的法律主体价值,它们主要依赖于人类设计的程序,不能脱离人类而独立存在,必须要有人类的参与;超人工智能可以脱离人类而独立存在,甚至有可能具有完全的自主意识,具备在法律上给予其单独评价的技术基础,可能具有独立的法律主体价值。

 

  第二,人工智能的技术标准。这包括两个层面,即人工智能发展不同等级的技术标准和判断人工智能具有自主意识的技术标准。人工智能发展等级的技术标准不直接决定人工智能的刑法主体地位,但其对等级的评定会影响人的刑事责任形式和程度。以汽车的自动驾驶为例,美国汽车工程师学会(SAE)对汽车自主性等级做了0-5级的划分,其中0级是非自动化,完全由人操控;5级是在任何环境下都不需要人了。我国工业和信息化部、国家标准化委员会发布的《国家车联网产业标准体系建设指南(智能网联汽车)》将自动驾驶汽车分为“辅助控制类”和“自动控制类”,其中自动控制类又细分为自动泊车、城市工况自动驾驶、高速公路自动驾驶、车辆列队跟驰自动驾驶、有条件自动驾驶(CA)、高度自动驾驶(HA)和完全自动驾驶(FA)。对自动驾驶汽车制定的不同技术标准,对使用者的责任会产生重要影响。一般而言,使用符合更高自动化标准的汽车,使用者对发生后果承担刑事责任的可能性及程度更低。

 

  同样,人工智能的自主意识是建立在计算机程式之上,也需要有相应的技术标准加以判定,毕竟计算程式不等于自主意识,两者不具有直接的对应关系。也正因为如此,否认论者认为,人工智能的自主意识完全是臆想的,他们认为人工智能只是一种计算程式,即便是超人工智能也不可能具有自主意识。因此,能否建立起计算程式与自主意识之间的固定关系及标准,会对人工智能的刑法主体价值产生直接影响。

 

(二)规范伦理:人工智能刑法主体价值的规范基础

 

  规范伦理通常着眼于人的行为,是以对人的行为的规范为指向和中心的道德言说和道德建构。科技水平是确定人工智能主体价值的事实基础。但人工智能要成为刑法上的“人”,还必须符合规范伦理,即刑法是否有必要将人工智能的活动视为一种主体的行为,并通过刑法措施要求其按照社会正义原则进行行动。这又包括:一是要否将人工智能从人与人工智能的人机关系中独立出来,成为独立的一般法律主体?二是要否将人工智能从刑法与其他部门法的法际关系中独立出来,成为独立的刑法主体?

 

  第一,人机关系:人工智能成为独立的一般法律主体的规范伦理基础。人工智能是人类的发明物。人与人工智能的人机关系是建立在人工智能的技术发展之上的互为进退关系。人工智能的智能化水平越高,其对人类的依赖程度越低,人类就越有可能减少对人工智能的操控,让人工智能独立参与社会活动;反之,人工智能的智能化水平越低,其对人类的依赖程度越高,人类就越需要介入人工智能,越不可能让人工智能独立参与社会活动。从发展的角度看,当人工智能高度智能化后,人类将不可避免地逐步退出人与人工智能的人机关系,让人工智能独立从事社会活动。而要让人工智能独立从事社会活动,就要赋予人工智能一定的资格。一旦人类完全退出人与人工智能的人机关系,完全允许人工智能独立开展社会活动,法律就需要对人工智能的活动进行规范,并要求其独立承担法律责任,人工智能就将成为独立的一般法律主体。

 

  第二,法际关系:人工智能成为独立的刑法主体的规范伦理基础。在国家法律体系中,刑法是其他法律的后盾法和保障法,同时也是最后法。只有当其他法律对社会矛盾的解决无力或者过于低效时,刑法才可能介入,刑法与其他部门法的关系因而具有相对的独立性。对于人工智能而言,即便人工智能的智能化程度足够高且具备独立承担法律责任的条件,也面临着由刑法还是由其他法律对其进行调整的问题,而这也将决定人工智能在刑法上的地位(包括能否取得刑法上的独立地位)。人工智能的核心是技术,技术具有跨法际的特点。刑法要不要赋予人工智能独立的刑法主体地位,很大程度上取决于民商事等其他非刑事法律能否有效规范人工智能的活动。从现代国家的法际关系上看,只有当民事、行政等其他非刑事法律无法有效规范人工智能的活动时,才可能需要刑法的介入,进而才有必要给予人工智能独立的刑法主体地位。

 

三、自主的行为与责任主体:现代刑法的主体标准与人工智能的刑法主体价值

 

 科技水平是人工智能能否形成自主意识的决定性因素,也是人工智能刑法主体价值的事实基础。现代刑法是行为刑法,以相对的自由意志为哲学根据,要求主体具有自主意识和自主的行为能力。只有人工智能的技术发展出自主意识,其活动才可能是刑法上的行为,人工智能才可能是刑法上的独立主体。

 

(一)现代刑法的主体标准:自主的行为及其改变

 

  犯罪主体是实施危害社会的行为并依法应负刑事责任的人。现代刑法根基于行为,解决的是“人”的行为问题。在人的基本属性上,现代刑法是以相对的理性人为假设前提,并围绕人的行为改变建立了相对自由意志、刑事责任能力、罪过、预防目的、刑罚等范畴,以及这些范畴之间的内在逻辑关系。其中,与人工智能相关的范畴是:相对自由意志——刑事责任能力——罪过——预防目的——刑罚。这包含了两个内在的逻辑:一是行为主体逻辑,即建立在相对自由意志的哲学根基之上,行为人具有自我决定能力进而具有刑事责任能力,才能产生罪过,并在罪过作用下实施犯罪行为;二是责任主体逻辑,即建立在相对自由意志的哲学根基之上,行为人具有受罚能力,能够自我改变,进而通过适用刑罚,促使其改变,实现预防犯罪的刑罚目的。这些范畴以及范畴之间的逻辑关系是现代刑法架构的基本逻辑,落实到刑法主体上,要求主体必须具有自主行为能力,能够自主地实施自己的行为和在刑法的规制下自主地改变自己的行为,实现行为主体与责任主体的统一。

 

(二)现代刑法体系下弱人工智能的刑法主体价值

 

  当前,人工智能的技术虽然已经有了快速发展,但尚未取得根本性突破,人工智能仍只停留在弱人类的水平(弱人工智能),还没有出现强人类、超人类的人工智能。按照现代刑法的主体标准,弱人工智能不能自主行为,不是独立的刑法主体,但会对传统主体的刑事责任认定产生一定的影响。

 

  第一,弱人工智能完全不具有独立的刑法主体地位。一方面,在技术层面,弱人工智能不具有独立发现问题、分析问题、解决问题能力和完全独立的意识,要受制于人类,在技术上不具备独立承担法律责任的能力和条件,在人机关系中不能完全脱离人类。另一方面,在规范伦理层面,人们对弱人工智能作为“人”的认可度低。虽然沙特阿拉伯开全球先例于2017年将公民权发给一位人工智能机器人索菲亚(Sophia),但目前世界各个国家和地区没有普遍地赋予人工智能独立的法律地位。

 

  第二,人工智能对传统主体的刑事责任认定会产生一定影响。人工智能的技术应用,使得人类的参与作用逐渐弱化。在人与人工智能的人机关系中,人工智能对传统主体的刑事责任认定会产生一定影响。这包括:一方面,人工智能会弱化人的责任形态,即人类对危害后果的责任将由以前的直接责任转化为间接责任。人工智能的介入,导致人与危害结果之间的因果链条被拉长,责任形态必然会发生改变。例如,对于导致他人死亡的情形,由于人工智能的介入,人类的罪责将可能由传统的故意杀人罪(含间接故意杀人)、过失致人死亡罪(含业务过失致人死亡)等的罪责,转变为产品责任犯罪(如生产、销售伪劣产品罪)的罪责,责任的形态发生了明显改变。另一方面,人工智能会弱化人的责任程度,即人类承担的刑事责任会逐渐由直接故意犯罪责任转为间接故意犯罪责任、过失犯罪责任,甚至转为无责任。例如,在自动驾驶汽车的场合,对处于自动驾驶状态的汽车导致的交通事故,驾驶人对事故发生的责任与传统责任相比明显要小。也正因为如此,在自动驾驶方面,具有自动驾驶功能的汽车只要符合国家设定的标准,应当完全或者部分地看成“被允许的危险”,只要汽车使用者遵循自动驾驶汽车的使用规则,就可适用信赖原则,免除其刑事责任。

 

(三)现代刑法语境下超人工智能的刑法主体价值

 

  按照现代刑法的主体标准,独立主体必须同时满足行为主体与责任主体的双重逻辑。据此,我们认为,未来的超人工智能即便能脱离人类独立从事社会活动甚至具有完全的自主意识,它也只能够满足现代刑法的行为主体逻辑,仍无法满足现代刑法的责任主体逻辑,无法成为现代刑法意义上的独立主体。这主要体现在:

 

  第一,未来的超人工智能可能会满足现代刑法的行为主体逻辑要求。从行为发生的角度看,现代意义上的刑法主体要求满足自由意志、刑事责任能力和罪过三个基本范畴,并且要求这三个基本范畴之间建立起逻辑联系,即基于自由意志的哲学根据,行为人具有刑事责任能力并产生罪过。其中,自由意志是哲学根据,刑事责任能力是自由意志的能力基础和反映,罪过是建立在刑事责任能力之上,三者共同决定犯罪行为的发生。

 

  如果未来超人工智能不能产生自由意志(最终仍然是可被人类操控的算法),超人工智能成为独立的刑法主体的问题将不存在,也没有讨论的价值。这里要讨论的是,超人工智能的发展如果能够形成完全的自主意识,产生自由意志,那么它完全有可能符合现代刑法对独立主体所要求的行为主体逻辑。换言之,超人工智能在具备自由意志的基础上,会形成独立的认识能力和控制能力,并会在此基础上产生独立的认识因素和意志因素,进而完全符合现代刑法意义上的自由意志、刑事责任能力、罪过等范畴及其逻辑关系的要求。以人工智能杀人为例,超人工智能有可能知道其实施的行为是杀人行为,也完全能够控制自己实施或者不实施杀人行为,但却基于某种动机选择了实施杀人行为。整个杀人行为从需要、动机产生、行为选择、行为支配到行为完成,完全都是超人工智能自主完成的,没有受到人类的支配(不是人类的行为工具),其对杀人的社会意义也有充分的认识。整个过程符合现代刑法对犯罪主体的要求,在这个层面上,完全可以评价或者赋予实施该杀人行为的超人工智能独立的刑法主体地位。

 

  第二,未来超人工智能仍无法满足现代刑法的责任主体逻辑要求。现代刑法的责任主体逻辑是行为人有自由意志(受罚能力的哲学根据)、受罚能力(有能力承受刑法意义上的处罚),对其适用刑事处罚符合刑法的预防目的(刑罚目的),才能给予刑法上的处罚(主要是刑罚)。未来超人工智能因其可能具有完全的自主意识而具有刑法意义上的自由意志。但它是否具备刑法意义上的受刑能力、预防目的、刑罚等范畴及其逻辑关系,仍然存在巨大疑问。特别是在特殊预防目的、刑罚(刑罚处罚必要性)的范畴,人工智能无法满足现代刑法的要求。这具体体现在以下三个方面:

 

  一是超人工智能只可能具备现代刑法意义上的部分受罚能力。现代刑法关于刑罚的架构是生命刑、自由刑、财产刑和资格刑。人工智能是制造物,且是可以进行程序性改造或者消灭的。对于超人工智能的生命存续、生命改造、自由行为范围、财产权利、社会资格等问题在未来都会面临巨大的不确定性。以现代人类有限的想象力为基础,似乎难以想象超人工智能都有这些方面的需求,也难以认定超人工智能会在这些方面与人类同步。从这个层面上看,无论超人工智能如何发展,它也只可能具备现代刑法意义上的部分受罚能力,而不可能具备全部的受罚能力。

 

  二是超人工智能难以满足现代刑法的预防目的要求。现代刑法的预防目的包括一般预防目的和特殊预防目的。其中,一般预防目的是用刑罚威慑社会上的潜在不法分子,特殊预防是用刑罚防止已经犯罪的人再犯罪。从理论上看,具有完全自主意识的超人工智能是有可能按照人类设计的方式进行行为调整的。例如,具有实施违法犯罪行为可能性的超人工智能可能因为知道法律的处罚规定或者类似行为受到严厉处罚而不实施违法犯罪行为。但这里仍然存在两个明显的难点:一方面,具有完全自主意识的超人工智能会完全按照人类设想的行为模式调整自己的行为吗?答案显然不是唯一的。换言之,具有完全自主意识的超人工智能完全可能不按照人类的思维模式进行行为决策,甚至同样的超人工智能会形成各种不同的思维模式和行为模式。而人类刑法设定的行为转变模式无疑是单一的,即由不守法行为转向守法行为。对具有完全自主意识的超人工智能而言,这完全有可能只是人类的一厢情愿,刑法的一般预防和特殊预防对人工智能可能毫无作用。另一方面,刑法能否对超人工智能实现真正的特殊预防?答案是也许能但不是最有效的。特殊预防既要剥夺犯罪人的再度犯罪机会,又要通过改造犯罪人消除其再度犯罪的意愿。对于超人工智能而言,剥夺其再犯罪机会是完全可以实现的,最简单的方式就是停止其能量供给(通常是停止电力供给);而改造犯罪人也是可以实现的,最简单的方式是修改程序。从这个角度看,刑法要通过现代刑罚手段实现对超人工智能的特殊预防,显然不是最有效的方式。也正因为如此,超人工智能刑法主体的肯定论者也承认刑罚对超人工智能不具有特殊预防功能。

 

  三是超人工智能难以满足刑罚的必要性要求。如前所述,现代国家法治理念将刑法视为其他法律的保障法、最后法,只能在其他法律无法奏效或者效率极低的情况下,刑法才能介入,对违法犯罪行为进行刑法上的惩处。以现在人们对人工智能的认知而言,对人工智能最有效的行为改变方式是增删数据、修改乃至删除程序、永久销毁。这将产生两个方面的问题:一方面,这些处理方式如果是有效的,对超人工智能是否还有必要采用现代刑法意义上的处罚措施(主要是刑罚)进行处理?如果采取刑法上的处罚措施,是否会导致对超人工智能问题处理的舍本逐末?另一方面,这些处理方式是否有必要上升为刑法上的处罚方式?如果要上升到刑法层面,其意义何在?显然,“删除数据、修改程序、技术销毁”等刑法技术措施具有物理性、贯通性和不易分割性,欠缺刑罚处罚的差异性,难以进行法际区分。而现代国家的刑法处理程序并不优于其他法律程序,甚至刑法的实质化路径导致对违法犯罪行为的认定和处罚都出现了过度主观化的倾向。这些都不适合实施了违法犯罪行为的超人工智能。

 

四、作为防卫对象的责任主体:未来刑法的主体标准与人工智能的刑法主体价值

 

 规范伦理决定了是否要以刑法措施规范人工智能的活动,是人工智能刑法主体价值的规范基础。我国刑法的预防性立法日益增多,正由传统的行为刑法走向预防刑法,预防刑法关注的重点不是人的自主意识,而是行为人的危险性及预防的必要性。预防刑法对刑法主体的评判标准将由行为主体与责任主体并重,转向责任主体,只要具有刑法预防必要的对象,都可成为刑法上的主体。人工智能可能会被作为刑法上的预防对象而成为刑法上的独立主体。

 

(一)未来刑法的主体标准:作为防卫对象的责任主体

 

  现代刑法虽然也重视保安措施的刑法地位,但仍以惩罚为主,属于惩罚法。在此基础上,刑法要经由惩罚实现刑法的预防目的,要求行为人接受惩罚并作出行为改变。所以,现代刑法对精神病人等不能辨认或者控制自己行为的人不起作用,也没有将这类人群纳入刑法调整的范围。但真正的保安措施是以保护社会安全为出发点,行为人是否作出自主的行为改变,不是保安措施所关注的。只要存在威胁社会安全的行为,保安措施就可以介入。

 

  正如德国刑法学者罗克辛所言,刑法是由它的处罚方式进行定义的。一个条文不会由于违反的是应当行为或者没有行为的规定而属于刑法,那种情况在许多民事和行政法规中也会规定,但是一个条文会由于一种违反规定受到刑罚或者保安处分的惩罚而属于刑法。其中蕴含的逻辑是一个行为主体是否具有刑法的主体价值,关键在于是否有必要用刑罚或者保安处分对其进行惩治或者防范。按照这个逻辑,行为主体是否具有完全自主的意识不是其成为刑法主体的标准,该行为主体是否属于刑罚或者保安处分的防范对象,才是判断其是否具有刑法主体价值的标准。同理,人工智能是否具有完全的自主意识也不是判断其能否成为刑法主体的标准。相反,是否有必要动用刑罚或者保安措施惩治或者防范人工智能的行为,才是人工智能能否成为刑法主体的关键。未来,随着人工智能更多地独立进入社会活动领域,人工智能对社会的威胁也会逐渐增多、不断加大,需要刑法采用刑罚或者保安措施的可能性也会增加。人工智能可能成为刑法防卫的对象,并因此取得刑法上的独立主体地位。

 

(二)未来刑法理念下人工智能的刑法主体价值

 

  刑法转型必将改变刑法主体的认定标准,人工智能在未来完全有可能成为预防型刑法理念下的独立主体。其主体价值将因以下三个方面得以彰显:

 

  第一,刑法范式的改变:由行为范式转向人机范式。现代刑法主要立足于行为,并以此构建了刑法的基本范畴以及范畴之间的逻辑关系,自由意志、责任能力、罪过、刑罚预防、刑罚等都是现代刑法的重要范畴。刑法的预防性立法走向表明,未来刑法的范畴及其逻辑关系将会发生重大改变,包括弱化“人”的概念、弱化“责任能力”、弱化“罪过”等概念,更加重视“危险性”“安全”“预防”等概念,并建立相应的范畴体系。随着人工智能更多地进入社会活动领域,刑法的视野将不再只聚焦于人的行为,而应当聚焦于人机的危险行为防范。事实上,人工智能的发展在当前已经出现了行为主体与责任主体的分离情况,难以将法益侵害结果归责于直接造成该结果的主体。因此,未来刑法的基本范式将由行为范式转向人机范式。人工智能将取得刑法上的独立主体地位。

 

  第二,危险内容的改变:由行为危险到人机危险。人工智能的发展具有不确定性。即便超人工智能能够产生自主意识,其是否会按照人类法律设定的行为模式改变自己的行为,在未来也是未知数。随着人工智能独立进入社会领域的数量不断增加,人与人工智能的共处将成为社会的常态。社会危险将不再局限于由人的行为造成,而是由人和人工智能共同造成。不过,未来刑法一旦发展到以保安目的为主的预防刑法,则具有完全自主意识的超人工智能是否会按照人类设想的行为模式发生行为改变,就不重要,而只需要考虑其既往行为的危险性,并采取有效的保安措施进行防范。这种防范具有两个显著特点:一方面,其针对的不一定是具有自主意识的行为主体,不具有自主意识的主体,如不能辨认和控制自己行为的精神病人,也可涵盖进来。超人工智能无论是否发展出完全的自主意识,只要其行为表明其具有危害社会的危险,就可以纳入预防刑法的调整范围进行调整;另一方面,其对不同对象的调整措施将会明显不同。对于人工智能而言,这种调整将主要是科技调整,即以科技手段防卫人工智能,具体措施的做出需要参考专业的技术意见,并由专门的技术部门和人员实施。这种防卫具有明显的“科技防卫论”特点。同时,对人工智能行为危险的专门防卫,需要将人工智能在刑法中予以专门规定,赋予其独立的刑法主体地位。

 

  第三,法际关系的改变:由相互独立到深度融合。现代社会的法律体系被划分为不同的法律部门,各个部门法之间尽管也存在一定的交叉,但各自在调整对象和调整方法上具有高度的独立性。民事法律、行政法律和刑事法律在基本理念、主要概念、结构框架等方面都存在重大差异。刑法的保障法、最后法地位是建立在刑法与其部门法独立的基础之上的。与其他法律措施不同,技术防范措施具有天然的跨法际特点,对人工智能的修改程序、增删数据、物理销毁等既可以存在于民事法律之中,也可以存在于行政法律之中,还可以存在刑事法律之中。而如前所述,法律手段是区分刑法与其他部门法的关键所在。人工智能的社会危险以及对人工智能危险的防卫措施具有法际贯通性,必将促使刑法与其他部门法的高度融合。从这个角度看,未来社会要防卫人工智能的违法犯罪行为,也许制定一部专门的、跨法际的综合立——《人工智能机器人不法行为防治法》,将是大势所趋。届时,人工智能将成为这一专门法律的唯一法律主体,其独立的法律主体价值(包含了刑法的独立主体价值)将得到进一步彰显。

 

余  论

 

 人工智能的独立主体地位能够赋予其最大化的法律主体价值。但这并不意味着当前不具有独立主体地位的人工智能就不具有主体价值。随着人工智能应用的增加,行为的人机结合现象不断增加,人工智能对人的刑事责任的影响不断加强,当前需要从司法和立法两个方面进一步审慎考虑。

 

  第一,要重视人工智能对人的刑事责任减免问题。人机关系是一种进退关系。在现代社会,人工智能(弱人工智能)仍然是作为人的辅助手段。在人机关系中,人是主导,人工智能是辅助。这使得在人机共同导致危害后果发生时,人是责任承担的主体,人工智能不用独立承担责任。不过,随着人工智能的技术进步,人机关系的此消彼长将更为突出,进而会影响人的刑事责任的判定,值得在刑法适用中重视。这其中最重要的是人机关系中人的刑事责任减免条件设定。社会的进步鼓励人们更多地去开发、利用先进的技术。人工智能作为高端技术的代表,应该允许其充分地运用于社会各个方面、各个领域。当前比较突出的应用领域是医疗、自动驾驶和财务管理领域。但人工智能的设计者、制造者、使用者与人工智能从事活动造成危害后果之间,间隔着一个人工智能。人工智能的设计者、制造者、使用者是应对人工智能从事活动造成的一切危害后果承担全部责任,还是应当设置一定的条件进行责任的阻隔?这是现代刑法应当重点关注的问题。

 

  这又取决于两个方面:一是刑事责任减免的技术标准。这也是最为关键的方面,主要涉及人工智能设计、制造的技术标准和人工智能使用的技术标准。前者划定的是人工智能设计者、制造者的责任边界,后者划定的是人工智能使用者的责任边界。简言之,如果人工智能设计者、制造者达到了人工智能的设计、制造标准,其对于人工智能从事活动造成的危害后果应当予以刑法上的免责;如果人工智能的使用者按照人工智能的使用标准使用人工智能,其对于人工智能从事活动造成的危害后果也应当予以刑法上的免责。当然,如果人工智能设计者、制造者、使用者明知人工智能存在技术缺陷仍予以设计、制造、使用,则仍需要对人工智能从事活动造成危害后果承担故意或者过失的刑事责任。目前我国对包括自动驾驶等一些人工智能规定了技术标准,对这些标准的刑法意义应当在司法上予以进一步明确和细化,以合理评判人的刑事责任。二是刑事归责范围的合理限定。对于符合相应技术标准的人工智能设计、制造和使用,司法者应当恪守刑法规制人工智能风险的理性姿态、满足弥补归责间隙的现实需求的立场,通过构建以判断行为人是否创设不被容许的风险、考察行为人是否实现不被容许的风险、明确相关行为人的责任范围为主要内容的客观归责模式。以此对人工智能造成的危害后果,进行合理的归责。

 

  第二,要重视新型人工智能犯罪的刑法立法。当前人工智能在社会生活中作为人类的辅助,应用得越来越广泛。人工智能可能存在的违法犯罪类型包括三类:一是工具型人工智能犯罪,即在人机关系中,人主导、利用人工智能(包括利用自己所有的人工智能和利用他人所有的人工智能)实施了违法犯罪行为,人工智能是人的犯罪工具。这类犯罪与传统犯罪基本一样,属于传统型人工智能犯罪;二是主体型人工智能犯罪,即在人机关系中,人未主导人工智能,人工智能自主地实施了违法犯罪行为,即人被动、间接地通过人工智能实施违法犯罪,对未阻止、防范人工智能犯罪负有责任。这属于新型人工智能犯罪;三是对象型人工智能犯罪,即在人机关系中,人破坏了人工智能,包括物理破坏(如盗窃、破坏人工智能等)和程式破坏(如破坏人工智能的系统程序),这属于半传统型人工智能犯罪。对于人机关系中可能存在的上述违法犯罪行为,我国刑法都有所涉及,但并不全面。其中,在第二种类型中,行为人所可能构成的犯罪与人工智能的法律地位有关,如人工智能具有其他法律上的相对独立的法律地位(包括人工智能取得了民事法律上独立或者半独立的主体地位,如人工智能机器人索菲亚(Sophia)在沙特阿拉伯取得了公民权后就不再是一个法律上的“物”,而是法律上的“人”),则不能将其理解为简单的计算机信息系统或者计算机,而应当在刑法上作专门规定,给予专门的保护。

来源:《河北法学》2022年第9期

作者:赵秉志,北京师范大学刑事法律科学研究院教授、博士生导师、中国刑法学研究会名誉会长、国际刑法学协会中国分会主席

         袁   彬,北京师范大学刑事法律科学研究院教授、博士生导师、中国刑法学研究会理事暨副秘书长