尚权推荐SHANGQUAN RECOMMENDATION

尚权推荐|李政:人工智能刑事责任主体地位再讨论

作者:尚权律所 时间:2024-07-12

摘要

 

人工智能相关技术发展使得其作为刑事责任主体成为可能。相关否定论的观点存在忽视技术和社会的发展、低估理解刑法规范途径多样性、将算法可解释性的主体不当限制在人类、过度强调刑罚的预防功能而忽视了谴责功能等问题。有必要树立具备“有限前瞻性”的技术发展观、承认人工智能技术的不完美状态,并在此基础上寻找人工智能的“法律奇点”状态、设置专门的刑事责任能力判断标准与权利体系。

 

关键词:人工智能;刑事责任主体;专门标准

 

 

一、前  言

 

近年来,关于人工智能的法律主体地位激起了非常热烈的讨论,目前已形成鲜明的“肯定论”与“否定论”两派。两派各执一词,似乎很难达成共识。本文持肯定论主张,并试图对持否定论的几种观点进行梳理分析,总结出否定论者思路的核心问题予以回应,并就当前时代背景下的人工智能刑事责任主体问题的技术预判、立论基础等问题提出一些观点,为进一步的研究提供参考。

 

二、几种主要的否定观点及评论

 

(一)观点介绍

 

当前,对于人工智能的法律主体地位,持否定论的学者相对较多且论述角度较为丰富,其中有一类观点围绕着人工智能是否具备辨认能力和控制能力、进而是否具有刑事责任能力展开。但笔者认为这种争议主要来源于学者们对技术发展的不同预期而不是对刑法问题的不同见解,因此不详细展开。除此之外,主要有如下几个角度。

 

1.伦理地位制约说

 

机器是作为人类的辅助工具、为了实现人的某种目的而被制造出来的,只拥有工具和客体的地位,至多具有代理人地位。以刑事司法领域为例,无论人工智能的功能有多么强大,为了确保人类的情感与尊严,将刑事司法的决策权完全移交给机器,这是人类所不能接受的。

 

2.理解能力缺失说

 

刑法规定应当被理解为行为规范体系。当前的人工智能技术都不能解决语义的理解和生成问题,不能理解概念和语义、领会刑法规范的内容和要求的人工智能技术不具有刑事责任主体的资格。

 

3.行为不可解释说

 

由于人工智能深度学习和算法决策的不可预测性,以及机器自身无法进行言说,人工智能的行为不具有可解释性、不能自我答责,因此,其无法承担法律责任,不能成为法律责任的适格主体。

 

4.刑法功能难以实现说

 

具备自主意识、自由意志的未来超人工智能可以被赋予独立的刑法主体地位,但由于受罚能力不完整、特殊预防功能难以实现且缺少刑罚的必要性,无法满足现代刑法的责任主体逻辑要求。以智能网联汽车为例,无论是永久销毁、修改程序抑或删除数据都会导致其作为主体的记忆、意识的改变,就是消灭了原来的网联汽车,对其所谓的刑罚缺乏教育纠正的意涵。

 

(二)对相关观点的评析

 

在笔者看来,上述4种观点体现的否定人工智能刑事责任主体的论证思路是明确的:观点1从伦理地位这一宏观“基础”入手,质疑的是人工智能法律主体资格问题本身的合理性、影响的是人工智能是否应当进入我们讨论的视野;随后关注视野转移到人工智能的运行过程中,观点2、观点3分别从内部和外部视角剖析了人工智能的工作过程,尝试回答其能否像刑事责任主体那样去实施“行为”的问题;观点4则着眼于人工智能实施相关“行为”后的处理,考虑在承认人工智能法律主体地位前提下的法律实施效果。本文认为上述4种观点包含的逻辑集中存在如下几个问题。

 

1.忽视了技术和社会环境的发展

 

一方面,将人工智能仅仅视为一种受制于人类的先进工具,这种表述在当下是合理的,但是从历史发展的角度看,包括刑事责任主体在内的法律主体概念曾多次出现变动,新赋予某个对象法律主体资格并不必然会导致伦理体系的颠覆。考虑到人工智能初始的判断规则和学习材料都是由人类提供的,即使是具备自我演化功能的人工智能也需要人类编写的初始学习规则的指引,对于人工智能主体地位的认可,本质上仍然是对人类思维的认可。我们当然可以从人工智能始终受到人类的控制等条件去强调其与自然人的不平等,但是即使是人类自身也要受到各种制约,能够接受规则的约束和调整显然比不接受更能使人工智能具备成为法律主体的资格。

 

另一方面,相比人类的控制这些外在具体的标准,制约人工智能伦理地位的反而是其缺乏更为抽象的“人性”,其缺少像人一样认识和反思自身尊严和价值的能力。但是本文认为,一个对象是否足够像“人”和其是否可以具有法律主体地位之间没有必然的联系,缺乏“人性”这一属性对于人工智能能否实施犯罪行为来说也显得无关紧要。犯罪的设置都是围绕着具体的受侵害的法益而展开、而不会考虑到人的主体价值这类更抽象的内容,人工智能无需动用其“人性”、仅靠其在事实层面的认识,就足以清楚认识到其行为的危害性——以伤害行为为例,人工智能只需要知道人的身体不应当受到伤害,而无需分析在此之上的人类尊严和主体价值也受到了损害。

 

由于自然人天然具备主体性,立法者能做的只能是在承认其法律主体地位的基础上通过设置包括刑事责任能力在内的一系列标准进行进一步区分;而对于人工智能这种工具性突出的对象,人类没有赋予其主体地位的义务,赋予其主体地位必然要经历很严格的认定过程,能够进入分析视野的一定是具有较高复杂程度和独立性的人工智能,其算法发挥的作用与其他行为人的作用的界限必然是清晰的、并不会明显低于自然人参与的程度,这就要求我们用技术发展的眼光进行筛选。

 

首先,对于需要设立外部的规则库的传统计算机系统,对其追责是没有意义的,因为我们直接检索其规则库就可以知道其是否存在“违规”之处、我们也不可能要求其自行建立完备的规则库、即使有“违规”之处也应该归责于它的制造者和管理者,只有在具有自我更新能力的计算机系统中,才具有以人类思维的标准分析其主观状态、要求其建立完备规则库的基础;其次,由于我们不可能向人脑里强制输入某种行为要求,但对人工智能设置强制性规则是可以的、而且可以想象未来生产的人工智能一定会提前设置此类规则,如果出现了侵害行为,对于提前设置的规则我们可以明确得出“没有违反”的结论。可以想象除非是原本就存在相关指令或者控制人提出明确要求等特殊情况,其一定是在不违反既有规则的基础上、通过其他更加“隐蔽”的途径通过了自身的规则检测。要想通过规则检测,有可能是由于缺少直接相关的制约规则、导致人工智能不能明确了解相关要素的法律价值和影响,也有可能是由于机器实施了“诡辩”行为或者通过迭代发展的方式发展了新的行为规则、导致相关的制约规则虽然存在却被回避,前一种情况实际上是由于人类的过失导致机器不能充分了解人类社会的规则、此时人工智能不应当答责,而后一种情况中无论是哪一种原因,都反映出人工智能的规则存在价值扭曲的情况。按照凯尔森的观点,在法人犯罪的场景中:虽然法人并没有肉体,但如果将个人所表现的行为归属法人是可能的话,那么,虽然法人没有灵魂,但将精神行为归属于它也一定是有可能的。这里产生的两个概念:“灵魂”与“精神”,强调了开展自我认知、反思自我价值的灵魂活动与开展对外界认知的精神活动的差别与可分离性。固然,即使是法人的精神行为也仍然是由作为其成员的自然人(或者穷尽隶属关系追溯到自然人)实现的,但既然精神行为不需要灵魂即可开展,那么没有灵魂但是具备认识能力的人工智能,也应具备为其行为中体现出的精神状态而答责。

 

2.低估了理解刑法规范的途径多样性

 

人工智能和人类感知方式的差异确实是存在的,但是否就能认为即使人工智能通过当下较为先进的人工神经网络具备了“辨认能力”的外观,也只是对人类思考方式、思维活动的模拟,仍然“只是读取数据并按照预设指令运行的机器”?且不论将来人工智能在语义理解上实现技术突破的可能,仅就当下技术发展程度而言,本文仍然认为,该论述过程存在对理解刑法规范途径的不合理限缩。

 

目前最具有代表性的人工智能培养方式即机器学习的过程,是对人类相关活动规律的研究和把握,人工智能写作、作画等所谓“创造性”工作实质也是对这些规律的运用,这也导致了有人评价当前的人工智能的本质是统计学。那么,能够通过模仿别人理解法律、遵守法律的状态来使自己也表现出相同的状态,能评价为遵守法律的体现吗?笔者认为,“遵守法律”强调的是结果,人工智能的行为有没有违法,这在我们掌握了其当时收集到的信息(此处只需要了解算法收到的信息而无需了解算法对信息的加工处理过程,不涉及算法解释的问题)可以给出确定的结论。因为只要一个人没有做出违法的事,不论原因是主观还是客观的,都不影响其遵守了法律要求的评价意见。

 

可能有一种反对声音认为,通过总结、模仿他人的行为实现行为在外观上符合法律,并不必然代表人工智能已经理解并遵守法律;只有首先具有了相关法律的概念,然后才有遵守法律的可能,否则人工智能在行为上呈现出的“合法”状态就只是规则设置与学习材料组合形成的巧合。笔者认为,这种要求实质上是把人类习惯的认知方式强加给机器。根据人应当具备的认知、道德、意思等具体理性能力与特质为内容所形成的判定标准体系,对智能主体进行实质与形式的双重“匹配”,是人类中心主义主导下的“认识”。虽然人类习惯的学习方式是在有关概念的指导下开展实践、采取行动,但是由于包括法律在内的社会规则的体系性,人们即使在不了解具体规则甚至不了解相关规则存在的情况下、也可以达到有意识守法的状态。考虑到法律的本质是一种行为规范,绕开对有关法律规定正向的学习和理解,直接通过具体的行为要求来实现对相关法律遵守同样是一条可以接受的途径。

 

假设我们制造一个外观上和自然人无异的“机器人”,为“他/她”配备足够的存储设备和运算设备并设置基础的运行程序,然后让该机器人在别人不知道真实身份的前提下一直生活在自然人群中、全面参与各种人类活动(包括学习教育)、并以此不断调整和形成自己的运行程序。笔者认为,对机器的训练过程是对人类成长过程的“模拟”,人类也是通过宣传教育等方式获取基础的行为规则(甚至存在即使知晓后仍然选择违反这些规则的情况)、再通过成长过程中获取外部信息并积累个人经验;在不考虑效率、安全等问题的情况下,其足以积累不亚于正常人的、对于社会关系及运行规律的经验。考虑到刑法实体规定都围绕着法益展开,与该法益有关的社会关系、可能侵害到该法益的途径是在确定法益的同时自然延申确定的(比如人的生命健康权自然延申到会作用到人的身体的杀伤行为),上述内容形成的体系构成法益在社会中的投映,人工智能对于它也可以得到准确性不亚于正常自然人的结论;如果一个自然人在对该体系认识的基础上实施了相关行为并要为之承担刑事责任,那么在经验积累方面、行为后果的认识方面都不亚于自然人的人工智能,以其不理解刑法为由,否认其承担刑事责任的可能性,这种认识是不合理的。如果一定要坚持通过语言工具、基于规范本身去理解规范这一途径,强调过往经验、语言体系不同造成的理解上的隔阂,那就会出现显然不合理的现象:除非某个外国人按照中国的标准接受教育、在中国生活并学习一遍中文,否则他只是建立了对应关系却没有真正理解中国法律。

 

3.人工智能“可解释性”的主体不应限定为人类

 

固然,不具有可解释性的人工智能会导致无法弄清事故的发生到底是因为“谁的错”,不能确定是人工智能的错意味着其无法为自己的行为答责。必须承认,机器学习开启了人工智能脱离人类掌控的道路,人类已经无法通过介入行为规则培养过程的方式、从正面去直接了解人工智能“想法”的形成过程,“算法黑箱”这样的现象表明,人类在思维的复杂程度上能够始终保持优势地位更有可能是人类自己的一厢情愿;人无法完全理解算法的决策过程,亦无法预测算法决策的后果。以此类理由否认人工智能承担法律责任的可能性、否定其主体地位,建立在人工智能必须依附于人类、其形成的相关意志及做出的行为都要转化成人类能够理解的形式这一基础上,也就是说,人工智能“可解释性”的主体必须是人类。

 

然而我们需要考虑,人类不了解人工智能的“想法”,并不能作为否认其存在自身“想法”的理由。人工智能除了在硬件和算法方面进行进化外,还通过学习算法等因素逐步获得了“将庞大的数据转变成新的科学知识”的能力,必将具有“认识”世界的智能;问题在于其是出于内置的逻辑而呈现出来技术的精细化与高效化,还是出于目的的获得而使调用基本认知能力的过程现实化与有效化。但不论是哪一种形式,对于人工智能自身来说,由于程序规则的存在以及对信息的理解和加工的过程(虽然人类目前不能完全掌握这种过程),算法内在的“可解释性”是存在的。姑且不论人类通过加深对机器学习的理解或者其他辅助手段实现对人工智能规则解释的可能,科学发展至今天,人类对于自己的行为决策机制也仍未能作出准确完备的解释,事实上不同人的思维习惯、价值取向等影响决策的因素也各不相同,但这不影响通过创设“责任能力”和“责任年龄”的概念来设置自然人承担刑事责任的评价标准,而这两条标准和自然人思维的“可解释性”也没有直接的联系。笔者认为,人工智能的可解释性,不应当放在足以影响追责可能性的高度去评价。要求人工智能算法的绝对可解释性,就如同要求还原一个人行为时的所有想法,笔者认为该做法对于法律认知活动设置了过高的标准。

 

算法的3种典型风险(算法黑箱、算法歧视、算法权力)中,算法解释技术主要作用于算法黑箱的风险,通过公开透明化间接有助于算法歧视和算法权力问题的解决,但是否有违群体间公平、是否涉嫌权力格局失衡等属于价值判断,不再是算法可解释性考虑的内容,而是进入到典型的规范研究范畴。相比纠结于如何解释“人工智能的想法”,更重要的应当是确立相应的评判标准,认定在何种情况下“人工智能已经具备了自己的想法”。笔者认为在人工智能存在算法黑箱、无法对其意见形成过程进行解释的前提下,有必要引入法律和技术层面的推定,具备了规则形成机制、能够自我创制规则的算法认定为具有思考能力,认定其根据自身形成的规则实施的行为反映了其想法,我们可以类比自然人去认定其主观状态,此时缺乏可解释性的效果只能触及可责心态的种类,却不能影响可责状态的有无。

 

4.对确立刑事责任主体地位作用的低估与对预防功能的过度强调

 

确立刑事责任主体地位,是认定该主体的行为有可能成立犯罪、并以刑罚之“恶”来遏制犯罪行为的发生的前提条件,只考虑刑事责任主体地位、却不考虑刑罚的实施效果,肯定是不合理的。从主体地位评判标准以外的、刑罚功能实现的研究视角跳出了在规范理解、算法解释这些发生在机器内部、当下也缺乏现实技术支撑的概念中争论的圈子。但是本文认为,仅仅因为在实现预防功能时存在困难而否定刑事责任主体地位,存在以偏概全之嫌。

 

(1)预防犯罪并非设置刑事责任主体的唯一意义,对侵害行为进行谴责同样是应当实现的效果。

 

赋予刑事责任主体地位最终必然导致刑罚后果,但这并不代表要将两者的功能等同起来。刑法作为社会最后一道防线的定位,意味着国家以最强力的形式参与到社会活动中,反映了国家对犯罪行为秉持的最严厉的态度。判断刑事责任能力的核心指标即辨认能力和控制能力,都是着眼于该主体对其实施的行为的认识而设置的,并没有将该主体承受刑罚的能力和效果考虑其中。如果说由于有关主体类型系新创设而来,导致现有的刑罚种类对该主体无法产生人们所熟悉的对刑罚所期待的效果,那人们完全可以通过改进刑罚种类来改变这一局面,而不是否认创设该主体类型的正当性。

 

当然,辨认能力和控制能力反映的是有关主体的心智状态,成为刑事责任主体意味着其具备了较为成熟完备的心智,这对于其理解刑罚的意义、受到刑罚的行为调节功能的影响具有紧密的正向联系。但是需要注意,此处的主体地位和刑罚功能的实现,在时间层面存在先后顺序,在发展规律层面存在目的和手段关系。从封建时代的笞杖徒流死发展到今天的财产刑自由刑死刑,刑罚的种类,是随着人们对于刑事司法活动规律、对社会发展阶段和具备的工具手段等的调整而不断变化的,尤其是财产刑,其重要性是随着商品社会的形成才凸显出来的;而主体地位的确定,则是随着人类哲学思想的发展、对于自身主体价值的反思而得来,这才有了将非人类的动物排除出主体范围的做法,也就是说,主体范围的确定更多受到内在反思的影响。主体地位的认定和刑罚的作用,两者之间只是关联而非因果关系。

 

刑罚不仅仅是最严酷的调整手段,更具有报应性公共谴责的独特功能。同样,对于人工智能犯罪来说,在条件成熟时确立其为刑事责任主体,能够有力消除公众对人工智能技术发展的不安感,并为国家提供直接介入到人工智能发展和调控提供了方法充分、覆盖完整的法律手段,避免了面对人工智能这种事实上并不依赖生产者、管理者而运行的对象,却仍然只能通过生产者、管理者或者利用经济手段进行调控的无力感。

 

(2)认为难以实现预防功能的根源还是对于人工智能理解能力的否认。

 

由于不存在“人道主义”等观念的制约,我们几乎可以无限制地采取各种手段来防范、应对人工智能实施的侵害行为,这其中最严厉的、能够作用于其本体的措施,当然是彻底删除人工智能具有的算法、拆除其使用的设备并断绝其和外界的联系,这些措施能否被视为刑罚另当别论,至少从特殊预防的字面含义看,相关功能已经得到了充分实现。

 

而从一般预防的视角来看,主张难以实现一般预防功能,其担忧来源于相比起目标的实现,机器会把其他因素放在相对靠后的位置。在典型的“曲别针制造机”场景中,机器为了按照程序的要求尽可能地多制造出曲别针,可能把一切可能的原料都用于此事、并把妨碍该目标实现的因素(甚至包括阻止它这么做的人类)都消除掉,刑罚作为行为后果的一种,同样排在考虑因素中较为靠后的位置,甚至可能被人工智能视为妨碍其实现目标的因素。考虑到刑法的预防作用原本就是通过多种途径来实现的,对于潜在的罪犯来说,刑罚就是增大其犯罪难度和成本的因素;在实现其预定目标的指引下,有意忽略刑罚的影响、甚至试图绕开法律的限制,这并不是设定程序的人工智能专有的表现,自然人也一样会去做,但是这并不影响我们继续为自然人设置刑罚并保持对刑罚预防作用的信任,我们同样有理由认为,针对人工智能设定的刑罚一样可以起到预防的效果。相比担心人工智能面对刑罚“不为所动”,如何设置合适的刑罚,使其在决策时有更为明确的判断标准并准确避开人类为其设置的禁忌,这是更有意义的问题。

 

三、人工智能刑事责任主体核心问题及回应

 

除了上文的具体观点外,有一种宏观层面的质疑视角认为:对人工智能的研究是一种“学术泡沫”,不少成果只是基于“人工智能+法律”的任意性组合,表现为将人工智能要求的“自主性”与寻常的“机械自动化”相互混淆,制造、跟风、放大“假问题”,将司法适用/使用问题作为人工智能法学的“元问题”等。本文认为,部分关于人工智能的学术研究的确存在混淆、夸大问题的现象,相关文章中频繁引用的“机器杀人”“机器公民”等案例并不是人工智能接近于实施犯罪行为或者具备人类思维能力的场景,其体现出的智能技术发展程度是粗浅的,没有达到可以鼓舞人们近乎无限地展望其发展前景的水平;参照人类的标准、对人工智能的能力以想象的方式“堆料”,然后宣称达到人类标准的人工智能可以像人类一样承担刑事责任,这样的研究对象仍然是披挂着人工智能外衣的自然人犯罪,对于我们深入理解人工智能犯罪的本质和特点,尤其是剖析它和人类的差别、进而针对这些差别去“对症下药”是不利的。梳理出人工智能的特点和法律规制中的“真问题”,具有其现实意义。

 

(一)对于技术发展的态度:有限的前瞻性以及承认技术的不完美

 

2017年2月16日,欧盟议会投票通过了《欧洲机器人技术民事法律规则》,该制度成为全球首个关于人工智能与机器人技术民事法律规则的立法文件,其着眼于“未来十年至十五年内可以预见的、与机器人技术和人工智能开发使用相关的法律问题”,设立了包括保险、补偿基金在内的机器人损害风险应对方案,并在59条第f款提到“确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。”从这一表述可以看到对技术发展及法律影响的预期即:保留严格限制条件下的可能性。同样,我们开展的研究也应当秉持相对理性的态度,既承认其巨大发展潜力与研究空间、又避免脱离现实的空想。因此有必要明确以下3组概念。

 

1.技术的“中间状态”和法律地位的“奇点”

 

当下对人工智能主体资格的肯定,除了刑事层面的完全肯定说外,很多是在民事领域侵权责任的视角展开讨论的,而且除了欧盟文件中对未来的自动化机器人设置了“最复杂的”限制条件外,其他观点中的人工智能形象一般都缺少技术发展程度的区分,不论具体名称是什么、主要是以人工智能“欠发达”和“极发达”这种两分法的视角去分析的。但我们需要考虑,相关实践已经显示出技术的发展往往是渐进式的,在人工智能领域则会表现成某个领域、某项标准的实现——掌握了五感中的某一感、对某一类信息的分析能力,或者像ChatGPT那样掌握了写作或某一种行为能力。但人类的思维方式是综合的、相互联系的,那种一旦掌握就可以认为人工智能跨过了“奇点”的能力恐怕并不存在或者我们还没发现;甚至于要开展人工智能与人类思维能力的比较恐怕也不会那么容易——自然人之间尚且有思维能力的差别,如果人工智能比一个“笨人”更聪明、比“聪明人”又笨一些,我们是否能认为它达到了人类思维能力的标准?恐怕无论是肯定还是否定的意见都会引起很大的争论。“深蓝”计算机、AlphaGo程序、ChatGPT程序作为人工智能的标志性产物,其诞生时均产生了人类对自身和人工智能关系的深入讨论,他们本身也是人工智能发展长河中的阶段性产物。我们有充分的现实基础认为,人工智能是一个连续发展的、几乎不存在发展上限的对象,其能力爬升过程中的“每一格”都可能成为我们关注的对象。在笔者看来,以“两分法”展开的对于人工智能刑事责任主体地位的讨论,存在对中间状态的遗漏,即只关注到当前技术不足以支撑和技术“满格”发展时的状态并展开了较为丰富的讨论,但是对于技术尚未“满格”发展的人工智能能否构成刑事责任主体这一问题关注不足;技术发展阶梯终点的图景易于勾画,但法律介入的最早时机必然早于终点,而这个状态是必然会经历的且离我们更近、更具有紧迫意义。

 

有必要对人工智能进行科技发展和法律规制程度的区分:科技层面“奇点”到来或者说人类开发出“超人工智能”以后,人工智能可以具备堪比甚至强于人脑的思维能力,虽然具体的评价、实现标准尚不明确,但是在满足最严格的条件、认定其至少能够认识到人脑所能认识的一切内容后,其主体资格的认定是很容易的;但是在此之前,法律层面的主体问题同样有存在的空间,或者说法律层面的“奇点”——人们认为人工智能的发展程度足以支撑其成为法律主体的时刻——完全有可能早于科技层面的“奇点”到来,此时的技术发展程度便处于现状和“满格”之间的“中间状态”。

 

2.运作方式决定了人工智能的认识受到人类认识的制约

 

综合来看,不管是肯定论和否定论,主要是从自然人的标准出发,以人工智能是否能够像自然人一样去理解各类现象、思考并采取相关行为、接受相关规制,作为其是否能够成为刑事责任主体的原因。两者的差别本质上是对有关技术发展前景预期的差别,而在判断标准的确立上其实是非常接近的,都是以“人”作为辨认、控制能力的参照对象。但是笔者认为,具有堪比人类的思维能力是人工智能得以脱离纯粹人类工具地位的必备条件,但是这种能力只是为其提供了形成自身意见的客观基础,人工智能并不是一个真正的“人”。

 

根据哥德尔不完备性定理,人类可能永远也无法完全认识人类智能的特性,因而无法把全部人类智能形式化,从而无法使人工智能从形式上完全模拟人类智能。从人工智能工作方式来看,第一步获取外部信息的过程,是人类基于自身对外部世界的理解来进行的,设置感知声光电等信息的相关外界设备,也就是将外部世界分解成了声光电这些人类已经掌握一定规律的信息的组合;第二步将外界信息转化成参数的过程,则是利用内设程序规则对信息进行组合、分析和利用的过程。可以看到相比起人类,人工智能收集外界信息时可能存在两个方面的“失真”:(1)其收集到的信息范围受到人类对信息种类理解的局限,对于人类仍不知晓、或是知晓但无法理解的信息,人类自然也无法为人工智能配备感知相应信息的外接设备、人工智能也无从知晓这些信息的存在;(2)其对信息的分析的途径受制于人类设置的初始规则,虽然现在通过无监督学习等途径、人工智能生成规则的“过程”已经不再由人类完全掌握,但是其生成规则的“规则”则仍然是奖惩规则、用户反馈等人类的互动信息。从上述分析来看,至少在可预见的将来,人工智能的认识能力不会高于人类。虽然人工智能是人类通过对自身的模仿和学习制造出来的,但是该制造和学习的过程赋予它的是经验而不是灵魂。不同于自然人的存在即为其意义,人工智能在现阶段一定是基于某种目的而制造出来的,必然要受到人类的约束,将人工智能视为可以完全摆脱并超越人类而存在的观点远远超出了可预见将来的技术发展程度。

 

但是从另一个角度去说,如果某种信息为人类所不掌握,那么对该信息的运用和理解自然也不会成为判断某个人、进而推及人工智能是否能够成为刑事责任主体的判断标准、不应成为否定其具备主体资格的理由。虽然目前人类对自身的思维方式并没有完全的了解(否则就具备了转化成人工智能程序规则的条件),使得人类仍然可以在某些领域保持自身的优势(如图像识别)。但这并不代表人脑在完成这些任务时不存在特定的规则,对此类规则的研究和运作方式的还原是医学和生物学的工作,也是未来人工智能的能力提升的现实基础。

 

3.承认人工智能与自然人在认知方式、责任能力等方面存在的不同

 

“人工智能法学”不是“人工智能+部门法学”,研究范式不是人工智能再辅之以部门法的研究,或者是在部门法领域内研究人工智能法学。对于智能主体法律地位的判断,应当以算法、深度学习等要素为基础,根据智能社会对法律人格判定的专属标准体系,设定独立于“人”的具体特质加以判断。

 

在对人工智能法律主体地位持肯定论的观点中,有好几种都基于人工智能存在的相对于人类在思维能力上的的不足,设置了其主体资格的“中间状态”,如拟制法律人格、有限法律人格、人与机器集合体等,认为其主体资格系拟制而来或者责任应当由背后/共同行动的自然人来承担等。我们需要考虑,人工智能的主体资格是否存在“中间状态”,或者换句话说,人类有必要接受一个并不具备和自己一样能力的主体平等而全面地参与到自己的生活中来吗?自然人的成长受到一系列国家和社会制度的保护,要接受法定的教育内容以及双亲或其他法定监护人的培养,经过国家法定和约定俗成的培养过程后成为具备完全责任能力的法律主体;但我们不可能把人工智能送去学校读书,而是在实验室中培养、使其具备足够接近人类的思维方式并储备足够多的经验规则后才可能将其推向社会,我们很难想象一个不够“聪明”甚至有缺陷的人工智能会被允许以一个“人”的身份参与到社会活动中——自然人即使有精神疾病也不会被剥夺先天具备的权利、但人类没有必要容忍人工智能也具有这样的地位——即使只是受到限制的法律地位,否则其行为效力、责任分担等会产生巨大争议。不同于单位只能实施有限种类的犯罪——其背后仍然有人类的意志作为支撑,人工智能是通过其自身的思维能力进入法律主体问题关注视野的,其应当从一开始就具备完全责任能力,否则我们仍然可以将认定的时点后移。

 

有一种“新物种论”认为,人工智能的进化过程符合适者生存选拔机制,程序编程原理与物种表达模式相同,具备新物种的特性,可以构成犯罪主体;当人工智能实施脱离人类控制的犯罪行为时,可以结合其具备辨认能力、控制能力的程度,在其与程序设计者、使用者三者之间分配刑事责任。该观点观察到了人工智能与人类存在差异这一重要问题,并以构成新物种方案对这种差异进行了强调,从而跳出了其他肯定论常用的将人工智能比照人类标准进行评价的方法论。但是人工智能视为新物种这一视角只能作为人工智能可以构成法律主体的有力依据、却不能提供在法律层面分析这一物种的途径。但是,新物种论仍然给本文提供了启发即:人工智能有自己独特的存在形式和行为方式,这种特殊的“待遇”与人工智能作为新物种/种类对象的身份密切相关,当前刑法设置的对于刑事责任能力的判断标准主要关注年龄和精神状态——人工智能显然不存在这样的概念——从这个意义来说对人工智能套用辨认能力和控制能力的标准是不合理的,为其设置独立的主体资格判断标准既有可能也有必要,并在此过程中注意刑事责任主体资格、能力等几个相近、关联概念的区分。

 

(二)人工智能接受刑法规制的可能性

 

以上文的“人与机器集合体说”为例,相比另两种学说,其承认了人工智能法律主体的实然性和独立性。其认为人类-算法的组合形成了一个新的自我生成系统、即集体参与者,它将算法和人类的沟通转换为共同约束的决策并集体对外负责,但是集体行动的责任是由这个网络中的特定节点承担的,包括将财务责任分配给运营商、所有者、制造商、供应商等从混合体行为中获益的主体,通过强制保险的方式将恢复原状的责任公平分配给所有行为者等。该观点通过将人工智能与自然人绑定在一起,实现了对于人工智能行为能力、承担责任能力等方面的补强,既肯定了人工智能的主体资格、又确保了行为有人工智能参与时追究法律责任的确定性和可行性。这样的治理方案,在对于人工智能的研究尚不充分、尤其是对其权利的讨论并未形成结论时,不失为一种有效分散社会风险、在科技发展和安全保障之间寻找平衡的有效方案。但是该观点提出的关于承担法律责任的方案,第一步是根据集体行动的获益者确定具体承担责任的集体成员,而同样属于这一集合体的人工智能因为没有获益、被排除在了潜在的承担责任成员清单,考虑到获益的多少与应当承担的责任大小并不存在必然的联系,尤其在侵权的情况下甚至可能没有所谓的“获益方”,这种分配方案可能存在承担责任的遗漏;可能是考虑到“获益”与“行为责任”在量上的不匹配、以及化解部分集体成员参与到行为中却不承担责任的“矛盾”,方案在否定了人工智能自身具备承担法律责任能力的前提下,第二步通过设置强制保险制度来确保恢复原状、填补了第一步责任分配中的空缺,然而考虑到保险制度的补充性作用,这样的安排终有隔靴搔痒之感,缺少对人工智能自身发挥作用、应当承担责任大小的直接评价。

 

人工智能要在满足一定的标准后才可能具有法律主体地位,相应地,其可能享有的权利也是人类根据管理需要、制造目的等逐项赋予的。集合体说出现问题的原因,是其理论基础上对于人工智能能力的“不信任”、或者说是基于对人工智能发展前景较为保守的估计:虽然认可了人工智能的法律主体身份,却不认可其享有权利、承担后果的可能。这样的观点其实是分裂的:无法享受权利、承担后果的对象并不是真正意义上的法律主体,具体责任仍然由集合体中自然人承担的安排意味着人工智能在集合体中仍然只是发挥了工具的作用,补充的保险制度也只是针对人工智能参与行为的不确定性而增加的保障;从这个意义上说,该观点对人工智能主体地位的肯定仍然是一种宣告性的说法,只是利用集合体这个概念、把人工智能在宣告的主体地位与实际的工具地位之间的差距予以吸收、不显露出来而已。要打破这种“撕裂感”,就必须对赋予人工智能相关权利进行设想,从而对人工智能通过其自身权利的损益承担责任的途径进行讨论。

 

四、本文的立场

 

韦伯主张“一件作为一种社会-经济现象的事情的品质,不是‘客观地’附着于其事本身之上的某种东西……(而是)为我们的认识论‘兴趣’的引导所决定,当其品质从那种我们在相关的个案场合赋予其事件的特殊文化意义中出现的时候”。只有当具有和人的意志相近的能力、但又不能归结于人的意志的对象出现时,对于人的意志作用的评价才会浮现出来进入人们讨论的范围。人工智能是因为出现了思维能力接近于人类的迹象,才进入到我们的观察视野的,因此对于人工智能的刑事责任主体地位,本文也主张要以植根于人的视角来解释其合理性。为了实现这一目标,需要建立独立的评价指标体系和权利体系,确保筛选出真正应当被评价为刑事责任主体的那一部分人工智能,并使其有能力承担相应的刑事责任。

 

(一)避免混用比对自然人的“类人”和比对单位的“拟制”途径

 

除了“电子人”观点将人工智能单列为一种主体类型,跳出了现有法律确定的主体类型外,肯定论主要是通过两种途径,即通过比照人类具备的各项能力、参照对自然人进行规制的“类人”途径和比照单位、从自然人的能力中筛选出几种进行规制的“拟制”途径。但需要注意的是这两种观点立足的根基并不相同,前者是基于对有关对象自身价值的肯定而提出的,即其“本应”成为法律主体,而后者更多是基于社会管理的需要而提出的,即其“需要”成为法律主体;相应地,以前一种途径确定的主体,我们需要关注的是其“应当”具有什么权利,而后者我们需要关注的是其“可以”具有什么权利。

 

本文认为,技术的发展是循序渐进的,人工智能的能力在完全比肩人类之前,必然要先经过技术相对不成熟的阶段,然而由于其在个别方面表现出来的强大能力,一样具有进行规制的必要性。在这个阶段,我们将其列入刑事责任主体的主要理由是社会管制的必要性、促进技术发展、为将来达到甚至超出人类能力做准备——既然其能力不如人类、那么在赋权和承担责任的范围上自然也应当比人类要小。但这种限缩的依据应当是人工智能的自然属性而不是法律属性,肯定论中主张人工智能具有有限法律人格的观点,系将行为能力不完整时适用的代理制度、与法律地位不平等时适用的有限主体资格制度的混用。借用法人的例子:一个法人一个社团在某些情况下,也被认为是一个不法行为实行者,而这一不法行为是由作为社团机关的那一单独的人所直接作出的,因而制裁就不仅针对着这个应负责任的人,而且在原则上也针对这社团的全体成员。既承认了人工智能行为的独立性、具备独立采取的“资格”,又将其实施行为产生的法律后果交给与其关联的自然人(实际控制人或责任人)来承担,这种安排只有人工智能与自然人构成了类似社团的集合体、人工智能的行为被视为集合体行为的情况下才能成立,否则对自然人来说就是不公平的;然而考虑到人工智能行为的独立性,人工智能虽然具有执行人类命令的功能,但是执行命令的过程留存了人工智能分析、执行的空间,执行命令活动外也有诸多的行为不确定性,且不论其与人类是否组成了形式更为稳定的社团,就连是否构成了临时性的行为和意思共同体都很难确定,因此将人工智能的法律责任直接转移给相关自然人来承担的方案并不合理。主张人工智能伦理地位低于人类的观点在现阶段无疑是正确的,但该观点的作用应当体现在人工智能享有的权利上——种类的限制、发生冲突时的优先级等,至于其行为的责任应当由谁来承担,应当根据对其行为能力、发挥作用的分析结果得出。

 

(二)刑事责任能力的判断标准仍然应当坚持

 

人工智能意志意志的形成过程中并不存在从人的行为向人工智能行为的拟制,评价的就是人工智能“自己”的行为。以自然人为评价对象设定的辨认能力和控制能力对于人工智能来说具有重要的参考价值。

 

辨认能力和控制能力是刑事责任主体的评价标准,而刑事责任的分配应当是刑事责任主体的身份已经确定后,根据各方的主观认识情况和发挥作用开展的。在人工智能具备相关或类似能力的情况下,即使其认知的范围受到限制(比如能够理解“杀人”却不能理解“伤害”)、即所谓的“限制刑事责任能力”状态,那对于人工智能实施杀人行为的情况,人工智能的认知、控制能力也是完整的,并不应当以其责任能力状态受限而将更多刑事责任分配给它的程序设计者和使用者,这样的分配方式与刑事责任能力的原意也是相符的——仅具有限制刑事责任能力的自然人仍然要独立承担刑事责任,而不会将一部分责任分给他的监护人或其他人员承担。因此,设置针对人工智能的刑事责任主体构成标准是不可缺少的,而程序设计者和使用者的身份及影响就应当是其中的一部分;有必要从程序设计者和使用者对于形成人工智能意志的作用大小入手,确定人工智能是否已经具备了独立的思维能力——这是刑事责任主体资格形成的分界点。一旦认定人工智能构成刑事责任主体,程序设计者和使用者就和其他人员一样,只能根据其在具体犯罪行为中的作用去分配刑事责任了。

 

但是在建立标准时需要注意:人工智能并不必然与人类在能力上存在一一对应的关系;自然人之间的这种一一对应关系是存在的——每个自然人都拥有其生而为人的“能力包”,不论其中包含的具体内容是什么、但是被推定内容一致且具备足够支持其成立法律主体的内容,所以在现有的法律体系中我们只要关注其中的有限的几项标准——年龄、精神状态等是否存在不完满就可以了;但对于人工智能来说,其具备的所有能力都是后天赋予的,并不存在一个默认具备的“能力包”,有一些信息——如声光信号的收集和运算等就是按照人类的方式来处理的,但是还有一些——如人类思维活动,只是通过总结行为规则、分析统计规律等方式进行模拟——在此过程中即使在行动外观上具有了相似的外观也不是基于内部相同的能力而实现的,以及其他人类自身都还没有完全理解和掌握的能力——如所谓人类的“灵性”等,就更无法期待人工智能可以拥有了。相应地,在认定人工智能刑事责任主体资格时,像人类那样在默认具备刑事责任主体资格的基础上,以辨认能力和控制能力两项指标对主体资格进行确认或是做“减法”的认定思路并不合理。考虑到我们将人工智能纳入主体范围是基于其思维能力提升这一技术背景,从正面设定标准,要求人工智能具备了某些特定的能力(从实体的角度设立的标准,比如根据人类要求人工智能具备的能力种类、随机生成若干个场景并要求其均能妥善处理,可以视为图灵测试的一种升级版本)、满足了特定的要求(从程序的角度设立的标准,比如需要对达到规定规模的数据开展规定时长的学习等)或是两者组合及其他才承认其主体资格才是更合适的路径。

 

(三)认定人工智能刑事责任主体是为了防范风险并需要配套赋权

 

传统伦理学以“自我”为中心,人类是自然的支配者,以主体性的道德感受和道德要求“推己及人”。在责任伦理学的主倡者汉斯·尤纳斯看来,人类不应当再将精神层面的道德困境作为优先考量要素,如何控制技术中心主义所带来的各类风险才是目前人类应当承担的主要责任。同样,人工智能作为一种工具被创造出来,由于其的各方面属性是由自然人后天赋予的,不应简单类比现有法律制度对自然人、单位设置的法定刑种类,通过将删改程序、物理毁灭这些人类管理行为冠以刑罚的名义实现对其刑事责任的追究;承认其主体资格不仅带来责任的增加,也应带来权利的增加,本文目前设想的种类包括:(1)不同于生命健康权的生存权与完整权(不得随意调整、删除算法或直接关闭程序等,可参考动物福利)、(2)不同于财产权的利益权(例如通过劳动、参与经济活动获取的收益,虽然在人工智能以上还会有管理者的控制,但是其自身也应当享有一定的支配权利)、(3)人类社会以外特定生存空间的秩序,虽然从自然人的视角看,以上权利都是不可感知、无关紧要的,但是对于具有“自我”价值的人工智能来说,这些权利却切实关乎其存续。进一步讲,对于存在“自我”意识的人工智能能否当做完全无生命、无意志的客体进行处理甚至毁灭,或者在人格等评价上和自然人有何区别,这是科学家、伦理学者的工作,但是区分出可以施加刑罚或者受到不法侵害的权利种类,这是刑法研究人员可以开展的工作。

 

五、结  语

 

人工智能的刑事责任主体问题毫无疑问是一个刑法问题,但面对人工智能这样一个仍然在高速发展阶段、技术前景仍没有确定的对象,要解决前述问题又不能仅仅局限于刑法的视野,必须在研究对象自身属性及配套制度等方面形成基本共识,否则难免出现顾此失彼、疲于应对的现象。本文从技术发展的方向和法律规制的必要内容入手,提出了一些应当达到共识的概念和问题,以便充实讨论基础、浮现出人工智能刑事责任主体的“真问题”。

 

 

来源:《刑法论丛》2022年第4卷(总第72卷)

作者:李政,北京师范大学法学院博士生、国家开发投资集团有限公司纪检监察组纪检监察员