作者:尚权律所 时间:2024-12-17
摘要
随着人工智能深度赋能刑事司法,刑事司法中产生了算法治理的新问题。算法解释是刑事司法中算法治理的核心内容之一,但面临三重制度选择:在技术层面,算法的可解释性优于性能,应在算法设计之初植入可解释的理念,选择相对简单的算法模型;在规范方面,权利规范比禁令规范更契合刑事司法的场景化特点,应以权利作为主要的规范形式,在个别场景中禁止算法决策;在主体方面,国家机关的算法解释义务居于主导性地位,主要以算法模型作为解释对象,应健全事前、事中、事后的配套措施;公民个体的算法解释权居于回应性地位,能够保障公民对具体算法决策的知情、理解与救济,应建构相应的运行流程。
关键词:刑事司法;算法解释;算法解释权;算法解释义务
一、问题的提出
随着人工智能赋能刑事司法活动,算法辅助决策日益成为刑事司法的重要组成部分。大数据侦查、社会危险性评估、人工智能辅助量刑、大数据证明等算法技术在助推刑事诉讼高效化、精准化的同时,也不可避免地产生了算法治理的新问题。对此,“算法解释不仅是构建算法规制框架的关键节点,也是避免算法决策恣意武断、有效约束算法决策的前提”。鉴于算法解释在算法治理中的重要地位,有学者指出,算法解释制度可以化解算法黑箱,规避算法风险,当前的算法规范理论主要是围绕算法解释展开的。尽管算法解释应当成为刑事司法中算法正当程序的重要内容,但对此问题,立法规范与理论研究相对薄弱。一方面,《中华人民共和国刑事诉讼法》(以下简称《刑事诉讼法》)及其司法解释,并未直接以算法决策作为规制对象,也未与《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)等规范进行良性互动。概言之,我国刑事诉讼立法规范难以满足算法治理的时代需求。另一方面,尽管有学者提出将算法解释引入刑事司法的倡议,但或是局限于大数据证明、算法推论、人工智能辅助量刑等单一场景,或是将算法解释作为证据开示制度、阅卷权(数据访问权)的子命题。相关研究不仅没有在总体上描述算法解释的制度框架,也没有具体提出算法解释的场景化设计方案,致使“刑事司法中为什么需要算法解释?”“刑事司法中如何进行算法解释?”等基本问题难以得到有效回应。
算法解释起源于私法领域,需要借鉴私法领域既有的宝贵经验,更需要结合刑事司法的特点进行场景化的制度设计。本文认为,刑事司法中的算法解释权面临多元的制度选择:首先,在技术层面,面临性能与可解释性的制度选择;其次,在规范层面,面临采取禁令还是权利的制度选择;在主体层面,面临以国家为主还是以个人为主的制度选择。只有解决技术、规范、主体层面的相关问题,才能设计出场景化的算法解释制度,满足刑事司法中算法正当程序的需求。
二、性能vs可解释性:刑事司法中算法解释的技术选择
在技术层面,刑事司法中的算法解释面临第一重制度选择,即应当更侧重算法技术的性能,还是更关注算法技术的可解释性。前者主要是指算法模型的技术上限,即算法辅助决策能否进一步提高刑事司法的效能,以及算法技术能否应用到更广泛的刑事诉讼程序之中。后者主要是指算法的透明度,即算法技术被国家机关与诉讼主体的理解程度。
在理想情况下,刑事司法中的算法技术应当能够兼顾性能与可解释性。然而,由于技术发展的局限性,难以同时满足两种需求。一方面,如果选择更高性能的算法模型,或是拓展算法应用的具体场景,可能会出现更多的算法黑箱等问题,导致算法技术难以被解释甚至完全不可能被解释;另一方面,如果追求更高程度的可解释性,在提升算法透明度的同时,也可能导致算法模型的简单化倾向,往往无法胜任较复杂的技术任务。“目前的技术发展仍然难以兼顾模型的预测性能和追求自动化决策过程结果的全面留痕,即在两者存在非此即彼关系的假设依然成立的情况下,追求算法解释的程度越高则模型的性能越差。”因此,在当前技术背景下,需要在算法的性能与可解释性之间作出技术选择。
本文认为,在不可兼得的情况下,应当优先选择算法的可解释性。算法的可解释性作为正当程序的内在要求之一,对刑事司法中的多元主体均发挥不可替代的功能:其一,对刑事司法机关而言,算法的可解释性可以增强国家机关对算法技术的掌控,避免第三方企业等外包公司利用技术优势“忽悠”国家机关。国家机关只有了解算法模型的工作原理与技术细节,才能安心将之投入使用,进而为算法应用提供正当性与合法性;其二,对公民个体而言,算法的可解释性可以保障公民对具体算法决策的知情、理解与救济,增强对算法辅助决策的信任。“算法的可解释性赋予了个人获得算法解释的权利,等同于传统正当程序中的‘说明理由’。”申言之,算法的可解释性成为公民行使算法相关权利的技术前提;其三,对公安司法人员而言,算法的可解释性保证其了解具体的算法决策是如何做出的,从而辩证看待算法辅助决策的可信赖程度,也有利于回应数据主体的算法解释需求;其四,对监管部门而言,算法的可解释性可以还原算法运行的过程,为监管算法权力提供了技术支撑。尤其在刑事司法等高风险场景中,算法辅助决策的结果往往被用于线索或证据,这对算法监管提出了更高程度的要求。此时,算法的可解释性成为监管机关开展事前算法审计与事后算法问责的技术基础。
在刑事司法中,较之算法的可解释性,算法性能并非制度设计的关键。一方面,刑事司法中的算法在本质上属于公共决策机制或正当程序,而非一味追求尖端科技的应用。在刑事司法中规制算法,应当更侧重算法程序的正当性、公平性与合法性,而非理工学科或商业领域关注的技术性。申言之,算法性能等技术性指标只是塑造算法正当程序的辅助因素,而算法的可解释性却是算法正当程序的实质要求之一。“法律人面对算法规制问题时,应当着重考量算法所引发的、以权力配置为代表的社会关系的变化(比如算法何以引发歧视性后果),而不是把关注点放在算法的技术本质。”另一方面,并非所有的刑事司法活动都需要应用算法进行辅助决策,故而算法正当程序的建构并不取决于相关技术的上限。在当前诉讼实践中,算法适用在一定程度上出现了异化倾向:一是用于满足司法效率的单一需求,二是用于司法改革的考核指标。尽管智能化属于刑事司法的发展趋势,但需要警惕算法适用的盲目扩张倾向,坚持算法准入的必要性原则。申言之,算法是否进入刑事司法活动是“可选项”而非“必做题”,即便没有尖端算法技术的协助,也不至于严重影响刑事诉讼正当程序的建构。相反,正如有学者所言,“真正需要反思的是,公权力在何种领域以及多大程度上可以使用自动决策算法。并非在所有的公共管理领域,均得使用自动决策算法。”例如,法国《司法改革法案》(JusticeReformAct)禁止使用算法预测法官审判的结果,以避免架空法官独立审判原则。在确立了算法的可解释性优先于性能之后,应当完善相关的程序设计:一是建立算法准入制度,在准入环节嵌入可解释性的理念。算法在设计之初就应当贯彻“经由设计透明”的理念,首选具有内在透明性的算法模型。“在刑事司法中,我们应提倡从算法的可解释性走向可解释的算法,提倡只有可解释的算法才能被运用。”这需要完善算法准入制度,建立不可解释算法的负面清单制度,从源头处强化算法的可解释性;二是尽量选用可解释程度更高的简单算法模型。算法模型在总体上具有白箱模型与黑箱模型之分。前者包括决策树算法、线性回归算法、K近邻算法、朴素贝叶斯算法等。由于这些算法模型大多属于或可以转化为“if-then”形式的决策规则,故而具有更强的可解释性。然而,诸如深度神经网络、随机森林和梯度增强机器等属于黑箱模型,尽管具有更强大的决策功能,但同时也造成可解释性的降低。实际上,在刑事司法活动中,白箱模型已经可以胜任绝大部分的算法辅助决策活动,没有必要舍近求远,非要选择可解释性差的黑箱模型。例如,有实验结果指出,对于再犯风险评估等表格数据,与可解释的白箱模型相比,复杂的黑箱模型并没有明显的技术优势。因此,在绝大多数的刑事司法场景中,应当选择可解释性较强的简单模型,以降低算法解释的制度成本。
三、禁令vs权利:刑事司法中算法解释的规范选择
算法解释究竟应当以何种形式出现在立法规范之中,首先取决于法律对算法决策的态度。需要说明的是,与私法领域不同,刑事司法领域尚未达到算法完全自动化决策的程度,而仍以人工决策为主,算法技术主要发挥辅助决策的功能。在此情况下,既有立法规范对算法辅助决策存在“禁令规范”与“权利规范”两种不同立场。这不仅影响了立法对算法辅助决策的规制方向,也直接左右了算法解释的规范形式。
(一)刑事司法中算法辅助决策的禁令规范
禁令规范的核心思想是,在刑事司法中,原则上应当禁止算法辅助决策,除非满足特定的豁免条件。此时,由于算法辅助决策在总体上已经被禁止,算法解释或是完全没有开展的必要,或是成为国家机关的义务。例如,欧盟《2016/680指令》第11条设置了算法决策的三项禁令:其一,在刑事司法中原则上应当禁止算法自动化决策,以避免对数据主体产生不利的法律效果或对其产生重大影响,除非经过成员国立法授权,并为数据主体提供了相应的保障措施(如要求数据处理者进行人工干预);其二,禁止使用特殊的个人数据开展算法自动化决策,除非已经采取适当措施保障数据主体的权利和自由以及合法利益;其三,禁止使用特殊的个人数据开展歧视性分析。法国、德国、爱尔兰等国家,为贯彻欧盟《2016/680指令》的要求,在本国的《个人数据保护法》中,也均采取了禁令规范,以规制刑事司法中的算法决策行为。此外,禁令规范也延伸到具体的算法决策领域。例如,刚出台的欧盟《人工智能法案》第5条(h)项将“在公众可进入的场所为执法目的使用‘实时’远程生物识别系统”列入禁止名单,仅在符合特定条件的情形下才允许使用。
禁令规范主要存在以下三大特征:一是以数据主体的利益作为制度建构的核心。禁令规范对算法决策秉承“原则禁止、例外允许”的底层逻辑,即算法自动化决策自始就不被允许,从而使数据主体获得了默认的保护地位。这种默认的保护地位不要求数据主体积极、主动地行使算法解释权利,降低了由于主体能动性的差异对权利行使效果产生的影响。这既提高了制度保障的稳定性,也提高了对数据主体利益的保护程度。然而,这也导致算法开发者、算法决策者的相关利益并非禁令规范的保护对象。大范围的禁止算法决策,可能阻断技术进步,影响算法技术的良性发展与合理应用,不利于达成多方平衡的局面。二是坚持国家机关的义务本位。在“原则禁止、例外允许”的逻辑下,算法决策或是根本无法开展,或是需要满足特定条件。前者根本无须开展算法解释,而后者往往需要刑事司法机关解释算法的工作原理与运行流程,即国家机关应对履行算法解释的义务。因此,禁止规范将算法解释的主体由公民个体转化为刑事司法机关,要求国家机关为算法解释提供相应的制度安排。例如,刑事司法机关应当提供人工干预程序,以检测、验证算法决策是否存在错误、歧视,并为算法相对人提供救济。三是体现事前规制的特征。禁令规范体现了国家机关对新兴技术的谨慎态度,即如果不能合理规避算法技术中的风险,则应当在源头处切断风险来源,关闭算法技术进入刑事诉讼的渠道。此外,如果算法决策由于符合特定条件可以继续开展,往往也需要经过算法审计、算法备案等制度,以实现对算法模型的事前解释。
(二)刑事司法中算法辅助决策的权利规范
权利规范的核心思想是,在刑事司法中,应当赋予算法相对人算法解释权、免受自动化决策约束权等相关权利,以对抗算法决策产生的制度风险。申言之,算法解释应当以权利的形式展开。例如,我国《个人信息保护法》第24条第3款规定:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”此外,该法在第四章“个人在个人信息处理活动中的权利”中还设置了第48条,规定“个人有权要求个人信息处理者对其个人信息处理规则进行解释说明”。无论是从“有权”的文义解释,还是从第48条的体系解释,均可以得出我国算法解释活动采取了权利规范的立场。由于《个人信息保护法》一体适用于公法与私法领域,故而刑事司法活动也成为上述条款的适用场景之一。
权利规范主要存在以下三大特征:一是权利规范兼顾多方利益,而非仅以数据主体的利益作为核心。相较于禁令规范中个人利益最大化的立场,权利规范则更倾向于从数字生产或数据社会效益角度出发,理解看待算法决策问题。由于算法决策的广泛应用已成既定事实,从成本收益的角度而言,权利规范也是更具有性价比的制度选项。二是坚持公民个人的权利本位。以权利形式开展算法解释,可以将算法解释的主动权移交到公民个体手中,由其主动、自力地开展权利救济的渠道,而无须依赖国家机关的作为义务。申言之,禁令规范尽管避免了权利行使的个体化差异,但也通过将权利转化为国家机关义务的方式,变相剥夺了相对人权利的行使机会。三是体现事后规制的特征。算法解释等相关权利不强调具体决策开始之前的算法治理,而更侧重具体决策发生之后理解与救济的权利。“如果说免受自动化决策保护的禁令进路是一种防患于未然的进路的话,权利进路则具有较强的事后补救性。”这避免了算法解释等权利在算法治理全流程中的过度耗散,提高了权利保护的针对性。
(三)刑事司法中算法解释应主要采用权利规范
本文认为,刑事诉讼中算法解释的规范形式应当进行场景化设计,以权利规范为主,以禁令规范为辅。
一方面,以禁令规范作为刑事司法中算法决策的主要规制方法,既不现实,也不必要。近年来,我国在预测性警务、人身危险性评估、人工智能辅助量刑等多个领域积极开展算法辅助决策的实践活动,并取得一定成效。此时,为了防止算法难以被解释等制度风险,“一刀切”式地禁止或叫停改革试点,不但可能挫伤司法改革的能动性,也致使公安司法人员面对新兴技术陷入“存而不用”的尴尬境地。“因噎废食”地禁止人工智能技术在刑事司法活动中的运用,不符合算法治理的发展趋势。在算法技术兴起之初,确实有国家或地区存在风险顾虑,暂停或终止了诸如人脸识别等实践应用。但随着算法技术的不断成熟,域外法治国家越来越意识到“规范”而非“禁止”才是应对人工智能演进的必由之路。例如,美国弗吉尼亚州2022年7月生效的立法推翻了之前禁止执法部门使用人脸识别技术的规定,转而通过年度报告等方式进行规制。因此,禁令规范仅能在个别场景下进行,以应对确实难以规制的算法风险。例如,欧盟《人工智能法案》第5条(g)项禁止使用生物识别技术对个体进行分类,进而推导或推断其种族、政治观点、工会成员身份、宗教或哲学信仰、性生活或性取向。对于此类算法应用,刑事司法应当在程序法之外建构算法准入的实体法规则,从源头处预防由此产生的高风险。
另一方面,以权利规范开展算法解释,更契合刑事司法的场景化特征。首先,权利规范更符合既有的立法规定,可以节省制度成本。如前所述,我国《刑事诉讼法》及其司法解释中并无专门针对算法的规制条款,专门的《人工智能法案》也尚未出台。因此,刑事司法中的算法解释只能间接通过《个人信息保护法》等法律设立相关规则。《个人信息保护法》第24条第3款与第48条均采取权利规范的形式,为刑事诉讼中算法解释提供了规范参照。基于体系解释原理与维持法秩序一致的需要,无论是未来《刑事诉讼法》的修改,还是相关司法解释的出台,原则上都应当坚持以权利规范为基础,建构场景化的算法解释制度。其次,权利规范更契合刑事诉讼中以权利方式开展事后救济的制度传统。刑事诉讼中存在行为方式恰当性的推定,即“公职的和官方的举动和责任被认为是按照规定而适当地履行的”。但这一推定属于可反驳的推定。如果当事人对执法、司法行为存在异议,可以在事后提出意见、寻求救济、质疑行为的过程或结论。例如,如果对侦查机关讯问合法性存在疑问,可以启动非法证据排除等事后救济程序。同理,在刑事司法中,如果国家机关利用算法开展辅助决策,在原则上被推定为合法,但属于可反驳的推定。公民无法从源头上左右算法辅助决策是否开展,但是可以通过算法解释等权利进行质疑或救济。因此,在刑事司法中,权利运行的关键阶段往往不是事前的启动环节,而是事后的救济环节。赋予相对人算法解释权等事后救济的权利,更有利于权利运行的实质化与针对性。其三,权利规范并不会过分增加相对人的负担。算法解释活动需要相对人积极地“主张”,方才可以开启利益表达的渠道。申言之,算法解释对相对人提出了一定要求,需要其“主动”地行使权利,而不能“躺在权利上睡觉”。然而,这属于合理负担,不会使相对人产生过高的制度成本。对此,可以类比非法证据排除制度。在该制度中,辩方需要提出自己被非法取证的“初始事实”,承担初始的争点形成责任。在这之后,取证合法性实质的证明责任仍由国家机关承担。与此类似,算法解释等权利只是要求相对人对错误、歧视、于己不利的算法决策提出异议,表达想要理解的请求。之后具体的解释义务由国家机关承担,并由其承担证明不能的责任。
四、国家vs个人:刑事司法中算法解释的主体选择
在完成算法解释在技术、规范层面的制度选择之后,还需要解决算法解释中的主体争议。在刑事司法中,算法解释存在国家机关与公民个体两种不同的主体选择。前者主要表现为刑事司法机关履行算法解释的国家义务,后者主要表现为算法相对人行使算法解释的相关权利。二者代表了刑事司法中算法解释的不同路径,共同构成了刑事司法中的算法解释体系。
(一)刑事司法机关算法解释的国家义务
由公安司法机关以义务履行的方式开展算法解释,在刑事司法算法解释体系中居于主导性地位。相对于个人的权利行使活动,以国家机关为中心开展算法解释具有以下制度优势:其一,刑事司法机关是算法权力的风险源,由其承担算法解释义务更符合公平原则。在享受算法权力红利的同时,国家机关也应当实现算法决策的价值理性与工具理性,而非退居幕后,任由私人成为对抗算法风险的主体。其二,刑事司法机关具备算法解释的条件与能力。国家机关具备训练算法所需要的庞大数据,更容易接触到算法的核心技术,具有履行算法解释义务的角色优势。以国家权力主导的方式进行数据治理,可以综合运用立法、司法、执法等多种手段,属于低成本、高预测性的制度选择。其三,由刑事司法机关开展算法解释,更有利于平衡公共利益与个人利益之间的关系。例如,刑事司法机关能够更好地界定算法决策中国家秘密、商业秘密的范围与边界,从而调和刑事诉讼中保密规定与算法解释要求之间的逻辑关系。其四,由刑事司法机关开展算法解释,更契合刑事诉讼中职权主导的司法传统。我国的刑事诉讼结构主要由职权主义原则塑造,国家表现出对公安司法机关公正行使职权的高度信赖。由刑事司法机关以更加积极的面貌进行算法解释,能够充分发挥国家权力的主观能动性,实现算法解释的公力救济。
算法解释的国家义务能够帮助国家机关实现对算法技术的“控制”,缓解算法黑箱与算法追责问题,进而避免算法权力的失控。一方面,算法技术借助国家秘密与商业秘密的保护,不断增强黑箱化趋势,与日益透明的公民、社会之间形成强烈反差。此时,算法解释的国家义务以增强算法透明度为目标,要求国家机关掌握算法决策的生成过程,避免算法权力的任意行使。另一方面,算法机器决策产生了个人责任的回避机制,神秘而权威的数据代码成为刑事司法人员推诿责任的工具。此时,算法解释的国家义务通过还原算法运行过程,监督国家机关的数据处理行为,为事后追责提供理由和依据。
算法解释的国家义务主要以算法模型作为解释对象。根据算法运行阶段的不同,存在“以算法模型为中心”(Model-Centric)和“以决策主体为中心”(Subject-Centric)两种解释方案。“以算法模型为中心”的解释又称系统解释或内部解释,属于刑事司法中算法解释义务的主要内容。无论是公安司法机关自行开发算法程序,还是“外包”给第三方企业负责研发工作,均需要由技术人员向刑事司法机关详细描述算法模型内部的工作原理。这包括但不限于预定义模型、训练参数、输入数据、规范指南、决策树、预期后果、逻辑意义、分类结构、测试与验证数据的结果等。申言之,“以算法模型为中心”的解释关注的是整个模型的运行逻辑,而非其在特定情况下的表现。在解决技术问题的过程中,必然涉及披露源代码与底层数据。此解释方案往往在算法正式投入使用之前进行,以诊断、修复技术故障,增强算法决策的合法性、可靠性。在开展“以算法模型为中心”的解释的同时,算法解释的国家义务也部分包含“以决策主体为中心”的解释方法。例如,一线的执法、司法人员需要了解具体决策是如何做出的。此时,刑事司法机关主要以具体决策为解释对象,对公安司法人员开展算法解释的业务培训。
切实履行算法解释的国家义务,不仅需要算法解释方面的程序供给,还需要国家机关为算法治理提供全流程的制度安排。其一,在事前阶段,刑事司法机关需要履行算法影响评估义务。算法影响评估是一种事前性的合规评估和风险评估程序,旨在提前预防算法决策可能产生的制度风险。算法影响评估的主体包括技术人员、第三方评估机构、算法监管机构、刑事司法机关、算法相对人代表等,尤其需要让公众参与算法准入的评估程序。算法影响评估主要包括以下内容:一是详细描述算法系统;二是评估算法系统所追求的正当利益;三是评估算法系统对数据主体权利和自由的风险;四是提供与风险对应的保障措施。通过算法影响评估等准入制度,将可解释性较差、对基本权利干预风险较大的算法模型排除在刑事司法活动之外,从源头上提高算法的可解释性。其二,在事中阶段,刑事司法机关需要履行算法记录等义务。刑事司法机关应当详细记录算法决策的过程,包括训练数据、测试数据、训练方法、挑选数据特征的方式、测试验证算法系统的过程与技术等。算法记录义务可以及时发现算法决策中的歧视与错误,为算法解释权提供可供回溯的事实依据,增强算法解释义务的信服度。其三,在事后阶段,刑事司法机关应当建立独立的算法监管机构。算法监管机关应当将算法解释情况纳入监管范围,既包括对算法模型的事前解释,也包括对具体决策的事后解释。对前者而言,算法监管机构应当督促刑事司法机关落实算法准入、算法影响评估等义务,协助完善算法技术的负面清单。如果出现可解释性较差的算法进入刑事司法活动等情况,算法机关应当提示预警。对后者而言,算法监管机构应当督促刑事司法机关及时响应算法相对人的解释请求。如果出现怠于履行个案算法解释义务的情况,应当设置实体与程序的制裁机制。在实体性制裁方面,对于怠于履责的情况,可以要求其上级机关责令改正。对于直接负责的主管人员和其他直接责任人员依法给予处分;在程序性制裁方面,监管机构可以提示裁判机关注意,未经解释而产生的线索和证据不得作为定案根据,并督促公安司法机关建立并落实算法证据合法性、可靠性的排除机制。
(二)刑事司法中公民个体的算法解释权
由公民个体以行使权利的方式开展算法解释,在刑事司法算法解释体系中居于回应性地位。在刑事司法中,个体主要通过算法解释权,实现对算法具体决策的知情、理解、救济。
首先,算法解释权保障当事人知悉自己成为算法决策对象的事实。在刑事司法活动中,算法往往被国家机关或开发企业作为“秘密”,致使相对人无法知晓具体的应用情况。此时,算法解释权要求国家机关应当将在特定刑事司法活动中使用算法决策的事实告知当事人,满足其基础性的知情需求。例如,如果在逮捕社会危险性评价中使用了量化评估模型,应至少将国家机关“用过”算法工具的事实告知犯罪嫌疑人。
其次,算法解释权保障当事人理解算法决策是如何做出的。在知悉国家机关使用算法决策的基础上,当事人还需要进一步理解具体的算法决策是如何产生的。对此,当事人不一定需要知晓算法模型的源代码及其技术原理,但至少应当获得适当的解释,以回答“我为什么获得了这个决策结果”的问题。例如,如果人脸识别算法模型产生了匹配结论,当事人至少需要理解两方面事项:一是为什么人脸识别算法模型产生了肯定性而非否定性的结论,二是为什么是“我”而非其他人与数据库中的图像形成了匹配。对此,当事人需要获取原始探测照片、探测照片的编辑过程(如使用了图像增强、去噪等技术)、识别匹配结论、识别匹配结论的算法流程、当事人在识别匹配过程中的排名与得分等算法相关信息。“受到算法影响的个人只有在真正理解人工智能‘如何作出决定和基于什么基础作出决定’的情况下,才能质疑特定决定或表达自己的观点。”最后,算法解释权保障当事人对错误、歧视、于己不利的算法决策展开救济。在知悉、理解具体算法决策的基础上,当事人还需要进一步展开权利救济。由于算法模型、训练数据、人为操作等原因,算法决策可能产生错误、歧视等负面结果。例如,在RobertWilliams案中,由于警方使用了质量较低的照片,导致人脸识别算法产生了错误的识别结果,并以此为据错误逮捕了当事人。此时,算法解释权向后延伸出救济权,具体包括以下三种情形:一是更正错误或不当的算法决策。当事人如果认为由于人为原因或机器原因致使算法决策产生错误或不当的结果,有权要求予以更正。例如,由于原始图像质量较低,警方利用计算机合成技术对图像进行了编辑修正,增加了新的识别点位,从而产生了错误的人脸识别结果。对此,当事人可以援引算法解释权后续的更正功能,更正算法的原始数据与决策结果。二是对算法决策表达异议与质疑。如果当事人对算法决策的合法性、可靠性、公正性存在疑问,可以运用算法解释权提出异议与质疑。异议与质疑的效果是使算法决策的效力处于一种真伪待定的状态,国家机关需要及时响应,对算法决策的合法性、可靠性、公正性做出判断。三是要求人工干预。如果结果是完全由算法自动化决策做出的,当事人可以根据算法解释权,要求实质性的人工干预。例如,当事人如果对人脸识别的结果存在异议,可以要求开展“双盲确认”,即由两名审查员独立判断人脸识别的结果匹配与否,方可作为线索或证据使用。
除了具有知情、理解、救济三重功能之外,公民个体以权利行使算法解释权具有以下积极影响:
一方面,公民个体以权利方式进行算法解释,能够为相对人提供参与算法决策的机会,体现出对人类主体地位的制度关照。算法决策由机器而非人类主导,可能会挤压当事人的主体地位,甚至使之沦为被支配、被治理、被操纵的客体。此时,算法解释权提供了公民参与算法治理的利益表达机制,保证公民在算法决策过程中的程序“在场”。“个人必须拥有参与涉及自身利益的决定过程,以及改善自身处境的机会和手段。”并且,较之冰冷复杂的算法规则,算法解释权以简洁、易懂的语言解释算法决策的生成过程,给予当事人一种程序上的被尊重感,有利于增强其对算法决策的信任度与接受度。从宏观角度而言,算法解释权更体现出算法社会对人性的关照和尊重。“在算法社会中,算法解释权是保障和尊重个体自治性的首道屏障,是机器学习和数据科学领域伦理规范的核心要素,被视为算法时代对抗数据个体的主体性和自治性沦陷和丧失的‘内在之善’。”另一方面,公民个体以权利方式进行算法解释,能够弥合公民与国家之间的信息鸿沟,恢复“权利—权力”的平衡状态。在前算法时代,刑事司法活动中国家与公民之间存在稳定畅通的信息传输渠道,形成了相对平衡的互动结构。然而,算法技术的引入,对“权利—权力”的平衡关系产生了两方面的负面影响:一是算法决策以半自动化或自动化的方式进行,违背了正当程序、公众参与、司法公开等基本原则,造成了诉讼程序的跳跃与压缩。例如,之前国家机关需要通过说理制度解释量刑作出的理由,而算法量刑却无须如此。二是控辩双方参与算法治理的程度大相径庭。国家机关几乎完全主导了算法的准入、运行与监管,而犯罪嫌疑人及其辩护律师不但无法决定是否使用算法技术,甚至无法知悉或质疑算法决策的结果。此时,算法解释权搭建了个人与国家理性交涉的平台,在一定程度上恢复、还原了前算法时代的正当程序保障机制,矫正“权利—权力”之间的失衡关系。此外,算法解释权贯彻了多元主体、协同治理的理念,使算法相关信息由优势方向劣势方流动,缓和了双方信息不对称的局面。
公民个体以权利方式进行算法解释,主要以具体的算法决策作为解释对象,采用“以决策主体为中心”的解释方案。在刑事司法中,“以决策主体为中心”解释的权利主体是受算法决策影响的相对人,义务主体是公安司法机关。此解释方案无须详细描述算法模型内部的工作原理与源代码,但需要向算法相对人解释具体决策是如何产生的。申言之,“以决策主体为中心”的解释方案需要解释的不是系统性的“算法”,而是个案中的“决策”,主要包括以下内容:一是算法决策拟解决的问题;二是算法决策产生的理由或原因;三是算法决策使用的数据类型,是否包含敏感个人数据;四是特征权重等算法决策的个体情况。例如,如果法院在量刑活动中使用了再犯风险评估算法,需要向被告人提供年龄、性别、前科记录等信息在该算法中的特征比重,以解释模型对不同特征的依赖程度;五是其他算法决策的处理规则等信息。此解释方案往往发生在具体算法决策作出之后,以增强对算法决策的可理解性,回应算法相对人的请求。
公民个体以权利方式进行算法解释,需要明确相应的运行流程。如上所述,算法解释权具有知情、理解、救济三大功能,其运行流程也应当对应设置。一是建立算法解释权的告知程序。在侦查阶段,可能存在有碍侦查的情形,故而“以事后告知为原则,以事前告知为例外”。在公诉、审判、执行阶段,有碍侦查的情形多已消除,故而应“以事前告知为原则,以事后告知为例外”。告知内容既包括刑事司法机关使用算法决策的事实,也包括相对人享有算法解释权等权利。由于告知内容往往不涉及国家秘密、商业秘密与个人隐私,故而告知算法解释权属于国家机关的强制义务。二是建立算法解释权的解释程序。如果算法决策对相对人产生不利影响,犯罪嫌疑人、被告人及其辩护律师、被害人等可以申请启动算法解释程序,要求公安司法机关提供算法决策中拟解决的问题、理由、数据类型、特征比重与其他算法规则等相关信息。公安司法机关应以简洁、易懂的语言向相对人解释算法决策的产生过程。三是建立算法解释权的救济程序。在经过公安司法机关解释之后,如果相对人仍然对于错误、歧视、于己不利的算法决策存在异议,可以申请启动救济程序。在救济过程中,算法相对人可以寻求专家辅助人的帮助。公安司法机关应及时响应相对人的申请,对算法决策的合法性、可靠性、正确性进行审查,并承担相应的举证责任或证明责任。如果算法的数据或模型存在错误,应及时更正决策结果;如果属于严重干预基本权利的算法决策,应增加人工复审环节;如果出现算法结论无法验证、无法解释等情况,应选择对算法相对人最有利的解释结论。在《刑事诉讼法》未来的修改过程中,算法解释权的设置存在两种方案:一方面,保守方案是改造既有的阅卷权、辩护权、质证权,将算法决策的相关因素纳入权利范围,使之间接发挥算法解释的功能。另一方面,更为直接的方案是在刑事司法中增设“算法解释权”,规定如果算法决策对相对人产生不利影响,犯罪嫌疑人、被告人及其辩护律师、被害人等可以申请启动算法解释程序,要求公安司法机关提供具体算法决策中的相关信息,并寻求救济的权利。
结语
算法解释是刑事司法中算法治理的核心内容之一。在技术层面,可解释性优于算法性能,应当优先选择可解释的算法模型或简单易懂的算法模型;在规范方面,权利规范比禁令规范更契合刑事司法的场景化特点,应当作为主要的规范形式;在主体方面,国家机关的算法解释义务居于主导性地位,公民个体的算法解释权居于回应性地位,二者共同构成算法解释的理论体系。然而,算法解释仅是刑事司法中算法治理的一部分,不可能一劳永逸地解决所有相关问题。刑事司法中的算法治理仍然总体处于起步阶段,有待立法规范与理论研究的继续深入。
来源:《中国政法大学学报》2024年第6期“数字时代”栏目
作者:王仲羊,西南政法大学刑事侦查学院讲师