作者:尚权律所 时间:2022-01-10
摘 要:人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策。然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能“黑箱”释明难题决定了人工智能行为的不可解释性。法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的。人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题。
关键词:人工智能;可解释性;法律责任;自我答责;责任预防
2018年9月,美国国防高级研究计划局(DARPA) 启动了被称为“加速第三波”的人工智能探索(Artificial Intelligence Exploration,AIE)项目,探索人工智能类人水平的交流和推理能力,以实现人工智能对新环境的自适应,自此之后,人工智能的可解释性成为人工智能领域的一个研究热点。2019年4月8日,欧盟委员会发布了《人工智能道德准则》(Ethics Guidelines for Trustworthy AI)(以下简称《准则》),提出了“值得信赖”的人工智能应当满足的条件,即受人类监管、技术的稳健性和安全性、隐私和数据管理、透明度、多样性、非歧视性和公平性、社会和环境福祉以及问责制。其中,透明度是建立和维持公民对人工智能系统开发者和人工智能系统本身信任的关键。2021年1月6日,欧洲议会和理事会制定的《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为》也同样对透明度予以了强调,规定高风险AI系统的设计和开发方式应足够透明,以使用户能够理解系统的输出并适当地使用它。从定义上看,人工智能的透明度分别指向透明性与可理解性两个维度。透明性是指人工智能模型本身是可以被人类理解的,而可理解性意味着人类对人工智能模型作出的决策能够达到一定的理解程度。为进一步实现对透明度的衡量,《准则》还引入了“可解释的人工智能”(Explainable Artificial Intelligence)概念,可解释的AI被称为XAI,可解释性由此成为衡量人工智能透明度的重要标准。2020年10月20日,欧洲议会通过了关于人工智能道德原则的立法倡议,明确要求,为了确保人工智能和机器人技术是安全且可以为人类所信赖的,“这些技术使用或产生的软件、算法和数据”应当具有“可解释性、可诠释性、透明度和可识别性等安全特征”。鉴于“人们只能对已经理解的事物作出法律上的安排”,人工智能的可解释性成为人工智能推广和应用以及解决其法律责任问题的前提条件,并成为人工智能研究领域的下一个前沿问题。因此,人工智能的可解释性问题成为人工智能与法律的连接点,本文即以人工智能的可解释性这一全新视角展开对人工智能法律责任问题的探讨。
一、人工智能法律责任的最基本要素:主体行为具有可解释性
讨论人工智能的可解释性问题,既是发展人工智能的哲学需要,也是对人工智能的实用性要求,更是解决人工智能法律责任问题的关键。为了避免遭受诸如“你们的哲学家没有付出哪怕最小的努力去理解非个体的存在和思想”的指责,人类必须主动放下身姿,关注人工智能的“存在与思想”,分析其行为是否具有可解释性。为了避免人工智能的行为充满不安全性与不确定性,人类必须主动思考,关注人工智能的可解释性与可诠释性,以合理实现对人工智能法律责任的制度安排。
法律主体要对自己的行为承担责任,这意味着其行为必须可被解释。承担责任的前提就是行为具有可解释性,“作为‘责任(accountablity)’最基本的因素,主体的行为必须可被解释”。因此,人工智能作为人类意欲承认的法律责任主体,其行为必须具有可解释性。
当下学界在探讨人工智能的法律问题时,主要围绕人工智能的权利与义务这对范畴进行,也即讨论人工智能是否具有法律地位,能否成为权利的享有者和义务的承担者。因此,对人工智能法律责任的讨论多落脚于人工智能能否独立承担责任及如何承担责任。一般来说,法律地位的问题解决了,法律责任的问题也就迎刃而解了。然而,在人工智能的法律地位与法律责任问题上,学界众说纷纭。关于人工智能的法律地位问题,既有否定论与肯定论的对峙,更有在肯定论中从法律人格扩展论到电子人格论再到人格拟制论最终到人工智能发展论以及有限人格论等各种理论的提出;关于人工智能的法律责任问题,则有法律责任独立论、法律责任代理论等不同观点,以及根据责任类型(如刑事责任或民事责任等)所作出的一些探讨。但遗憾的是,所有这些学说均未有效回答人工智能为何有或者没有法律地位,为何以及如何承担法律责任,以至于学界围绕这两个问题一直争论不休,甚至导致人工智能法学研究呈现出“泡沫化”倾向。究其原因,是学界对人工智能法律地位与责任承担问题的探讨视角存在问题。确立人工智能的法律地位是为了解决权利能力与义务承担问题,只要解决了权利与义务问题,也就解决了法律责任承担问题。“一般性法律与基本权利的交互性影响,系通过解释与实践调和的方式来平衡基本权利主体之间的利益,为基本权利的内在限制。”这意味着,在法哲学层面,权利理论的科学性指标有两个,一是可解释性,二是可实践性。只有具有可解释性的权利,才具有可实践性,可解释性是根本。行为只有具有可解释性,行为主体才能成为权利主体,才能承担法律责任,履行法律义务。“机器人有道德和法律上的义务,甚至权利吗?这些提问对人工智能的发展具有重大意义。因为人工智能的行为和决策的自主空间越大,谁对其决策和行为承担责任这个问题的提出就越紧迫。”而人工智能的行为和决策的空间越大,需要解释的空间就越大,这直接影响人工智能对法律责任的承担。因此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性展开,而不是纠缠于各种不同的主体论与责任理论。换言之,探讨人工智能的法律责任问题,应采用权利理论的视角和可解释性的标准,按此全新路径来推进对人工智能法律问题的探讨。
人工智能作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须解释其是如何行为的。“人类专家可以解释他们如何执行某些任务,机器人则无法解释这一事实,而解释是专业知识的一个重要方面。的确,专家经常被要求解释其决定,所以,如果一个机器人不能提供连贯的解释,它又怎么能发挥专家的作用呢?”如果人们愿意将人工智能理解为法律科技的核心技术,就意味着“对人工智能的理解是建立人工智能相关法律关系不可或缺的前提条件”。因此,只有人工智能的行为具有可解释性,人工智能才能与人类主体一样成为法律责任的承担主体,否则,不可解释的行为将会使人工智能成为炼金术或者魔幻,不可言说,不可理解,并最终导致法律责任无法得到精准确立与分配。
法律主体要对自己的行为承担责任,还意味着需要对人工智能的行为的可解释性予以法教义学的探讨,也即“以人类可理解的术语去解释或描述人类与人工智能之间的相互交流”。只有通过人工智能行为的可解释性,才能实现人工智能与人类的交互理解,进而将人工智能发展为可能的新型责任主体类型。
要解决人工智能的法律责任问题,就必须解决法律适用问题。按照卡尔·拉伦茨的观点,法律适用“是一种对向交流的过程”,因此,“必须考虑在可能适用的法条之下,由‘未加工的案件事实’形成作为陈述之终局的案件事实,同时也必须考虑在终局的案件事实之下,将应予适用的规范内容尽可能精确化”。对于人脸识别、医疗诊断、自动驾驶等领域的人工智能法律责任问题,仅通过结果难以导向对案件事实的全面而终局性的了解,必须经由对人工智能作出的识别、诊断、驾驶等行为的解释,了解行为过程的全貌,方能找到准确的适用规范,进而解决人工智能的法律责任问题。法学是探究法的客观意义的科学,无论是法教义学,还是法解释学,其内核都是要求对法律规范进行解释,解释者的目光在案件事实与法律规范之间往返逡巡,最终得出结论。法学的历史就是法解释的历史,自然法学派、概念法学派、自由法学派、利益法学派、社会法学派、历史法学派、分析法学派等各种学派之间的区别,无非是在解释理念与解释方法上的区别。探讨人工智能法律责任问题的前提在于,必须合理解决人工智能行为的可解释性,只有运用解释学的方法进行人工智能法律问题研究,才能使人工智能的行为所产生的事实具有法律上的意义。因为“规范对于行动具有重大意义”,人工智能的行为无论是适用现有法律规范,还是适用未来新制定的法律规范,我们都“必须用解释学或内在观点来理解它,尽管我们对于规范的规范性基础有着不同的意见,但使用能够为人类主体懂得的词语来理解和解释显得尤为必要”。只有对人工智能的行为进行解释并使其为人类所理解,才能准确适用法律规范,确立人工智能的法律主体地位及相应法律责任。基于法律解释思维,只有将人工智能的“识、判、动、作”亦即自主识别、自动判断、自主行动以及自主创作的过程予以清晰解释,才能证立或正当化某一结论。
法教义学的立场认为,“解决一个具体的法律问题,也就意味着将某一法律规范适用于具体的个案之中,但案件的解决必须建立在理由建构的基础之上”。这样的理由,对于人工智能而言,当然是指向AI是如何识别数据并进行判断进而作出某种决策的,这是决定人工智能能否对自己的行为承担法律责任的实质性理由。比如,以人工智能在商业领域的运用为例,人工智能完全可以为定价打开新世界的大门。在动态定价领域,人工智能可以适时根据消费者喜好、商品的市场价格、商品销量、购物车的停放数量、顾客评价,“甚至推特和脸书上的评论,通过特殊的算法计算出理想的价格,必要时还可以每分钟更新一次。这样,就可以实现全新的差异化定价”。然而,如果因为定价前后不一而引发顾客对价格欺诈的投诉和索赔,那么,就必须解释清楚,在人工智能的定价决策过程中是否存在算法歧视。为了避免人工智能不被接受,通过解释,可以建构人工智能和人类之间的对话机制,从而使人工智能与人类之间具有更强的社会关联性以及社会可接受性。人工智能的行为只有具有可解释性,才能使人们对AI的认识达成共识。法律解释本身就是通过使用特定语言并遵守一定规则进行言说的方式,促进共识的达成。“共同的语言游戏总是体现着相同的价值立场,对语言使用规则的恰当遵守还能透过语言本身达到减少价值立场之间冲突的作用”,减少人们在“人工智能是否具有法律主体资格以及如何承担法律责任”问题上的分歧。
人工智能问题属于科技领域的问题,人工智能的法律责任问题则属于法学领域的问题。“这对法学提出了严峻挑战:人们只能对已经理解的事物作出法律上的安排。因此,将来必定会出现以对法律科技的细致了解为前提的特殊部门法学。”在人工智能的法律责任问题上,如果人类能够理解人工智能的决策和行为,那么,对人工智能法律责任的制度安排与评判就会正当而合理。“这就意味着,对人工智能的理解是建立人工智能相关法律关系不可或缺的前提条件。”法律责任的承担意味着行为主体的行为能够被阐释和说明。
二、可解释性:人工智能的行为即算法决策是否可理解?
既然要讨论人工智能的法律责任,就必须讨论人工智能行为的可解释性。那么,人工智能的行为是否具有可解释性呢?如果说不确定性是AI的一个特征,而不是一个bug,那么,如何解释人工智能的行为,如何通过可解释性增加其确定性,进而通过可解释性奠定人工智能法律责任的基础,就既是一个科技难题,也是解决人工智能法律责任问题的前提。人工智能的行为是什么?机器人的基础是人工智能,人工智能的基础是大数据,人工智能通过机器学习算法在消化大数据后,再输出答案。因此,如果说人的行为是意识的外在表现,那么人工智能的行为就是算法决策。人工智能具有可解释性,就是人工智能的行为亦即算法决策能够被解释,易言之,就是我们能够解释人工智能如何在大数据的基础上进行算法决策。
人工智能的行为应该具有可解释性。《欧盟通用数据保护条例》( General Data Protection Regulation)规定,使用者应具有“要求解释的权力”。2021年9月25日,我国国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》第12条规定,要在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性。易言之,人工智能应该具有可解释性。人工智能利用计算机来模拟、延伸和拓展人类智能,英文为Artificial Intelligence,意为模仿的、人造的、假装的智能。尽管人工智能早在1956年就已被提出,且在迄今为止的六十余年间,其概念、原理与相关理论不断得到扩展,但只是在最近十年间,在以网络科技为代表的高科技的推动下,在全球经济飞速发展的大环境下,人工智能才逐步获得成功应用。随着人工智能的广泛应用,人工智能在计算机学、管理学、社会学、伦理学、哲学、法学等各个领域获得广泛讨论,甚至在人们的日常生活中也获得了持续的关注。随着AI的研究与应用不断取得突破性进展,“高性能的复杂算法、模型及系统却普遍缺乏决策逻辑的透明度和结果的可解释性,导致在涉及需要作出关键决策判断的国防、金融、医疗、法律、网安等领域中,或在要求决策合规的应用中,AI技术及系统难以大范围应用”。同时,对于人工智能在未来可能主导人类的生活,人类既期待,又恐慌,而恐慌的来源正在于,人工智能的行为似乎不具有可解释性, AI更类似于一个自循环的封闭系统,无法言说,且难以被理解。可解释性成为人工智能技术普及的重要因素,也成为决定人工智能在法律场景应用中是否应当承担法律责任的关键因素。
尽管人工智能的可解释性这一术语相对较新,但实际上,自1970年代中期以来,就一直存在着人工智能可解释性问题。随着机器学习(ML)的惊人进步,理论界对人工智能的研究重点开始转向为对模型和算法的研究,强调模型和算法的预测能力,正因如此,决策过程的解释能力被忽视了。最近,人工智能可解释性问题之所以受到重新关注,是因为人工智能在各行各业均得到了广泛适用,可解释性对AI决策过程产生了重要影响。基于商业利益、道德以及法律监管的需要,可解释的人工智能已处于必要之境。于是,人工智能的可解释性再次赢得了AI界的关注。“可解释性是保障人工智能安全性的重要手段,如果算法能够说明所作决策的依据,人们就可以通过分析依据的合理性和内在逻辑来评估算法的安全性。”因此,应通过人工智能的可解释性,为智能决策的公正性、稳定性及对真实因果关系的揭示提供帮助,避免算法歧视,实现算法正义,实现人工智能的透明性和安全性。
在当下,是否存在一个可解释的人工智能即XAI?从现有技术来看,人工智能的行为不具有可解释性。“这不是人类的下棋策略。我从来没见过任何人这样下棋。”2016年,在AlphaGo挑战李世石(世界上最伟大的围棋选手之一)并取得决定性胜利时,另一位围棋专家樊麾如此评论道。樊麾的这句经典点评,如实反映了我们在使用超精确的机器学习(ML)模型时面临的问题。尽管这些模型展示了超越人类的能力,但我们尚不能确定是输入数据中的哪些具体信息使人工智能作出决定。深度学习模型通常包含深度嵌套的非线性结构,这些非线性结构使模型变得不那么透明。对于AlphaGo本身来说,缺乏透明度并不是问题,但在可解释性(explainability)、可诠释性(interpretability)和透明度至关重要的领域(如医疗诊断、军事和战斗行动)中,模型的不透明性会大大阻碍AI/ML的扩展。在人工智能领域,输入数据和输出答案之间存在着一个不可被观察的空间,这个空间通常被称为信息黑箱,正是它引发出了AI是否具有可解释性的问题。人工智能“黑箱问题的根源并非人工智能采用了人看不到的方式‘思考’,而是当前人工智能因采取了神经网络、深度学习等算法而导致数据极其复杂。当前,人工智能科学亦致力于提高数据的可解释度”。然而事实上,不仅仅是数据的复杂导致了人工智能的信息黑箱问题,人工智能本身的思考方式也确实无法被看到。因此,2020年2月19日,欧盟委员会发布《人工智能白皮书》,将提高人工智能的可解释性作为因应下一波数据浪潮的重要内容。尽管学习算法在自然和人类行为领域开辟了新天地,但它们仍被笼罩在神秘之中,“计算机‘吞入’数以万亿的字节,并神奇地产生新的观点,关于大数据的书籍甚至也避谈‘这个过程到底发生了什么’”。在AI领域,以深度学习为代表的人工智能技术虽然已取得了令人瞩目的成就,但如何在机器学习中实现可解释性的目标,亦即如何“确保可以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据”,仍是一个无法得到解决的难题。从当前的研究情况来看,AI领域的研究者已纷纷意识到人工智能的可解释性的重要性,并已展开了很多研究。比如,有研究提出了评价人工智能可解释性的若干标准,具体如算法结果具有合理性,算法可被改进,算法能提供学习的启迪,算法要符合法规要求等。然而,结果具有合理性以及算法可被改进等评价标准只是针对人工智能进行解释,而如何实现可解释性,才是真正的难点。为此,AI领域的研究者又在解释模型上进行探索。然而,无论科学家如何努力,人们不得不接受一个并不乐观的现实,即可解释性研究还处于初级阶段,依然还有大量的科学问题尚待解决。“在解释模型为什么有效及如何运作方面,目前学界的研究还处于非常初级的阶段”,“对于可解释性的本质、研究手段,还未能形成统一认识,未能找到最佳方案”。并且,“不同学者解决问题的角度不同,对可解释性所赋予的含义不同,所提出的解释方法也各有侧重。迄今为止,学术界对模型可解释性仍缺乏统一的认识,可解释性研究的体系结构仍不明确”。毫无疑问,随着人工智能的发展,理解和解释深度神经网络的深度学习,是未来人工智能可解释性研究的重要目标。然而,由于人工智能深度学习和算法决策的不可预测性,以及机器自身无法进行言说,我们认为,未来对深度学习可解释性的研究仍会遭遇瓶颈。人类与机器建立“知其然”且“知其所以然”的人机互动的互信关系,恐难实现,人工智能具有可解释性,注定是人类不切实际的梦想。
三、法律责任否定论:基于人工智能行为的不可解释性
关于人工智能法律责任的全部问题在于,“人工智能是否以及如何对自己的损害行为承担法律责任”。对此,法学研究无非要确定人工智能应否成为法律系统中的法律责任人。人工智能的可解释性直接决定着人工智能的法律责任的有无,而且,“可解释性还要求落实问责制措施”,因为人工智能问责制的核心就是《准则》中所说的“建立机制,确保对AI系统及其成果负责和问责” 。“问”的核心就是要解释与沟通,只有在“问”清之后,才能落实“责”,而不具有可解释性的人工智能难以被问责。因此,从可解释性的角度分析人工智能的法律责任,无疑是一种全新的尝试。基于前文对人工智能可解释性的否定,人工智能的法律责任论也应该被否定。
法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此,其无法承担法律责任。责任的本质是答责或者说应答,即“行为人需要对其试试的某些行为作出应答”,“负有责任与自我说明实践具有本质联系”,应答法律责任是责任主体的自由意志与决定论的体现。人具有自由意志,“意志自律是一切道德法则以及合乎这些法则的职责的独一无二的原则;与此相反,意愿的一切他律非但没有建立任何职责,反而与职责的原则,与意志的德性,正相反对”。这意味着,在实际生活中,人有不受外界约束的意志自由。康德指出,人不是根据规律来行动的,而是根据对规律的观念(Vorstellung)来行动的,人是具有意志的理性生物。“在自然界中,每一物件都是按照规律起作用。唯独有理性的东西有能力按照对规律的观念,也就是按照原则而行动,或者说,具有意志。”“人身上具有一种独立于感性冲动的强迫而自行规定自己的能力。”黑格尔也指出:“自由的东西就是意志。意志而没有自由只是一句空话;同时,自由只有作为意志,作为主体,才是现实的。” 这是自康德和黑格尔以来即已奠定的法律责任论的基石,即人类只对通过自由意志所选择的行为承担责任,或者说,人类只对自己所决断的行为承担责任。重要的是,对于自身的行为,人类是可以解释其原因的。因此,以自我决定为根据并可以对决定过程予以解释的自我答责,是法律归责的基本原理,“行为人违反‘自我决定’这个一般的实践原则而设定了任意、行为、结果的统一性时,行为人就应该自己对所发生的损害后果承担完全的法律责任”。当然,这一点在被侵权人或者被害人的行为导致了结果的发生时除外。人工智能不具有自由意志,从设计到运行,从启动到结果,人工智能均处于人类指令的操控之下,而非作出自我决定。至于那些脱离人类操控的算法,其又因决策过程的不可解释性而无法实现对责任的承担。尽管有些“具有自由意志主义倾向的密码学狂热爱好者”喜欢引述哈佛大学教授雷席格(Lawrence Lessig)的一句话,即“代码即是法律”,希望实现生活完全由人工智能支配,但是,当人工智能可以支配生活却无法得到解释时,人工智能就无法实现对责任的承担,因此,人工智能注定无法真正支配人类的生活。以已经接近强人工智能水准的自动驾驶技术为例,国际汽车工程行业组织将自动驾驶技术分为5级,其中,第5级自动驾驶系统的参与程度以及自主运行程度最高,基本可以实现完全自动驾驶,但是,无论如何精准的自动驾驶汽车,哪怕是谷歌公司最新研发的无人驾驶汽车,其“感应装置每秒能捕捉到近1GB的传感器数据,并在随后对这些数据信息进行处理,从而识别风险或预测可能需要应对的问题”,在风险来临或者危险实际产生的时候,也会因为无法解释为何发生识别错误而无法回应责任论的应答基本要求。在这样的情况下,奢谈人工智能的法律责任问题,自然是多余的。
事实上,在人工智能得到普遍应用的各个领域,都存在着因人工智能的不可解释性而导致的法律责任难题。例如,据2010年成立的独立非营利组织新闻调查局统计,美国的无人机已至少在七个国家夺去了2500人至4000人的性命,其中约有1000位平民,且有约200名儿童。如果平民与儿童的被误杀并非人为原因所致,那么,谁为机器的行为负责?如果将责任归咎于机器的设计者,那么,由于设计者通常只是在错误发生之时才知道错误的存在,所以,这显然与人类只对通过自由意志所选择的行为承担责任这一法律归责理论相违背。如果将责任归咎于机器,则必须对机器所选择的行为进行解释。但正如前文所述,在现有的技术条件下,对机器的行为进行解释并不具有可能性。与无人机误杀平民相类似的事件在自动驾驶领域也同样存在。2016年1月20日,京港澳高速河北邯郸段发生一起汽车追尾事故。一辆特斯拉轿车撞上了一辆正在作业的道路清扫车,特斯拉轿车当场损坏,司机不幸身亡。2018年3月,美国亚利桑那州坦贝市一名骑自行车的女子在横越马路时,被一辆Uber无人驾驶汽车撞死,这次事故导致Uber暂停了无人驾驶汽车在北美的测试计划。在这类案件中,“经常被问到的法律问题是,在发生碰撞时,‘谁来承担责任’,并且通常伴随着二元选择,即选择自动驾驶汽车还是制造商承担责任”。换言之,在自动驾驶领域,责任的承担面临着一个难题:是由自动驾驶汽车的设计者还是由自动驾驶汽车自身承担责任。事实上,正因这一归责困境的存在,无人驾驶汽车侵权问题已经成为当前人们关注的焦点。同样的问题也存在于其他人工智能的应用场景,例如,在医疗手术中,如果由机器执刀的手术失败并造成病人死亡,那么,由谁来为事故承担责任?是操控机器的团队、设计机器的生产商,还是确定手术方案的医生?更为重要的是,随着5G时代的到来,人工智能对人类生活的渗透更为彻底。人工智能写作的作品是否享有著作权?人工智能合成主播是否侵犯他人肖像权?当聊天式机器人“出口成脏”或作出侮辱行为时,是否能够追究机器人的责任?人工智能中的算法歧视是否涉嫌侮辱或诽谤?这些问题已变得越来越普遍。在此基础上,解决人工智能的可解释性问题也就更显紧迫。然而,如前所述,人工智能的算法决策存在信息黑箱问题,无法被理解,难以被说明。当人工智能的算法决策不具有可解释性时,我们就不可能清楚事故的发生到底是因为“谁的错”,而法律责任问题就是关于谁对自己的错误行为进行答责的问题。如果人工智能不具有可解释性,那么,人工智能就无法为自己的行为答责,对人工智能法律责任问题的探讨自然就是多余的了。
总之,责任的本质是应答,而应答即行为人对自己行为的自我答责,它是以自由意志和自我决定为前提的,由于人工智能并不具有自我意志和自我决定,故其无法对自己的行为作出应答。人工智能只对人类输入的指令有算法反应,对于自己造成的侵权或损害的责任并无认识,更谈不上反应,其算法决策行为的不可解释性意味着其对于责任承担不可能有任何反应,这导致人工智能的法律责任基础是不存在的。“恰当的责任理论”,“应当有助于我们理解这些反应为什么要以责任作为目标”。人工智能不具有可解释性,这决定了人类不能理解人工智能的反应态度,进而决定了我们对人工智能具有法律责任应该持否定态度。截至目前,在关于人工智能法律责任的探讨中,人们主要讨论是将责任归于人工智能的设计者,还是归于使用者。然而,人工智能的算法决策才是导致其作出错误判断的关键,而人工智能的算法决策是根据输入数据得出结论的,人工智能所作出的行为是其自主性的结果,具有不可预测性,它并非设计者可以控制的,也不体现设计者的意图,它不可被解释。既然如此,将责任归于人工智能的设计者,显属不当。而若将责任归于人工智能的操作者,也不妥当,因为人工智能的操作者所进行的只是自然科学上的行为。如果操作“原则上并非显著地提高了已发生后果的客观可能性”,换言之,如果我们并不能解释算法决策的过程,那么,归责就难以成立。因此,鉴于人工智能的不可解释性,讨论人工智能自身能否具有法律主体地位以及能否独立承担法律责任,本身就是不切实际的。比如,“对刑法学家来说,关键点在于我们如何解释自动机器甚至智能机器的行为。举例来说,机器人应当为自己的行为受到惩罚意味着什么?尽管根据报应论和罪有应得论,惩罚可以被视为一种复仇的形式,或相反的,惩罚是一种再教育”,但是,这些对于人工智能来说没有任何意义。因此,人工智能的法律责任问题,本身就是一个伪问题。确定法律责任的目的在于预防侵害的发生,具有不可解释性的人工智能无法实现法律责任的预防目的。
确立法律责任,既是为了惩处行为人的违法或犯罪行为,更是为了实现对违法或犯罪行为的预防。如果在法律责任领域一直存在着关于报应主义的惩罚和教育主义的预防之争,那么,在当下风险社会的现实中,预防主义无疑具有更重要的地位,预防已成为对行为人的行为施加法律责任的主要目的。“预防可能是刑罚的主要的和唯一的普遍目的。法律威胁你,如果你做某些事,就要对你施加某种痛苦,旨在以此给你一个不做这些事的新动机。如果你执意要那样做,为了使人们继续相信法律的威胁,法律就不得不使你遭受那种痛苦。”。不具有可解释性的人工智能无法实现法律责任的目的。
追寻人工智能的可解释性,其实是对人性需求的回应,人们通过对可解释性的讨论,希冀建立自身与人工智能彼此间的互信。但正如前文所述,人工智能的行为抉择并不具有可解释性,因此,人工智能和人类之间的互信关系自然无法建立,与此同时,若不了解行为的原因,即便对人工智能赋予责任,也无法实现法律责任的预防目的。人工智能的设计者也许能够说明设计原理和每个环节的细节,但没有人能够解释清楚,一旦进入算法决策过程,人工智能是根据什么来作出判断的。这导致人工智能的诸多错误一再发生,这意味着,不可解释的人工智能的算法决策错误是不可被预防的。如此一来,即便肯定人工智能具有法律责任,对于实现法律责任的预防目的,也是毫无助益的。
仍然以前述Uber自动驾驶汽车案为例。调查团队经过调查取证发现,在Uber的无人驾驶汽车发生车祸前56秒时,车辆就已经检测到了行人,但系统把行人错误地识别为汽车。在车祸发生前52秒,汽车的自动驾驶系统又把行人归类为“其他”,认为行人是不动的物体,并不妨碍车辆行驶。之后,系统对物体的分类发生了混乱,在“汽车”和“其他”之间摇摆不定,浪费了大量宝贵的时间。车辆未能及时采取刹车措施,最终导致了事故的发生。2019年,一组由其他执法区域的检察官组成的跨境调查团队经过调查取证后决定不对Uber提起刑事诉讼。在此案中,正是人工智能识别系统的错误识别与判断,导致了事故的发生。“自动驾驶汽车必须根据其对前方场景中物体所进行的分类来作出瞬间决策。如果自动驾驶汽车由于某些错误分类问题而突然出现异常情况,结果可能很危险……只有可以解释的系统才能澄清这种模棱两可的情况,并最终阻止这种情况的发生。”然而,对于自动驾驶汽车如何对前方场景中的物体进行识别,以及为何自动驾驶汽车将行人识别为汽车或者其他不明确的物品,没有数据可供人们作出解释。不可解释的人工智能,导致自动驾驶汽车致人伤害或者死亡的案件无法被预防。谷歌公司的新一代无人驾驶汽车的性能更高,识别能力更强,“谷歌无人驾驶汽车在车头前部内置了一个威力登64束激光器,它能为观察到的周边所有物体生成3D影像,车载计算机将该头像与全世界最高清的地图、历史行驶数据以及影像机与雷达图相结合”。然而,即便如此,我们也无法保证自动驾驶汽车能够对前方物体作出准确识别,无法解释其作出算法决策的过程。事实证明,人工智能的算法错误不仅发生于自动驾驶领域,在其他领域,算法错误也时常发生。比如,人工智能曾将黑人识别为大猩猩,进而引发纠纷。又如,“2013年9月,当人们在YouTube上搜索甘地的视频时,出现的却是辣妹的广告”。“面对一张稍作处理的熊猫照片,人工智能看到的却是一只猴子,而且确定程度超过99%。人工智能还把乌龟看成冲锋枪,把滑雪者看成狗,把猫看成公交车,把乔治·克鲁尼看成达斯汀·霍夫曼,把橙子看成直升飞机。”此类案例不一而足。
人工智能的起步是“识”,即自动识别数据,然后根据数据库中的信息进行判断,最终作出决策。识别一旦出现错误,就意味着算法决策的结果必然出错。而且,就出现错误的原因而言,美国麻省理工学院机器学习理论家安德鲁·伊利亚斯透露,“现在还没有人能够解释这一现象”,换言之,人工智能科学家“至今仍不能理解在这些极高维度的计算空间里究竟发生了什么”。因为与传统的自动化系统的情况不同,人工智能基本上既没有缺陷,也没有故障,但在很多场景中,算法决策的行为和结果都是设计者难以预测的,机器人最终所做的事情往往超出了设计者的意图。这意味着,人工智能的算法决策根本无法得到解释。
再以社交人工智能为例,“如果社交人工智能构成对法益的损害,接下来的问题则是,这种损害行为究竟存在于何处。损害行为第一眼看上去在于损害信誉信息,或者传播隐私信息,但这里的前提是,人工智能必须有能力作出损害行为。这就要求,人工智能能够作出侵权法意义上的行为。然而,侵权法意义上的行为只能是由意志所主导的人类行为”。原则上说,社交人工智能的言论确实会损害人类的人格权,但实际上,“人工智能的言论是否损害了人格权,取决于人们如何解释该言论。这就需要查明,相关言论到底是构成事实陈述,还是构成价值判断,哪些表述内容要归于人工智能,且查明表述内容是否符合事实或构成贬损性批评”。这表明,在社交人工智能领域,司法所遭遇的核心挑战在于如何解释人工智能的表述,并证明在人工智能的设定中是否存在算法偏见或歧视,或者人工智能是否以及如何基于自主学习生成了争议言论。如果这些问题得不到解决,就难以预防争议言论的再次发生。但是,算法决策过程的不可解释性决定了我们无法预防社交人工智能领域的不当言论。
让人工智能承担法律责任并实现法律责任的预防目的,也许可以通过模型来实现。比如,“在刑事司法领域,人工智能有潜力更好地评估再次犯案的风险,并减少与犯罪和监禁有关的成本。但是,当使用刑事判决模型在法庭上预测再次犯罪的风险时,我们必须确保该模型以公平、诚实和非歧视的方式行事”。换言之,如何实现模型本身的公平公正,也是一个问题。模型也是通过科技研发的产品,其本身也需要得到解释,故将之应用于解释人工智能并评估其再次发生犯罪的可能性,很不现实。而且,就法律行为而言,所有侵权或违法犯罪行为的成立均需要由证据来证明,然而,“我们现在没有明显的证据理论来解释专家机器人产生的结果”,所有人工智能犯罪都是事后的结果,而不是能够通过证据来解释的结果,这使得对人工智能违法犯罪的认定极为困难。在人工智能的设计者、程序的编程者、机器人的操作者等当中,如果其中的任何人都能够代表机器人来解释人工智能的算法决策行为,那么恰恰说明,机器人缺乏专门的理由或证据来解释其决策、行为及结果,这给预防侵权或犯罪提出了难题。如果模型的作用有限,那么,为了更好地解释人工智能的行为并为预防违法犯罪提供良策,是否可以在未来充分发挥专家机器人的作用?有观点指出,“为了确保未来的专家机器人能够在发生诉讼时充分解释他们的行为,律师应该与机器人专家合作”。然而,关于专家机器人的期待更多的是一种美好的设想,人类专家可以很好地解释他们如何执行某些任务,但机器做不到,“如果一个机器人不能提供连贯的解释,它又怎么能发挥专家的作用呢”?
总之,之所以寻求人工智能的可解释性,目的在于“找到数据变量之间的因果关系。一些研究者认为,可解释的模型可能会简化寻找关系的任务,如果这些关系发生了,就可以进一步测试相关变量之间的因果关系”,从而为预防负面结果的再次发生寻求解决方案。但是,人工智能在算法决策上的不可解释性使我们很难证明“其是否被设定了损害权利的算法(算法偏差),或者人工智能是否以及怎样自动基于自主学习而生成了争议言论” 。如果人工智能的决策过程不能如同韦伯式的官僚决策那样得到理解,那么,现今广为传播的预防理论对人工智能来说就是无效的,因为无论是积极的预防理论,还是消极的预防理论,都要求责任主体的行为可以被解释。唯有如此,才能说明对责任主体适用法律规范是有意义的。“只有‘智能主体’的行动被视为‘违反规范’,才能通过对‘替代者’施以刑罚实现这一目的”,否则,人工智能是不能成为法律责任的适格主体的。
结 语
人工智能之所以会作出侵权或损害行为,是算法在消化吸收数据后,由算法决策的错误所致,换言之,是算法的偏见和歧视所导致的。算法决策的失误既可能来自于“自动系统所提供的信息或作出的决定,也可能来自于这种决策所依据的或系统所训练的数据集”,还可能来自于外部干扰或者新型介质的出现。这些问题并非人工智能的设计者通过规范其设计和部署过程就可以解决,因为在机器人接收所有数据之后,其内部的数据消化吸收与反馈过程会于数秒钟之内完成,其作出决策的过程并不完全可控,人类设计出的人工智能的行为并非完全按照人的意志去发展并可以得到解释。“在人工智能的系统中,它所有的参数和设置都是动态的,都是根据各种各样的反馈系统来自我调试和演化的。而且,在这个过程中,人工智能系统的使用者也在与人工智能系统产生互动和影响,我们不仅需要能够解释基本人工智能模型的能力,而且需要能够解释复杂人工智能模型的能力。”然而,正是人工智能的自我调试和演化,决定了人工智能的不可解释性以及其行为的不可预防性。这说明,对于不可解释的人工智能,即便令其承担法律责任,在下一起事故中,同样的错误或者新型的错误仍然不可避免,因为算法是一个黑洞。在犯罪学领域,若不了解原因,就拿不出对策,若没有对策,则无从预防和彻底解决犯罪。此外,人工智能的可解释性还存在着一个话语转化的问题,即如何将人工智能数学表述式的可解释性话语转化为法学话语?“从法学角度看,这种对解释的要求不可或缺,人们用这种研究方法来探索能够使应用算法构成一种可担责行为的必要条件。然而,在转化时需要注意,对从大数据中获得的诊断进行解释与对基于法学知识说理的争议性结论进行解释有所不同。”而这个问题更具有超前性,它是在人工智能的可解释性问题得到解决之后,人工智能法学研究领域的下一个前沿问题。