尚权推荐SHANGQUAN RECOMMENDATION

尚权推荐丨郑飞:论人工智能法体系化的理论基础

作者:尚权律所 时间:2024-12-17

摘要

 

随着人工智能技术迅猛发展,智能社会面临的风险和挑战日益增多,人工智能立法面临体系化和统一化需求,为此需深入分析其理论基础。人工智能法体系化的理论基础主要包括风险社会理论、人机关系理论和规制理论。其中,风险社会理论能够为人工智能法提供风险识别与应对框架,强调法律在技术风险治理中的关键作用。人机关系理论关注人与智能机器之间的新型“互生”关系,强调“人机共融”理念,旨在解决技术发展带来的伦理挑战。规制理论则关注如何通过法律手段解决智能社会风险并贯彻人机共融理念,平衡人工智能技术进步与智能社会治理之间的关系。

 

关键词:人工智能法;风险社会;人机关系 ;规制理论

 

 

一、引言  

 

人工智能技术已经渗透到人类生活的方方面面,与此同时,技术发展也带来了诸多挑战,例如人工智能运用导致的隐私泄露和数据滥用问题、算法偏见问题、人工智能应用导致的责任归属问题等。为应对这些挑战,各国纷纷针对人工智能治理制定规则,例如2024年8月1日生效的欧盟《人工智能法》(Artificial Intelligence Act)是全球首部系统性规制人工智能技术的法律文件,更加侧重人工智能安全风险防控,重点规制高风险人工智能系统和通用人工智能模型及其配套的安全管理义务;美国总统也于2023年10月发布了《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),该行政命令更侧重于促进技术创新和保障国家安全。我国也对人工智能治理表现出了积极态度,《国务院2023年度立法工作计划》已将《人工智能法草案》列入其中,突出了我国在推动人工智能法律体系建设方面的决心。

 

学术界也为人工智能立法提供了广泛的理论支撑,例如关于人工智能底层伦理的研究,有学者将人工智能伦理从道德原则转化为可操作、可预期、可计算的伦理实践,探究人工智能伦理的法律性质,法律体系评价和伦理规范纳入;还有学者认为应当以伦理治理方式推动技术社区、产业群体、社会组织、社会公众、治理机构共同进行探索磨合,待经验充足后再进行国家形式的立法。在进入人工智能规制层面后,主要分为人工智能统一立法抑或分散规制的讨论,有学者认为目前我国的人工智能立法应坚持场景化规制进路,待时机成熟再制定综合性人工智能法;还有学者认为我国应倾向于针对特定技术出台“定制型”规范,以多部门联合制定部门规章作为治理载体,当然也有讨论如何制定统一人工智能立法的研究。在比较研究方面,学界也积极探讨国外人工智能基本规则及其发展规律,针对欧盟《人工智能法》的研究较多,包括欧盟人工智能立法“基于风险”的规制路径和“政策—软法—硬法”的演进脉络;还有部分针对美国人工智能立法的研究,例如美国更加注重“技术公益主义”的软法之治;以及关于加强人工智能研发和应用的全球化监管的研究。更进一步从规制细节来看,在人工智能规制的具体领域与内容上,最典型的是人工智能的部门法治理范式,例如学界有大量关于人工智能生成物的知识产权规则的研究,以及人工智能的刑法治理问题等。跳出部门法治理范式,还有采取“风险预防—市场激励—创新资源保障”的综合性人工智能治理范式的研究。

 

以上是自人工智能研究初期以来学术界持续关注的问题。但随着人工智能治理层次加深,越来越多的学者认识到仅对人工智能治理进行伦理底层和规则表层的研究是不够的,在进行更广泛的人工智能治理前还需要完成对人工智能法基础理论的构建,这种基础理论既包括人工智能伦理,又包括人工智能赖以存在并加以改变的社会关系,而后才能进入规制环节的讨论。因此,在人工智能法的基础理论研究上,出现了关于人工智能法的基本原则的研究等。

 

从研究内容来看,目前学界在人工智能法研究中已经从对策、规则的研究转向底层理论研究,增强研究的理论深度。但总体来说,关于人工智能治理的基础理论研究尚不充分,特别是在目前进行人工智能统一立法的背景下,《人工智能法》更需要充足的理论支撑,以明确人工智能的特性和潜在风险。因此,学术研究也应当以更深层次的基础理论疏通人工智能立法的底层环节,实现人工智能立法与基础理论的对接。

 

首先,人工智能发展带来的社会风险是进行人工智能立法的需求来源。风险社会理论强调,现代社会的风险已经不再局限于自然灾害或传统工业事故,而是更多源自技术进步的不确定性和人为因素。因此,人工智能发展虽然为社会带来诸多益处,但同时也导致数据安全、隐私侵犯、算法偏见乃至社会失控等潜在风险,亟需人工智能立法作为规范技术应用、保护公众利益、维护社会稳定的重要手段。其次,人机关系理论为人工智能立法提供了伦理基石,能够通过界定技术在人类生活中的位置问题,聚焦于人类与技术之间的相互作用,探讨如何在快速发展的技术环境中合理界定技术的角色与界限,从而更好地理解技术对人类价值观、道德观以及社会关系的影响,为人工智能立法提供伦理指引。最后,规制理论能在上述两种理论的基础上,明确人工智能立法的具体路径和方向。通过借鉴多学科研究成果,分析技术特性、社会影响、法律环境等因素,才能设计出一套既科学又具操作性的法律规制体系。本文拟探讨对人工智能法形成支撑作用的基础理论,以风险社会理论、人机关系理论和规制理论为核心,分析这些基础理论之间的内在联系与逻辑关系,并以其作为人工智能立法的框架支撑,使人工智能立法更能经受住法理原理以及未来法律体系构建的考验。

 

二、人工智能法理论基础的体系化

 

(一)人工智能法理论基础的外部联系与内部构造

 

人工智能法的理论基础包含指导人工智能法建构的各项理论,但总体是关系到人工智能治理的理论,关涉人工智能治理的需求来源、治理进路与底层伦理关系,这也是人工智能法各项理论基础之间的逻辑关系。在人工智能法构建过程中,关键问题是人工智能与人类应当如何相互联系和相互作用,例如如何让人工智能更好地成为人类智能的代理的问题。而这又可以分为三个方面:其一是技术给人类带来的影响,在风险社会背景下,人工智能发展应用带来了更多社会变化问题,增强了社会风险;其二是人类如何应对技术带来的影响,即在应对人工智能带来的社会风险时,人类应当采取何种治理方式,规制理论可以有效解答人类的应对问题;其三是人与技术的主从关系问题,即从技术哲学上来讲如何处理人与技术的关系,而这需要诉诸技术哲学的人机关系理论来解决。

 

上述三个方面按照一定逻辑关系形成了人工智能法的理论基础,能够作为人工智能法的理论纲领。从人类社会的存在与发展角度讨论人工智能法的理论基础,需要从以人为本的角度出发。因此,上述三个理论基础都是围绕人类需求展开的。

 

第一,风险社会理论为人工智能法提供了关于风险识别、评估与应对的框架,能够从人工智能带来的社会治理风险源头,解决人工智能制度需求问题,即分析人工智能法治理需求的滥觞。现代社会,人工智能作为第四次科技革命的关键核心技术,其发展与应用不仅带来了前所未有的机遇,也伴随着诸多潜在风险。例如技术滥用和“失控”带来的外溢风险,技术自身缺陷产生的内生风险,以及技术快速发展带来的不确定性风险等。一些风险甚至直到对人类社会产生危害后果之前,都无法为人类所知悉并精准预防。而风险社会理论强调,在这样一个充满不确定性的时代,法律作为人类社会治理过程中具有确定性的要素,在人工智能的规制中扮演着重要角色,人工智能带来的社会风险则催生了这种规制需求。可以说,人工智能引发的社会风险及其治理需求正是人工智能法的滥觞。学术界也早已认识到风险社会理论之于新技术发展与治理的基础性作用,例如已经有学者研究过风险社会理论下的个人信息治理问题,还有研究关注风险社会理论下的平台治理问题,近年来也不乏专门针对风险社会理论下的人工智能治理问题进行研究的内容,但上述在风险社会理论下进行的人工智能治理研究均未进入人工智能法的专门研究领域。因此,关于人工智能立法需求来源的社会风险分析仍然具有研究必要。

 

第二,人机关系理论主要研究人与人工智能之间的相互作用、相互影响以及相互依赖的关系。在风险社会理论研究治理需求来源、规制理论研究治理进路的基础上,人机关系理论可以帮助人工智能立法解决学术界由来已久的人工智能伦理相关问题,从而为人工智能法提供更深层的理论基础,解决权利义务分配、责任承担等具体规制问题。关于人机关系理论,目前学界已经存在部分关于人机关系理论的研究,有人机关系友好论、敌对论、协同论等理论,在此基础上有学者创新性提出人机关系中技术控制的选择论,主张干预、引导与控制机器的发展;还有在智能传播视域下,从本体论、认识论与价值论的角度讨论人机关系的嬗变;也有学者单纯讨论人机关系本身的建构问题,认为随着技术介入人类生活程度的深化,人机同构过程中人类主体的优越性逐渐消散,并基于此探讨人机共生、共进化的新可能性。伴随人工智能技术发展以及在各领域应用的深入,人机关系理论也成为能够人工智能发展、治理的重要理论基础。法律制度构建关系社会治理的方方面面,而人工智能已经成为涉及社会全方面的关键技术,在人工智能应用的社会治理中,不事先解决人机关系问题,又将势必无法解决人工智能法的基础伦理问题。

 

第三,规制理论主要讨论如何通过法律手段对人工智能领域进行管理和控制,以实现发展利益的最大化,探索人工智能风险治理与技术进步之平衡。从功能上讲,其与风险社会理论不同,解决的是人工智能法应当如何前行的问题。从逻辑关系上讲,其与风险社会理论、人机关系理论之间属于问题来源、伦理构建与解决进路之关系:风险社会理论解决的是为何需要人工智能法的问题,人机关系理论解决的是互动关系和伦理基础问题,规制理论解决的是如何做的问题。人工智能规制理论的核心在于如何通过法律规制来确保人工智能的发展和应用符合社会公共利益、伦理道德和法律法规的要求。在新技术领域,已经有大量基于规制理论对现有技术治理法律规范进行的分析,例如在算法规制研究早期,就有学者讨论过对算法规制理论的批判,认为以实用主义为导向、以算法问责为代表的事后规制更加得当。在数据要素治理领域,有学者指出,精巧规制理论不仅影响了欧盟数据保护机构的组织定位与执法方式选择,在规制策略选择、行政执法协调等环节也与我国的数据要素治理相契合。又如,内部管理型规制理论在欧盟一系列数据立法中都进行了创造性运用,对于防范数字经济风险具有独特的优势和价值。这说明在任何新出现的治理领域,规制理论都会成为其制度设计的理论基础,在人工智能法的完善过程中,更加离不开规制理论的基础性铺垫。

 

(二)人工智能法理论基础的现实意义

 

如前文所述,当前我国已经开始重视人工智能立法工作,但目前的进展却并不尽如人意。从我国目前关于人工智能的立法规范来看,在法的内容方面,目前立法具有针对个别人工智能应用领域风险逐一突破解决问题的特征;在法的形式方面,呈现出针对特定技术出台“定制型”人工智能规范的“逐案设法”特征,或称基于对象场景的传统式分散治理模式。虽然上述规范现状能够迅速使人工智能相关新兴领域实现“有法可依”,但也存在着规制范围重合、规制内容冲突以及立法资源浪费等问题。从目前人工智能立法的内容上看,其能够定点解决当下社会中人工智能运用带来的风险,能够回应风险社会理论下进行人工智能社会治理的需求,但却没有完全解决上述学者提到的“逐案设法”特征下人工智能立法的种种问题。特别是在这种扁平式的立法模式下,虽然立法在不断追逐人工智能应用的场景和风险点,但这显然不能满足人工智能本身的多维治理需求。对于人工智能技术而言,其本身既包括伦理层、逻辑层、数据层、算法层、应用层等层次,多层次治理需求无法被扁平化的社会现象立法所涵盖,这也是由于人工智能立法的理论基础不完善造成的。

 

例如,虽然目前的人工智能立法对社会风险进行了类别化回应,如《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等专门回应了算法推荐、深度合成、生成式人工智能领域的治理需求,可以统摄到人工智能立法范畴,但在规制方法中的规范制定形式上主要采用了部门规章分散式立法模式,因此形成了成文但分散的人工智能立法。目前的人工智能立法内容和形式在现实背景下具有一定合理性,其也具备符合时代背景的理论基础支撑。一方面,人工智能发展的前期阶段,由于人工智能应用而产生的社会风险呈现点状突出模式,导致规制理论下选择的人工智能治理方法也呈现点状。另一方面,早期关于人机关系的基础理论研究尚不成熟,没有形成统一结论且冲突和矛盾观点较多,因此人工智能立法也只能先进行“逐案设法”,解决现实问题。关于人机关系基础理论的立法处理,则采取了求同存异的妥协,也暂时不采用统一人工智能立法形式。但随着人工智能技术进一步发展和社会应用范围的进一步扩大,社会风险已经呈现由点成片并覆盖整体社会活动面的趋势,这使得我们不得不探索更加具有普适性的人工智能基本规则,进行社会整体活动面上的人工智能治理,也催生了更好地调整人机关系的需求,并在此基础上进行人工智能规制。

 

分析人工智能法理论基础的最终目的在于指导人工智能立法进程。上述理论基础对于人工智能立法的影响主要表现在对其内容与形式的影响方面。所谓“法的内容”,是指构成法的内在要素,即法律规范及其构成要素,从内在结构看,法律规范包括法律规则和法律原则,其核心在于法律权利和法律义务,以及假定条件和法律后果;所谓“法的形式”,是指法的内容的表现方式,是法的内容要素的外在结构和组织形态。从内容上看,风险社会理论和人机关系理论主要影响了人工智能法的内在要素,其中人机关系理论能够通过厘清人与机器之间的相互作用和关系,进而影响人工智能法的基本原则;风险社会理论能够通过厘清人工智能发展过程中的不确定性和风险点,为人工智能法律规则及其内部的法律权利和法律义务构建提供方向。而规制理论则一方面能够解决人工智能法的规则建构问题,影响人工智能法的内容;另一方面还能解决人工智能法的外在结构和组织形态问题,影响人工智能法的形式。

 

从法的价值分类方面来看,法律具有工具性价值和伦理性价值,前者是指法作为调整社会关系的调节器,具有工具性作用,且针对的是法的形式;后者既包括内容方面法所调节的社会关系的性质与状况,又包括法的形式的伦理性价值。因此,人工智能法一方面应当具有调整人工智能应用所产生的社会关系的工具性作用,另一方面应当具有调整人工智能社会关系的性质与状况的伦理性作用,以及调整人工智能法形式的作用。而这些价值作用无不需要建立在对人工智能的理论基础的分析之上。从法的内容与形式的要素来看,法的内容包括经济、政治、文化等方面要素。因此,人工智能应用通过技术革新实现了社会经济基础的改变,其影响又传导到社会经济、政治、文化等各方面,促进人工智能法基本要素逐渐形成,构成了人工智能法的基本内容。法的形式作为法的内容的表现方式,可以体现为法的规范形式,以及成文法与不成文法、成文法的结构、体例和逻辑、文字等。因此,人工智能法的理论基础分析还具有帮助人工智能法解决其规范形式选择的作用。

 

三、风险社会理论:人工智能风险引发制度需求

 

(一)人工智能风险对法律制度与法律秩序之影响

 

风险的概念表明人们创造了一种文明,以便使人类自己的决定可能造成的不可预见的后果具备可预见性,从而控制不可控的事情。从风险社会角度进行法学研究,重点在于法律制度与法律秩序,二者在应对和管理社会风险中具有核心作用。一方面,现代社会是法治社会,制度风险及风险法律控制是风险社会法学研究理论的基本内涵,法律制度应当不断完善自身设计和运行机制,减少漏洞和缺陷,提高应对风险的能力和效率,同时还应加强对新技术、新产业等领域的规范,确保这些领域发展符合社会公共利益和法律法规的要求。另一方面,人工智能的出现使得法律秩序转向以算法为中心的智能社会法律秩序,也给以人为基础的法律秩序带来挑战,因而必须坚守法律价值,进行人工智能法律制度构建和完善。

 

法律制度的价值和意义在于,规范和追寻技术上可以管理的,哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。其通过制定明确的规则和标准,为人们的行为提供可预测的框架,这种预见性对于应对风险社会带来的挑战尤为重要,能够在一定程度上减少风险社会的不可控因素。法律制度致力于规范制定并追寻从技术上进行风险管理,即使这些风险出现的可能性很小或者影响范围有限,这也是法的公平正义价值的体现。这要求法律制度具备高度专业性和精细度,能够针对不同类型风险制定具体应对措施,这也是在人工智能立法治理早期采取“逐案设法”形式的原因。因为人工智能在不同领域的适用造成了不同类型的风险,立法需要在不同领域内进行专业和精细立法,以针对性地解决人工智能应用领域出现的问题。在这一阶段,对于人工智能伦理和理论基础的研究不完善,也导致无法抽象出具有普适性的人工智能法律关系再进行人工智能专门立法。然而,法律制度也需要具有系统性和层次性,采取“逐案设法”立法模式会导致人工智能法律制度乃至整个数字经济法律制度的“碎片化”以及“割裂式”发展,因而必然走向体系化架构,形成《人工智能法》顶层设计引领、部门法和地方立法不断完善的规范体系。

 

而法律秩序是法律制度实行和实现的效果,它反映了法律制度在社会生活中的实际运作情况,即社会生活基本方面的法律和制度化。人工智能法律秩序则深刻反映了在人工智能技术广泛应用的风险社会背景下,法律制度如何有效嵌入并规范这一新兴领域的运作,其不仅仅是人工智能法律制度条文在静态上的体现,更是法律制度在社会实践中动态运作的结果。针对人工智能技术的特殊性和复杂性风险,法律制度需要制定一系列技术规范和标准,确保技术的研发、应用和推广符合法律法规的要求,这是构建人工智能领域法律秩序的重要基础。又由于人工智能技术的创新性,引发人工智能法律关系和法律责任要素创新,使权利、义务和责任归属成为人工智能立法中亟待解决的问题。因此,人工智能法律制度需要明确人工智能系统本身、技术开发者、技术部署者和技术使用者等各方主体的权利和义务,建立合理的责任分担机制,确保在风险事件发生时能够迅速、公正地处理。在这一制度构建过程中,法律制度需要借助智能化手段加强监管和治理,智能化手段运用不仅能够提高监管和治理的效率和准确性,也能为法律制度的实施和法律秩序优化提供有力技术支持。从智能社会法律秩序本身的属性优化来看,还应当构建以科学、人本、公正、包容、共治为核心的法律秩序,这也是调整人工智能社会风险对现行秩序造成的冲击和挑战的根本手段。

 

(二)人工智能社会风险类型化分析

 

人工智能作为人类智慧与基础创新深度融合的产物,其迅猛发展和应用会以前所未有的方式重塑社会各领域,并带来一系列复杂的社会风险。从“技术应用一技术治理”这一逻辑线上看,这些社会风险会具象为具体类型,其不仅关乎技术本身的局限性与不确定性,更触及伦理、制度、经济、文化等各层面。解决人工智能带来的社会风险问题,必须直面人工智能社会风险的具体表现。类型化的社会风险具体包括技术性风险、人工智能法律系统应用风险、人工智能法的制度性风险、人工智能辅助的决策性风险以及合宪性风险等。但实际上,技术性风险可以作为人工智能技术底层引发的风险起点,而应用风险、制度性风险和决策性风险都可以归入由伦理引发的广义制度性风险,合宪性风险则可以作为影响人工智能立法存废的根本性风险而存在。

 

第一,技术性风险,其是人工智能应用过程中最为直观的问题之一。首先,数据安全与隐私保护已经成为悬在人类头顶的“达摩克利斯之剑”。以ChatGPT为例,其强大的自然语言处理能力背后是对用户数据的深度挖掘与分析,尽管目前几乎所有人工智能公司都会声称其隐私政策旨在保护用户信息,但数据收集与使用的透明度、用户控制权以及数据泄露风险仍然是公众关注的焦点,并且以任何数据主体个人之力都无法解决其风险。随着人工智能技术的广泛应用,类似数据和隐私安全挑战将遍布医疗、金融、教育等社会各领域,其不仅是对个人主体权利的侵犯,还可能引发严重的社会信任危机。其次,人工智能在法律系统中的应用风险同样不容忽视,特别是在量刑、判决等关键司法环节上,人工智能辅助系统的引入虽然旨在提高效率和公正性,但技术“暗箱”问题却始终是笼罩其上的阴影。这种缺乏透明度的决策过程,会使得公众难以理解和接受判决结果,而其与司法事实认定中的法官自由心证过程又完全不同,容易遭受对司法公正性的质疑。算法偏见也是其中的一大隐忧,如果训练数据本身就存在偏见或不平衡,基于这些数据训练的人工智能系统也将继承并放大这些偏见,进而影响司法判决的公正。

 

第二,除了技术性风险外,人工智能广泛应用还引发了深刻的伦理和法律制度风险。伦理分析既是制度建设的基础,又影响着制度安排和制度选择的内容。例如,随着自动驾驶技术日益成熟和扩展应用,当车辆面临不可避免的碰撞时,应当如何设定“伦理算法”以决定优先保护谁的生命权。这一问题触及最深层次的人类道德伦理,考验着技术开发者与政策制定者的智慧与良知。又如,人工智能的“法律主体地位”问题也亟待解决,一些高度自主的智能系统不断进步,开始具备类似于人类的决策能力,能够影响人类决策,甚至在某些场景下自主行动。然而现有人工智能法律体系难以界定这些智能系统的法律地位与法律责任,这又是透过人工智能伦理风险影响人工智能法律制度的另一重要问题。由于制度安排和制度选择是一个自然历史的演进过程,制度风险不可避免地会受到社会发展各影响因子的评价权重、转型经济结构和主体利益偏好等因素的制约,而使得制度变迁的创新过程与“制度性风险”相伴生,人工智能相关伦理和制度风险的产生也是如此。因此,人工智能立法需要实现既能体现社会共识又能引导技术向善的法规体系。

 

第三,在规范层面上,人工智能法的合宪性风险尤为凸显。人工智能法作为现代国家治理体系中的新兴组成部分,其核心不仅在于技术的规范与引导,更关乎国家权力的正当行使,与公民基本权利的切实保障,因此合宪性风险比单纯的技术风险具有更为深远的消极影响。例如,人工智能运用中的数据安全风险关涉风险规制责任的分配、国家的干预限度、社会主体的数据、隐私基本权利及责任边界等一系列宪法问题,也同样存在于人工智能宪法风险中。随着人工智能技术快速发展,技术应用的广泛性与深入性使得国家权力的行使方式、范围及效果都发生着变化。因此,确保人工智能法的合宪性与正当性,是法治社会的基本要求。合宪性风险的防范与化解,不仅是对技术发展的审慎考量,更是对国家治理能力与治理现代化的重要检验。

 

(三)智能社会风险下人工智能法的完善方向

 

在智能社会背景下,面对人工智能技术的迅猛发展及其带来的复杂风险,人工智能法的完善方向应紧密围绕风险社会理论的核心要求,具体体现在以下几个方面:第一,法律需要在稳定性与灵活性之间保持平衡。针对人工智能的技术性和多变性风险,人工智能法在设计之初就应考虑到技术的快速迭代特性,避免法律条文因过于僵化而迅速落后于现实需求。

 

第二,法律应将规则确定性与原则指引性相结合。针对人工智能带来的伦理与法律制度风险,人工智能法可以采用原则性立法,明确人工智能伦理关系,同时采用确定性规范进行规制。一方面,人工智能法应明确人工智能法律关系的内容,规定相关主体的基本权利义务、数据保护、算法透明度、责任归属等核心规则,为人工智能法律关系主体提供清晰的行为指南。另一方面,鉴于未来技术的不可预测性,人工智能法还需要融入原则性指引,包括但不限于公平、透明、责任、人权保护等,从而为法律解释和适用提供灵活框架,并适应人工智能伦理风险的要求。

 

第三,应当强化人工智能法的事先预防功能,实施预防性立法与监管。在人工智能技术的研发、测试、部署等各个阶段,法律应提前介入,设定严格的安全评估、风险评估和伦理审查机制;在监管体系方面,可以通过设立专门监管机构、制定详细监管规则、加强跨部门协作等方式,对人工智能技术进行全方位、多层次监管。上述各方面完善方向,不仅有利于在人工智能治理领域形成一个既能适应技术发展,又能保障社会安全与人权的法律框架,还有利于在进行技术治理的同时保证技术创新,即在人工智能法的性质作用上,不仅要作为“技术安全法”,更要作为“促进技术创新法”的治理规范。在这一方面,还需要从规制理论上进一步明确人工智能实施风险预防和监管体系,构建多层次、全方位规制体系,具体细则将在规制理论部分加以分析。

 

四、人机关系理论:人机互动触发“人机共融”伦理  

 

(一)人机关系理论的伦理基础作用与现实困境

 

人机关系理论作为奠定人工智能法伦理基础的基本理论,其主要关涉技术哲学,但深远意义又远超单纯的技术哲学范畴,旨在回答技术在人类社会中的地位问题,触及人类社会结构、道德观念乃至存在本质的深刻变革。更进一步讲,人机关系理论致力于界定技术在人类生活中的位置,不断探索技术如何影响、塑造乃至重新定义人与世界的关系。对于传统技术而言,讨论人与技术的关系和伦理问题尚不紧迫。而随着技术进步和社会秩序的新变化,尤其是自主学习、决策能力显著提升的人工智能技术飞速发展,人类与智能机器之间的互动已经超越了传统的工具性使用范畴,进入了一个更加复杂、多维的共生时代。这种转变正在迫使我们正视并深入探讨人机关系的伦理边界,以确保技术进步惠及全人类的同时,不会侵蚀人类的核心价值与自由意志。

 

当我们谈到人工智能伦理时,其所指的并非单纯的关于机器的伦理,而是人类对智能机器人进行设计、开发、应用与运营的伦理。坚持人本主义的伦理观念始终是讨论人工智能伦理的前提。然而这一过程的实施也存在种种现实困境。第一,人机关系中存在技术复杂性与透明度关系伦理矛盾,容易产生人对技术单向关系上的不信任。随着人工智能技术日益复杂,其“黑箱”问题尤其突出,内部逻辑与决策过程往往不透明,甚至对人类来说是未知的,很多情况下人类无法解释人工智能所得出的结论。这种不透明性不仅削弱了人类对技术的信任感,也增加了人工智能误用和滥用风险,使人类难以对人工智能行为的内部逻辑进行有效道德评估和监督,在评估人工智能行为外部表现的伦理性质时也面临巨大挑战。第二,人机关系中存在自主性与责任归属伦理模糊问题,导致容易出现人与人、人与机器之间的归责争论。人工智能技术的自主性增强带来责任归属的不清晰,当智能机器在自主决策过程中产生不良后果时,如何确定责任主体成为一个难题。这涉及到技术层面的责任划分问题,也关涉法律层面的责任追究问题。第三,技术发展与伦理规范滞后导致人类适应性困境,容易导致人类主体性的消解。人工智能的自主性增强同时带来潜在的“机器统治”风险,人工智能技术在某种特定环境下可能会引导人类,这又是人工智能技术带来的深层次伦理风险之一,需要通过人机关系伦理基础调整以及具体规范设置加以防范。算法的高度复杂性和自适应性使得它们在某些情境下能够超越人类预设的规则,展现出意想不到的行为模式,并可能产生技术的“反向适应性”效应,即算法不积极适应人类,反而反向要求人类适应算法及其建立起来的技术系统。这种“反向适应性”不仅挑战了人类主体地位,还可能引发技术失控危机,尤其当人工智能算法被用于社会决策、资源分配等关键领域时,其潜在影响会更为深远。例如,类似美团、滴滴平台的平台内经营者也会由于算法推荐的差异而产生经营机会上的不均衡,间接影响社会整体的多样性和包容性。

 

(二)人机互动触发的“人机共融”伦理

 

对于上述问题,需要构建“人机共融”的新关系。从人机交互的技术角度来讲,已经有研究者提出了构建技术角度“人机互生”关系的可能性,从认知角度出发,当前社会已经从“人机共生”迈入“人机互生”阶段。“人机共生”理念提出,计算机可以替代人类完成思维的形式化部分工作,而人类则专门进行高级认知工作,二者之间进行配合。但随着机器认知的发展,其自身学会了通过试错进行创新性探索,甚至提出人类不曾想象的问题、目标、假设和分析。这提醒我们“人机互生”已经到来,人机之间不再是简单的分工配合,即机器认知与人类认知已经不是并存式“共生”,也不是一方对另一方的辅助,而是通过相互作用与影响构成“互生”关系。随着大语言模型等高级人工智能系统出现,人机交互的边界被极大拓宽,已经从传统的单向操作与控制转向更为复杂、多向的互动与相互影响。与此同时,人类也需要首先实现对人工智能模型“自主意识”的祛魅,从技术角度梳理人工智能大语言模型的工作原理之后,技术学界已经普遍倾向于认为其并非像人类一样依赖内在的意识、感知或者经验来理解和使用语言,因此距离拥有自主意识还很遥远。

 

“人机互生”强调的是人工智能与人类之间不再是简单的共生关系,而是一种相互塑造、共同进化的互动。这种互动模式的转变,不仅要求人工智能不断实现技术上的突破,更需要在认知层面重新审视人类与人工智能体的关系,“人机共融”正是用来调整这种关系。“人机共融”作为人工智能治理理论基础中调整人机关系的现代化思路,其应当与“人机互生”发展阶段相契合,而不是停留在“人机共生”阶段。所谓“人机共融”关系的深层含义不仅仅是指技术层面上的互补与协作,其更可能涉及人类与人工智能体之间深层次责任与价值观的融合。需要注意的是,这种融合并不意味着人工智能体已经实现了类人性的意识感知,而是着重强调人类与智能体互动中产生的责任与价值关系。很多时候这种责任与价值关系表现为一种事实形态,不应被人类所忽视。该框架指导下人类追求的不仅仅是技术的有效利用,更是技术与社会各维度的和谐共生与共同进步,并在这一过程中确保技术发展与人类福祉、社会公正、文化多样性等价值目标相协调。

 

在这一过程中,法律法规与伦理规范的完善尤为重要。为实现这一目标,许多国家都已经在积极响应时代需求,制定或修订了人工智能相关法律法规,明确了人工智能技术的开发、应用、监管等方面的规范。例如欧盟《人工智能法》中明确,人工智能系统应当是“以机器为基础的系统”,其可以实现不同程度的“自主”操作,这里的“自主”是指其算法输出的人类语言结论不能为人类预测或者不能完全预测,可见欧盟立法中对于人工智能系统的自主性有所肯认。另外,欧盟也早在2019年出台了《可信赖的人工智能伦理准则》(Ethics Guidelines for Trustworthy AI),明确了“人的能动性与监督”“技术稳健性与安全性”“隐私与数据管理”“透明性”“多样性、非歧视性和公平性”“社会与环境福祉”和“问责制度”的具体内涵,探索可信赖的人工智能伦理框架。我国《新一代人工智能伦理规范》也明确提出,人工智能技术的应用应当满足六项要求,包括增进人类福祉、保护人类尊严、尊重个人隐私、确保数据安全、公平无歧视以及环保可持续等。全球各国都在努力寻求人工智能技术与人类社会的最佳相处模式,以实现科技与人类的协同发展。与此同时,各国政府在人工智能立法中也在明确人工智能技术的开发、应用、监管等方面的规则,以明确人机关系理论下的具体治理路径。

 

(三)人工智能全流程治理下“人机共融”构建路径

 

在上述背景下,人类社会关系在发生变化,正在经历前所未有的重构,不仅触及经济结构调整、市场转型,还会从更深层次影响人与人之间的交往模式、信任基础以及社会权力的分配格局。人工智能作为这一变革的核心驱动力,其快速发展与广泛应用促使人类必须重新审视并调整自身在科技浪潮中的角色与定位。一方面,作为智能技术的创造者与使用者,人类需要更加积极地参与到人工智能治理中,从人工智能系统的最初设计阶段开始,人类就应当将人机关系的应然状态作为核心考量因素之一,确保技术的设计初衷符合伦理原则。在事中应用阶段,通过维护算法的正当性使用以及透明度规范,使得人工智能的决策过程能够为人类所接受,建立起社会对技术的信任基础。在事后监管阶段,还要对人工智能应用及其影响进行全面评估与监督,确保技术进步的同时不会偏离人机关系的轨道。同时,既要面对技术可能带来的社会不平等加剧与权力转移导致的权力结构重塑等问题,以及智能社会到来后正在构建的智能社会法律秩序问题,也要探索建立更加公正、包容的人工智能社会治理体系。例如通过法律、政策等手段,避免数字鸿沟的进一步扩大,并对人工智能的决策权、控制权进行合理分配与制衡,防止技术垄断与滥用。

 

总而言之,人机关系理论要求人工智能法应当以科学为第一要义,以人为中心,以公正秩序为目标,以包容、共治为伦理基础,应对人机关系新时代带来的机遇与挑战。这就需要在人工智能法制定过程中,尤其关注人工智能法的具体内容,以充分体现“人机共融”的基本伦理。这不仅要求立法对当前技术发展情况进行积极响应,更要对未来人工智能影响下的社会形态进行前瞻性规划。

 

第一,在立法原则方面,应坚持保护人类的尊严与权利,设置人工智能技术发展的红线,确保人工智能的发展和应用不侵犯人类的基本权利,同时尊重人类与人工智能交互发展、协同进步的可能性。这意味着人工智能立法需考量人工智能在不同应用场景下可能对人类权利产生的直接或间接影响,并据此设计相应的保护机制。在这一立法原则下,便不难回应人机关系伦理实施中面临的现实困境。例如在技术复杂性与透明度关系伦理矛盾方面,应当设置人工智能技术发展的透明度标准,将单向信任控制在合理范围内;在人工智能自主性带来的责任归属伦理问题方面,需要从人类权利基础出发,确保技术即便具有自主性也能有明确的、为人类接受的责任主体为权利冲突承担责任;在人类适应性和主体消解困境上,该原则更是可以防范人类不要被技术盲目引导。

 

第二,在人工智能法的具体规则方面,应明确人工智能法律关系及其规范,特别是法律关系内容中的权利义务问题,以及产生权利冲突后的责任分配问题,包括但不限于:人工智能的法律地位问题,即探讨其在何种条件下可被视为法律上的“实体”,并具有怎样的法律地位;权利义务分配问题,包括人工智能系统在设计、开发、部署、使用及终止等全生命周期中的权利义务分配;行为能力、责任承担及其与人类用户、开发者、部署者等主体之间的权利义务关系问题,建立人工智能与各主体之间公平、透明的权利义务关系,保障各方权益平衡。

 

第三,在人工智能法的立法目的方面,应明确促进人机协同与互生的目标,通过法律手段鼓励和支持人工智能技术在各个领域的应用和发展,同时保障未来智能化社会的和谐稳定。这要求法律不仅要为人工智能技术的广泛应用提供规则保障,鼓励技术创新与产业升级,还要关注技术发展对社会规范、伦理结构等方面的深远影响,适时调整法律政策,确保技术进步与社会发展的良性互动。

 

五、规制理论:人工智能控制体系呼吁多层规制 

 

讨论人工智能社会风险带来的人工智能法需求以及人机关系理论基础的最终目的,是为人工智能的具体规制提供依据。而在人工智能立法过程中,还应当以规制理论为基础指导。

 

(一)从规制理论到人工智能规制:概念与内容

 

“规制”一词最早经日本学者翻译后引入中国社会科学界。一般而言,规制是指根据一定的规则对构成特定社会的个人和构成特定经济关系的经济主体的活动进行限制。有学者从政府对市场管理的角度分析,认为规制是指政府的许多行政机构,以治理市场失灵为己任,以法律为根据,以大量颁布法律、规章、命令及裁决为手段,对微观经济主体的不完全是公正的市场交易行为进行直接的控制和干预。还有学者从战略规制的角度,指出规制战略理论是一种制度设计理论,能够将各类法律技术纳入其视野范围内,从而应对社会问题的法律制度设计事项。除此之外,学界也不乏从规制主体、规制客体、规制目的、规制依据以及规制手段等方面对政府规制的定义。由此可见,规制理论在社会治理方面最早应用于政府规制领域,先后经历了公共利益理论、规制俘虏理论、放松规制理论和激励性规制理论等阶段。但无论是哪种政府规制概念,其内涵都在于规制是依照一定法律法规对被规制者采取的一系列管理和监督,是在法治背景下进行有规可循的管制活动,必须具有明确的法律依据,而不能是随机的、自由裁量的任意行为。这与国家和政府的规制职能也密不可分,并被总结为“规制国家”,即直接应用和扩展规则制定、规则监控和规则执行的国家。由此可见,规制理论本身即与法律制度和规则密不可分。进入法律规制理论后,规制理论又与风险社会理论具有内在联系,因为规制风险是法律的基本功能之一,因此法治框架也是人工智能规制体系的基石,要求规制措施必须在明确的法律框架内实施,确保规制活动的合法性、透明性和可预测性。这不仅包括对现有法律体系进行针对人工智能的完善,以适应人工智能技术带来的挑战,还涉及制定专门的人工智能法律法规,内容包括人工智能伦理准则、人工智能数据安全、算法透明度等,明确界定人工智能技术的边界、法律关系以及责任承担机制。由此可见,人工智能规制理论不仅是对传统规制理论的继承与创新,更是针对人工智能技术特性与潜在风险的专项应对策略,还能够帮助解决人工智能伦理、风险规制的具体路径挑战。

 

伴随互联网、人工智能等新技术发展,对新技术的规制成为当下治理的重点。在国内层面,有学者指出,互联网规制是指国家主管部门在其主权管辖范围内,依法对其互联网进行的经济性和社会性规制,涉及与互联网有关的市场、内容、知识产权、域名和信息安全等问题。参照以上概念,国内层面的人工智能规制应当归结为国家主管部门在其管辖范围内,依法对人工智能进行的经济性和社会性规制,涉及与人工智能开发、测试、部署、使用全流程相关的市场、内容、安全等各方面问题。要继续分析人工智能规制理论的重点内容,还需要从人工智能算法角度,明确其带来的影响力和规制需求要点。在技术底层脉络中,人工智能算法能够凭借其强大的数据处理与分析建构能力,不断挖掘数据背后的隐藏价值,创造出信息生态。这些数据和信息要素加速了经济结构优化升级,促进了生产力飞跃,同时也引发了对传统商业模式、就业形态乃至社会伦理观念的深刻挑战。

 

算法的影响力已经体现在各方面。从外部来讲,人工智能算法能够深度影响个体的决策和行为,例如各类网络平台裹挟着其背后的算法,已经深度介入人们的日常生活,影响着人们的消费选择、信息获取乃至价值判断;算法和数据相结合也已经成为市场竞争的决定性因素,其不仅重塑了竞争格局,也加剧了市场垄断的风险;并且人工智能算法已经在参与公权力的决策过程并发挥重要作用,其公正性、透明度及责任问题都成为亟待解决的重大议题。从内部来讲,算法黑箱会使得人工智能的决策过程不可捉摸,算法逻辑会难以被外界充分理解和监督,从而增加技术误用、滥用乃至偏见风险;人们对人工智能和算法权力的讨论也让算法具备了摆脱控制的可能性,促使我们探索建立有效的人工智能算法规制体系,以确保人工智能的发展不偏离人类价值导向。但归根结底,人工智能算法技术的局限性以及与人类的区别始终表明其内部逻辑不值得被人类完全信赖,这决定了人类在使用人工智能必须保持审慎态度,不能盲目依赖其决策结果。

 

基于上述概念和规制需求分析,学界已经逐渐认识到对人工智能算法进行分层规制的重要性,特别是算法规制在算法的一般性与特殊性的横向维度,以及现象与隐藏层面的纵向层级上的差异。除此之外,人工智能规制还可以分为经济性规制和社会性规制,其也需要在不同层次的规制内部契合上述规制需求要点。第一,经济性规制是指对于涉及人工智能应用的技术、市场层面的规制,包括人工智能产业相关业务运营商的接入、互联、市场准入以及业务资费等方面的规制,需要明确对人工智能企业的资质审核、人工智能技术创新与应用的安全评估、市场竞争秩序的维护等规则,以促进人工智能产业的健康发展。第二,社会性规制是指对于涉及人工智能应用所带来的社会影响方面的规制,更加侧重于人工智能技术对社会伦理、公共安全、个人隐私等方面的潜在影响,包括对人工智能技术部署平台、人工智能技术使用者等的规制,具体内容例如生成式人工智能相关知识产权保护问题、人工智能算法应用对公民数据、隐私权利的影响问题、人工智能应用产生的侵权问题等。在这种人工智能规制需求要点与规制内容基础上,可以进一步分析人工智能规制理论中的具体要求。

 

(二)人工智能规制理论的层次性逻辑要素

 

规制总体应当是一整套协同运作的系统,旨在通过多维度、多层次框架来引导和约束社会、经济活动中的各类行为,确保人工智能技术发展的方向、速度与规模均处于可控范围内。“规制国家”通过国家的规则治理工具来控制国家,因而规制体系可以被视为一种控制体系。从时间层次和针对性治理角度来看,人工智能规制应当从三个基本层面出发,即人工智能开发、应用前的基本标准制定,人工智能实施风险状况的管控,以及权利、义务冲突和责任承担规则完善。这对应着控制体系中具体环节的层次性和逻辑性,包括应用前的标准审查,应用过程中诸如数据滥用、过度收集信息等违法行为的监督查处以及应用后果的问责。

 

具体来说:第一,人工智能开发、应用前的基本标准制定是规制体系的逻辑起点。它不仅为技术发展设定了边界,也为后续的实施风险管控与责任落实提供了法律依据。在人工智能领域,标准制定的复杂性体现在其跨学科的特性上,涉及法律、伦理、技术等多维度。我国目前有法律法规、规章、行业标准等一套完整体系,其中法律法规作为最具有强制力的标准形式,能够为人工智能发展提供基本法律框架,是构建人工智能规制体系的首要任务,例如首先明确“有意义的”人工智能算法透明标准,并事先明确其责任。在行业标准方面,其可以根据特定领域的需求对技术应用的细节进行规范,因此在行业标准的制定上应当充分考虑技术发展的动态性。除此之外,伦理准则作为非强制性标准,对于引导人工智能技术健康发展同样重要,应当通过伦理准则明确技术应用的道德底线,倡导负责任的研发与使用行为。第二,人工智能实施风险状况的管控是确保规制体系有效运行的关键环节,应当覆盖人工智能产业应用的全生命周期,并涵盖人工智能产业结构的整体层次要素。从进行技术研发开始,就应对风险进行预判与评估,在测试阶段也应建立严格的测试标准与流程,在部署与用户使用阶段,则应通过实时检测、定期审查等方式,确保技术的规范应用。在人工智能产业层次要素方面,需要在算力、算法、数据等层面分别进行治理,例如在算力方面优化新型数据基础设施,在数据方面形成数据规模化应用的新标准,在算法方面重点评估建构符合客观规律与风险管控的应用办法等。同时,人工智能监管机构应密切关注技术发展趋势,及时调整管控政策与措施,建立多方参与的监管机制。第三,权利、义务冲突和责任承担实施体系作为人工智能规制体系的最后一道防线,直接目的在于对违规行为进行惩罚与纠正。例如,对于自动驾驶人工智能应用产生的侵权责任、产品责任、交通事故责任等交叉责任难题的解决加强制度供给。另外,在人工智能领域,冲突治理和责任承担也应包含多个层次,以应对不同程度的违规行为。例如,对于轻微的违规行为,可以通过劝诫、教育等非正式手段进行纠正,能体现监管柔性,有助于引导违规者自觉改正错误。对于较为严重的违规行为,则应当依法给予行政处罚,处罚的种类与力度应根据违规行为的性质、情节及后果等因素综合确定。对于极少数严重违反法律法规、造成重大损失或恶劣影响的行为,也应当确定剥夺资格的极端处罚措施。

 

上述人工智能规制的具体要求对应人工智能应用的事前、事中与事后环节:首先,在人工智能扩大发展应用前,应充分开展理论研究与实践探索,明确技术发展的方向与边界,通过制定科学合理的标准与规范,解决发展应用的标准和基本理论问题。例如明确人工智能的法律地位,或者明确属于不同技术层级的人工智能应当符合的法律地位标准,包括其是否具备法律主体资格、如何认定其法律主体资格等问题。其次,在人工智能发展应用的事中流程,应当通过具体的法律规范来约束人工智能的研发、测试、部署和使用等各个环节,严格遵循事前制定的相关法律法规与行业标准,进行事中监管,确保其行为合法。同时还应搭建完整的风险评估与应对机制,及时发现并化解潜在风险。最后,在人工智能发展应用的事后环节,应对其效果进行评估与总结,建立有效的监管机制和责任追究制度,对违反法律法规的行为进行惩处和纠正。

 

上述具体要求从规制理论的社会控制功能出发,以标准制定、规范监管和行为纠正共同构成了人工智能规制体系的核心要素,并可以构成事前、事中与事后的全链条管理体系。需要注意的是,在人工智能规制体系建设过程中,还应意识到,技术创新是推动人工智能技术发展的核心动力,而规制体系则是保障人工智能健康发展的必要手段,二者应当相辅相成,促进创新与规制的平衡。同时还应注意实现公众参与和多元共治,构建既能保障人工智能技术发展效率又能维护社会秩序和公共利益的规制体系,为人工智能技术的可持续发展提供保障。

 

六、结语

 

风险社会理论、人机关系理论和规制理论相互交织,共同构成了人工智能法的理论框架。其中,风险社会理论为人工智能法提供了风险识别、评估与应对的框架,强调在当下这个充满不确定性风险的现代社会中,法律作为治理工具的重要性。人工智能法律制度通过制定明确的规则和标准,可以为人类行为提供可预测框架,以减少风险社会的不可控因素。人机关系理论则探讨了人类与人工智能之间的关系,人与人工智能之间已经形成了相互作用、相互影响的关系。随着技术的快速发展,人工智能的自主性显著增强,人与机器已经进入了互生时代。这也导致了人机关系中存在的伦理矛盾,因而在人工智能立法中,应当构建人机共融的伦理框架,促进人机协同与互生的目标。风险社会理论和人机关系理论主要影响人工智能法的内在要素,包括人工智能法的原则、主体权利义务内容等。规制理论则既影响人工智能立法的内容,也影响其立法形式,能够解决人工智能法内部规则构建以及外部法律体系构建问题。当前我国的人工智能立法呈现“逐案设法”特征,能够迅速回应具体人工智能应用领域的风险,但在未来立法中仍需进一步分析人工智能法的理论基础,充分考虑这些理论基础对人工智能治理的影响,逐步推进人工智能立法的体系化和统一化,探索具有普适性和综合性的人工智能基本规则和规范体系。

 

 

来源:《中国政法大学学报》2024年第6期“数字时代”栏目

作者:郑飞,北京交通大学法学院副教授