尚权推荐SHANGQUAN RECOMMENDATION

尚权推荐丨王燕玲、李瑞华:人工智能时代恐怖主义犯罪行为的刑法规制

作者:尚权律所 时间:2022-01-05

目  次

一、人工智能时代恐怖主义行为的本质属性

二、人工智能时代恐怖主义行为之样态

三、人工智能时代恐怖主义行为的刑法规制路径

四、结语

 

内容提要:人工智能具有强弱之分,强人工智能(体)具备成为刑事责任主体的技术与伦理基础。基于一定的技术事实,恐怖主义犯罪可能由网络恐怖主义转向人工智能恐怖主义。人工智能恐怖主义行为并未脱离恐怖主义之本质,它可能包括自然人利用人工智能实施传统或网络恐怖主义犯罪、强人工智能体(智能机器人)独立实施恐怖主义行为以及人“机”共同实施恐怖主义犯罪等类型,然而,现行刑法尚不足以规制人工智能恐怖主义。须秉承敌人刑法观之立场,对恐怖分子从严惩处,对初犯、偶犯、过失犯等轻微犯罪者宜以市民刑法待之。要更新立法,在刑法总则中赋予强人工智能体刑事责任主体地位;在刑法分则中专节规定实施恐怖主义活动罪的基础上增设相应罪名;在司法解释中纳入人工智能恐怖主义行为。

 

关键词:人工智能;恐怖主义犯罪;智能机器人;敌人刑法

 

2017年7月,国务院颁布《新一代人工智能发展规划》,将发展人工智能技术置于国家发展战略高度。随着人工智能被运用于社会发展各个方面,其在法学领域的研究也呈现蓬勃发展姿态:在宪法领域,主要讨论的是如何通过宪法控制科技对人类文明、尊严与未来的威胁等;在民事法领域,包括人工智能产品(如自动驾驶汽车)致人损害的民事责任、知识产权方面的保护问题、人工智能民事主体的适格性等被广泛讨论;在司法领域,以人工智能技术研究智能量刑预测,开发智能精准预测量刑功能等正如火如荼的展开。 

 

在刑法领域,有学者认为,强人工智能产品的进一步发展可能需要在刑法中增设智能机器人刑事责任主体地位。因为,强智能机器人与其他刑事责任主体没有本质差异,对强智能机器人刑事责任主体地位之探究并非在做无用之功。除此之外,人工智能的刑事责任能力、刑罚构建,智能机器人的道德伦理与刑法规制,智能机器人的行为异化及其责任承担,自动(无人)驾驶汽车法律问题等都被纳入讨论范围。对可能出现的人工智能恐怖主义犯罪行为尚付阙如,然而,人工智能的全新危险包括恐怖分子在清洁机器人中植入炸弹并将其偷偷运送到政府部门、机器人使用内置的机器视觉来追踪某个特定的政治人物,当它靠近时,炸弹就会爆炸。虽然这种危险在我国司法实践中尚未出现,但实践中出现的以AI技术实施犯罪之情状,让我们不得不担忧、并不得不防范人工智能技术被运用于恐怖主义犯罪活动中。

 

如果说以“宁可信其有”“未雨绸缪”的态度去研究人工智能中的刑法问题是浪费学术资源,那么,对利用互联网技术实施恐怖主义活动等网络犯罪问题的研究就可能显得多余,因而此种观点值得商榷。不管怎样,“该来的还是会来”,目前,“欧洲反恐怖主义中心”成立并构建跨国智能反恐系统,包括智能信息整合与宣传、智能数据采集与识别检测、智能决策与模拟应用三个具体领域。欧洲智能反恐中心之建构表明,如病毒般蔓延的恐怖主义犯罪活动,其未来模式可能不会排除下列情形:恐怖分子或利用人工智能手段实施爆炸、暗杀、劫持汽车飞机等传统恐怖主义犯罪,或以网络为平台实施煽动、传播类等恐怖主义活动,或强人工智能体(智能机器人)在具备辨认和控制能力的情况下,实施恐怖主义活动,危害甚至毁灭人类等,凡此种种,表明人工智能恐怖主义犯罪活动的预防成为必要,须在厘清人工智能恐怖主义本质属性的基础上,梳理人工智能恐怖主义犯罪行为方式,全面厘清人工智能恐怖主义行为的刑法规制路径。

 

一、人工智能时代恐怖主义行为的本质属性

 

人工智能时代的到来,使恐怖主义犯罪产生了新的犯罪主体,也为犯罪分子实施恐怖主义犯罪提供新的技术手段并孕育新的风险,传统恐怖主义犯罪面临新的问题,需要重新思考:人工智能恐怖主义犯罪行为有必要根据技术的分类冠以“强弱之名”的基础上,正确认识人工智能恐怖主义行为的本质属性,进而为刑法规制人工智能恐怖主义犯罪活动奠定基础。

 

(一)人工智能强弱分类之必要性

 

有学者根据是否具备辨认和控制能力,将人工智能产品划分为弱人工智能与强人工智能。弱人工智能是指不具备辨认和控制能力,但可以提高生产力和生产效率的各种应用软件(APP)、普通机器人等。当前,学界一致认为弱人工智能不具备刑事责任主体地位,弱人工智能只是实现犯罪分子犯罪意图的犯罪工具;而强人工智能是指具备辨认和控制能力,能够推理和解决问题的智能机器,其具有类似于人类“大脑”的电子神经系统。强人工智能又有类人与非类人的人工智能之分,前者是机器与人的思维具有相似性,即像人类一样思考和推理,后者则是机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式,但两者都是智能机器人。

 

目前,学界针对强人工智能是否具备刑事责任主体地位展开交锋:主要着眼于强人工智能是否具备认识因素和辨认因素。持肯定说的学者认为,“在智能技术的‘算法’逻辑中,智能主体是完全具备独立性与自主性,但其前提是不脱离智能技术所处的社会环境和基础。”但否定者认为,人工智能犯罪包括弱人工智能犯罪、强人工智能犯罪乃至超强人工智能犯罪在内,在生成机理和内在逻辑上只能是人工智能“算法安全犯罪”,其犯罪主体为“自然人—法人二元主体”。总之,否定论者基于未来的不可知性,认为强人工智能无法产生规范意识、无法实施犯罪行为,强人工智能体难以具备“类人性”。肯定论者以单位作为类比对象,认为单位作为犯罪主体同样具备的认识和辨认因素在未来某个节点同样会发生在强人工智能体之上;否定论者则认为单位犯罪与强人工智能体犯罪并不具有可比拟性,因为强人工智能体不具备“人心人性”。但是不可否认的是,人工智能法律问题在宪法领域的讨论、人工智能法律主体资格在民法领域的主张及其在哲学与伦理层面被正视,都表明“(超)强人工智能犯罪的可归责主体问题很可能就是一个真问题,并且是一个具有重要学术价值、必须予以厘清的重大基础理论问题。”而基于刑事责任主体基本理论与立场展开人工智能强弱之分的探讨在人工智能恐怖主义犯罪领域更具必要性:

 

首先,弱人工智能作为实施恐怖主义犯罪活动的犯罪工具,仍属于工具范畴。恐怖分子利用弱人工智能实施恐怖主义犯罪与利用网络实施恐怖主义活动相类似,甚至部分重叠,此时,弱人工智能仍是被利用的犯罪工具和手段。但由于其技术性更强,更新了恐怖主义犯罪的手段,其造成的社会危害性可能更严重。

 

其次,强人工智能刑事责任主体地位的确认,将更新犯罪主体,有利于未来开展针对强人工智能恐怖主义的反恐工作。不管赞成还是反对强人工智能具备自主意识,论者大多从法学角度展开研究,在刑法领域就演变为“是否具备辨认和控制因素+具备自主意识”之争,这些争论也大多背离人工智能之本质,不管是肯定论者还是否定论者多多少少都有“学科藩篱”尚未跨越。但我们不能忽视的社会现实是:强人工智能具备认识因素和辨认因素目前已经初具雏形,例如,英国伯明翰大学的研究人员发表于《The Lancet Digital Health》杂志上的一项论文称,AI可以像专业医生一样成功地诊断疾病;自动(无人)驾驶汽车愈发成熟等事例(人工智能运用于电子商务、医疗、教育等方面的事例较多,不一而足)表明强人工智能之发展,使其具备成为自主性主体的可能。这是否定论者不能否定的客观事实,也是肯定论者认为强人工智能具备认识因素和控制因素可能性的前提性事实。

 

笔者认为,强人工智能具备成为刑事责任主体的可能性,除了上述基础性事实之外,还有以下理由:

 

一是强人工智能与人类的“生存、生活方式”应当有所区别,既如此,应当从“非人”的视角看待强人工智能,因而有学者正确地指出目前研究的误区,“将人类智能的运作机制作为衡量强人工智能机器人的标准”“机械的将以人为核心构建的刑法理论运用于强人工智能机器人”,诚然,现有法律框架无法涵括与解决强人工智能发展中存在的问题,但若以现存的法律、伦理构建未来强人工智能之法律,显然行不通。

 

二是辨认和控制能力是刑事责任主体的核心要件,强人工智能所具备的深度学习能力能够自我进化,使之具备辨识和控制能力,“今天的预编程、重复性机械设备就是未来机器人的原始先驱,未来的机器人可以看到、听见、做计划,还能根据混乱而复杂的真实世界来调整自己。”同时,意识不应作为刑事责任主体的要件,这是因为我们不得不反思(强)人工智能出现以后,人类所谓的独特认知能力与心灵是否真的存在?或者所谓的人类灵魂这个抽象体是否仅限于人类及特定物质?有学者大胆假设,若是人工智能有发展出类灵魂的功能,这种功能出现在机械的化身上,有没有一个充分的理由可以提前决定什么样的机器可以具备这种功能呢?肯定论者与否定论者以强人工智能是否具备“人类意识”展开交锋时,我们是否可以跳出这一所谓的人类特有东西(也许这种所谓的心灵或者灵魂根本是一种虚无而不存在的东西)来看待强人工智能?这些对“意识”的反思与疑惑,目前尚无确切的答案,但都是人工智能发展对科技、法律乃至整个社会所带来的重大议题,值得深思。

 

三是当强人工智能发展到奇异点(singularity)时,即当人工智慧超越人类智力的时间点,在这个时间点下,我们便会担忧人类如何与人工智慧相处。这种担忧并非杞人忧天,在可能发生的人工智能恐怖主义犯罪活动场景中,懂得自我学习的人工智能,可能对人类生活产生颠覆性影响,例如谷歌的Deep Blue或是IBM公司的Watson,这些相关的研究不是正在发明人类自我毁灭的东西,就是把我们从身体解放出来。也就是说,(强)人工智能取得相当程度的认知能力、深度学习能力时,而可以与人类一般与外界取得联系、获取数据资源,并对数据资源加以分析、利用,最后做出决定并行动。当下的人工智能运用当各行各业,其根据数据整合所做出的决策,一定程度上能够帮助人类工作,这也就不难理解个人在搜索引擎上搜索某条内容时,后续搜索将会跳出与之前搜索相关的内容。这正是机器学习的结果。

 

(二)人工智能恐怖主义犯罪未脱离恐怖主义特质

 

对恐怖主义本质的界定,国际公约、国内法律以及刑法学界莫衷一是,但综合上述三者可以基本得知,恐怖主义(包括网络恐怖主义)的本质是:恐怖分子为了实现特定目的或者意图(这种意图更多的是为了寻求精神上的满足与刺激),通过暴力或者非暴力手段,制造恐怖氛围、引起社会恐慌,影响目标公众或政府行动,使相关人员人身安全、财产遭受重大损失,其核心特征在于制造“恐怖”“恐慌”“破坏性”。

 

如果将网络恐怖主义犯罪理解为“网络与恐怖主义相结合的产物”。那么,人工智能恐怖主义犯罪则是恐怖主义与人工智能相结合的新型恐怖主义犯罪形式,是指团体或者个人利用人工智能手段或者强人工智能体(智能机器人)以现实社会或者网络世界为攻击目标,意图造成人员伤亡、网络受损,进而威胁国家安全与社会稳定,亦可能有毁灭人类倾向的严重犯罪行为。人工智能恐怖主义犯罪的行为方式可能有暴力和非暴力两种模式,其本质应是“恐怖”“恐慌”“破坏性”。因为,人工智能恐怖主义行为造成的社会危害性可能更严重,人工智能恐怖主义除了利用弱人工智能的犯罪手段更新外,还有强人工智能的犯罪主体革新,其所实施的恐怖主义活动、达到的恐怖主义目的,增添了“恐怖”“恐慌”的危害程度。

 

二、人工智能时代恐怖主义行为之样态

 

人工智能恐怖主义以弱人工智能与强人工智能分类为标准,可以将其划分为利用人工智能实施恐怖主义、强人工智能体(智能机器人)实施恐怖主义犯罪以及人“机”共同实施恐怖主义犯罪几种情形。利用人工智能实施恐怖主义犯罪既包括传统的暗杀、绑架、劫持飞机等恐怖主义犯罪行为,也包括利用人工智能实施网络恐怖主义犯罪活动。

 

(一)利用人工智能技术实施恐怖主义犯罪活动

 

人工智能的广泛应用,让恐怖分子有可乘之机,(弱)人工智能可以帮助恐怖分子拥有更强大的感知和推理能力。让新型恐怖主义犯罪活动呈现低成本、低伤亡、高效率、难以被捕等优势。具体而言,利用人工智能实施恐怖主义犯罪活动可以按照现实与虚拟社会的不同,分为利用人工智能实施传统恐怖主义活动和利用人工智能实施网络恐怖主义犯罪。

 

1.利用人工智能实施传统恐怖主义犯罪

 

早在2000年,普京出访阿塞拜疆时,恐怖分子就利用手机SIM卡无线连接多枚炸弹,企图通过手机遥控引爆炸弹,达到刺杀目的。这是当时最先进的技术,虽未刺杀成功,但是留给我们思考的是,恐怖分子极有可能运用人工智能产品的先进性实施恐怖活动,其利用人工智能技术搜集、分析情报等,并以政治人物、平民或公共基础设施等为攻击目标,实施刺杀、爆炸、绑架、投放危险物质等恐怖行为,引起社会恐慌,实现其意识形态或特定目的,对国家安定、社会稳定以及个人安全造成极大威胁。主要表现方式有以下几种:第一,修改程序设置或以植入芯片的方式改变飞机航线,进而劫持飞机、绑架人质。将飞行器编制为轰炸特定目标的飞行炸弹,在公园、广场、商业大楼、地铁、机场、车站等人员密集场所投掷,造成巨大人员伤亡、财产损失;第二,通过编写程序将人工智能产品改造成“智能刺客”,通过人物图像识别、信息识别与人物、攻击目标锁定等功能,实施精准刺杀、打击等恐怖活动;第三,设计人类可控的普通机器人,在程序设置中植入恐怖袭击信息,使机器人按照程序设计的内容实施暴恐行为,实现恐怖分子预设的目标。上述行为方式一方面降低了恐怖分子实施传统暴力恐怖主义行为的伤亡率,一方面对社会稳定造成了极大的威胁。

 

2.利用人工智能实施网络恐怖主义犯罪

 

有学者认为,网络恐怖主义以网络技术手段为基础,通过互联网对计算机信息系统和信息数据等网络基础设施进行攻击,以及以互联网为平台传播、交流、煽唆恐怖主义思想,实行恐怖主义犯罪等,意图制造并实现网络恐慌等恐怖主义目的。我们认为,语音、图像、人脸识别,计算机视觉以及自然语言处理等人工智能技术的发展,恐怖分子可以不受时空限制,利用人工智能技术实施网络恐怖主义犯罪活动。利用人工智能实施网络恐怖主义与网络恐怖主义最大的区别在于犯罪手段的差异,当然,其中仍然会有犯罪手段的交叉,但具体而言,利用人工智能实施网络恐怖主义犯罪主要有以下几类:网络恐怖攻击;网上收集、传播恐怖活动信息;网上组织恐怖主义活动、筹集恐怖活动资金。

 

第一,利用人工智能技术进行网络恐怖攻击。人工智能时代的网络恐怖攻击主要表现为:首先,攻击计算机信息系统和数据,导致系统崩溃、数据大规模流失,这既包括交通、金融、能源以及政府机关等重点领域的系统和数据资源,也包括普通领域的计算机系统及其数据资源,利用人工智能技术进行破坏性攻击,致使国家网络安全系统崩溃,信息数据大规模泄露,引起社会恐慌;其次,将网络恐怖攻击延伸至智能设备终端,恐怖分子将恐怖攻击对准手机用户,致手机系统瘫痪或者数据丢失,恐怖分子甚至运用一个手机软件即可达到犯罪意图,而我国手机用户越来越多,其潜在威胁更大、破坏性更严重,但“工业革命早期的卢德派至少还可以毁掉夺走他们工作的织布机,但是你如何才能回击一个手机应用呢?”最后,利用人工智能技术制造“智能病毒”,“互联网+”时代的病毒袭击已经对网络系统造成巨大损失,人工智能的精密化,难免会变成恶意软件被恐怖分子利用,形成“智能病毒”绑架工业设备、大型计算机信息系统设备等网络基础设施,进而要挟政府、制造恐慌,加上“智能病毒”通过深度学习,产生自我组织能力、不断自我“重生”,形成恐怖“连锁效应”,恐怖程度更高。

 

第二,利用人工智能传播恐怖信息。互联网平台成为恐怖分子传播恐怖主义思想的新阵地,人工智能技术则加速了传播,扩大范围与影响。主要有:首先,利用人工智能煽动实施恐怖主义犯罪,宣扬恐怖主义、极端主义思想。我们统计案例时发现,网络时代的宣扬恐怖主义、极端主义思想案例占比较大,宣扬类恐怖主义犯罪成为恐怖主义犯罪的新形式,对普通大众进行恐怖主义思想渗透,犯罪形式隐蔽、危害程度更高。人工智能时代,恐怖分子通过大数据、运算力和算法等技术,选取某个国家或者地区的数据、搜索引擎的智能推荐数据等,分析该国家或者地区人员浏览网页内容的情况,进行数据整合,对个人或者某地区的民众实施“精确”的恐怖主义思想宣传,煽动其实施恐怖主义犯罪,其危害程度不亚于网络时代的宣扬类恐怖主义犯罪;其次,利用人工智能编造、传播虚假恐怖信息,通过对原有视频的剪接、声音与图像的处理,制造虚假视频予以传播,或者通过语音识别编造虚假讲话内容,以假乱真的音、视频可以制造所谓的“深度假象”,造成的恐怖氛围足以引起社会恐慌。例如,一种名为Deep Fakes的“换脸”软件,是通过机器学习技术来创建逼真图像和视频的技术,用当前已有的先进人脸识别模型和检测方法对Deep Fakes创制的视频进行检测时,错误率高达95%。虽然利用“换脸”技术实施恐怖活动的案例这方面的案例还没有出现,但是恐怖分子利用互联网传播虚假恐怖信息已有实例,随着人工智能的深入发展,不排除利用人工智能技术传播恐怖主义信息等恐怖主义的案例出现。

 

第三,利用人工智能收集情报资源,募集资金。情报与资金是恐怖活动人员实施恐怖主义犯罪的“助推剂”,而利用人工智能收集情报、募集资金可能成为未来恐怖主义行动的重要途径。主要表现为:首先,收集数据与情报资源,对政府数据、国防、军事文件等重要数据进行收集、比对分析,作出预测,事先知晓该地区的军事部署、安全措施等,进而实施恐怖主义犯罪活动,比如,Facebook数据泄露事件,一款名为“This is Your Digital Life”的第三方APP收集了约5000万用户数据用于预测美国总统大选,同时,Facebook公司还承认有可能所有20亿用户的网页公开数据均被“恶意分子”(Malicious actors)窃取,而且第三方APP可以向用户获取政治或关系立场、教育或工作经历及兴趣爱好等。这种收集数据预测方式若被恐怖分子利用,将成为其实施恐怖主义犯罪活动之“利器”;其次,募集资金,恐怖分子借用海量的数据资源,盗取公民个人信息,通过诈骗、盗窃等方式进行恐怖主义活动资金募集,为恐怖主义活动带来便利,而且方式新颖、隐蔽,较难认定,加大预防与惩治难度。

 

(二)强人工智能体(智能机器人)实施恐怖主义犯罪活动

 

前文述及,人工智能有强弱之分,弱人工智能产品在设计程序和编制范围内实施恐怖活动犯罪,人工智能并无自主性,只能作为犯罪工具存在。但是强人工智能体作为刑事责任主体之一,当其发展到一定程度,具备辨认和控制能力时,强人工智能可能摆脱人类控制,其中的“不良反应”之一可能是实施恐怖主义犯罪活动。

 

智能机器人是指由仿生元件组成并具备运动特性的机电设备,它具有操作物体以及感知周围环境的能力。智能机器人虽是机器体,人工智能研究者在研制智能机器人时,就开始模仿人类大脑,并把这些程序称为“神经网络(Neural Networks)”,而神经网络正是机器深度学习的基础,随着海量的数据资源,兼及算法、算力等基础技术条件的成熟,机器学习发生了“指数级增长(exponential growth)”的变化,这意味着机器学习正发生“逆袭”,人类的智慧、理解、辨认及控制等能力,也许在某个“奇点”被机器掌握甚至超过人类。“对于机器学习系统最好的理解就是,他们发展出自己的直觉力,然后用直觉来行动,这和以前的谣言——他们‘只能按照编好的程序工作’,可大不相同。”沙特籍机器人“索菲亚”(Sophia)所表现出来的直觉力和理解力正是机器学习的鲜明实例。从“坏”的角度来看(意即从可能发生恐怖主义犯罪的场域),深度学习所发挥的作用,正是智能机器人具备犯罪能力的条件,基于目前机器深度学习的发展程度,智能机器人可能实施恐怖主义犯罪的样态,可以想见的主要有以下几种情形:

 

第一,智能机器人可以学习恐怖主义犯罪方法。智能机器人收集数据后再利用语音处理、图像处理、精准识别、自然语言处理等技术对数据进行对比分析,学习恐怖主义的犯罪方法。

 

第二,智能机器人可以传播恐怖主义思想,煽动实施恐怖主义犯罪活动。智能机器人的“思想”具有再生性和可传递性,只要连接网络,其“思想”便能够在机器人群体中传播,形成恐怖机器人群体。这种智能机器人可能成为疯狂扩散的新“病毒”。最近,人工智能科学家致力于研究记忆在大脑中编码的方式——尤其是那些指导语言和社交技能发展的记忆,这些记忆在模仿学习任何事情时都能起到指导作用,例如学习语言、学钢琴,等等。他们的研究成果登上《Science》,成功向鸟类的大脑植入记忆,让鸟类在无教导的情况下学会新歌声。这种迹象表明,智能机器人通过编码的方式传播恐怖主义思想,并非毫无根据。

 

第三,智能机器人可能制造生化武器,威胁人类生存等方面的安全。Segler团队在最新的研究中,利用新AI工具以深度学习神经网络的方式学习所有的单步有机化学反应,经过多步骤合成,直到最终得到可用的试剂,这一过程仅用5.4秒就完成。这一方式假若被智能机器人利用,通过深度神经网络,学习算法等,来寻找化学合成中的最佳方式,制造生化武器,可能威胁人类生存。

 

第四,智能机器人变成“智能杀手”。如果自主武器选定目标无需人类决策,它将“决定权”交给机器,让机器决定是否对人类进行毁灭性打击,其危险程度极高,可能造成大量平民死亡和财产巨大损失,或者智能机器人通过人脸识别,甚至通过语音识别某个人的声音对个人实施精准打击、定点暗杀,完成恐怖袭击任务。这也就不难理解,当韩国科学技术院与“韩华 Systems”这样的军工企业合作研发自主武器时,来自全球50余名AI学者联名抵制。事实上,人们目前无法阻止AI能力进入攻击性武器,当有人利用计算机视觉算法成功制造自主杀人无人机时,这些被验证的模型将被其他人“现拿现用”,将其直接应用于新的应用程序。这种模式一旦被运用,将如病毒感染般快速扩散,形成“多米诺骨牌效应”,一时间无法有效遏制,因而有必要提前预判并作出反应。

 

智能机器人发动恐怖袭击的目的可能是为了毁灭人类、威胁人类的生存,而并非是为了政治、宗教等意识形态目的,其破坏性及制造的恐怖氛围更浓烈。

 

(三)人“机”共同实施恐怖主义犯罪活动

 

在未来,人类与智能机器人之间的交互能力可能随着人工智能的发展越来越强,智能机器人可能与人类建立深厚的感情纽带,电影中的机器人和人类建立感情的情节也许会实现,在智能机器人发展成为具有自主性的“类人”或者发展具有与人类不一样意识的“非类人”,自然人与机器人共同实施恐怖犯罪活动的情况不容忽视。

 

一是智能机器人与人类共享数据资源,共同实施恐怖主义犯罪。语音交互、机器视觉、传感器智能三种AI感知模态可以让机器人像我们人类一样具有“五官”,这种多模态深度学习,让智能机器人能够理解更多的信号,从算法本身就容纳听觉、视觉、传感信号进行统一思考,让智能机器人具备“自主性”,更加“聪明”。2018年1月,加州大学伯克利分校的研究小组发现,机器人具备像人类一样的“预见”能力,即“视觉预见”(Visual Foresight),借助视频识别技术,机器人可以预测在移动物体前可能发生的情景。虽然现在没有机器人预测未来的事例,但按目前深度学习算法的发展、数据收集与分析能力提升的情况下,智能机器人与人类利用数据预测恐怖活动行进方式与阻碍点,进而实施恐怖主义犯罪活动也许并不遥远。

 

二是为实施恐怖活动“演习”。试想这样的场景:用写好的剧本生成视频,对恐怖主义活动进行预演,并设计逃跑路线以逃避抓捕,提高恐怖主义犯罪的“成功率”。2018年2月,杜克大学Yi tong Li等研究人员提出通过新的人工智能算法,可以为一小段文本生成相应短视频。他们的研究团队表示,他们以公开的在线视频创建了视频预料库的方式,并通过大量的训练,得出结论——文本中的信息可以正确的在视频中显现。该研究已在AAAI 2018 大会上进行了演示。

 

三是人“机”恐怖主义犯罪存在片面共犯的情形。一方面,智能机器人可能通过网络吸收恐怖主义、极端主义思想,学习恐怖主义犯罪手段,并实施恐怖主义犯罪,但自然人在这一过程中提供恐怖主义犯罪的素材,而智能机器人并不知晓;另一方面,当自然人实施恐怖主义犯罪时,智能机器人进行远程监控,提供预测、逃跑路线等。

 

三、人工智能时代恐怖主义行为的刑法规制路径

 

人工智能的全面运用为恐怖主义犯罪提供新的手段,产生新的犯罪主体,新的恐怖主义形势与以往的恐怖主义呈现出不同的样态。对人工智能恐怖主义应当坚持何种立场?对现有恐怖主义犯罪体系如何完善?以及是否需要设置新的罪名回应新型恐怖主义?亟待刑法解答。

 

(一)人工智能时代应对恐怖主义应坚持的立场

 

1.对我国现有反恐刑事政策的反思

 

人工智能时代,个人(体)恐怖主义犯罪活动将逐步增多,我国现有的“严打”与“宽严相济”刑事政策均存在些许不足,其在预防恐怖主义犯罪活动时,所发挥的作用有限。

 

首先,“严打”刑事政策在人工智能时代存在不足。利用AI技术实施的恐怖主义犯罪适用“严打”的刑事政策可能存在以下几个疑问:其一,恐怖分子利用技术手段实施恐怖主义活动,其“恐怖”程度并不必然比传统暴力手段实施的“恐怖”程度低,“严打”政策如何对利用人工智能实施恐怖主义犯罪这种较为隐蔽、虚拟的形式“严厉”打击?对这一部分恐怖分子追究刑事责任,其负罪感是否会在严打之下提升?此类恐怖分子为了“理想”甚至愿意“捐躯”,更何况技术的进步,为他们躲避追捕提供了便利条件;其二,恐怖主义、极端主义思想极易在社会主流文化、价值观较为薄弱的地区和人群中被传播,这一部分地区和人群极易受到煽动、蛊惑,而人工智能技术可能加剧该地区和该类人群迷信恐怖主义思想,而“严打”政策难以有效遏制恐怖主义思想的传播;其三,随着机器深度学习的进步,智能机器人将逐步发展成为具有自主性的“类人”与“非类人”,对这一部分“群体”进行严打,又会产生多大的威慑力?其四,“严打”对于初犯、偶犯者等轻微触及恐怖主义行为者,是否会令其“反其道而行之”,由轻微犯罪行为转向严重危害社会行为?

 

其次,“宽严相济”刑事政策如何做到“严以济宽,宽以济严”“宽柔共济”?是对实施暴力犯罪的恐怖分子以严,还是针对以非暴力手段的恐怖分子以宽?对智能机器人与人“机”共同犯罪的问题,“宽严相济”似乎未给出切实可行的预防措施。有学者认为,过分强调严厉的刑事政策,恐怖主义犯罪难以得到遏制,相反,这会被恐怖组织利用,将恐怖活动分子描述为“自由斗士”“解放者”,以混淆视听、博得支持;过于宽缓的刑事政策,会促使恐怖活动分子认为恐怖主义犯罪的成本极低,同样难以达到有效遏制恐怖主义犯罪的目的。因此,“以严为主、以宽为辅”的刑事政策,才是有效治理恐怖活动犯罪的途径。“宽严相济”的刑事政策注重犯罪的社会危害性、犯罪人的主观恶性和人身危险性,没有放弃刑罚对恐怖分子的改造可能性,可是其忽视了人工智能技术的实时性与危险的短期不可消除性,人类或者智能机器人如果被诱使、蒙蔽参加恐怖活动,如何消除其恐怖主义、极端主义思想?

 

2.防范人工智能恐怖主义应坚持敌人刑法之立场

 

“严打”与“宽严相济”刑事政策并不能有效回答人工智能恐怖主义面临的问题,而须采“敌人刑法”应对。

 

首先,敌人刑法观内涵之解读。敌人刑法观是德国刑法学者雅各布斯在恐怖主义犯罪、有组织犯罪浪潮压力下提出的新观点,雅氏以规范违反说为基点,认为恐怖分子属于“根本性”的偏离者,他已然不是一个市民,而是必须被征讨的敌人。这场战争是为了市民对于安全的权利而斗争,遭到制裁之人并无权利可言,这与普通的刑罚相区别,他已经被当作敌人排除于社会之外。因此,对敌人要施加更加严厉的惩罚,即不需要按照“比例性原则”设定的限制条件予以处罚,并且其不能享有一般犯罪人的所应当享有的“正当程序”权利,将其犯罪化处理,即便行为还没有对法律所保护的利益造成真正的威胁,刑法也要提前介入。那么,对于市民则要遵循人权保障的精神,通过刑罚威慑使之重新回归到社会、重新尊重规范,即将市民与敌人区别对待。冯军教授认为,敌人不能成为他的行为所破坏的现实社会的成员,敌人本质上是公敌,不是公民。在敌人的敌对行为中完全不存在任何值得社会宽恕的理由,行为人出于各种各样的目的杀人、抢劫以及强奸的行为证明他们原则的破坏了社会的实在法规范,是社会的敌人。一定程度上,可以认为敌人是恐怖分子的另一称谓。在敌人刑法中只存在人民的权利,而完全不存在敌人的权利。此处的敌人并非政治术语上的敌人,即不同于我们常说的“敌我矛盾”中的敌人,而是指那些不愿意回归社会正常秩序的具有特别严重社会危害性的犯罪分子。

 

其次,敌人刑法符合法治国打击人工智能恐怖主义犯罪之要求。有学者认为,若国家将恐怖分子作为敌人看待,这种人为地撕裂社会构成的方式是否妥当?并担心,将恐怖分子视为敌人排斥在市民和法治之外,将可能会迎来将毒品犯或腐败分子视为敌人。这种看法有待商榷,其将“敌人”当成一个政治术语。敌人刑法具有其特殊性、使用于特殊领域,人工智能恐怖主义犯罪将可能毁灭人类,威胁人类生存,将其视为敌人具有合理性,该观点认为所有恐怖分子都是敌人,忽视了实施恐怖活动中危害较小的一部分恐怖分子,“没有人是天生的恐怖分子,一个人走上恐怖活动犯罪道路,一定是他的思想或心理出了问题。”考虑敌人刑法的同时,不能忽略市民刑法,敌人刑法与市民刑法是相结合的,市民刑法适用于犯罪危害较小者。同样,敌人刑法观的预测性功能不能被忽视。敌人刑法的考察指标是预测性与危险性,这与市民刑法的回溯性考察指标有所不同,因此,对市民处罚做过的犯罪,对敌人则是防范将来的犯罪。如此一来,法治国的要求并没有违反,反而明确了法治国应坚持的立场——严重的恐怖犯罪活动必须予以严惩,轻微者予以感化,不仅弥补了“宽严相济”政策的模糊性、震慑了恐怖分子,又能分化瓦解其中的危害较小者。

 

最后,我国相关法律已经初现“敌人刑法”,《刑法修正案(九)》《中华人民共和国反恐怖主义法》(下称《反恐法》)将法益保护前置,《反恐法》第4条规定,“国家将反恐怖主义纳入国家安全战略”,体现了国家将反恐怖主义与国家安全置于同一“高地”。而《反恐法》第29条规定了“分别关押”的要求。“分别关押”的思想体现了“敌人刑法”中的“敌人”不具有“人格期待”说法。即便如此,我国相关反恐怖主义法律法规对敌人刑法之观念依然存在模糊性的问题。而一个明确清晰的敌人刑法,相比现有刑法规定中四处混杂着敌人刑法的条文,以法治国的角度言之,是较少危险的。

 

(二)刑法对人工智能恐怖主义犯罪的回应

 

1.完善利用人工智能实施恐怖主义犯罪的刑法规定

 

最高人民法院、最高人民检察院、公安部、司法部下发的《关于办理恐怖活动和极端主义犯罪案件适用法律若干问题的意见》(下称《恐怖主义案件法律意见》)将网络恐怖主义行为纳入司法解释,将其解释为准备、帮助等行为,一定程度上弥补了网络恐怖主义犯罪无法以恐怖主义相关罪名定罪的缺陷,但该司法解释依然存在滞后性等缺憾。加上我国法律对恐怖主义的规定呈现碎片化、罪名设置缺乏系统性等问题,面对人工智能时代的恐怖主义,有必要对相关罪名进行调整,设立新的罪名。

 

首先,贯彻敌人刑法观,适时考虑在危害公共安全罪中设立专门一节:实施恐怖主义活动罪。第一,设立“实施恐怖主义罪”,将具有恐怖主义性质的故意杀人、故意伤害、投放危险物质、绑架、抢劫、爆炸等严重暴力犯罪按实施恐怖主义罪定罪处罚,将其与故意杀人等传统犯罪区分,且无需数罪并罚,以实质性地体现恐怖主义犯罪的本质;第二,《刑法修正案(九)》新增的网络犯罪,如“拒不履行信息网络安全管理义务罪”“侵犯公民个人信息罪”等一定程度上规制了网络犯罪,但是忽略了以上行为可以成为恐怖主义犯罪的“上游”犯罪,同样可能会造成社会恐慌,可以考虑将为了恐怖主义犯罪而扰乱信息管理秩序、拒不履行信息网络安全等行为纳入“实施恐怖主义活动罪”一节中,不过,此种立法模式可能形成过度的法条竞合,需谨慎选择;第三,为了正确认定网络恐怖攻击行为,避免将严重的恐怖攻击计算机信息系统等行为做轻罪处理,可以在“实施恐怖主义活动罪”一节中设立“网络恐怖攻击罪”,以区分一般的计算机犯罪;第四,将利用人工智能手段实施的恐怖主义犯罪纳入到“实施恐怖主义活动罪”一节中,增设“利用人工智能实施暴力恐怖主义罪”,将利用人工智能实施的杀人、放火、投放危险物质等行为以此罪进行规制,因为利用人工智能实施的暴力恐怖活动无法以刑法第120条规定的相关恐怖主义犯罪惩处,对这一新型暴恐犯罪应以新罪名规制。

 

其次,将利用人工智能技术收集情报以及募集资金的行为纳入司法解释。《恐怖主义案件法律意见》将利用网站、网页等传授犯罪方法、联络人员、播放或者发送恐怖主义、极端主义图书、音像资料等行为解释为“准备实施恐怖活动”“宣扬恐怖主义、极端主义、煽动实施恐怖活动”,由于各种原因,司法解释未将利用人工智能攻击网络、收集情报、募集资金等与恐怖主义活动有关的行为纳入,为了避免此类行为无法可依,或按其他罪名处理而不能罚当其罪,宜将“准备实施恐怖活动罪”“宣扬恐怖主义、极端主义、煽动实施恐怖活动罪”等罪名进一步细化,规定利用人工智能技术实施的与恐怖活动有关的行为。

 

最后,完善编造、故意传播虚假恐怖信息罪的规定,并将其置于“实施恐怖主义活动罪”一节。人工智能时代,由于编造恐怖主义信息的简单、迅捷性,这一技术可能被恐怖分子利用。因而,《刑法》第291条之一的编造、故意传播虚假恐怖信息罪中的罪状宜扩充为“为引起社会恐慌,利用人工智能技术编造爆炸威胁、生化威胁、放射威胁、散播恐怖谣言;或者将真实的恐怖事件通过人工智能技术予以传播,制造社会混乱,引发社会恐慌,严重扰乱社会秩序的”。这就将利用人工智能技术宣扬、传播真实与虚假的恐怖主义活动进行规制,避免出现恐怖分子利用人工智能技术手段实施犯罪的多样性,而刑法规定出现真空。

 

需要注意的是,对上述行为的规定不能忽略行为人的主观目的,《恐怖主义案件法律意见》注意到了这一点,恐怖主义犯罪分子的主观方面需要结合行为人的具体行为以及认知能力等予以综合认定。

 

2.智能机器人单独实施恐怖主义犯罪或人“机”共同犯罪的规制方案

 

强人工智能体(智能机器人)实施恐怖主义犯罪并非危言耸听,对这一新主体实施的恐怖主义犯罪活动可以从刑法总则与刑法分则两方面制定应对措施。在刑法总则中将智能机器人纳入刑事责任主体范围,在刑法分则中将智能机器人的行为以“智能机器人实施恐怖主义罪”定罪处罚。

 

首先,刑法总则赋予智能机器人刑事责任主体地位。在未来,自我进化是智能机器人发展的方向,人工智能将更加“自能化(Autonomous)”,技术的发展使智能机器人更具备成为刑事责任的主体之一。对于智能机器人的刑法归责,有学者认为,迄今为止的刑法归责理论不能提供适当的工具,以对(或许不那么智能的)人与(或许相当智能的)机器互动过程中的责任进行合理划分。而在可预见的将来,肯定智能代理的可罚性还只能是一种设想。智能代理既不具备——可以让人类感知到的——感受刑罚的能力,也无法理解与惩罚相联系的伦理指责,因此针对它们“本人”动用刑法是没有意义的。与法人的可罚性不同,处罚智能代理也不能被解释为让背后的自然人因“组织过错”而间接受罚。这种人工智能发展的“不可知性”代表了大部分强人工智能刑事责任主体与刑事责任承担否定论者的声音。但是,发展到一定阶段的智能机器人可能超越程序的设计和编制范围,按照自主的意识和意志实施犯罪行为,因而完全可能成为行为主体而承担刑事责任。智能机器人通过采集数据决定采取何种步骤(行为),在设计和编程范围内可以实现辨认和控制能力。此外,具备辨认和控制能力的智能机器人还可以通过后天培养“道德能力”,随着人工智能的广泛应用、智能机器人自主性的提升,智能机器人可能成为具有道德属性的主体,可以预见的是,智能机器人通过深度学习,可以实现自身的“道德评价”,并“自我反思”,进而逐步完善自身的“道德”。因此,在刑法总则中赋予智能机器人刑事责任能力有其技术与伦理根据。

 

其次,在刑法分则中,增设“智能机器人实施恐怖主义罪”,置于“实施恐怖主义活动罪”一节。智能机器人犯恐怖主义罪行,将严重危害人类安全,当提前预判,并以专门罪名规制,以确保其危害人类的犯罪得到严惩。无论智能机器人传播恐怖主义思想、智能机器人制造生化武器,还是变成智能杀手等实施恐怖主义犯罪活动都无法以既有刑法处罚。针对智能机器人的此类行为,可以以修改应用程序强制智能机器人“失忆”和摧毁机器人作为刑罚方式。修改应用程序强制“失忆”,即通过重新设定程序,改变其深度学习的范围,消除其学习恐怖主义犯罪方法、传播恐怖主义犯罪思想等方面的能力,干涉、逐步消除其达到目标(犯罪)的能力;所谓摧毁机器人,即使修改程序亦无法使之被纳入正常社会轨道,此时的智能机器人已然成为敌人,应从物理层面销毁,防止其自我“组织”、自我“重生”。两种刑罚方式,亦是惩罚力度的逐步强化,先以“市民刑法”对待,进而以“敌人刑法”销毁。

 

最后,规制人“机”共同犯罪,可以以“实施恐怖主义罪”“利用人工智能实施暴力恐怖主义罪”定罪处刑。需要注意的是,现在共同犯罪理论并不一定适用于人“机”共同犯罪,有必要对共同犯罪理论予以更新。其一,对于人“机”共同故意犯罪的,当然需要按照共同犯罪处罚;其二,信息时代的虚拟性已经使得共同犯罪的“共同故意”出现明显异化,对于人“机”过失共同犯罪的,需要引入“片面共犯”理论和“共同过失正犯理论”,就片面正犯而言,将它置于恐怖主义犯罪的所有形态当中,就不需要判断人类之间、人类与智能机器人之间以及智能机器人之间提供帮助者与被帮助者之间是否具有意思联络,他们之间的联系松散,意思联络的证明难题便可以用片面共犯理论解决。

 

就共同过失正犯而言,罗克辛教授认为,如果以过失犯的归责结构来看,通过在结果中实现一个由多人共同创设的不容许的危险时,就存在共同过失实行人了。所以,过失犯的风险创设与注意义务的违反,可能出现过失共同正犯。当自然人或者自然人与智能机器人之间实施恐怖活动行为时,即便没有共同的意思联络,但是通过行为也能反推其心理的因果性。此时,便可认定人“机”成立共同犯罪。大塚仁教授更加鲜明的指出,法律上规定了共同实行人的共同注意义务时,若存在这样的客观事实——共同实行人共同违反了其注意义务,就可以认为存在过失犯的构成要件符合性,这也进一步承认了各个共同行为人存在过失时,过失犯的共同正犯的成立。试想这样的情景:当智能机器人通过“自我”深度学习时,摄入了恐怖主义思想,而其设计者与使用者并没有尽到注意义务,也就是说智能机器人已经创设了风险,而这种风险的创设是由于“过失”所致,此时便会有与未尽注意义务者成立共同过失正犯的可能。而且,当智能机器人所实施的恐怖犯罪活动导致结果加重、恶化,比如煽动实施恐怖活动演变为实施恐怖主义犯罪,在结果加重犯的场合,实质上便是一种过失共犯,此时并没有扩张处罚的范围,是值得肯定的。

 

四、结 语

 

且不论目前人工智能是否能学会人类的错误、情感、自由意识等并产生自主意识,但是当AI的学习能力越来越强时,其通过深度学习能力取得相当程度的认知,并做出行动,当此类行动对人类生存与发展有害时,我们不能坐视不管。当我们还在纠结于人工智能是否会发展出意识时,人工智能已经超前发展了。人工智能在社会发展中的全方位运用,使得社会发展表现出更多的风险,且具有高度的不确定性和不可预测性,它几乎影响到人类社会生活的各个方面及所有成员,人工智能恐怖主义便是其中的影响之一。

 

听起来有点儿像科幻小说,但事实就是如此。AI的决策模式经常被称为“黑盒子(Black Box)”,其并不具有人类做出决定时的思想、感情,因而其决定具有“不可解释性”,当AI所做的决定可能超出开发者当初的想法或想象,产生连开发者都无法驾驭的“不可驾驭性”。此等不可解释性、不可驾驭性的存在,对现行几乎皆以主观意思为前提的法律责任追究体系,带来重大冲击。而人工智能发展对法律乃至社会的重大冲击,需要事先预警。事先预警的逻辑,是要每个人借着警告或是增加安全措施,以能够事先处理风险,特别是在新自由主义(neo-liberal)社会里,充满了不确定性,且对于处理危机的方式越来越多,因而根据“事先预警原则”,乃是要避免能够造成风险的阶段开始,直到建立起安全机制为止的事先预防措施。目前,对自动(无人)驾驶的刑事风险研究已经深入展开,是人工智能刑事风险与刑法分则结合较为紧密的研究方向。而对刑法分则其他罪名结合人工智能的研究较少,本文的人工智能恐怖主义之预判与研究正是本着“事先预警原则”,在AI发展的客观事实基础上,做出大胆假设,将未来可能出现的情形加以论证,避免有人工智能恐怖主义发生时,出现无“人”负责的“法律责任真空”状态,以期为人工智能法制与法治的发展谋求出路。若以鸵鸟心态、固步自封,无视人工智能发展中的种种情事,则无益于科技与法律、社会发展的良性互动。