预测算法在我国刑事司法程序中的运用与规制

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

预测算法在我国刑事司法程序中的运用与规制
作者:杨淞麟
来源:《重庆社会科学》2022年第08期
摘要:随着人工智能研究的逐步深入,预测算法在刑事司法领域中迅速普及,它被用以更有效地分配司法资源、识别潜在危险个体、为法官的判决提供量刑建议等。

然而,算法在提高刑事司法办案效率的同时也遭到了不少群体的质疑和批判,诸如,算法信任危机、传统的刑法规制模式与现代智能化算法技术对接、数据孤岛等难题依旧折损着算法司法应用的实际效果。

为了更好地推动预测算法的刑事司法运用,亟须对预测算法技术进行可视化改造,革新升级数据权利,统一互联算法应用体系,缓和预测算法的原生性难题,深化预测算法技术在我国刑事司法程序中的应用。

关键词:预测算法;刑事司法;算法质疑;程序正义;算法规制
基金项目:教育部人文社会科学重点研究基地重大项目“大数据时代下的司法理论与实践研究”(16JJD820004)。

[中图分类号] D922.21 [文章编号] 1673-0186(2022)008-0101-011
[文獻标识码] A [DOI编码] 10.19631/ki.css.2022.008.008
进入新世纪,尤其是2010年之后,随着人工智能、大数据时代的快速到来,以大数据为算料的预测算法应用在我们的日常生活中无处不在,而刑事司法领域也不能在算法运用的大潮中“独善其身”。

目前,预测算法的司法应用主要集中于司法资源的有效分配、潜在危险个体的预警通报、法官的量刑建议与指导等方面[1]。

刑事司法领域更是由算法技术衍生出了诸如COMPAS①分析预测工具和智能辅助系统②等一系列应用。

尽管如此,算法技术依旧存在诸多争议,算法黑箱、算法歧视、系统性偏差等问题仍是其目前难以逾越的鸿沟[2]。

一方面,人们对预测算法的质疑态度、传统刑事司法模式与数字时代算法技术对接难题以及数据孤岛等因素都会阻碍预测算法在刑事司法领域的实际应用,另一方面,随着人工智能的快速发展,预测算法在刑事司法领域又被期待和赋予了更多的可能性,基于刑事领域的特殊性,算法在此领域的应用理应被投以特别关注。

因此,本文拟分析预测算法在我国刑事司法领域中应用的阻力与痛点,并尝试提出解决路径来权衡技术理性与价值理性的天平,协调激励发展与合理监管的目标。

一、预测算法技术在我国刑事司法领域的兴起与困境
2016年是我国的“智慧法院”元年,也是预测算法技术在司法领域运用从构思到落地的重要开端。

2016年1月29日,最高人民法院院长周强在全国法院信息化建设工作会议上首次提出了建设“智慧法院”的新概念。

迎合目前人工智能发展的大趋势,将5G、大数据、预测算法、区块链等技术融入司法审判,力图构建智能化、高效化、科学化、公平化、现代化的司法审判体系。

同年7月,中共中央、国务院办公厅印发了《国家信息化发展战略纲要》,提出“科技强检”,推进检察工作现代化,并将建设“智慧法院”作为国家信息化发展的重要一环,提高案件受理、审判、执行、监督等各环节智能化水平,推动司法信息公开,保障司法公平正义。

同年11月的《乌镇共识》再次明确了“智慧法院”建设的基本宗旨,即将算法技术、司法大数据分析技术、5G技术目标列为司法智能化建设的重要通路。

2017年5月,全国首个“刑事案件智能辅助办案系统”在上海诞生,该系统以大数据、预测算法和人工智能为技术内核,具备初步的证据信息抓取、校验和逻辑分析能力,标志着中国首个预测算法技术在刑事司法领域落地应用。

2022年3月起正式实施的《互联网信息服务算法推荐管理规定》,在广义上对算法歧视、算法黑箱、算法壁垒等问题进行了规范,将道德与法治相结合,既为算法的运用构筑了道德底线,也为算法的实践设立了法律红线。

虽然起步较晚,但庞大的运用基数和不断完善的算法设施基础建设正在使中国逐步成为算法应用超级大国[3]。

虽然目前我国的预测算法应用已经粗具规模,但是其在刑事司法领域的推行依旧阻碍重重。

首先,来源于一种对预测算法的质疑:算法能否取代人类对司法程序进行决定与裁判?即便我们能够证明刑事司法系统中的预测算法能够产生比人类判断更公平、有效和准确的决断,我们也习惯且倾向于相信这些自然人决策者,并且在很大程度上接受他们决策的合法性。

反对预测算法介入刑事司法程序的人指出:尽管没有任何预测算法会直接将犯罪前科、性别、职业、经济状况等作为决策的因素,但在决策和判断中,使用预测算法仍然可能存在预先的偏差与歧视。

由于许多预测算法依赖于先前的逮捕、定罪或其他前科作为预测未来犯罪活动的一个因素,算法无形中将这种间接性差异永久化,其创造了一种虚幻的“技术科层框架”,即谁是危险的,谁应该受到更大的惩罚[4]。

我们已经看到预测算法有可能彻底改变刑事司法系统,但他们必须尽量减少其使用数据的歧视所造成的影响,这将需要更大的透明度,以便警察、检察官、法官等司法决策者能够评估算法是否符合这些标准[5]。

但是,即使预测算法克服了这些技术问题,它们仍将面临最后一个挑战:它们是否会被接受为刑事司法系统的合法决策者,或者它们的运用是否会破坏程序正义?如果预测算法的支持者希望看到这些程序被法院和执法机构广泛采用,他们必须做的不仅仅是提高其公平性和透明度。

他们还必须使普通民众,甚至是受这些算法影响的被告去接受司法刑事系统算法应用的合法性。

其次,我国传统的刑法规制模式与现代智能化的算法技术对接难题,传统的刑法规制模式在面对现代智能化社会层出不穷的“新型”犯罪时显现出了明显的僵硬和滞后性,以新型网络犯罪为例:旧有的刑事司法模式针对传统的网络犯罪治理已经显得捉襟见肘,那种“头痛医头,脚痛医脚”的治理模式使得其在面对“日新月异”的犯罪时疲于奔命,处理犯罪的方式往往都是采取亡羊补牢的“补救模式”,先出问题,再想办法治理,理想化的“预防模式”远远没有达到。

而在面对被人工智能、大数据、算法催生强化后的“网络犯罪2.0”时,旧有的刑事司法模式更是对其“闻所未闻,见所未见”,这就很难对“数字时代”的新型犯罪进行及时有效的治理。

相较于传统的刑事司法手段,经过人工智
能与算法技术赋能加强的刑事司法程序在技术层面拥有了更科学的信息抓取与分析方式和更强大的数据筛查与运算能力。

当技术不断革新,手段不断丰富的同时,就难免出现旧有的刑事司法程序与之脱节的情况。

我国目前“智慧司法”推行相对较好仅有浙江、上海、北京等几个经济相对发达的省市,而这些省市对于算法技术也仅仅是处于一种探索和局部应用的阶段,没有与旧有的刑事司法程序形成有效完整的对接体系[6]。

其余省份的“智慧司法”,大多数仅是将纸质办公升级为网上办公而已。

因此,想改变旧有的刑事司法程序与模式更需要强大的耐心与必要的时间,二者的磨合与适应注定是一个无法省略的过程。

当我国的智慧法院、人工智能、预测算法在短短几年间不断从1.0升级到2.0,从2.0升级到3.0时,传统的公安侦查模式、检察公诉模式与法院审判模式想要追赶并与之对接就需要更长的时间和更多的精力来进行适应与弥合。

最后,数据孤岛现象严重。

各地区、各部门、各环节的算法应用呈现点状碎片化分布,与智能互联的构想相比,我国的预测算法在刑事司法中的运用并没有形成系统网络,超前的制度设计与系统化的全面实施还有相当距离[7]。

纵观我国近些年的数据预算法在司法领域的实践与应用,无论是吉林法院的“智能司法服务平台”,还是四川成都中院创建的“‘和合智解’多元化解纷平台”,抑或是天津法院“审判信息化平台”都仅是停留在较为粗浅的技术层面,并且这些平台、模块、技术都是停留在办案的具体某个局部环节,或诉种分类,或所前调解,或案后执行,非常零散,远远没有达到“智能化,全覆盖”的深层次构想要求。

案件的“智能化”运用还处于对数据的收集和简单分类阶段,没有将更具实效的分析结果系统全覆盖地应用,程序与应用之间的数据大多数情况下是不能进行互通的,“各自为政”现象严重,这就造成了数据孤岛与数据浪费,进而导致算法技术的异化。

诚然,大数据预测算法的系统化应用可以提高司法效率,但是如果各个系统与环节达不到统一,各种程序与应用之间没有固定标准,各类数据与算法运用无法系统互联,那么这种冗余、重复、孤立的数据算法“智能化”反而会对正常的刑事司法程序运行造成不必要的阻碍。

二、预测算法应用困境疏解的价值遵从
程序正义是一种法律技术得以施行的前提条件。

它更关注感知的公平,而不是实体的公平。

人们遵守法律不仅仅是因为他们害怕违反法律会受到制裁,主因还是他们相信法律是更为公平且合理的。

所以,预测算法在刑事司法程序中的平顺嵌入不能仅依靠制裁的恫吓,它必须是根植于民众内心的自愿认可。

(一)坚守尊重与可信赖之底线
决定一个人是否会认为程序公平的首要因素是程序是否被有尊严地尊重或对待。

这存在于在侦查期间与警察的互动,公诉阶段与检察官的沟通,以及在审判过程中与法官交流的各个阶段。

然而,在评估大数据算法的感知合法性时,这个重要因素往往被忽略掉,因为服从算法决策的个体不会直接与算法或其设计者交互。

相反,当事人将与根据算法建议行事的人类警察、检察官和法官进行交流。

不管这些行为人是否使用预测算法来指导他们的决定,为了实现程序正义,他们必须要坚持有尊严地对待被告。

但是,伴随着预测算法在刑事司法中的不断渗透与
普及,依赖于预测算法的司法人员趋向于将刑事被告仅仅视为数字和概率的集合,他们更像是流水线上的物体,而不是自然人[8]。

如果做出的决定部分是基于预测算法,当局应该向被告解释算法的细节,而不是仅仅解释为机器强制做出的决定。

这将要求算法本身是透明的,以便警察、检察官和法官了解导致算法决定的因素,并要求当局做出额外努力,向被告努力解释这些因素,这种额外的努力也将有助于建立信任,这是另一个程序公正实现所需要的至关重要的因素。

在程序正义领域,信赖可以通过两种方式建立。

第一种方式是:参与者可以感受到与决策者的个人联系。

例如,参与者可能认为决策者与参与者来自同一个群体。

第二种方式是:决策者能够清晰透彻地解释自己的决策。

大数据算法很少会依靠个人连接来获得可信度,因为大多数被告不会感觉到与计算机程序有任何亲缘关系。

因此,想要实现算法体系的程序正义,必须使被告能够理解推算原理并支持预测算法。

与人际尊重因素一样,对于预测算法来说,这个因素比人类决策者更难实现。

“心理理论”(theory of mind)的概念①揭示了人类如何理解心理状态,从而理解他人的决定和行为。

因此,只有当刑事被告理解并证明算法达到了它的决定时,它才会显得可信。

这将意味着人类决策者需要向被告解释算法背后的推理,这反过来意味着人类决策者必须能够理解算法是如何工作的。

因此,与人际尊重和中立因素一样,算法的更大透明度对于确保被告相信程序是公平的至关重要。

(二)坚持算法中立
预测算法对于提高决策者的实际中立性和感知中立性具有良好的应用效果,因為算法的每一个决策都遵循相同的规则[9]。

然而,正如本文第一部分所讨论的,预测算法目前在我国刑事司法领域的应用依旧面临着巨大的挑战,我们在运用该项技术的同时也在不断深化固有的歧视与偏见。

社会中的特定群体更有可能因其犯罪前科、经济状况、甚至是性别而被定罪。

一个算法判决若将犯罪前科、自身经济状况、性别等作为定罪量刑的关键数据,将加剧现有的不平等,破坏法律所追求的中立性。

以美国的一项数据调查为例,即使算法避免使用前科或者种族作为确定行为风险的因素,其结果仍可能对黑人被告产生一定的影响。

事实上,对这些预测算法最常见的批评是,他们预测黑人被告比白人被告有更高的累犯率,COMPAS算法评估数千名被告的风险得分,结果显示,黑人被告的假阳性率是白人被告的两倍[10]。

评估预测算法中立性的部分问题在于,不同的人可能对什么是“中立”有不同的定义。

在风险评分相同的被告中,黑人被告和白人被告的实际累犯率是相同的。

这有力地证明了算法是“中立的”,因为它的结果在种族间是相同的。

然而,由于黑人被告的总体累犯率确实是高于白人被告,因此从统计学上说,若想为了在结果上保持所谓的“种族中立”,预测系统就必须进行“调整”,对黑人的误报率必须高于白人。

很难说这两个相互对立和不相容的价值观——结果“中立”与相同的假阳性率——是如何转化为程序正义的。

从实质正义上讲,中立的结果应该是最重要的因素,也就是说,必须使黑人被告相信,系统给定的预测分数是中立且平等的。

但基于假阳性率的差异,加上低收入水平或犯罪前科记录增加了其被告评估的风险得分,极有可能会导致黑人被告认为这些算法对他们的种族不“中立”,存在严重的种族歧视。

如前所述,实现真正中立决策的唯一方法是从预测算法中删除各种“标签”,或从人类决策者中删除所有隐含的偏见。

但前者一定比后者容易,因为从理论上讲,算法可以被编程来消除任何先前种族歧视所带来的因素。

例如,假设一项研究表明,黑人居民和白人居民犯下某种类型的罪行的频率相同,但由于制度上的不公平,黑人居民更有可能被判有罪。

因此,如果使用未经调整的先前定罪数字,黑人被告的累犯率将不准确(不公平)地高于白人。

一旦这一事实被证实,程序员就可以改变他们的算法来消除先前存在的不公平,对黑人被告来说,通过适当的数量来减少这一罪行的先前定罪的数量,或者对白人被告来说,通过适当的数量来增加先前定罪的数量。

这种调整可以针对记录了过去种族偏见的所有因素进行,并可以纳入各级决策过程,从确定逮捕的原因到选择量刑幅度,再到形成适当的判决。

即使我们可以相信每一位人类法官都知道这些先前存在的种族偏见的例子,即使我们可以相信每一位法官都会同情适当调整裁判的必要性,但任何人都不可能考虑到所有这些潜在的折扣,只有预测算法才能有效地做到这一点[11]。

因此,如果它们被设计得适当,预测算法至少有可能实现比人类更优的中立性。

(三)保障数据算料安全
数据算料作为预测算法刑事司法运用的基础性元素,对于预测算法的应用与普及起着根本性的支撑作用。

预测算法应用效果的好坏、分析研判结果的正确与否、侦控审各个环节的智能化开展都是与基础数据算料安全密切相关。

因此,保障数据算料安全是预测算法决策与运用的前提。

随着以大数据为基础的算法方式不断普及,相对应的数据安全问题所带来的风险也会与日俱增。

如果基于错误或是被篡改的数据进行算法分析,在刑事司法领域,很可能会造成严重的司法事故,延伸到智慧医疗、自动驾驶等民生领域,则会对人的生命安全造成重大威胁。

因此,推广预测算法在刑事司法中运用的首要任务就是针对数据的源头收集、过滤筛查、分门别类、应用落地、后期维护做好扁平化链条式的监管与保护,可以仿效区块链技术,对基础数据进行可溯源、不可篡改、条条上链的优化与改造。

与《数据安全法》《个人信息保护法》《网络安全法》相对接,保证数据收集、筛选、使用过程的透明度,将“公开”与“必要”“有限”原则相融合的基本宗旨贯彻始终。

对于数据的生成流程改造要求大致如此,但是不可忽视的是在自然人的操控环节同样要受到重视,通过上文美国COMPAS对于黑人与白人犯罪率的差异化分析,可以看到,算法歧视的根源来自人的歧视,在这种歧视之下就会扭曲篡改数据算料的原本样态,给别有用心之人以可乘之机,那么此时无论是数据还是算法都将变得不再客观。

因此,更应该防范在数据采集与抓取过程中人的过错风险,防范本应客观的数据源头被不该有的主观价值偏好所污染。

“智慧司法”也好,“互联网法院”也好,大数据算法无论怎样应用都是离不开人的基础性作用和专业的刚性队伍建设[12]。

二、预测算法应用困境疏解的价值遵从
程序正义是一种法律技术得以施行的前提条件。

它更关注感知的公平,而不是实体的公平。

人们遵守法律不仅仅是因为他们害怕违反法律会受到制裁,主因还是他们相信法律是更为
公平且合理的。

所以,预测算法在刑事司法程序中的平顺嵌入不能仅依靠制裁的恫吓,它必须是根植于民众内心的自愿认可。

(一)坚守尊重与可信赖之底线
决定一个人是否会认为程序公平的首要因素是程序是否被有尊严地尊重或对待。

这存在于在侦查期间与警察的互动,公诉阶段与检察官的沟通,以及在审判过程中与法官交流的各个阶段。

然而,在评估大数据算法的感知合法性时,这个重要因素往往被忽略掉,因为服从算法决策的个体不会直接与算法或其设计者交互。

相反,当事人将与根据算法建议行事的人类警察、检察官和法官进行交流。

不管这些行为人是否使用预测算法来指导他们的决定,为了实现程序正义,他们必须要坚持有尊严地对待被告。

但是,伴随着预测算法在刑事司法中的不断渗透与普及,依赖于预测算法的司法人员趋向于将刑事被告仅仅视为数字和概率的集合,他们更像是流水线上的物体,而不是自然人[8]。

如果做出的决定部分是基于预测算法,当局应该向被告解释算法的细节,而不是仅仅解释为机器强制做出的决定。

这将要求算法本身是透明的,以便警察、检察官和法官了解导致算法决定的因素,并要求当局做出额外努力,向被告努力解释这些因素,这种额外的努力也将有助于建立信任,这是另一个程序公正实现所需要的至关重要的因素。

在程序正义领域,信赖可以通过两种方式建立。

第一种方式是:参与者可以感受到与决策者的个人联系。

例如,参与者可能认为决策者与参与者来自同一个群体。

第二种方式是:决策者能够清晰透彻地解释自己的决策。

大数据算法很少会依靠个人连接来获得可信度,因为大多数被告不会感觉到与计算机程序有任何亲缘关系。

因此,想要实现算法体系的程序正义,必须使被告能够理解推算原理并支持预测算法。

与人际尊重因素一样,对于预测算法来说,这个因素比人类决策者更难实现。

“心理理论”(theory of mind)的概念①揭示了人类如何理解心理状态,从而理解他人的决定和行为。

因此,只有当刑事被告理解并证明算法达到了它的决定时,它才会显得可信。

这将意味着人类决策者需要向被告解释算法背后的推理,这反过来意味着人类决策者必须能够理解算法是如何工作的。

因此,与人际尊重和中立因素一样,算法的更大透明度对于确保被告相信程序是公平的至关重要。

(二)坚持算法中立
预测算法对于提高决策者的实际中立性和感知中立性具有良好的应用效果,因为算法的每一个决策都遵循相同的规则[9]。

然而,正如本文第一部分所讨论的,预测算法目前在我国刑事司法领域的应用依旧面临着巨大的挑战,我们在运用该项技术的同时也在不断深化固有的歧视与偏见。

社会中的特定群体更有可能因其犯罪前科、经济状况、甚至是性别而被定罪。

一个算法判决若将犯罪前科、自身经济状况、性别等作为定罪量刑的关键数据,将加剧现有的不平等,破坏法律所追求的中立性。

以美国的一项数据调查为例,即使算法避免使用前科或者种族作为确定行为风险的因素,其结果仍可能对黑人被告产生一定的影响。

事实上,对这些预测算法最常见的批评是,他们预测黑人被告比白人被告有更高的累犯率,COMPAS算法评估数千
名被告的风险得分,结果显示,黑人被告的假阳性率是白人被告的两倍[10]。

评估预测算法中立性的部分问题在于,不同的人可能对什么是“中立”有不同的定义。

在风险评分相同的被告中,黑人被告和白人被告的实际累犯率是相同的。

这有力地证明了算法是“中立的”,因为它的结果在种族间是相同的。

然而,由于黑人被告的总体累犯率确实是高于白人被告,因此从统计学上说,若想为了在结果上保持所谓的“种族中立”,预测系统就必须进行“调整”,对黑人的误报率必须高于白人。

很难说这两个相互对立和不相容的价值观——结果“中立”与相同的假阳性率——是如何转化为程序正义的。

从实质正义上讲,中立的结果应该是最重要的因素,也就是说,必须使黑人被告相信,系统给定的预测分数是中立且平等的。

但基于假阳性率的差异,加上低收入水平或犯罪前科记录增加了其被告评估的风险得分,极有可能会导致黑人被告认为这些算法对他们的种族不“中立”,存在严重的种族歧视。

如前所述,实现真正中立决策的唯一方法是从预测算法中删除各种“标签”,或从人类决策者中删除所有隐含的偏见。

但前者一定比后者容易,因為从理论上讲,算法可以被编程来消除任何先前种族歧视所带来的因素。

例如,假设一项研究表明,黑人居民和白人居民犯下某种类型的罪行的频率相同,但由于制度上的不公平,黑人居民更有可能被判有罪。

因此,如果使用未经调整的先前定罪数字,黑人被告的累犯率将不准确(不公平)地高于白人。

一旦这一事实被证实,程序员就可以改变他们的算法来消除先前存在的不公平,对黑人被告来说,通过适当的数量来减少这一罪行的先前定罪的数量,或者对白人被告来说,通过适当的数量来增加先前定罪的数量。

这种调整可以针对记录了过去种族偏见的所有因素进行,并可以纳入各级决策过程,从确定逮捕的原因到选择量刑幅度,再到形成适当的判决。

即使我们可以相信每一位人类法官都知道这些先前存在的种族偏见的例子,即使我们可以相信每一位法官都会同情适当调整裁判的必要性,但任何人都不可能考虑到所有这些潜在的折扣,只有预测算法才能有效地做到这一点[11]。

因此,如果它们被设计得适当,预测算法至少有可能实现比人类更优的中立性。

(三)保障数据算料安全
数据算料作为预测算法刑事司法运用的基础性元素,对于预测算法的应用与普及起着根本性的支撑作用。

预测算法应用效果的好坏、分析研判结果的正确与否、侦控审各个环节的智能化开展都是与基础数据算料安全密切相关。

因此,保障数据算料安全是预测算法决策与运用的前提。

随着以大数据为基础的算法方式不断普及,相对应的数据安全问题所带来的风险也会与日俱增。

如果基于错误或是被篡改的数据进行算法分析,在刑事司法领域,很可能会造成严重的司法事故,延伸到智慧医疗、自动驾驶等民生领域,则会对人的生命安全造成重大威胁。

因此,推广预测算法在刑事司法中运用的首要任务就是针对数据的源头收集、过滤筛查、分门别类、应用落地、后期维护做好扁平化链条式的监管与保护,可以仿效区块链技术,对基础数据进行可溯源、不可篡改、条条上链的优化与改造。

与《数据安全法》《个人信息保护法》《网络安全法》相对接,保证数据收集、筛选、使用过程的透明度,将“公开”与“必要”“有限”原则相融合的基本宗旨贯彻始终。

对于数据的生成流程改造要求大致如此,但是不可忽视的是在自然人的操控环节同样要受到重视,通过上文美国COMPAS对于黑人与白人犯罪率的差异化分。

相关文档
最新文档