摘要:人工智能辅助量刑已在我国刑事司法中实现常态化应用,以达到统一量刑标准、确保量刑公正的预期目标。然而,其深度介入量刑裁判存在正当性风险,亟待构建符合法治原则的规制体系。对此,学术界提出了辅助司法论与算法正当程序论两种不同方案,但均存在一定局限,即不当赋予人工智能辅助量刑系统以裁判主体地位,忽视了辩方的程序参与权,以及缺乏证据裁判的制度空间。鉴于此,应当将人工智能辅助量刑纳入司法审查对象范畴,对其进行证据化改造以满足诉讼化和可裁判化的基本要求。具体路径可依托现行刑事诉讼制度框架,将人工智能辅助量刑建议作为专门性报告,从证据规则、举证主体、证据形成阶段、质证认证,以及司法责任承担五个方面进行规制。
关键词:人工智能辅助量刑;算法;审判权;证据;专门性报告
综观全球,人工智能正在全方位渗透到人类社会的各个领域,我国人工智能的司法应用已走在世界前列。在刑事司法中,量刑规范化改革和量刑建议制度的兴起,也蕴含着从传统司法走向智慧司法的结构转型动因。当前学术界关于人工智能辅助量刑的研究主要集中在人工智能辅助量刑的风险、人工智能辅助量刑的应用场景、人工智能辅助量刑的司法适用与法律规制等方面。鉴于人工智能在司法中的运用日趋深入,我们有必要思考人工智能辅助系统参与量刑是否正当?如果不正当,我们应如何规制?本文并不意图重复已有研究关于人工智能辅助量刑技术与法理缺陷的论证,而是还原刑事司法场景,提出并论证对人工智能辅助量刑进行证据化改造的基本观点,以期为实现合法、有效规制人工智能辅助量刑贡献初步的智识成果。
一、人工智能辅助量刑的实践逻辑与正当性风险
(一)人工智能辅助量刑司法应用现状
在司法实务中,根据开发主体的不同,可将人工智能辅助量刑系统区分为三类:第一类是国家层面统一规划开发的,适用于全国司法机关的法律人工智能。具有代表性的是全国检察机关统一业务应用系统、最高人民法院司法知识服务平台、“上海刑事案件智能辅助办案系统”(“206系统”)等;第二类是各地司法机关根据自身需求,自主与技术开发公司合作研发的系统,典型的有海南省人民法院量刑规范化智能辅助办案系统、湖北省人民检察院智能量刑辅助系统等;第三类是企业自主研发的人工智能法律服务平台,如“小包公”智能法律平台。
从功能聚合程度及系统预设目标来看,人工智能辅助量刑又可分为相对具有针对性的辅助量刑系统与涵盖辅助量刑功能在内的综合性辅助办案系统两类。前者是指围绕精准量刑、同案同判目标,整合类案推送、法律知识推送、量刑智能辅助、量刑偏离预警等功能构建的针对性较强的辅助量刑系统。后者则是建立了具备复合性功能的人工智能辅助办案系统,人工智能辅助量刑通常是该综合性办案系统中的子系统。
实践中,人民法院是人工智能辅助量刑的主要“消费者”。最高人民法院在2021年第一次网络安全和信息化领导小组会议上提出了“建设以司法数据中台和智慧法院大脑为核心的人民法院信息化4.0版”。目前,这一司法知识服务平台已集成包括规范量刑智能辅助、类案智能推送在内的33项优质服务,面向全国3470家人民法院累计服务超8亿次,服务能力覆盖100%的高级人民法院和中级人民法院,以及97%的基层人民法院。与此同时,检察机关也广泛运用人工智能辅助量刑系统确保量刑建议的精准化,并以此协助案件质量评查。例如,湖北省人民检察院自2018年以来,持续研发智慧刑检办案系统的子系统— —智能量刑辅助系统,2020年,该系统已经在湖北全省部署应用。该系统能够支持23个常见罪名的规范化量刑和60个罪名的大数据量刑,其中,对危险驾驶罪、故意伤害罪、贩卖毒品罪这3个罪名能够提供精准量刑建议。又如,贵州省人民检察院“智慧检务”系统通过建立案件“要素—证据—量刑”的关联模型,对案件风险、要素偏离度、量刑偏离度等方面进行全流程数字“画像”,分析并对比类案数据,为案件质量评查提供精准依据。
(二)人工智能辅助量刑的法理逻辑
人工智能辅助量刑的实践运用具有通过技术保障司法质量的逻辑基础,其根本目的在于通过有效力的量刑建议,弥补法官裁判中的不足,最终实现“同案同判”的精准化司法正义。
第一,从内容上看,人工智能辅助量刑提供的是有效力的量刑建议参考。实践中,人工智能辅助量刑的主要内容是类案智能推送和量刑建议参考。类案智能推送其实是为量刑建议提供正当性依据,而量刑建议参考是人工智能辅助量刑的最终结果。有学者认为,在科技崇拜的影响下,过度依赖量刑建议参考会削弱法官的主观能动性,致使其主动放弃量刑裁判权。人工智能辅助量刑的设立初衷就是为了合理限制法官的自由裁量权,避免法官的任意性。因此,如果无法形成对法官裁判权的约束,就难以实现其规范量刑裁判的目的。
第二,从正当性基础来看,人工智能辅助量刑具有“同案同判”的先天正义。在传统司法模式下,由于司法官员在数据掌握、研判和利用方面的“先天不足”,“同案同判”成为一个不断追求但难以企及的目标,但在大数据加持下的人工智能辅助量刑算法却能使“同案同判”具有现实可能。截至2018年,江苏省人民法院系统的“同案不同判预警平台”已经在盐城、南京、苏州等城市的两级人民法院系统共计50余家单位中部署,被超过350名法官使用,成功预警高偏离度案件120多起,总预警案件占总案件数量的3.3%,准确率达到92%。法官对辅助量刑算法结论的任何变更,都可能被视为对“同案同判”的违反,这就进一步限制了法官的量刑权。
第三,从系统逻辑上看,人工智能辅助量刑是为了弥补法官的能力缺陷。有研究认为,算法介入司法决策可能由于算法无法进行价值判断而导致法律适用上的差异;机器难以建立类似排除合理怀疑、内心确信的一般信念;人类的信念以及影响人类信念的各种因素被简化为数字,这削弱了人工智能介入司法的有效性。笔者赞同上述判断,但关键在于,如果人工智能介入司法的逻辑本来就是为了消除人的价值判断和个体因素对司法的影响;运用人工智能辅助司法本身是一种“结果思维”,即“我们不再关注人类如何做事,而是思考机器产出的判决结果是否能达到甚至超出人类法官标准,不必复制法官思考和推理的方式,而是发挥机器特有的能力(强大计算力、海量数据、高超算法)”,那么上述问题也就不再是问题。从这个意义上看,人工智能辅助量刑具有“代具化”的哲学意蕴,所谓“代具化”,就是认为人类可以创造工具弥补自身的不足。人工智能辅助量刑其实就是一种“非植入版”的“大脑芯片”,通过外设装置弥补“人类法官”量刑决策的不足。
第四,从使用目的上看,人工智能辅助量刑还有技术规训司法的目的。所谓技术规训司法,是指“决策者或司法管理者通过技术(包括大数据、人工智能等现代信息技术)将司法人员的思想、决策与行为,乃至个人荣誉、奖励或集体司法经验等都整合进科技系统当中,将法律规范的要求转化为技术可执行的标准,进而要求司法人员的决策与行为都按照特定技术标准设定展开。”人工智能辅助量刑为了实现约束法官自由裁量、弥补法官个性化量刑不足之目的,其最终功能还不止于成为事实上的审判主体之一,更为关键的是它能反过来评价、监督“人类法官”的审判权。例如,贵州省人民检察院运用“智慧检务”系统对全省人民检察院2016—2017年办理的1.4万余件故意伤害案件进行分析,发现并整改了要素偏离案件2332件、量刑偏离案件2395件、证据风险案件674件。
第五,从实践预期来看,人工智能辅助量刑具有“AI法官”的基本样态。左卫民教授指出,域外业已出现“AI法官”作出实质性司法决策的先例,但我国尚无相关实践。现实中,法官往往难以承受科技带来的正当性压力,但基于一贯存在的“科技至上”信念,法官对技术性意见和法庭科学的依赖程度也在不断加深。更加激进的观点认为,智能量刑算法完全胜任法官角色,而并非仅仅拘泥于“辅助人”角色。
(三)人工智能辅助量刑的司法正当性风险
学术界对于人工智能辅助量刑的缺陷分析已达成共识。在技术方面,“当前 AI 辅助量刑系统公正取向的困境主要体现在自然语义识别技术的精准化不足、算法歧视的缩小化机制不顺畅、类案推送的精细化不够,以及偏离预警的适应性不高四个方面。”算法黑箱也会造成正当程序的贬损。在法理方面,主要存在诉讼结构失衡、影响法官独立裁判、冲击司法裁判合法性、司法责任制失焦、新法定证据主义、颠覆审级制度、证据审查形式化等多方面的问题。
与此同时,尽管人工智能辅助司法具有缓解案多人少压力、司法赋能、弥补人脑不足和司法风险可视化等优点,但学术界普遍对人工智能过度干预审判权存在疑虑。既往研究主要从原理、技术和价值三个方面进行分析,认为在原理上,人工智能难以模仿“人类法官”进行思考;在技术上,现有人工智能技术尚无法实现裁判功能;同时,人工智能也难以还原人类情感,会削弱司法权的官方性、法定性和仪式性等。上下级人民法院共用一套量刑辅助系统冲击审级制度等程序性缺陷也被充分揭示。本文不再重复上述研究内容,转而以正当性为视角,审视人工智能辅助量刑参与审判的风险。
首先,无论是辅助还是参与审判,人工智能辅助量刑都缺乏宪法正当性。在人机协同的观念引导下,“法官不再是唯一的承担量刑工作的主体:随着人工智能介入量刑程序,量刑工作不再由法官‘垄断’,而是部分交由智能量刑辅助技术分担。”人工智能辅助量刑导致审判主体多元化,但没有进一步回答审判主体多元化是否符合宪法。《中华人民共和国宪法》(以下简称《宪法》)第131条明文规定:“人民法院依照法律规定独立行使审判权,不受行政机关、社会团体和个人的干涉”。人民法院行使审判权具有排他性,《宪法》并没有允许审判主体的多元化。况且,人工智能辅助量刑并非独立个体,若其辅助审判权行使,实质上相当于算法设计者、商业生产者、系统部署者都参与了审判工作,这种有悖《宪法》基本规范的实践不能成为我们研究一切人工智能辅助司法系统的前提。
其次,“同案同判”的正当性本身值得讨论。笔者曾经认为,拒斥“意义之网”和“地方性知识”的“同案同判”并不具有正当性,同时,“同案同判”的判断标准本身也是可疑的。笔者进一步认为,算法其实是通过司法大数据对类似案件处理意见的相同性来界定“同案同判”的。“同案同判”的逻辑在于具有相似要素的案件在统计学意义上的趋同性,即多数法官在类似案件中处理意见相同的概率,在此基础上,要求少数派法官向多数派法官靠拢。可问题在于,多数不意味着正确。况且,司法大数据是对司法实践的记录,而司法实践客观上存在错案可能,数据频率意义上的“同案同判”也可能是“一错再错”。因此,不能以适用某种具体规则的案件多寡或主张某种规则的司法官比重来判断案例规则的对错。所以,在案例规则层面,“同案同判”或“类案同判”的要求是欠妥当的,是违背司法规律的。
再次,人工智能辅助量刑的非准确性因缺乏辩论机制而难以被揭示和消除。依靠司法大数据为基础的量刑,只能提示量刑事实与量刑结果的相关性、概率性,而非因果性;同时,忽视了罪犯个体化因素的影响。算法预测应被视为概率,不具有准确性,这是至关重要的。事实上,大多数科学证据均存在上述问题,但在司法过程中可以通过控辩对抗机制将可能存在的佯谬予以揭示,同时在辩论中发现真实。然而,人工智能辅助量刑在司法实务中往往由法官、检察官单方生成并加以使用,缺乏控辩对抗与辩论的程序设计,其中的谬误难以得到有效揭示和消除。
最后,同样重要的是,弥补法官能力不足与监督司法也不能为人工智能辅助量刑参与审判提供正当性依据。由于人工智能辅助量刑算法生成时可能涵盖我国司法不同阶段的数据,这些司法大数据必然包含着人类过往的错误,因此,人工智能辅助量刑弥补法官审判能力不足的功能尚有待检验。即便人工智能辅助量刑系统可以弥补法官在数据掌握、思维广度、经验归纳方面的不足,也不足以论证其参与审判乃至监督司法的正当性。事实上,所有科学技术在司法中的运用都能弥补法官知识和能力上的缺陷。例如,DNA技术的引进极大弥补了法官对于亲子关系认定能力的不足,但是,我们会认为DNA技术可以享有亲子关系审判权进而规训司法吗?相反的是,司法恰恰要求将上述科学手段还原为证据,必须通过人类的举证、质证和认证方可成为裁判依据。人工智能辅助量刑的逻辑基础在于:法官缺乏量刑的能力,所以需要通过算法这一科学媒介,对量刑公正这一法律专业问题提供“鉴定”。但问题在于:其一,即便法官量刑能力不足,选择算法予以补足就一定是正当的吗?其二,人工智能辅助量刑如何能成为参与审判乃至规训司法的超级权力?事实上,由于法律的全面性和至上性,算法不可能成为法律,只能是法律针对的对象。同时,法律也不应当算法化,除非令人信服地证明“法律和算法是同类事物且算法比法律更好”。司法正当性的根源或许也不完全在于裁断准确性之一端,更在于由人类解决自身的纠纷,而不是由人类之外的其他主体主宰人类命运。
二、辅助司法论与算法正当程序论的局限
为实现对人工智能辅助司法的规制,学术界主要有两种不同的思路,即辅助司法论和算法正当程序论。二者的共同点在于肯定了某种程度上人工智能辅助量刑的量刑决策权,甚至认为人工智能辅助量刑本身就意味着裁判主体的更换,而这种裁判主体的更换,又会带来裁判主体的复数化,也将程序设计者和数据处理商引入司法决策之中。同时,二者共同坚持了“以司法规制算法”而非“以算法规制司法”的基本主张,它们的区别更多在于技术策略的不同,但均有局限。
(一)辅助司法论及其局限
笔者最初也是持辅助司法论的基本立场。辅助司法论具有如下规制内容:(1)人工智能辅助量刑系统不能僭越司法权,法官不得任由算法替代自己进行裁判;(2)不得强制性地要求司法机关及法官必须使用人工智能辅助量刑系统;(3)人工智能辅助量刑提供的仅是量刑建议,而非具有法定效力的裁判依据。辅助司法论正确地指出了对人工智能辅助量刑之于司法权的干预应予限制,但是,其局限在于仅仅提出了一种理念性的指导方针,没有提供具体可操作的实施方案。
首先,辅助的概念不具有规范上的可操作性。如果辅助司法论意图建构一套规制人工智能辅助量刑的规范,那么就必须保证“辅助”这一核心概念在规范上的明确性。事实上,“辅助”一词具有多义性,如果不从辅助范围、辅助深度和辅助效力三个层面对辅助司法论进行规范建构,那么辅助司法论就只是一种理念,而非规范。事实上,辅助办案与辅助裁判仅有一线之隔,所有庭审技术都具有辅助司法的功能。例如,庭审自动化记录、庭审多维示证技术、庭审数字化监督巡查等。如果这样宽泛地界定辅助,那么辅助司法论就等于什么也没说。问题的关键在于,人工智能辅助量刑究竟是一种工具辅助还是决策辅助?工具辅助是指将辅助主体视为一种工具,它只是为司法工作提供便利。如果人工智能辅助量刑仅是一种工具辅助,也就不存在前述所阐明的诸多问题。然而,目前量刑算法事实上承担着决策辅助功能,影响着法官心证的形成。辅助司法论的核心思想在于将人工智能辅助量刑从决策辅助转为工具辅助,然而,这必然包含着根本性的悖论:既然量刑是一种决策,而系统又是为了辅助量刑,它又怎么可能仅是工具辅助呢?几乎所有人工智能辅助司法系统都存在这样的矛盾:一方面希望它替代法官;另一方面又不能让它绝对替代法官。在强大的科学技术装置面前,法官有无可能反对人工智能?如果难以反对,则辅助必然成为决定。
其次,即便辅助角色得以确立,也无益于责任划分与承担。即使法官有勇气不采纳人工智能辅助量刑的建议,可一旦发生错误,是否应当追究法官责任?又或是法官采纳人工智能的量刑建议导致裁判出错,究竟追究何者之司法责任?追究责任的前提在于法官能够识别人工智能辅助量刑系统的风险,如果法官根本没有该能力,那么责任就不应由法官承担。辅助司法论其实暗含了人工智能辅助量刑系统司法责任的“豁免”。如果人工智能辅助量刑仅仅是辅助角色,真正的裁判主体仍是法官,那么对于辅助角色的辅助话语是否采纳完全在于法官,“谁决定、谁负责”,因此,司法责任应当由法官完全承担。于是,在法官无法识别算法风险,又暗含人工智能辅助司法责任豁免的情形下,法官的最优处理方式就是任由人工智能代替自己进行决策。这其实是一种错误概率的选择,毕竟人工智能是能够保证相当程度的准确性的;即便不准确,法官也无法有效识别,那么还不如全盘接受— —至少在不幸产生错误的时候,法官还能拉上人工智能系统这一“垫背的”。这样的责任划分与承担困境,进一步使人工智能辅助量刑系统的辅助定位难以落实。
最后,辅助司法论仅站在法官角度看问题,忽视了对控辩平等、庭审实质化的保障。有学者认为,人工智能“侵入”刑事司法会造成信息不对称,进而导致诉讼风险不确定。在实体方面,人工智能辅助量刑会强化报应刑和威慑刑,不当忽略教育刑的人道价值。技术公司的商业机密特免权导致刑事诉讼当事人难以获知算法信息,这就进一步阻碍了辩方对量刑信息的获取,以及针对量刑的辩护的开展。此外,目前人工智能辅助量刑的启动权完全掌握在检察机关和人民法院“手中”,当事人不仅没有能力获知人工智能辅助量刑的信息,就连是否启动人工智能辅助量刑、能否自行使用人工智能系统提供有利于辩方的量刑建议都缺乏规范支撑。于是,“诉讼参与人更像是司法大数据技术的被适用者,只能被迫接受嵌入司法机关意志与规则设计的应用系统,处于较为弱势的赋权地位,不可避免地沦为技术赋权场域的弱势群体。”至少在量刑程序中,针对量刑的辩护会被极大削弱,针对量刑的庭审难以实质化,鉴于此,人工智能无助于实现审判中心主义,也无助于保障控辩平等。
(二)算法正当程序论及其局限
由于辅助司法论的可行性论证不足,当下更具理论影响力的规制进路是算法正当程序论,亦可称为技术正当程序论。算法正当程序论是在承认人工智能已经享有部分司法权的基础上提出的规制方案。算法正当程序论认为现有正当程序理论已经不足以应对人工智能的挑战。首先,量刑主体的参与性难以实现,被追诉人选择人工智能量刑的自愿性难以保证。其次,在诉讼程序上,算法偏见、数据偏差影响裁判中立;算法黑箱、商业秘密保障影响程序公开;算法垄断、数据鸿沟影响程序对等。最后,在可问责性上,算法结果不受监督冲击了公正原则。另有研究从技术角度论证了传统正当程序理论在人工智能时代的应对乏力:(1)对数字时代的虚拟审判空间规制不足;(2)机器、技术人员、AI生产商、系统部署者等司法实质参与者被忽略;(3)数字化程序规则阙如;(4)上述问题导致裁判可接受性下降。因应上述传统正当程序理论的不足,算法正当程序论建构了一套系统性的“技术性程序正义理论”,该理论强调人工智能司法技术的透明性、准确性、参与性和可问责性。总体上看,算法正当程序论实现了对辅助司法论的超越,部分应对方案具有可行性,但问题在于,它是否构成了对传统正当程序理论的超越?换言之,它是否是“新瓶装旧酒”?
首先,算法正当程序论的实质要求在于算法的可审查性,但这并不必然属于新的正当程序理论。有研究指出,人工智能辅助量刑的算法正当程序,就是要求实现对算法的诉讼化改造。具体而言,就是要设置:(1)被追诉人自愿选择权;(2)类案量刑信息大数据审查权;(3)算法解释、发表意见、质证等实质性参与权;(4)AI辅助退出申请权。本文完全同意上述诉讼化改造方案,可问题在于这是否形成了一种全新的诉讼内容,进而需要用全新的正当程序论予以规制?事实上,正当程序理论面向的是审判程序与构造,而非审判对象。换言之,是否构成对传统正当程序理论的冲击,关键在于新生诉讼现象是否冲击了现有审判程序和构造,而不是以是否出现了新的审判对象和内容为判断标准。以鉴定为例,它的出现同样为刑事审判提供了新的对象与内容,如新的多元主体参与(鉴定人、鉴定机构)、新的自愿性判断(当事人是否自愿选择)、新的诉讼风险(鉴定的科学性和鉴定的神秘性)、新的诉讼不对等(辩方难以有效应对鉴定质证),但法学理论并未因此建构一套“鉴定正当程序理论”,因为现有诉讼结构和方式完全可以实现对鉴定的裁判。相反,在认罪认罚从宽程序中,尽管审判对象和内容没有发生改变,但由于控辩结构、辩审结构发生了重大改变,因此,学术界提出了“协商式程序正义”等新理论。由此可见,仅以算法属于全新的审判对象和内容为由论证算法程序正义理论的必要性,显有不足。
其次,算法正当程序论对算法的正义要求可以通过现有科学证据审查规则实现。所谓算法的正义,就是指作为技术的算法如何保证其生成上的准确性、稳定性。算法正当程序论中的原理公开、技术透明的要求其实针对的是算法的正义而非程序的正义。可问题在于,司法是否需要审查算法的正义?如果需要,这种审查需要达到什么程度?司法对科学证据专业性、科学性的要求从来没有达到真理的高度,而只需要科学证据的提出者对使用的科学技术做出铺垫性证明,足以使一个持怀疑态度的理性主义者确信其准确性即可。因此,在现有条件下,对算法自身科学性的审查完全可以通过对科学证据的审查实现,即将算法作为科学证据之原理对待,要求人工智能辅助量刑建议的提出者、使用者对该算法的科学性做出铺垫性证明即可;算法正当程序论对原理公开、技术透明的要求并未超出现有科学证据的审查规则范畴。
再次,算法正当程序论中关于对算法在司法审判中的程序正义要求也未超出现有程序正义范畴。前述人工智能、算法在审判中的程序正义核心要求就是:一方面,避免秘密使用人工智能辅助量刑;另一方面,避免人工智能辅助量刑成为不可质疑的对象,防止量刑建议成为“新法定证据”。然而,这一规制方案也并未体现出“新”在何处。当下刑事审判中对科学证据的审查完全是遵循上述要求进行的。申言之,当事人对人工智能辅助量刑系统使用的知悉权是司法公开、自愿性保障的必然要求;人工智能辅助量刑建议可质疑、可听证又是证据裁判、控辩对抗的必然要求。算法正当程序论针对算法及其衍生意见、信息的程序规定其实也是模仿传统正当程序理论设计的。相较于传统正当程序理论而言,算法正当程序论的规制思路没变,变的只是规制对象而已。
最后,算法正当程序论一直在规制算法裁判和规制算法被裁判之间摇摆。学者提出算法正当程序论的初衷其实是为了规制算法裁判。例如,在论及为何需要用程序正义理论规制人工智能时,有观点认为这是维护人类尊严和司法公信力的需要;在批评人工智能司法运用时,亦有学者指出人工智能会破坏司法亲历性。有研究认为应当建立算法量刑说理机制,更细致的设计还包括量刑算法只应适用于可能判处3年以下有期徒刑的轻罪案件,同时应强化人工智能辅助量刑的裁判文书说理等。从以上论述可以看出,算法正当程序论其实是把算法当作了量刑裁判主体,要求其必须强化审判公信力、正当性、说理性等。但是,算法正当程序论又要求算法可质疑、可听证,似乎又将算法当作被审查对象对待,其制度安排又是以证据开示、证据质证、证据裁判为原型展开的。这体现出算法正当程序论本身固有的重大缺陷,即没有对算法享有司法权进行正当性论证,因此,在以正当程序规制算法时就产生了究竟是将其视为审判主体进行规制,还是作为被审查对象进行规制的犹豫。这种犹豫对于一项旨在证立的理论而言是致命的,但对于学术的推进却是有益的。它启发我们,将人工智能辅助量刑还原为可被裁判的对象,并利用现有证据规则予以规制,方可实现人工智能辅助量刑的程序正义。
三、人工智能辅助量刑的证据化改造
为实现对人工智能辅助量刑的正当性、合理性规制,需要将人工智能辅助量刑还原为被审查对象,纳入既有刑事诉讼规范体系,进行证据化改造。具体而言,就是将人工智能辅助量刑报告定位为诉讼证据,接受诉讼“两造”举证、质证和法庭审查认证。
(一)规制目标
证据化改造的根本目标,就是将人工智能辅助量刑还原为被审查对象,供控辩双方质证,同时,法官对其心证之产生,必须受到证据裁判规则的约束。需要注意的是,算法正当程序论也强调算法的可审查性,但这与证据化改造中的将人工智能辅助量刑作为司法审查对象有所不同。其一,算法的可审查性侧重于从知识层面对人工智能辅助量刑建议的审查,是一种实质性的证明力审查;而证据化改造的司法审查强调对人工智能辅助量刑的全面审查,既包括对生成原理、技术保障层面的证明力审查,也强调对人工智能技术主体准入、建议公开透明、控辩平等质证等进行程序性审查。其二,算法正当程序论是将人工智能辅助量刑建议作为独特的对象展开研究并进行法律规制,但笔者认为没有必要另辟蹊径,可将人工智能辅助量刑建议纳入现有证据法体系进行审查。其三,算法正当程序论是将算法作为裁判主体,对其辅助裁判行为进行程序性规制;而证据化改造则是将人工智能辅助量刑转化为被裁判对象,并对控辩“两造”如何质证和法官如何认证进行规制。
(二)规制原则
对人工智能辅助量刑的规制应当遵循科技包容性和可裁判性两个基本原则。所谓科技包容性原则,是指应当对人工智能、算法等辅助司法的科学技术采取与时俱进、适度宽松的准入态度。不应否认人工智能辅助司法带来的巨大红利,对人工智能辅助量刑的规制不是为了“削弱”它、“扼杀”它,而是为了使其更加稳健地发展。首先,司法应当与科技发展同频共振,对司法和科技的互动应当持肯定、善意的基本立场。其次,人工智能辅助司法系统的运用应当确保其成熟性、安全性,不应在司法活动中进行科技产品测试、检验。司法机关不得使用未经测试和检验的人工智能产品,司法不是科技公司的“试验田”。最后,法律对人工智能、算法的规制不是为了限制科技的发展,而是为了让科技在规则中有序适用。
所谓可裁判性原则,是指对人工智能辅助量刑系统而言,不能将其作为裁判主体,不能赋予其实质性的审判权。是否采纳人工智能辅助量刑的建议,应当由法官裁断。可裁判性是人工智能辅助量刑正当性的基本保证,尤其在我国,在以审判为中心的刑事诉讼构造尚处于“正在发生”阶段时,贸然引入人工智能这一“超级法官”有可能带来审判功能和情境的异化。将包括人工智能辅助量刑系统在内的所有辅助司法系统纳入被审查对象范畴予以规制并接受诉讼检验,是目前相对较优的选择。
(三)证据法体系纳入
对人工智能辅助量刑进行有效的法律规制并不需要“另起炉灶”,现有法律制度已经能够实现,打开“规制大门”的钥匙就在于将人工智能辅助量刑形成的相关材料重构为有专门知识的人提供的专门性报告。
作为称谓的“有专门知识的人”首次出现在1979年《中华人民共和国刑事诉讼法》(以下简称《刑事诉讼法》)中,2012年《刑事诉讼法》修改时对这个概念进行了充实和革新。最初,有专门知识的人被定位为当事人聘请的专门针对鉴定意见进行质证的专业辅助力量。有学者认为,有专门知识的人仅是对鉴定的辅助质证人员。不过,司法实践中存在悖论:一方面,强调有专门知识的人的意见不是证据,而是鉴定意见的辅助认定;另一方面,又将有专门知识的人的意见与鉴定意见混同,适用共同的程序规则。鉴于此,2021年《最高人民法院关于适用〈中华人民共和国刑事诉讼法〉的解释》第100条第1款规定:“因无鉴定机构,或者根据法律、司法解释的规定,指派、聘请有专门知识的人就案件的专门性问题出具的报告,可以作为证据使用”。这一规定明确了有专门知识的人出具的专门性报告可以独立作为证据使用,同时,在该条第2款中进一步规定了专门性报告参照鉴定意见的相关规定予以适用。
从制度构造上看,有专门知识的人出具专门性报告有三个基本要件:鉴定例外、专门知识和专门性问题。其一,专门性报告与鉴定意见不可竞合适用。专门性报告只能在该专门性问题没有对应鉴定机构或难以进行鉴定的情况下方可提出并使用。其二,必须使用专门知识。有别于证人证言,对于一般人能够通过感官、社会经验、常识进行判断的问题,没有出具专门性报告的必要。其三,必须针对专门性问题出具报告,不得超越专门性问题的范畴出具报告。
人工智能辅助量刑建议应当被纳入不脱离于鉴定人的专门性报告的制度体系之中。首先,量刑问题没有鉴定可能,但可以成为专门性问题。现代司法的一个基本预设在于法官是法律问题的最权威解释者,这就意味着对于纯粹的法律问题,法官就是最佳“鉴定人”。有争议的是,量刑可否成为专门性问题?从表面上看,量刑是法律判断而非事实判断。然而,现代刑罚理念并不认为量刑是一个单纯的法律适用问题,还要考虑被追诉人改造难度、教育可能、社会复归等事实因素,故存在事实判断的内容。在司法实践中,也存在以往认为是法律判断的内容,但却因其复杂性而需要鉴定或出具专门性报告的情形。例如“快播案”中对于“淫秽”的判断就产生了是否需要,以及是否可以鉴定的问题。这是因为:一方面,“法律本身的不确定性为法律专家进行法律解释留出了空间”;另一方面,在社会因素衡量上又常常需要超越法律对犯罪进行细致分析。纵博教授认为,是否具有必要性是判断专门性报告关联性的重要方面,而对于必要性的判断就是看该专门性报告是否包含了普通人没有的知识,以及是否对裁判者有帮助。人工智能辅助量刑不同于法官量刑,它是基于全方位的大数据掌握,利用复合性算法进行的量刑。从这个角度看,人工智能辅助量刑中的大数据使用和算法生成包含了普通人没有的知识,其做出的量刑建议对裁判者助益很大。如果认可专门性问题不仅仅是自然科学技术问题,也包括人文社会科学知识的观点,那么就不得不承认,利用这些人文社会科学知识做出的量刑建议具有专门性报告的基本属性。
其次,人工智能辅助量刑系统可以“成为”有专门知识的人。如果将人工智能辅助量刑建议定位为专门性报告,那么人工智能辅助量刑系统就相当于有专门知识的人。这面临着是否可以将人工智能视为诉讼参与人的问题,限于本文主题,这一问题无法进一步展开,但至少可以肯定的是,应当对专家资格构建更具包容性的审查标准。这种包容性既体现在对于专门知识的包容性上,不需要过分要求专门知识的深奥性和真理性;也体现在有专门知识的人的形式标准上,即“人”是对提供专门性报告主体的概称,意指专门性报告须由可独立思考的主体做出,并不一定必然是“人类”。将人工智能辅助量刑系统作为有专门知识的人对待,并未超出现有人工智能辅助司法研究的基本共识。
最后,将人工智能辅助量刑建议作为专门性报告并予以适用有利于法官获取量刑信息,进而有助于法官准确量刑。人工智能辅助量刑系统可以在很大程度上保障量刑结果的准确和可靠。法官通过人工智能辅助量刑报告可以获取更加全面的量刑信息以确保量刑裁判的公正性,这与法庭使用专门性报告以确保审判信息多元、全面和准确的功能预期相契合。
综上,人工智能辅助量刑建议可以纳入现有专门性报告制度之中。人工智能辅助量刑系统提出的量刑建议是针对量刑专门性问题的专门性报告,可称为“人工智能辅助量刑报告”。
(四)具体规则
明确了人工智能辅助量刑建议的专门性报告定位,就可以展开具体规则的构建。其中包括证据规则、举证主体、形成阶段、质证认证与司法责任承担五个方面。
1.人工智能辅助量刑报告的证据规则
(1)证据生成的准入资格
能够获准进入刑事诉讼的必然只应是那些精心设计、严密测试、原理可靠、数据可信、结论准确的辅助量刑产品。为确保上述基本条件的审查,建议司法行政机关设置人工智能辅助司法系统的审查部门,由司法行政机关、国家标准化管理部门会同最高人民法院、最高人民检察院共同制定包括人工智能辅助量刑在内的所有辅助司法系统的国家标准,只有满足标准的人工智能辅助司法产品才可以进入司法活动之中。当然,有专门知识的人不必与鉴定人的准入资格一致。在规定人工智能辅助量刑系统准入资格时,避免以绝对准确量刑为判断标准,而应以概率上的预测准确度作为标准。同时,还要建立“黑名单制度”,即对被当事人大量质疑且法官采纳率明显过低的人工智能辅助量刑系统应当除名,不得在庭审中使用。设计、生产、部署“黑名单”中人工智能辅助量刑系统的商业机构或科技组织,在一定时间内不得向司法机关和当事人提供相关产品,使用不符合国家标准或“黑名单”上的系统生成的人工智能辅助量刑报告,在庭审时应当予以排除。
(2)人工智能辅助量刑报告的开示与自愿性保障
当下,人工智能辅助量刑缺乏透明性,严重损害了刑事被追诉人的知情权和程序选择权。故此,无论是控方作出的还是辩方提供的人工智能辅助量刑报告,一律应当公开。可以考虑在庭前会议中增加“应当公开人工智能辅助量刑报告”这一规定,让控辩双方均可在庭审前获知对方提供的人工智能辅助量刑报告信息,避免“算法突袭”。在开示人工智能辅助量刑报告时需要注意,尽可能降低被开示方阅览该报告时的资源和知识负担,不得直接开示“裸”的数据和程序代码,必须以可理解、可视化的方式开示,既要公开报告内容、依据和结论,也要公开技术原理信息。
应当明确,人工智能辅助量刑不是刑事诉讼的“必选项”。一方面,这是司法权独立行使原则的必然要求,司法机关必须同科技机构、商业公司保持必要距离,不得强制司法机关进行人工智能“消费”;另一方面,这也是保障被追诉人自愿性的要求。具体来看,在刑事诉讼中是否使用人工智能辅助量刑系统应当告知被追诉人及其辩护人,并征求他们的意见。另外,被追诉人也有权自行选择人工智能辅助量刑系统进行量刑辩护。
2.人工智能辅助量刑报告的举证主体
(1)控方举证义务
量刑裁判中的证明一般采自由证明模式,依据“谁主张、谁举证”的一般举证规则,应由控方承担提出人工智能辅助量刑报告以证明量刑事实成立和量刑意见正确的举证责任。由于人工智能辅助量刑报告的特殊性,除举示出该报告本身外,控方还应承担人工智能辅助量刑系统原理的披露义务。尽管以目前的技术而言还难以有效解决算法黑箱问题,但并不意味着人工智能辅助量刑系统全部技术原理不可披露。首先,算法生成的过程应当披露。例如,构建算法的数学、计算科学等科学原理,以及算法生成所使用的技术装备应当予以披露。其次,算法所依据的大数据情况应当披露。从源头上确保算法生成的可靠性,避免错误数据“污染”算法。最后,应当将原理披露作为阅卷权内容之一加以保障,确保实现对技术本身的“阅卷”。尤其需要注意,大数据整合进司法裁判时,需要排除系统设计者、使用者计算偏差和主观控制可能。由于人工智能在刑事证明中的主要程序性挑战在于算法公开、算法评估和使用者培训三个方面,因此,人工智能辅助量刑系统的设计者、生产者和部署者也应当对算法原理性信息予以披露,为诉讼各方合理评估人工智能辅助量刑报告的准确性提供支持。
(2)辩方举证权利
除控方可以提出人工智能辅助量刑报告以支撑量刑建议外,辩方也可以举证反驳控方量刑意见以求得更轻的刑罚,这是辩方的举证权利而非义务,因此,需要改变当前司法机关垄断人工智能辅助量刑的局面。人工智能辅助量刑系统应当向全社会开放,类似私主体化的鉴定机构,可以向被追诉人、被害人提供量刑预测和建议服务。这样还能显著拓宽相关科技机构的业务范围,增加商业收入,提高研发动力,形成良性循环。由于专门性报告参照鉴定意见进行规制,因此,对于控方提出的人工智能辅助量刑报告,辩方可以通过自行选择的人工智能量刑系统提供反驳性专门性报告予以反驳,或者申请重新作出辅助量刑报告。
(3)禁止法官单方主动使用
必须明确的是,根据证据法原理,法官不是证明主体,不承担任何证明责任。为实现人工智能辅助量刑的证据化改造,人民法院应当仅作为人工智能辅助量刑报告的审查机构,而非生成机构。因此,本文认为应当全面取消人民法院内的人工智能辅助量刑系统,法官不得主动使用相关技术产品辅助办案。法官应还原为中立、消极的裁判者,将人工智能辅助量刑报告作为证据看待,不预设专门性报告天然的证明力,也不在没有质证、审查的基础上主动使用辅助量刑报告。是否采纳,以及在多大程度上采纳人工智能辅助量刑报告的意见,应当由法官在法庭审理过程中根据庭审情况形成心证。法官也可以部分认可人工智能辅助量刑报告的意见,通过对相关量刑报告的编辑、校准功能保留司法自由裁量权。此外,法官对人工智能辅助量刑报告的心证应当在裁判文书中加以阐释,法官不能因其科学证据属性而放弃对该专门性报告的实质审查,不得使人工智能辅助量刑系统与其设计者、使用者等成为事实上的“影子法官”。
3.人工智能辅助量刑报告的形成阶段
对人工智能辅助量刑报告进行证据化改造的关键在于禁止法官主动生成并使用该报告作出司法决策。因此,应当在审前阶段由控辩双方生成人工智能辅助量刑报告。具体而言,检察机关应在提起公诉前,通过委托聘任方式,选取符合条件的人工智能辅助量刑系统生成专门性报告,并依照前述证据开示规则,告知被追诉人及其辩护人并披露相关技术信息。检察机关在向人民法院提起公诉时,应将人工智能辅助量刑报告作为随案证据移送人民法院。辩方若意图使用人工智能辅助量刑报告,也应在开庭前向人民法院提交。需要注意的是,在庭审时控辩双方可以要求补充或重新作出人工智能辅助量刑报告。因此,在控辩一方对人工智能辅助量刑报告的准确性、可靠性有异议,法庭认为有必要补充报告或重新作出报告时,也可以在审判阶段委托、聘任原有或新的人工智能辅助量刑系统方补充原报告或生成新报告,并重新组织质证。法庭不得自行生成人工智能辅助量刑报告,也不得在未经控辩双方质证的基础上径行采信人工智能辅助量刑报告。
4.人工智能辅助量刑报告的质证与认证
人工智能辅助量刑可裁判性的要点在于真正实现有效质证,使任何影响法官心证的因素都得到庭审质证和司法审查。为实现有效质证,控辩双方还可以另行申请有专门知识的人出庭,针对人工智能辅助量刑报告这一专门性报告进行质证。该有专门知识的人及公诉人、律师可以围绕人工智能辅助量刑报告的原理科学性、数据可靠性、法理正当性、报告明确性等内容展开质证。与此同时,如果控辨双方对上述事项有异议,需要人工智能辅助量刑系统的设计者、生产者、部署者出庭说明情况,且人民法院认为有必要的,应当要求上述人员出庭接受质询,如果没有正当理由拒不出庭,该人工智能辅助量刑报告应予排除,不得作为法官量刑时的参考。
法官在认证人工智能辅助量刑报告时应主要从两个方面进行审查。其一,审查人工智能辅助量刑系统的可靠性和科学性。当然,法官对算法技术未必了解,因此,目前可以考虑主要从形式上进行审查,即审查生成报告的算法系统是否满足前述准入条件。如果在审理过程中,通过控辩质证可以明确算法系统不具有可靠性或科学性,也可以直接排除该辅助量刑报告。其二,审查人工智能辅助量刑报告的程序正当性,即是否满足前述自愿选择、知情告知、报告开示的程序性要求。与此同时,在裁判文书中也应载明本案是否使用人工智能辅助量刑系统,如果使用,还需要公开法官对于该辅助量刑报告的认证情况并予以裁判说理。
5.人工智能辅助量刑报告的司法责任承担
将人工智能辅助量刑报告作为证据纳入刑事诉讼中后,由谁承担司法责任这一问题便迎刃而解。首先,法官是量刑的第一责任人。人工智能辅助量刑报告仅作为证据进入庭审,法官享有对其采纳与不采纳的权力。法官是否承担司法责任应当以其量刑是否正确为标准,而不应以其是否采纳人工智能辅助量刑报告为基准。其次,人工智能辅助量刑系统被视为有专门知识的人,如果出具的量刑报告误导法官作出错误裁判,也应承担相应责任。在责任承担方式上可采取强制退出、列入“黑名单”等形式。最后,出具低质量或错误人工智能辅助量刑报告的系统设计者、生产者、部署者不承担司法责任,但应当承担相应的产品质量责任。如果在设计、生产、部署人工智能辅助量刑系统时故意或严重不负责任导致量刑报告错误,造成重大影响的,可以追究相关人员的刑事责任。
四、结语
基于技术、法理和正当性等方面的综合判断,目前人工智能辅助量刑不应被界定为深度辅助法官裁判的工具,而应还原为被审查的对象。对此,学术界提出的辅助司法论和算法正当程序论的规制策略均存在不足。本文的核心主张在于将人工智能辅助量刑作为被审查的对象纳入刑事审判程序,从而扬弃辅助司法论、算法正当程序论所构筑的将人工智能辅助量刑作为事实上享有审判权的主体的理论模型。当然,本项研究并不是对辅助司法论和算法正当程序论的全盘否定,而是基于“弱人工智能”的现实,坚持“不可过度信赖人工智能参与司法”的立场,强调运用现有规范资源,将人工智能从审判主体转化为被审查的对象,使其接受审判程序的审视及控辩对抗的检验。
来源:《现代法学》2025年第2期