随着科技的进步,人工智能发展进入了新的阶段。新时代人工智能呈现出深度学习、跨界融合、人机协同等特征,而司法人工智能就是人工智能深入发展的一个重要领域。2016年出台的《国家信息化发展战略纲要》提出了建设智慧法院的要求,要提高案件受理、审判、执行、监督等各环节信息化水平,推动执法司法信息公开,促进司法公平正义;《人民法院信息化建设五年发展规划(2016—2020)》则更为具体地从“全面覆盖、移动互联、跨界融合、深度应用、透明便民、安全可控”等几个方面对建设人民法院信息化3.0版提出了要求;2017年出台的《新一代人工智能发展规划》则更为全面地提出了要建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,通过司法人工智能建设,实现法院审判体系和审判能力智能化。2019年出台的《最高人民法院关于深化人民法院司法体制综合配套改革的意见——人民法院第五个五年改革纲要(2019-2023)》深入提出,要全面推进智慧法院建设;推动建立跨部门大数据办案平台,促进语音识别、远程视频、智能辅助、电子卷宗等科技创新手段深度运用,有序扩大电子诉讼覆盖范围,推动实现审判方式、诉讼制度与互联网技术深度融合,构建中国特色社会主义现代化智慧法院应用体系。然而,人工智能在什么情况下会促进法治的实现,这是一个值得认真思考的问题。这种问题的提出不仅反映了人们对法治社会的向往,还反映出人们对构建法治社会方法创新的迫切希望。但是,人工智能能否堪此大任?它有哪些局限性不应忽视?本文将对此展开分析。
一、良法并非算法公正是法治社会的体现,而什么是法治,最经典的回答就是亚里士多德在《政治学》中的表述,即“已成立的法律获得普遍的服从,而大家所服从的法律又应该本身是制订得良好的法律”[1]。法律是否获得普遍服从是个事实层面的问题,法律本身是否是良法则涉及价值层面的问题。那么,如果人工智能能够解决良法的问题,才能说它很有可能实现法治,但事实并非当然如此。因为人工智能的本质就是一套计算机科学中的程序,所谓程序,瑞士计算机科学家尼古拉斯·沃斯于1976年提出了一个著名的定义,即程序=算法+数据结构。而算法则是程序的关键,数据结构为算法服务。所谓算法(Algorithm),美国计算机科学家、算法和程序设计技术的先驱者唐纳德·克努特认为,它就是一个有穷规则的集合,这些规则给出求解特定类型问题的运算序列[2]4。那么这种有穷性的运算序列集合能解决良法问题进而实现公正吗?笔者认为不能,原因如下。
(一) 良法是个实践问题法律是否良善不只是一个形而上的思辨问题,更是一个实践问题。法律内容如何规定才适当,这与社会发展密切相关,虽然无论在形式层面还是宏观层面上,法律应当具备哪些要素,应当遵循哪些原则,法学界已基本达成共识:前者如法律应当公开,不应当溯及既往等,后者如法律要限制权力滥用、保障人权等;但这些还只是良法的必要条件,如果要真正实现良法,良法的充分条件也是应当探究的,而这就涉及到实践的哲学。正如历史唯物主义认为的那样,全部社会生活在本质上是实践的,问题不在于解释世界而在于改变世界。人类的社会生活不是一个脱离感性生活的精神的自我运动,而是一种具有对象性(gegenständliche)的活动,马克思深刻指出:“人的思维是否具有客观的真理性,这不是一个理论的问题,而是一个实践的问题。”[3]实践就是人们在一定客观条件制约的基础上,不断完善改进的活动,是人类主体与客观世界的内在与外在的辩证运动,既是内在性的外化也是外在性的内化,既是认识也是行动[4]。然而,这并不意味着原地打转,而是既是重复也是创造,人不断地自我重复同时也通过自我创造本身而不停地革新[5]。人类的实践是一种带有总体性的意识与物质相互影响的一个未完成的、不断超越的活动。
然而,算法这种有穷规则的集合只不过是一个已完成的人类经验的累积,只不过采用了新型的处理模式而记录得更加全面。但从哲学层面看,这仍只不过是人类已经创造出的物质条件的束集,而这种物质性的因素本身并不能决定人类的发展方向,否则这就无异于18世纪的机械唯物主义决定论了。然而,马克思主义的实践哲学不是庸俗的物质决定论,在面临如何制定良法的问题时,现有物质条件并不能当然地给出结论,仍需要人类主观的探索,虽然这种探索是在一定的现有条件的框架下进行的,但并不因此就丧失重要性。所以,算法这种新型的物质条件并不因为其采取了电子化的形式而改变其本质,它无法代替人类在历史中的主体地位,公正与否是一个应当在实践中解决的问题,美国法学家波斯纳认为,实践理性就像一个杂货箱,里面有掌故、内省、想象、常识、设身处地、动机考察、言说者的权威、隐喻、类推、先例、习惯、记忆、经理、直觉以及归纳,就法律而言,实践理性的特殊意义在于,它可以高度肯定地回答一些伦理问题[6]。所以,面对社会条件的变化,算法无法作出恰当的判断。因为物质条件本身并不会自动地产生实践,它仅仅是作为实践的一个场域,在人类对象化的过程中作为约束条件,既促进又阻碍地与人类社会的发展发生联系。即便从积极方面来讲,外部物质条件对人的助力也不是有目的的操控,而只是在宏观层面为人的对象化创造了条件。从历史唯物主义角度看,算法这种人类社会发展一定时期的科技产物,其本身无法脱离开人类而独自决定历史的发展。那么,就作为物质条件而言,算法本身无法成为实践的主体,进而无法实现良法的制定。
(二) 良法需要价值评判良法的制定从哲学的层面看是实践问题,但在实践过程中,良法与人类在面对选择时需要做的价值评判分不开。也可以进一步说,良法的制定是人类价值评判的结果。法律是一种社会科学,而社会科学与自然科学有着不同的逻辑基础。二者在认知对象、使用工具、研究方法上均有各自独特之处。大体而言,社会科学强调对意义的探寻,强调对“善”的认识及其实现,而这就无可避免地涉及价值判断。甚至韦伯更为激进地认为,正是因为人们相信终极价值观念的超验性,经验知识才得以获得范畴上的整理进而为人类把握[7]。虽然超验性的价值观并不存在,但韦伯表达出的相对于自然科学的研究,社会科学研究的独特性在于其与价值判断存在密切联系的观点还是很中肯的。而在与价值判断关联更为密切的人文科学,相关研究也不是只停留在对象层面的分析观察,而是一种心智活动的发生,这不是一个简单的流水账,而是一种不断更新开始而又从来不能达到确定目标的行动[8]173-174。简言之,人文科学的逻辑就是去诠释符号,揭示出隐藏于其中的意义,把源自符号中的生命展现出来,教导人类[8]138。法律是人类文化特有的符号,如何将法律制定好,这是自然科学追求“真”的研究方法所不能涵盖的,而是需要与之不同的认知方式来确定。价值判断得以发生就是人类思维独特运作的结果。但算法并不能实现这一人脑特有的功能,这可以从两个角度分析,一个是从算法的本质角度分析,一个是从算法分析角度分析。
就第一个角度而言,算法的本质是一种人工语言。而关于人工语言能否完全反映世界的问题,20世纪兴起的逻辑经验主义、逻辑实证主义在对逻辑与世界关系的探讨中就曾涉及过。逻辑实证主义认为人类之前讨论的哲学问题主要是自然语言不严密,如果能设计出一种人工语言,哲学上的难题便迎刃而解。罗素就曾提出过要设计出一种人工语言来代替自然语言的构想,卡尔纳普的《世界的逻辑构造》更是雄心勃勃地要以逻辑来统构世界。但后期的日常语言哲学家指出,人类的交流不仅仅是一个以言表意的过程,还是一个以言取效和以言行事的过程[9]。而正是人类语言的这种超越逻辑层面的多维度意义为包括目的解释在内的法律解释提供了理论基础。人工语言却忽略了自然语言的这个层面,逻辑实证主义的人工语言构造世界的想法过于简单。而且人工语言无法处理价值问题,卡尔纳普就认为价值判断仅仅是一种情感的表达而没有太多意义。但实际上,后期逻辑实证主义哲学家克拉夫特认为,价值判断也具有事实内容和认知意义,对象的特性和主体的态度之间的关系不应忽视[10]。所以,算法这种人工语言的变种由于缺乏价值判断的能力,所以无法实现良法的制定。按照克努特的解释,从算法运作的角度看,算法实际是一个“输入”与“输出”的过程[2]5。但实际上“输出”其实是这样一种结果:它是仅对“输入”而言的“输出”结果,并非针对“输入之前的被计算对象”的结果,严格地说,输入结果和被计算对象只有“拟像”的关系,输出结果实际上与被计算对象毫无关联。它们之间如果有关联的话,也只是外在于被计算对象对这个结果的“诠释”[11]。
就第二个角度而言,算法分析就是对算法优劣的分析,是“对一个算法所需要的资源进行预测”[12],众多算法中哪一个会被认为是最优的,也就是算法的价值观问题。算法的判断标准可以分为以下几个类型:(1)运算时间的长短;(2)算法本身是否简单;(3)与计算机硬件是否适应[2]6。然而这些判断标准总体上是效率导向型的,强调算法要设计得速度最快,成本最低,效率最高,这在某种程度上看依旧是功利主义模式。而这与法律所追求的公正的目标背道而驰。因为在提升算法性能时,那些从效率角度看认为可以被节约掉的因素,很有可能从法律角度看恰恰是不应当节约的。比如,程序公正就无法从效率角度得以证成。
综上,算法这种作为人类物质条件束集的人工语言,无论在哲学层面还是在现实层面都缺乏独自实现公正的能力,这也是人工智能的主要局限所在。
二、审判不是博弈审判的本质是裁判者在中立地位上,对当事人争议依照法律作出裁判的过程。人工智能能否比人更能胜任这份工作,不仅不会枉法裁判,而且还会作出恰当的判决呢,这应当从审判与人工智能各自遵循原理分析。
(一) 规范思维不同于策略思维法官的审判思维是一种规范思维,这是由审判架构所决定的,在审判中,法官应保持中立、居中裁判,这是司法的基本原理。这种中立地位要求法官在裁判时不仅不能有任何偏私,而且不能站在双方任何一方的立场上进行审判,也不需要预知审判结果的未来影响来决定当下应当如何判决,法官只需遵照法律规定来对案件进行裁判,正所谓法官除了法律就没有别的上司。这种思维就是一种适用规范的思维,它的特点就是地位中立,不为任何一方谋取利益,即便结果对某些人有利,但这也是规范适用的结果,而非法官故意为其谋利所致。而人工智能的思维却与此不同,它不是一种规范思维,而是一种策略思维。人工智能的智能从表面上说,是具有一定的推理、学习并实践的能力;从根本上说,人工智能的这些能力是在大量过往数据基础上对未来情况的种种假设,然后决定如何行动,并在行动时继续收取相关信息来决定下一步行动计划的能力,这归根结底是对数学、博弈论和逻辑跨学科的综合[13]18。基于这种理论,人工智能是一种策略化的智能,其主要是预先计算出各种不同的后果,进而按照有利于目标实现的方式为当下采取的行动提供决策依据。正因如此,人工智能主要应用于物联网服务领域、医疗领域、网络安全领域、智能战争领域、金融领域等单向利益最大化的领域之中[13]2-4。因为这些领域都是主体通过完成目标化的客体达到一定要求的高度策略化结果的领域。与规范思维不同,策略思维排斥中立者,它为一方主体在其与其他主体相互竞逐的过程中获取优势而出谋划策,这不过属于博弈论的变种而已。这种方式更适合当事人预测自己的诉讼结果,而非法官审判案件。
进一步说,两种思维不同的原因是经济理性与法律理性不同的结果。策略思维是经济理性应有的思维,规范思维是法律理性应有的思维。二者最为抵牾之处在于,经济理性是结果导向的,希望通过最有效的方式实现自身利益的最大化,它对待规则持工具主义立场,即遵守规则是不得已的,如果每个人都不遵守,社会将陷入混乱;而法律理性是价值导向的,它希望通过对权利的保护来维护正义,对待规则持目的主义的立场,规则需要遵守,并非不遵守会就会导致社会解体,而是其本身值得遵守。即便是实用主义法学,其仍然强调合乎情理的判决,否认机械式的法官,波斯纳认为实用主义审判的最终标准是合乎情理,“没有什么运算法则可以在法治与个案后果、连续性与创造性、长期与短期、系统性与个别性、规则与标准之间达到正确的平衡。实际上,对于想成为实用主义者的法官,并没有什么太多可以讲的;我只能说你要在考虑所有因素后尽量作出最为合乎情理的判决” [14]。所以,人工智能这种隶属于经济理性的策略思维无法代替法律理性下的规范思维,二者实乃大相径庭。
(二) 程序的表达功能不同于程序的控制功能无论在审判中还是人工智能运算中,程序都很重要,这似乎成为二者可以通约的桥梁。但是,仅凭形式上遵循程序的表现而认定二者有某种内在相似性这种观点过于乐观,它忽视了程序本身具有的不同层面的含义。有两种对待程序的观点,一种是工具主义的程序观,一种是规范主义的程序观。前者强调程序的结果,后者强调程序本身[15]10-11。有人认为人工智能会严格遵守程序,不会出现程序错误,进而认为其可以法治。这种观点只是片面注意到了工具主义程序观的控制功能,而忽略了规范主义程序观的表达功能。法律程序从形式上看是对审判过程的控制,既要防止权力滥用,又要维护当事人权益,但这并不是法律程序的主要功能。法律程序作为人类解决纠纷的过程不同于物理意义上的操作程序,法律程序与审判的公正结果密切相连,而审判结果公正与否在程序上看也并不是程序是否得到机械遵守这么简单,而是涉及程序是否发挥了使当事人意见得以表达的功能。从社会学层面看,公正的体现在于裁判结果的接纳,而人们对裁判结果是否接纳,并不只是一个结果是否对自己有利的问题,它在一定程度上还是看自己是否在审判程序中获得了尊重。社会学研究显示,人们之所以认为自己是有价值的,是由于他们获得了社会群体的认同。如果司法机关愿意听取自己的陈述并且考虑他们的意见,就表明其社会地位的认可。即便审判结果对他不利,他也会接受。所以“人们非常在意他们是否受到了裁决者的礼貌对待,也非常在意裁决者是否像对他人那样对待自己,以及是否对他们的权利表现出应有的尊重”[15]282。这也是审判程序表达功能的作用,而这种程序的表达功能不是单凭程序的周密设计、机械实施就能实现,它的实现体现在程序运行中主体之间的多方位沟通。而人类之间的沟通是不能通过智能程序代替的,一方面因为人类语言不同于人工语言,它还具有其他层面的意义。甚至有些从逻辑角度看属于重复、冗余的部分却在审判中具有非常重要的意义。比如,最高法二巡坚持的“最后一问”程序就取得了良好效果①;另一方面人类的交流除语言交流外,还有包括眼神交流在内的其他交流形式,这些实现程序表达功能的要求都是人工智能那种操控性程序所不能替代的。总之,不同于物理世界,人类生活的世界需要规范的调节。然而,规范行为远非目的行为,规范行为是一种能够体现主体间共识的行为,这种行为对待规范的态度就是把手段与价值区分开来[16]。人工智能作为计算机科学中的人造程序难以实现审判程序所需要的表达功能。
① “最后一问”是指不再像以往那样在法庭最后陈述环节询问当事人及代理人有无补充,而是在审判的每一个环节都做类似询问。
(三) 法律需要信仰而非记忆人工智能的一大优势就是其能够准确、快速地执行纯数学任务,并建立多种子集作为选项,进而在记忆、计算等逻辑计算层面超出人类的能力[13]21。虽然这可以解决法条记忆、案例查询方面的困难,但这并不意味着它们能作出公正的判决。公正的审判离不开人们对待法律的态度,法官作出公正判决,不是靠对法条的记忆,而是靠对法律的信仰。古希腊哲学家柏拉图早在《法律篇》中就指出,如果人没有义愤的能力,那么他的灵魂就不会与不公正斗争了[17]。这种义愤的能力其实就内在地包含着对法律的信仰、对正义的追求。正所谓“行审判不凭眼见,断是非也不凭耳闻,却要以公义审判穷人,以正直判断世上的谦卑人”判决的公正作出离不开对规则的信仰,虽然中世纪西方被神学笼罩,但那种信仰的作用被美国法学家伯尔曼敏锐地发现了,他认为,“法律必须被信仰,否则它将形同虚设。它不仅包含有人的理性和意志,而且还包含了他的情感,他的直觉和献身,以及他的信仰”[18]3,“正是靠了宗教的激情,信仰的一跃,我们才使法律的理想与原则具有普遍性” [25]30。何以法官对法律的信仰是公正审判所必备的条件呢?生物学家史蒂芬·哈定经研究指出:“科学家总是企图回避感情和直觉,但恰恰是感情和直觉给予他们概念和思想。”[19]225也就是说,虽然客观冷静的分析至关重要,但对某事物怀有强烈的感情,才是激发人们进行深入研究的动力。正是信仰,这种对法律强烈的情感,才会使法官在审判时超越法条字面意思,探究法律精髓,作出情、理、法相统一的判决。而这个包含对法律信仰的审判过程是“理论和实践、认识性和创造性、创作和再创作、科学性和超科学性、客观和主观各种因素不可分割的混合。而它在很大程度上是实践的、创造性的、创作的、超科学性的” [20]。对法律的信仰是人工智能无法形成的,虽然它会将法律条文一字不落地记住。信仰这种人类特有的情感是不可以被数字化、不可以被编译的,人工智能这种以算法为基础的程序,其运行方式是逻辑式的,无法发挥人类的情感所特有的机能。人工智能的司法更适合于孟德斯鸠所描述的自动售货机式的司法,而这种类型的司法已经被证明在现实中是不存在的。正如法谚所云:“认识法律不意味着抠法律字眼,而是把握法律的意义和效果。”[21]
综上,人工智能这种博弈论式的思维方式在审判活动中是难以全面适用的。二者虽然在遵守程序这样的外观上相似,但其实是貌合神离的。
三、经验不同于数据美国法学家霍姆斯有句名言:法律的生命不是逻辑而是经验。司法确实需要经验,但经验并非数据。司法需要的经验可以从两个层面加以分析:一是指法官在成长过程中积累的生活、社会经验,这种经验可以加深他对事实及法律的理解。柏拉图就曾指出,法官必须是老年人,因为不正义是后知后觉的,只有丰富的经验才能使人识别[22]。二是强调普通法系的遵循先例的司法传统是一种经验式的司法,而非三段论式的逻辑演绎,这其中体现着一个国家历史发展的叙事,法律的形式和机理都极大地依赖于过去(经验)[23]。但无论哪一个层面的经验均无法被数据所代替。
人工智能的特点就是其拥有强大的数据储存和数据运算的能力。而数据并不能等同于上述两种经验中的任何一种,就第一种而言,法官个体的经验并不相同,其对事实认定及法律适用的观点也不尽相同,正因如此,在正式的审判程序中,法官都是3位以上,可能是5位,甚至9位,判决结果也是少数服从多数而定,但并不能因此就认定少数派的观点是不正确的,每位法官基于自身经验而产生的对法律的认知都具有意义,甚至正是少数派的观点在后来的实践中被认为是正确的。而数据化的特点就是齐一化,只能出现一种结果,除非输入不同的数据或设定不同的程序。然而,不同种经验是无法事先预测的,它是一个发生学意义上的过程,生命主义哲学认为,生命就是绵延,任何生动的经验现实不可能被归结为各种概念和概念的知识[24]。法官的个体经验形成也是相异质的,正是在不同经验相互冲突中,一个审慎的但却是开放的结果才被作出。美国法学家卡多佐对此有过形象描述:遗传本能、传统信仰、后天确信所导致的对生活的看法,一种是对社会需要的理解,一种是对宇宙整体逼迫和压力的感受[25]3。而这种经验并不是符码的排列组合可以得出的,数据本身就是一个已完成的、栅格化的集合,它不具有人类对经验的主动阐释能力,这也就决定了数据无法代替第一种意义上的经验。
那么就第二种层面的经验而言,数据似乎可以作为对以往案件的编码而为当下审判提供可供参考的经验,但这其中也存在问题。且不论我国有编纂成文法典的传统,即便是英美法系国家,以往的案例也并没有被当作真理来使用,而只是作为可资利用的假说。它们在那些重大的法律实验室中被不断地重复检测,甚至那些一度被认为是例外的才是规则,而那一度被认为是规则的只是例外,没有哪个信条不受震动,没有哪个曾饱受称赞的教条没有显露出疑点,没有哪个继受的传统没有瓦解的威胁[25]10-12。也就是说判例法的规则和原则从来也没有被当作终极真理。数据化的案例仅可以作为一种可以利用的假说来使用,而非能够作为规范化标准来决定当下案件的裁判。数据作为对以往事实的整理仅仅是一种实然的情况,这种数据即便数量再多,数据结构再复杂,其本质依然是对事实的排列组合。计算机科学家J.R.塞尔认为,人工智能的程序是纯形式的,不具有人脑的意向性,“没有一个程序凭借自身而对意向性来说是充分的”[26]。正所谓我们计算得越精确,所计算出的数字越不可靠;我们计算得越多,理解得就越少[19]46-53。这种数据无论其结构如何严谨都无法产生一种阐释性的法律观。而基于对经验的吸收、理解、创造形成的对法律阐释性理解才是司法的真谛所在。
所以,作为人工智能肉体的数据是一种质料性的物质堆积,而人类的经验是带有意志在内的绵延性叙事,前者只是直观性的外在形式,后者则是领悟性的阐释,二者不可贸然等同。
四、人工智能嵌入司法改革的思考十八大以来,我国司法改革进行得如火如荼,其中一个亮点就是利用包括司法大数据在内的人工智能来助力公平正义的实现。在2019年9月10日召开的全国法院第六次网络安全和信息化工作会议上,最高人民法院院长周强强调,要加快推进“智审、智执、智服、智管”建设,不断提高全面深化智慧法院建设水平;加强人工智能、5G、区块链、大数据等现代技术研究应用[27]。当前,以“智慧法院”建设为代表的智慧司法建设,在诉讼服务、审判管理、司法公开和判决执行等方面均已起到了提高司法效能的作用,在很大程度上体现了治理能力现代化的要求。但是,为了进一步深化改革,人工智能在司法改革中的局限性也不应忽视。
人工智能在审判系统中的一个应用就是对审限进行有效管理,限制超审限的情况出现,而且通过互联网,当事人可以查询到自己案件的审判流程。虽然司法公信力不足的一个主要原因是司法不公开,不透明,这并不是仅指审判流程那种形式化的外观,而是指开庭之后,法官有无受到权力或人情的干扰。从制度层面看,现存的正、副卷制度没有被取消,无论领导的批示还是代表的督办,相关材料依然存放于不公开的副卷中,这才是司法不透明的主要原因。审判流程公开产生的实际效果主要有两点:一是提醒法官要提高工作效率,不要拖延办案;二是结案要规范,不要突击报结。就前者而言,司法改革后,法官数量相对减少,而法院收案数量逐年攀升,在这个矛盾尚未得到根本解决的情况下,案件审理周期变长难以避免,但这并非法官有意为之。就后者而言,结案规范的前提是真正取消结案率考核,这样就不会突击报结。以上问题的产生都是深层次的制度性因素所致,这些问题的解决不能仅仅依靠技术。
人工智能在审判系统中的另外一个应用就是协助裁判文书的制作。现行系统的主要功能是帮助纠正裁判文书中的文字差错,提供一些简单模板,目的是减轻法官工作量。虽然这的确为校对文书提供了方便,但这并不能从根本上缓解裁判文书撰写占用法官大量时间的局面。法官撰写裁判文书耗时费力的主要原因在于裁判文书样式不够科学,缺乏实质意义的裁判文书繁简分流机制。最高法2016年通过的《民事裁判文书制作规范》《民事诉讼文书样式》对现行裁判文书样式规范有余,但简洁不足。裁判文书的结构性减负仍有提升空间,尤其是对某些二级、三级案由案件的裁判文书简化值得进一步细化研究。对此,应当进一步加强裁判文书样式改革,对于案情简单的案件、不同级别类型案由的案件可以进一步简化裁判文书的格式和内容要素,减轻基层法院法官撰写文书的繁复。对于争议不大的上诉案件,也应简化裁判文书的格式。也就是说,为了提升裁判文书的制作效率,不能仅靠电子模板,还应当进一步对裁判文书进行繁简分类,同时,在案件报结制度上、案卷评查制度上出台配套保障措施,使裁判文书简化具备可行性,不与其他制度相冲突,以免出现报结不畅或案件评查有瑕疵等问题,这样才会进一步提升审判效率。
人工智能在审判系统中还有一个应用就是案例智能检索,目的是统一裁判尺度,防止同案不同判的现象出现。但这里存在几个问题:(1)最高法发布的具有约束力的指导性案例并非是检索出来并对外公布的。我国并非判例法国家,案例并不当然地成为判例。具有对未来约束作用的案例发布主体目前只有最高人民法院。然而,备选指导性案例是靠下级法院层层推送遴选出来的,而非检索出来的。(2)司法实践中,同案不同判一般实际适用于各级法院内部及市区两级法院之间,尚未形成跨市级以上行政区法院之间对裁判尺度的统一,其他省市的案例最多作为参考。所以案例检索在后一种情况下发挥约束力的作用十分有限。(3)即便在各级法院内部,法院为了统一裁判尺度,往往也会注意以往的裁判思路。司法实践中,这种尺度统一往往是以法院会议纪要的形式出现,随着法院会议纪要的逐步公开,具体裁判尺度亦变得可以预期,并非一定要通过检索。所以,案例智能检索在防止同案不同判的问题上,如果没有相应制度作为基础,其发挥的统一裁判尺度作用仍有较大局限。
总体而言,人工智能在我国法院的应用确实在一定程度上助力了我国法治建设,但也不应忽视其局限性。法治建设的关键还是要在制度上着力。如果没有制度构建作为基础,人工智能的应用则有可能流于形式。所以,人工智能,这种“生前心已碎,死后性空灵”的计算程序,要与作为“灵魂”的法治制度建设密切结合才能更有效地在我国法治事业建设中发挥重要作用。
[1] |
亚里士多德. 政治学[M]. 吴寿彭, 译. 北京: 商务印书馆, 1983: 199.
|
[2] |
唐纳德·克努特. 计算机程序设计艺术(第1卷)[M]. 第3版, 苏运霖, 译. 北京: 国防工业出版社, 2007.
|
[3] |
马克思. "关于费尔巴哈的提纲"载马克思恩格斯文集(第1卷)[M]. 北京: 人民出版社, 2009: 500.
|
[4] |
皮埃尔·布尔迪厄. 实践理论大纲[M]. 高振华, 李思宇, 译. 北京: 中国人民大学出版社, 2017: 213-214.
|
[5] |
萨特. 什么是主体性[M]. 吴子枫, 译. 上海: 上海人民出版社, 2017: 62.
|
[6] |
理查德. A. 波斯纳. 法理学问题[M]. 苏力, 译. 北京: 中国政法大学出版社, 2002: 91-96.
|
[7] |
马克斯·韦伯. 社会科学方法论[M]. 韩水法, 莫茜, 译. 北京: 中央编译出版社, 1999: 59.
|
[8] |
恩斯特·卡西尔. 人文科学的逻辑[M]. 关之尹, 译. 北京: 上海译文出版社, 2004: 173-174.
|
[9] |
A.P. 马蒂尼奇. 语言哲学[M]. 牟博, 杨音莱, 韩林, 译. 北京: 商务印书馆1998: 209-211.
|
[10] |
杜任之, 涂纪亮. 当代英美哲学[M]. 北京: 中国社会科学出版社1988: 109-110.
|
[11] |
段永朝. 互联网: 碎片化生存[M]. 北京: 中信出版社, 2009: 62.
|
[12] |
THOMAS H C. 算法导论[M]. 潘金贵, 顾铁成, 译. 北京: 机械工业出版社2006: 12.
|
[13] |
阿米尔·侯赛因. 终极智能: 感知机器与人工智能的未来[M]. 赛迪研究院专家组, 译. 北京: 中信出版社, 2018: 18.
|
[14] |
理查德. A. 波斯纳. 法律、实用主义与民主[M]. 凌斌, 李国庆, 译. 北京: 中国政法大学出版社, 2005: 79.
|
[15] |
汤姆. R. 泰勒. 人们为什么遵守法律[M]. 黄永, 译. 北京: 中国法制出版社, 2015: 10-11.
|
[16] |
尤尔根·哈贝马斯. 交往行为理论(第1卷)[M]. 曹卫东, 译. 上海: 上海人民出版社, 2018: 117-118.
|
[17] |
柏拉图. 法律篇[M]. 张智仁, 何勤华, 译. 北京: 商务印书馆, 2016: 140.
|
[18] |
伯尔曼. 法律与宗教[M]. 梁治平, 译. 北京: 中国政法大学出版社, 2003: 3
|
[19] |
博伊尔. 为什么数字使我们失去理性[M]. 黄治康, 李蜜, 译. 成都: 西南财经大学出版社, 2004: 225.
|
[20] |
G·拉德布鲁赫. 法哲学[M]. 王朴, 译. 北京: 法律出版社, 2005: 115.
|
[21] |
卡尔·恩吉施. 法律思维导论[M]. 郑永流, 译. 北京: 法律出版社, 2004: 1.
|
[22] |
柏拉图. 理想国[M]. 谢善元, 译. 上海: 上海译文出版社, 2015: 163.
|
[23] |
霍姆斯. 普通法[M]. 冉昊, 姚中秋, 译. 北京: 中国政法大学出版社, 2006: 1.
|
[24] |
约瑟夫·祁雅理. 二十世纪法国思潮[M]. 吴永泉, 译. 北京: 商务印书馆, 1987: 15.
|
[25] |
本杰明·卡多佐. 司法过程的性质[M]. 苏力, 译. 北京: 商务印书馆, 1998.
|
[26] |
玛格丽特. A. 博登. 人工智能哲学[M]. 刘西瑞, 王汉琦, 译. 上海: 上海译文出版社, 2006: 95.
|
[27] |
周强. 对全国法院网络安全和信息化工作提出要求强调深入学习贯彻习近平总书记关于网络强国的重要思想全面深化智慧法院建设[EB/OL] (2019-09-11)[2019-09-22]. http://www.court.gov.cn/zixun-xiangqing-183782.html.
|