如果法官借助使用人工智能断案,法庭审判还能公正吗?(评论)
(大中网/096.ca讯)加拿大环球邮报(Globe and Mail)发表了一篇Robert Diab的文章。他是卑诗省 Thompson Rivers 大学的法学教授。评论说,魁省最高法院2025年11月26日审理的一宗复杂商业欺诈案中可能出现加拿大首宗人工智能代为撰写的裁决书。
该案判决金额超过1.2亿元。被告已提出上诉,称该裁决书带有人工智能使用的典型特征,包括引用不存在的判例,以及引用了从未出现过的证词。
有关法官杰弗里(Jocelyn Geoffroy)使用人工智能的指控尚未得到证实,他本人也拒绝置评。但正如当地媒体报道的那样,裁决中引用的虚假证词在任何一方提交的材料中都找不到。
虽然这可能是加拿大首宗涉及法官使用人工智能的上诉案件,但很可能不会是最后一宗。
更大的问题是,法官依赖人工智能是否会使审判失去公正性。这一问题关系重大。如果人工智能削弱了法官保持公正与中立的能力,或至少让人看起来如此,那么其将侵蚀公众对法院的信任。但这是否意味着法院必须完全放弃人工智能带来的益处呢?
好的一方面是,魁北克省这起案件曝光有助于其他法官明确使用人工智能的可接受边界。
如果法官依赖生成式人工智能“出现幻觉”后捏造的案例或证词,那么结论显而易见:基于错误法律条文或事实作出的裁决无法成立。
魁北克案中的被告正提出这两项指控。他们称,法官杰弗里严重依赖一个虚构案例来说明一个并不存在的法律条文。另一项指控是,该裁决依赖了从未出现过的证词。如果这些指控属实,该判决在上诉中恐将推翻。
更棘手的问题出现在人工智能没有“出现幻觉”的情况下。如果法官仅仅使用人工智能来总结案件中的法律或证据,这是否会损害审判的公正性?
加拿大的法院此前已处理过类似问题。2013年,加拿大最高法院裁定,即使法官在判决中大量引用一方当事人的书面陈述,裁决仍可能是公正的。只有当一个理性观察者认为法官未能独立审视证据和争议问题时,法官的诚信推定才会被推翻。
结论似乎很清楚:判决中使用了什么样的文字不重要,而在于裁决是否真正由法官作出。
一些学者认为,同样的逻辑也应适用于人工智能。在ChatGPT出现多年之前,法学教授沃洛克(Eugene Volokh)就曾指出,关键在于支撑裁决的理由是否严密且具有说服力。人工智能可能存在偏见,其决策过程也不透明,但人类同样如此。法官通过解释其推理过程来说服我们其结论是正确的。如果人工智能能够提供合理的推理,并且法官在独立审查后采纳,那么裁决仍可能是公正的。
然而,仍存在一个重要差异。我们对公平审判的理解,建立在由一位人类,或有时由普通公民组成的陪审团,在充分权衡后作出裁决的基础上。而人工智能并不会进行真正的审议,它只是基于概率把不同的词组合在一起。这样的文本或许听起来很有说服力,但由此引导的决策仍可能显得武断,更像是数学概率的产物,而非判断的结果。
公众对司法体系的信心至关重要,而上述差异则会毁了这份信任。如果人工智能开始塑造司法裁决的推理过程,当事人有理由怀疑,案件结果究竟源于法官的审慎思考,还是仅仅取决于法官向人工智能输入的提示词。
法院需要划定的一条界线,人工智能是“辅助工具”还是“决策主体”。但正如魁北克案件所显示的,如果缺乏警惕,人工智能能很容易越过这条界线。在一份超过200页的判决书中,也许法官杰弗里忽视了某位庭审书记员对人工智能的过度依赖。但如果事实确实如此,这将是一个严重的错误。
那么,这一错误由谁来承担代价?魁北克案的审理持续了36天,现在可能不得不重新审理。那么,第一次审理的费用是否应由政府承担?
效率在司法体系中固然重要,但公正的判断才是审判的本质。法院可以将人工智能作为辅助工具使用,但绝不能让它取代能做出独立判断的人类。一旦处理不当,其代价将由我们所有人承担。


