AI 走入司法
你能想象 AI 进入司法领域,影响司法决策吗 ? 事实上,美国许多州已经开始接受 AI 介入司法决策程序并对 AI 程序大加赞赏。不仅在美国,AI 走入司法是全球未来的趋势。
AI 的高效、不会疲惫是它的一大优点。据报道,2016 年上半年,我国法院受案 1002.9 万,比 2015 年同期增长了 18.94%,截至 2017 年 6 月 20 日,地方各级人民法院受理案件已经突破 1428 万件,比 2016 同期高出 12.84%。可以看出,需受理的案件在逐年增长。大量的案件,有限的人手,处理这些案件的过程必然十分漫长。因此,司法系统引入高效的 AI 只是时间问题。
AI 可以涉及司法的方方面面,从案件的受理、审查到判决过程都将会有 AI 的影子。
2017 年重庆江北区人民法院引入 AI 帮助受理金融案件,人们不必亲自到法院,只需要在指定平台录入相关信息及材料,就能自动生成标准的起诉状,在线提交法院。之后,相关电子数据材料通过安全可靠的数据交换系统,实时提交法院业务系统审核办理。对于符合立案条件的案件,智能一键生成案件受理通知书、应诉通知书、举证通知书和送达回证等文书材料,并自动生成打印邮政专递的填录信息,省时省事。
调查方面,英国警方已经运用了名为 VALCRI 的智能系统协助调查,VALCRI 通过扫描数百万份警局的记录、问讯、照片、录像等资料,迅速找出相关证据之间的联系,对作案手段、作案时间、作案动机和犯罪嫌疑人做出一个合理的推测,帮助警方迅速锁定嫌疑人。无独有偶,比利时警方同样运用了 AI 协助警方。
在美国,案件的判决过程就有 AI 的参与。一款名为 Compas 的系统在威斯康辛州的法院就十分受欢迎。Compas 由一家私人公司 Nortpointe 生产并向法院销售,对被告进行风险评估,若判定被告具有高风险性,代表他对社会存在高威胁,将很有可能再次犯罪。如果判定风险等级低,那么这个人再次犯罪的可能性不大。法院会根据 Compas 的评估结果对被告量刑。从某种程度上来说,是 AI 决定了被告的判刑结果,它才是真正的法官。
AI 进入司法似乎是大势所趋,那么 AI 司法真的那么完美吗 ? 并不是。AI 司法仍存在问题。
黑箱里的判决
AI 参与的司法过程并非完全透明化、公开化。
美国威斯康辛州的一位被告,埃里克 · 卢米斯,就法院借助 AI 程序做的判决结果提起上诉。
事情要从 2013 年 2 月 11 日说起。这天,威斯康辛州的拉克罗斯市发生了枪击案,有人目击了犯罪嫌疑人开车犯罪的过程,立即报了警,为警察提供了车辆信息。警方根据信息,强行截停了正在行进的那辆车,抓捕了当时开车的埃里克,并在车上搜出了枪支,人赃俱获。
然而,经过多方调查发现,他根本不是枪击案的犯罪嫌疑人,而是偷车贼,他只不过偷了枪击案犯罪嫌疑人的犯罪车辆而已。但最后,当地法院还是以拒捕罪和盗窃罪起诉了埃里克。
本来这只是一件寻常的案件,但 AI 的介入让它变得不寻常。在量刑过程中,埃里克接受了 Compas 提问。Compas 综合了他的回答及之前的犯罪记录,根据自身的算法,判定埃里克对社会有高风险性。于是,法官按 Compas 的结果判处埃里克 6 年有期徒刑。在法院看来,既然埃里克社会危险性高,不如将他多关在监狱一段时间改造,免得早早放出去危害社会。
埃里克对判决结果表示不服,本来他犯了拒捕罪和盗窃罪,依法不应判处这么长的时间,而任凭一款 AI 程序的分析,就给他加重了刑罚。AI 程序凭什么就认定他 " 高风险 "?
按照美国第六修正案,被告有权利知道自己被控告的理由。但是,在本案中,埃里克无法知道。因为 Compas 属于私人公司,它的计算程序是商业机密,不能泄露。埃里克就判决结果向威斯康辛州最高法院上诉,结果最高法院判定原判决有效,并补充认为 Compas 的报告是有极大价值的,为司法判决提供了直观的数据信息,有助于司法的公正。
AI 的判决过程就像是一个黑箱子,输入数据,得出结果,但过程未知。尽管创造它的公司告诉我们,它很公平 ; 法院也告诉我们,它很公平,但它如何公平,我们不知道。以牺牲知情权换来的 " 公平 ",你愿意接受吗 ?
AI 是否公平公正 ?
不论你是否愿意接受以牺牲知情权换来的公平,首先,它真的公平吗 ?
美国一项报告指出,Compas 算法所评估的黑人犯罪风险明显比白人要高得多。例如,一位黑人女孩与一位白人男子都因为犯了盗窃罪被捕,两人所盗物品价值相同。这位女孩有过 4 次不当行为,从未入狱,而这位男子则有过两次持枪抢劫的记录,曾入狱 5 年。Compas 对这两人的风险评估结果如何呢 ? 它判定白人男子风险等级为一般危险,而黑人女孩为高危。还有许多类似的例子。报告认为,该算法有种族歧视的嫌疑。
的确,从表面上看 AI 铁面无私,然而设计计算程序的是人类,只要是人,就难免存在偏见,如何能够保证在设计算法的过程中不掺杂任何偏见呢 ? 这几乎不可能。而运用这些带有偏见的算法进行司法判定,还会是公平的吗 ?
未来的 AI 司法
为了保证人们的知情权,一个可查看的程序也许会是未来的发展趋势。
如果这些参与司法的 AI 计算过程可以随时获取,如果有人质疑司法判决的公正性,就可以查看 AI 是如何得出这种结论的。这样的 AI 判决就不再是黑箱里的秘密了,同时也有利于对整个司法过程的监督。这是各个开发公司所要解决的难点。
当然,在发展 AI 的同时,我们更要完善法律系统,只有向 AI 输入更完善的法律知识,才能保证 AI 做出的判决更加公正合理。
AI 法官已经逐渐向我们走来,在此之前,我们还需要好好准备准备。
留言与评论(共有 0 条评论) |