AI知道什么是正义吗?
一直觉得法官好难,法律千百条,案例千百宗,如何判刑才叫公平呢?法官是人,又怎能完全客观呢?假设眼前有个偷鸡犯,怎样确保他的刑罚和去年偷鸡的犯人不会差太远?
早在ChatGPT面市前,东马法庭已启用人工智能,名为AICos,帮助法官消化海量文字,只要输入相关参数,AI就能根据先例给法官建议刑罚,大大提升效率及维持判刑公允。
AI只是辅助,法官依旧拥有绝对的自主权。目前系统只用于拥毒和性侵案,因为这个范畴有足够案例训练AI。AICos于2024年赢得了首相暑颁发的创意卓越奖,实至名归,是吗?
2022年1月在马德里,赫米德的丈夫用木条毒打她。她报警了,警察在让她回家之前问了她35道是非题,把答案输入一个叫VioGen的演算法,用以预测她再受家暴的可能性。如果高危,警方会加派人手监视,然而VioGen说风险低,警方就决定无须太关注了。 七周后,丈夫把赫米德刺毙。她年仅32,留下四个孩子。
警方错了吗?罪案那么多,他们需要借助系统高效地权衡轻重,分配资源;VioGen错了吗?西班牙政府坚称误判只是偶然,事实上它帮助了更多人,自2007年以来重复家暴的案子下跌逾半,但同期间,还有247个像赫米德这样遇害的女人。
政府拒绝公开VioGen给这247个受害者的判断,但纽约时报在司法审查中发现公开的98宗家暴致死案中,有一半是VioGen判定为安全的。VioGen只是辅助,警方依旧拥有绝对的自主权,但九成警察都选择跟随VioGen的决定。很方便,不是吗?
我不确定AICos用怎样的AI,若是用“专家系统”(根据专家提供的条件逐步推演),那么所得的答案都有迹可循;若用大语言模型,那是一个黑箱,不知如何得到答案。有使用AI的用户都知道,它会产生”幻觉“瞎掰。
不靠AI,只靠人,判断会更准吗?葛拉威尔在《解密陌生人》谈过一例,2008到2013年间纽约市有55万宗罪案,法官共准许40万人保释候审,他们判断这些人不会在保释期间犯案。经济学家穆莱纳坦做了这样的实验,他开发AI,在同样的55万宗案中也选40万人保释。
结果AI所释放的人,犯案率比人类法官释放的少了25%!一般上法官坚信必须亲眼看见嫌犯,知道周边讯息 ,才可更全面地下判,但这个AI什么都不知道,仅凭嫌犯年龄和犯罪记录决定是否批准保释,反而预测得更精准?
人不完美,AI也不可能完美。不管VioGen实际上防止了多少家暴,人们总会聚焦于它的失误。AI会犯错的,但在限定的领域内AI的效率确有可能比人类强。要问的也许是:对于正义,我们追求的准绳究竟是什么?是铁面无私,还是法外开恩?
最铁面的判官是没有共情能力的AI,就算那个偷鸡犯失业已久,家有妻小,AI都不管,只有法官才懂得同情。人世间的事,终究需要人类做好最后的把关。