现如今,AI(人工智能)已然作为了一个逃不掉的专题..
不管是横扫围棋界各大能手的阿尔法狗….
还是用区别化名在网上发布诗歌,都无被人察觉的微软小冰…
最繁杂的游戏,最微妙的情感,
AI似乎够能和人同样做出来,乃至,比人做得更好.....
但它们不止于此,更加是早已来到了司法界。
近期美国有一块充满争议的案子,
一个由于偷窃罪被判刑的男人把威斯康星法院告了,
由于...
他被判整整8年有期徒刑,不是由于他的罪行,亦不是由于法官的判断,
而是由于,一个AI认为,他对社会拥有‘高危险性’!
事情要从2013年说起...
那年的2月11日,威斯康星州的拉克罗斯市显现了枪击案。
有目击者们看到一辆车行驶过Kane大街2200号房子的时候,车里的人忽然掏出枪向屋子开了两枪。
目击者马上报警,并且告诉警察关于车子的信息。
之后,警方在别的地区找到这辆车,马上展开激烈追捕,最后好不易把车子逼停了,看到了31岁的Eric Loomis和他的小伙伴....
警方在车子里发掘有些枪支,
本以为是人赃俱获,但仔细彻查后发掘.....
这两人,基本不是枪击案的罪犯,而是在错误的时间错误的地点显现的窃车的小偷。
警方调查发掘,枪击案罪犯弃车逃跑后,这个小偷顺手把这辆车给偷了.....
案情确凿,于是法院判两人有盗窃罪和拒捕罪。
本来,这案子并不算大,然则在Eric Loomis接受了一个叫做COMPAS的软件系统的提问后,法官宣布,判处Eric Loomis长达8年6个月的有期徒刑。
这么长的刑期,Eric Loomis简直懵逼了.....
法官Scott Horene给出的理由是这般的:
‘按照COMPAS的测试,被告被认定为对社会拥有高危险性的人。’(“identified, through the COMPAS assessment, as an individual who is at high risk to the community.”)
COMPAS......
这到底是个啥??
COMPAS是一个由私营企业编写出的、能够帮忙司法人员做出判断的智能AI。
它经过向被告询问137个问题(例如‘你在学校多久打一次架’;‘你有多少伴侣违法运用药品’;‘你受过的最高教育是什么’),还有搜索他曾经的犯罪记录,得到一堆数字,
而后经过机构设定的繁杂算法,最后得出一长串数据。
里面包含他的孤僻程度、犯罪型人格的得分、性格稳定度....以及最重要的,他的‘危险指数’,亦便是‘将来再次犯罪的可能性’。
COMPAS在美国非常多个州中都被运用,其中运用最广泛的是威斯康星州。
从2012年起,威斯康星州就鼓励在全州所有法庭上都用COMPAS,在监狱系统中的每一部分亦运用它,给犯人做出评定,帮助司法人员进行判刑到假释的判断....
由于....COMPAS实在太好用了,
它告诉人们的答案太清晰了!
这个AI能清楚地说出每一个被告的‘危险指数’是多少,从1到10,10为最危险,说明被告再次犯罪的可能性极高。
按照这个数据,能够帮忙法官判断,
是判他早早出狱,还是在监狱里多待两年,免得出去祸害社会.....
除另外,COMPAS还能告诉司法人员,
最适合被告的监禁类型是什么,
被告什么时候才可被假释,
监狱里这么多人,谁最适合提前释放,
保释金需要多少钱,
......
只要有人问,
COMPAS几乎能回答关于罪犯和监禁的所有问题!
威斯康星州惩教部的部长Jared Hoy曾经说,这个AI简直太好用。
它给人的惊喜持续,意见每一个工作人员做决定的时候都能够用一用。
对工作人员可能是好事....
但对被告来讲,这简直便是莫名其妙....
Eric Loomis听到结果后,马上暗示不服,
‘为何我会被评为是对社会有高危险度?理由呢?
况且还是用一个软件来评判我,这不恰当!’
根据美国第六修正案,被告有权晓得被控告的理由,
那样他被控‘有高危险度’的理由是什么呢?
COMPAS:抱歉,我不可说。
是的,由于COMPAS是一个商场制品,有知识产权,所有除了机构的核心成员,它的详细算法不可被外界晓得,
就算是用它用了非常多年的法院,她们亦不晓得算法长什么样,只能看到结果....
因此,COMPAS就像是一个黑匣子。
Eric Loomis被判为‘高危险’,亦许是因为他在‘受教育程度’那里分数很低,亦许是因为在‘是不是住在危险街区’中回答了‘是’,亦许是COMPAS认为他在回答中撒谎.....
总之,没人知道。
于是,不满的Eric Loomis决定上诉,一路闹到威斯康星州最高法院,
但最后,法院仍然认为COMPAS的判断无问题,它‘科学又有效’。
在扯了几年的皮后,Eric Loomis的刑罚最后被降到6年,但他觉得还是很长.....
为何威斯康辛星便是对COMPAS如此痴迷呢?
法院方面暗示,由于COMPAS的优点很大啊!
它便是一堆冷冰冰的算法,很客观,完全不受个人情感原因的影响。
运用COMPAS,法官能够更公正无私地看待案子,最大化地消除偏见。
这便是法院大力运用的原由.....
但按照非盈利资讯社ProPublica的科研,
COMPAS似乎并无那样完美.....
在COMPAS的137个问题中,没有询问被告关于‘种族’的问题,这亦是人们说它客观的原由。
但在2016年,ProPublica却发掘了非常多‘AI种族卑视’的状况。
例如,
黑人女子Brisha Borden和白人大叔Vernon Parter由于盗窃罪被捕,两人都被控窃取价值80美元的东西。
女子之前有过4次行径欠妥,无入狱经历;而大叔有过两次持枪抢劫,还曾经坐过5年牢。
结果女子被COMPAS判断的危险指数是8,属于‘高危’,而大叔的指数却是3,属于‘通常危险’.....
再例如,下面两小哥都由于携带毒品被捕,
左边的白人Fugett曾经由于持有可卡因和大麻,被警方抓捕过三次,还犯过一次抢劫案,COMPAS认为他的危险指数是3分;
而右边的Parker,仅有过一次拘捕,只是逃跑,无袭警,却被COMPAS认为危险程度极高,有10分。
明明是个死物的COMPAS,
为何会像种族卑视者呢?
人们不晓得,但思虑到COMPAS在问题中问的各样原因,
例如家庭、街区、是不是有工作、最高学历、父母是不是吸毒等等,看上去和个人相关,但实质上是受社会大环境影响,黑人处在的弱势环境,让她们在AI的评测中更加吃亏....
由于算法本身不客观,
那样COMPAS的正确率亦不会有多高....
在2016年,ProPublica经过COMPAS计算了7000多名罪犯在刑满后再次犯罪的可能性。
这些罪犯来自加利福尼亚州的Broward市,被COMPAS测评‘危险指数’的时间是2013年到2014年。
结果...仅有20%的人会根据COMPAS预测的那样再次犯罪,
倘若把所有的犯罪类型都算上,例如用一个过期的驾照开车这种小罪,那样COMPAS的正确率为61%。
而Eric Loomis的这个案例....
由于所说的‘危险指数’偏高,而不得不被听信AI的法官判更长期的牢。 他自己觉得,确实感觉挺冤...
此刻,犹他州、弗吉尼亚州,非常多地区都在运用类似的AI来帮忙审判,预测犯罪,
这是美国司法界的趋势,
亦许,这亦将是是全世界的趋势....
但犯罪是一个极其繁杂的社会问题,
AI能干得好吗,它真的能像公正无私的审判者同样,做出完美的判决吗?
法官判案,有人说法官受人性影响,会有偏差...
让AI来评定,实质证明亦不完美....
那,什么又才是正确的路呢?
ref:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
http://bigthink.com/robby-berman/a-judge-lets-an-app-help-him-decide-a-wisconsin-mans-6-year-sentence
http://www.northpointeinc.com/files/downloads/DataSheet_Classification.pdf
http://www.equivant.com/solutions/inmate-classification
https://www.theatlantic.com/technology/archive/2016/06/when-algorithms-take-the-stand/489566/
-------------------
骨子-背不完局解生理生化欠妥人:PSYCHO PASS…………
王安石:人工智能真的好吗?别像电影里那样被咱们制造的设备人给统治了
大鸣咚咚哩个呛:能够让法官自己测一测危险系数
Y菌_冬日饺子:《美国队长2》,洞察计划
孩儿气的小小倩:我只能说,这个真的是有那样一点的荒谬了
熊阿冷:阿汤哥有一个电影叫少许派报告,讲的是人工智能能够预知犯罪而后司法机关就去在犯案前抓住,结果后面出现了一系列细思恐极的事…
Lucien陈:AI没偏见,然则编写AI程序的人有啊!最后不还是有个人感情原因在里面吗?
数据被删除:我只记得之前那位由于减刑出来后作为人弹的英国骚年
-------------------
|