雖然AI預測犯罪很有用,但有時候偏見也不小

一部分人認為人工智能可以消除人類偏見。在商務、醫(yī)藥、學術(shù)、打擊犯罪等領(lǐng)域,即使是簡單的統(tǒng)計工具也遠超人類。還有一部分人反對AI將偏見系統(tǒng)化,因為即使偏見未被編入程序,AI也自帶偏見。

雖然AI預測犯罪很有用,但有時候偏見也不小

2016年,ProPublica(一個獨立的非盈利新聞編輯部,為公眾利益進行調(diào)查報道)發(fā)布了一份廣泛引用的報告(Machine Bias),該報告認為,預測犯罪概率的常用算法(COMPAS)帶有種族歧視。一份新的研究報告(The accuracy, fairness, and limits of predicting recidivism)顯示,至少ProPublica提到的案例算法,雙方不相上下,算法并不比人類精確公正。該報告還顯示:某些情況下,人類對高級AI的需求被過度放大。

自2000年起,名為COMPAS的專有算法開始用于預測再次犯罪,即猜測某名罪犯是否會因再次犯罪而被逮捕。ProPublica的記者觀察了來自佛羅里達州的罪犯樣本,發(fā)現(xiàn)那些并未再犯的人群當中,被COMPAS錯誤標記為高風險再犯的黑人人數(shù)幾乎是白人的兩倍。而那些再犯人群中,被錯誤標記為低風險再犯的白人人數(shù)卻是黑人的兩倍,這激怒了公眾。但此后,有報道又稱,算法比人們想象中的公正。風險評分相同的黑人和白人,再犯的幾率也相同,因此并不存在種族差異。算法是否公平,取決于衡量標準,任何算法都不可能滿足所有標準。

研究人員將預測再犯(罪)概率的準確性作為主要衡量標準。受試網(wǎng)絡(luò)用戶閱讀的罪犯信息涉及七個方面,包括年齡、性別和犯罪記錄。研究人員使用COMPAS軟件預測。

雖然AI預測犯罪很有用,但有時候偏見也不小

COMPAS內(nèi)部的算法未知,但能夠讀取每個與人類預測的精準度和公正度基本相似,還有兩大驚人發(fā)現(xiàn)。其一,已知罪犯種族(第一組受試者和COMPAS的使用數(shù)據(jù)均不涉及種族信息),第二組受試者預測再犯概率時表現(xiàn)的偏見度與不知情時基本一致。

其二,要與COMPAS媲美,無需137條數(shù)據(jù)(甚至7條都用不上),也不用聰明的頭腦或算法。某次試驗中,研究人員使用了一個極其簡單的機器學習算法(邏輯回歸),僅需罪犯的兩條數(shù)據(jù)(年齡及此前犯罪的總次數(shù)),預測精準度就可高約65%。研究人員還嘗試了一個需7條數(shù)據(jù)完成預測的強大算法(非線性支持向量機),但精準度并未提高。該項發(fā)現(xiàn)證實了一點(許多人工智能研究員也曾提及):“深度學習”這一時下熱門技術(shù)并非萬金油。有些時候,僅需最簡單的算法和極少量數(shù)據(jù)即可解決問題。

此外,研究人員還想強調(diào),預測社會問題并非總是有跡可循。這些算法預測的不是再犯的概率,而是被再次拘捕的概率。然而,即便同一種罪行,黑人往往比白人更容易入獄。因此,算法(或人類)如果從包含人類種族偏見的數(shù)據(jù)中學習預測模式,很容易過度預測黑人的再犯率,從而增加其入獄率,陷入不公平循環(huán)。

達特茅斯大學計算機科學家Hany Farid 曾與學生Julia Dressel(現(xiàn)已畢業(yè))開展了一項研究,希望這一發(fā)現(xiàn)能讓法院重新審視算法的地位,比如法官在得知網(wǎng)絡(luò)投票可信度不亞于復雜的系統(tǒng)預測結(jié)果時,能夠?qū)ζ湓俅卧u估(補充一句,法官或許會更信任前者)。Farid稱:“我們希望算法的工作原理更加透明。”

不少案例證明人工智能有時要比人類更精準公正。然而,反之亦然,人工智能和人類有時也不相上下。我們需要提倡此類研究,以驗證AI能做什么,不能做什么。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-01-26
雖然AI預測犯罪很有用,但有時候偏見也不小
一部分人認為人工智能可以消除人類偏見。在商務、醫(yī)藥、學術(shù)、打擊犯罪等領(lǐng)域,即使是簡單的統(tǒng)計工具也遠超人類。還有一部分人反對AI將偏見系統(tǒng)化,因為即使偏見未被編入程序,AI也自帶偏見。

長按掃碼 閱讀全文