AI的“色差”與“糾偏”

在美國(guó)學(xué)術(shù)界聲援BLM(Black Lives Matter)之后,事情的走向有點(diǎn)難以預(yù)料。

學(xué)術(shù)界的反種族歧視反省似乎沒(méi)有了下文,但是如火如荼的BLM運(yùn)動(dòng)早已蔓延開(kāi)來(lái),這次將矛頭指向了AI界。

事情的起因是杜克大學(xué)提出了一種稱之為PULSE(Photo Upsampling via Latent Space Exploration)的AI算法。它可以輕松將馬賽克級(jí)別畫(huà)質(zhì)的人臉圖像轉(zhuǎn)化為計(jì)算機(jī)生成的高清畫(huà)質(zhì)圖像,也可以“有來(lái)有往”地將高清畫(huà)質(zhì)給降級(jí)到高糊狀態(tài),反正是效果極好。

問(wèn)題就出在,PULSE生成的圖像可不保證是還原的原始人物的頭像,而且在人臉膚色上還會(huì)進(jìn)行大膽“創(chuàng)新”,把原本是黑膚色的人像變成了白膚色的。比如奧巴馬:

這一結(jié)果被美國(guó)網(wǎng)民發(fā)現(xiàn)之后,紛紛將涉嫌種族歧視的矛頭指向人工智能。然后將事情引向高潮的是AI界的標(biāo)桿性人物Yann LeCun,他在推特上給出了自己的解釋,大意是出現(xiàn)這種偏差的原因是由于數(shù)據(jù)集的偏差。訓(xùn)練數(shù)據(jù)集主要是用了白人照片,如果是換成黑人照片,可能會(huì)出現(xiàn)生成的人像更多是黑人的情況。

LeCun的一番解釋卻換來(lái)了兩位同行的反駁,她們聲稱LeCun的解釋是“避重就輕”,忽視了AI的偏見(jiàn)來(lái)自于更廣泛的社會(huì)不公和偏見(jiàn)的影響。

為此,LeCun選擇道歉以息事寧人,不愿意將這一話題繼續(xù)擴(kuò)大。然而AI界已經(jīng)為此分成了兩派,就LeCun是否在為“AI的種族歧視”辯護(hù)和是否應(yīng)該為此事道歉吵得不可開(kāi)交。

今天,在社交網(wǎng)絡(luò)中不堪其擾的LeCun呼吁所有人停止相互的攻擊,再次申明自己反對(duì)一切形式的歧視,并決定退出推特來(lái)表明這一態(tài)度。

相互攻擊的口水戰(zhàn)確實(shí)對(duì)于解決問(wèn)題于事無(wú)補(bǔ),但AI算法中存在種種的“偏見(jiàn)”和“歧視”,則仍然是AI界嚴(yán)肅面對(duì)的 “事實(shí)性”問(wèn)題。

不過(guò),就導(dǎo)致AI偏見(jiàn)的種種原因,人們?nèi)匀辉跔?zhēng)論不休,而至于如何解決AI中存在的種種偏見(jiàn),則同樣沒(méi)有一致的定論。我們希望盡可能呈現(xiàn)出這一爭(zhēng)論的復(fù)雜樣貌,來(lái)探索下破解AI偏見(jiàn)的方案中有無(wú)最優(yōu)解。

AI的“有色眼鏡”世界

今年5月底,微軟宣布要裁撤80名外包編輯,交由AI算法負(fù)責(zé)接下來(lái)的MSN新聞抓取、排版和配圖等工作。

(MSN 在關(guān)于Jade的報(bào)道中錯(cuò)誤地使用了Leigh的照片)

然而就在宣布之后不到一周時(shí)間里,AI編輯就捅了婁子,在一篇關(guān)于阿拉伯裔歌手Jade Thirlwall的文章中,配圖卻用成了該團(tuán)隊(duì)另外一個(gè)非裔成員Leigh-Anne Pinnock的照片。更讓人哭笑不得的是,這篇文章正是Jade講述自己曾經(jīng)遭受種族歧視經(jīng)歷的文章。

(左三是Jade Thirlwall,右一是Leigh-Anne)

AI算法又用“AI臉盲”的偏見(jiàn)再一次不經(jīng)意地“歧視”了一把Jade和她的伙伴L(zhǎng)eigh-Anne。雖然說(shuō)兩位女團(tuán)成員長(zhǎng)得是有那么一點(diǎn)想象,但是AI就不能長(zhǎng)長(zhǎng)眼,正確區(qū)分出兩人的膚色差別嗎?

事實(shí)上,AI人臉識(shí)別在深色皮膚族裔的識(shí)別上,問(wèn)題一直存在。

2018年,MIT媒體實(shí)驗(yàn)室的研究員Joy Buolamwini(算法正義聯(lián)盟的組織者),就“人臉識(shí)別技術(shù)在識(shí)別不同種族和性別的人臉的效果關(guān)系”的研究中發(fā)現(xiàn),一些商業(yè)軟件在識(shí)別黑色人種的性別的錯(cuò)誤率要遠(yuǎn)遠(yuǎn)高于白色人種,而且膚色越黑,識(shí)別率就越低。

研究中,她選擇了微軟、IBM和Face++的人臉識(shí)別算法。經(jīng)過(guò)測(cè)試,算法在識(shí)別白人男性的錯(cuò)誤率僅為1%,在識(shí)別白人女性的錯(cuò)誤率為7%。而到了識(shí)別黑人男性的錯(cuò)誤率則升至12%,黑人女性的識(shí)別錯(cuò)誤率則高達(dá)35%,也就是每三個(gè)黑人女性就會(huì)被錯(cuò)誤識(shí)別一次性別。

而這次研究被哈弗福德學(xué)院計(jì)算機(jī)科學(xué)家Sorelle Friedler評(píng)價(jià)為第一次證明人臉識(shí)別對(duì)不同人群有不同效果的研究。

其實(shí)之前業(yè)界早已經(jīng)意識(shí)到這一問(wèn)題,AI在計(jì)算機(jī)視覺(jué)上面存在的認(rèn)知偏見(jiàn),可能會(huì)導(dǎo)致種族歧視,比如2015年,谷歌的圖像識(shí)別技術(shù)就將非裔美國(guó)人標(biāo)記為“大猩猩”。

(美國(guó)邊境警察檢查護(hù)照)

當(dāng)時(shí)出現(xiàn)這樣的狀況,還可以理解為圖像識(shí)別算法不夠成熟,而現(xiàn)在這一問(wèn)題卻仍然并未得到更好的解決。2019年底,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的一項(xiàng)研究表明,世界上許多頂尖的面部識(shí)別算法都存在年齡、種族和民族偏見(jiàn)。研究顯示,一些美國(guó)本土開(kāi)發(fā)的面部識(shí)別軟件中,中年白人男子的識(shí)別準(zhǔn)確率最高,而非裔美國(guó)婦女識(shí)別錯(cuò)誤率最高,少數(shù)族裔、兒童和老年人的錯(cuò)誤識(shí)別率也相對(duì)更高。在某些情況下,亞裔和非裔美國(guó)人被錯(cuò)誤識(shí)別的概率是白人的100倍。

AI偏見(jiàn)的范圍,自然不僅僅限于人臉識(shí)別領(lǐng)域。比如在算法招聘、犯罪風(fēng)險(xiǎn)預(yù)測(cè)以及疾病風(fēng)險(xiǎn)評(píng)估當(dāng)中,都會(huì)因?yàn)樗惴P偷钠詈蛿?shù)據(jù)的不完善導(dǎo)致AI的偏見(jiàn)。

比如,2018年,研究者在亞馬遜的招聘算法中發(fā)現(xiàn),在技術(shù)職位的簡(jiǎn)歷中,對(duì)包含有“女性”的一詞的簡(jiǎn)歷進(jìn)行了降級(jí)。而將AI應(yīng)用于某些人可能再犯罪的風(fēng)險(xiǎn)評(píng)估時(shí),更多以司法部的歷史數(shù)據(jù)記錄進(jìn)行訓(xùn)練。而現(xiàn)實(shí)數(shù)據(jù)中,美國(guó)黑人就比白人或西班牙裔更容易被警察攔截。

再比如,美國(guó)某公司在利用AI篩選慢性病高風(fēng)險(xiǎn)人群的過(guò)程匯總,他們主要根據(jù)患者支付的醫(yī)療費(fèi)用來(lái)評(píng)估的患者患并發(fā)癥的風(fēng)險(xiǎn)高低。但他們發(fā)現(xiàn),在實(shí)際過(guò)程中,當(dāng)黑人和白人患者花費(fèi)相同的情況下,模型給出的黑人患者的風(fēng)險(xiǎn)評(píng)分仍會(huì)低于白人患者。也就是,即使在風(fēng)險(xiǎn)相似的情況下,該模型也更傾向于選出更多白人患者進(jìn)入護(hù)理計(jì)劃。

也就是說(shuō),在現(xiàn)實(shí)世界中存在的種族歧視、性別、年齡歧視、少數(shù)人群歧視等問(wèn)題,不僅在AI算法中存在,甚至還會(huì)通過(guò)一種更直接有效地方式放大。

AI算法的“色差”體質(zhì),難道真的像LeCun所言,就是AI訓(xùn)練的數(shù)據(jù)集的問(wèn)題嗎?

AI“色差”從何而來(lái)?

在我們大多數(shù)人的意識(shí)中,科技通常是中立的。不管在全世界任何體制中、面對(duì)任何人群,科技遵循的規(guī)則都是客觀的、中立的,就像建造高樓要遵循力學(xué)結(jié)構(gòu)原理,防御新冠病毒要遵循科學(xué)檢測(cè)和消殺防護(hù)手段一樣。

偏偏AI這位科技領(lǐng)域的新寵,從誕生之日起就帶著神秘的算法黑箱和挑戰(zhàn)人類智能的宏偉愿景。同時(shí)不可避免地也帶有了人類設(shè)計(jì)者的主觀色彩和個(gè)人偏見(jiàn)。

在AI應(yīng)用中,最顯而易見(jiàn)的一種人類性別偏見(jiàn)甚至都沒(méi)有上升到算法層面,而僅僅在人類選擇AI助手中就暴露無(wú)遺。

現(xiàn)在,主要的智能音箱或者智能設(shè)備中的AI助手都默認(rèn)為女性名字和女性聲音。當(dāng)然,大多數(shù)用戶也都表現(xiàn)出對(duì)于女性聲音的偏好。但這一默認(rèn)出廠設(shè)定隱含著一個(gè)來(lái)自現(xiàn)實(shí)社會(huì)的偏見(jiàn),那就是人們更傾向于把女性設(shè)定為服務(wù)助理的角色,繼續(xù)強(qiáng)化了女性的次要地位和順從男性的角色定位。

在深入到那些由于AI圖像識(shí)別算法導(dǎo)致的種族歧視和性別歧視案例中,其實(shí)也可以發(fā)現(xiàn)AI算法的決策過(guò)程以及導(dǎo)入訓(xùn)練數(shù)據(jù)的過(guò)程中都有研發(fā)者個(gè)人的價(jià)值觀、認(rèn)知缺陷和偏見(jiàn)等因素參與其中。

比如,在PULSE進(jìn)行高清圖像生成的案例中,LeCun的解釋一定意義上是可能的,就是如果在訓(xùn)練數(shù)據(jù)集中加入更多的黑人照片,那么生成的照片可能會(huì)更多是黑人的膚色。但是,AI偏見(jiàn)的鍋也不能完全甩給數(shù)據(jù)偏差(LeCun在此的回應(yīng)確實(shí)有點(diǎn)草率)。

AI藝術(shù)家Mario Klingemann通過(guò)驗(yàn)證指出,PULSE將黑人圖像生成為白人的問(wèn)題,并非出自數(shù)據(jù),而是算法本身。他通過(guò)使用StyleGAN(PULSE也采用了英偉達(dá)的這一算法)從相同像素的奧巴馬圖像中生成的更多是非白人照片。當(dāng)然,Mario也不能真正指出到底是算法在什么情況下出現(xiàn)這種錯(cuò)誤的。

在對(duì)LeCun的回應(yīng)中,在AI正義聯(lián)盟工作的研究者Deborah Raji指出,AI的偏見(jiàn)受到更廣泛的社會(huì)不公正和偏見(jiàn)的影響,而不僅僅是使用“正確”的數(shù)據(jù)集來(lái)能解決更大的社會(huì)不公問(wèn)題(當(dāng)然Raji的指責(zé)也有點(diǎn)超綱)。

通過(guò)以上爭(zhēng)論,我們其實(shí)可以得出一個(gè)更折中的答案。AI是大規(guī)模帶標(biāo)注的數(shù)據(jù)集訓(xùn)練的產(chǎn)物,數(shù)據(jù)集中反映不同種族、性別的樣本數(shù)據(jù)占比的失衡,確實(shí)將反映到AI算法模型的結(jié)果當(dāng)中,從而又會(huì)強(qiáng)化算法模型對(duì)于某一類數(shù)據(jù)的判斷,而弱化對(duì)缺失數(shù)據(jù)的判斷。而訓(xùn)練數(shù)據(jù)的偏見(jiàn)則來(lái)自于人類研究者對(duì)于數(shù)據(jù)的收集方式的偏頗。

在以往的數(shù)據(jù)收集,更多來(lái)自于研究者更為熟悉的人種,或者是互聯(lián)網(wǎng)上面的數(shù)據(jù)。但事實(shí)上,這些數(shù)據(jù)也并非“客觀中立”,而早已帶上了人類世界的“偏見(jiàn)”標(biāo)簽。比如在谷歌中,搜索CEO的圖片,絕大多數(shù)都是男性CEO,其比例要遠(yuǎn)遠(yuǎn)高于實(shí)際當(dāng)中的男性CEO比例。而搜索黑人名字,則往往會(huì)跟“犯罪”、“逮捕”等標(biāo)簽綁定。此外,在英文搜索中,其他少數(shù)族裔的數(shù)據(jù)也很少會(huì)被搜索到。由此形成的數(shù)據(jù)集而訓(xùn)練的模型將延續(xù)人類的偏見(jiàn)。

一個(gè)典型的案例就可以理解。去年,微軟、谷歌、亞馬遜等AI在識(shí)別低收入國(guó)家的物品上面,準(zhǔn)確度要遠(yuǎn)遠(yuǎn)低于高收入國(guó)家的物品。不完整的數(shù)據(jù)集導(dǎo)致AI也會(huì)“嫌貧愛(ài)富”了。

也就是說(shuō),AI算法和數(shù)據(jù)集的問(wèn)題直接導(dǎo)致了偏見(jiàn)和歧視的出現(xiàn),而導(dǎo)致AI算法和數(shù)據(jù)集出問(wèn)題的原因則來(lái)自于人類研究者一開(kāi)始的認(rèn)知缺陷和原始數(shù)據(jù)隱藏的偏見(jiàn)問(wèn)題。

在BLM運(yùn)動(dòng)愈演愈烈的當(dāng)下,AI偏見(jiàn)問(wèn)題正從一個(gè)圈內(nèi)被忽視的“頑疾”走出圈外,成為社會(huì)大眾關(guān)心的公平正義問(wèn)題。那么,這是否能成為解決這一問(wèn)題的最好契機(jī)呢?

AI“色差”該如何“糾偏”?

客觀來(lái)說(shuō),想要真正清除AI算法的這些“色差”偏見(jiàn),難度極大。不然AI界也不會(huì)坐視這個(gè)問(wèn)題的泛濫。不過(guò),至少在美國(guó)非裔男子佛洛依德事件之后,科技公司已經(jīng)開(kāi)始意識(shí)到AI算法帶來(lái)歧視問(wèn)題的嚴(yán)重性了。

比如,IBM等公司就做了一件“釜底抽薪”的事情——既然AI(僅指人臉識(shí)別)有問(wèn)題,那我不用還不行嗎?

(IBM現(xiàn)任首席執(zhí)行官Arvind Krishna)

6月8號(hào),IBM旗幟鮮明地聲明要徹底放棄人臉識(shí)別業(yè)務(wù), “反對(duì)將面部識(shí)別技術(shù)在內(nèi)的任何技術(shù)用于大規(guī)模監(jiān)控、種族定性、侵犯基本人權(quán)與自由,或其他任何不符合我們價(jià)值觀和信任與透明原則的目的?!?/p>

隨后,亞馬遜和微軟也緊隨其后,只是打了折扣,聲明有條件地限制自己的人臉識(shí)別技術(shù)提供給美國(guó)警方使用。

IBM這種自絕于AI的方法,當(dāng)然可以避免人臉識(shí)別技術(shù)在種族歧視上的濫用。但是一竿子打死AI并不能徹底解決問(wèn)題。人臉識(shí)別在現(xiàn)實(shí)世界的應(yīng)用既有普遍場(chǎng)景,也有重要作用。通過(guò)追根溯源,提高少數(shù)族裔和女性老人等群體的人臉識(shí)別準(zhǔn)確度,不是更有意義嗎?

導(dǎo)致AI偏見(jiàn)的原因可能是復(fù)雜因素的集合,那么解決AI偏見(jiàn)的“藥方”,自然也是需要多管齊下的。綜合來(lái)看,糾正AI偏見(jiàn)要從技術(shù)、立法和團(tuán)隊(duì)三方面來(lái)整體改進(jìn)。

在技術(shù)層面,豐富數(shù)據(jù)源類型和規(guī)模,構(gòu)建更公平的數(shù)據(jù)集,這成為解決AI偏見(jiàn)最直接、看起來(lái)也最可行的方式。

在立法層面,建立算法問(wèn)責(zé)制度,由AI組織成立專業(yè)機(jī)構(gòu)實(shí)現(xiàn)對(duì)算法的審查和監(jiān)督。盡管歐洲的GDPR、美國(guó)的《算法問(wèn)責(zé)法案》已經(jīng)有相關(guān)規(guī)定,但實(shí)際操作仍然存在難度,這就要求擁有AI算法的科技企業(yè)在算法透明性和可解釋性上做出巨大讓步。

在團(tuán)隊(duì)層面,增加科技公司中AI團(tuán)隊(duì)的人群多樣性,特別是女性和有色人種的比例,也許是解決這一問(wèn)題的可行方法。畢竟,之前的AI技術(shù)大多是由西方白人男性主導(dǎo),這很可能是導(dǎo)致美國(guó)眾多AI算法帶有種族歧視、性別歧視的一個(gè)“隱含”原因(但并不能確定其中包含直接的因果關(guān)系)。

更為重要的是,在今后的算法測(cè)試中,在公布結(jié)果前,應(yīng)該加入更多樣化的應(yīng)力測(cè)試,包括增加對(duì)不同國(guó)籍、種族、膚色、性別、年齡等數(shù)據(jù)的測(cè)試,提前發(fā)現(xiàn)算法中可能存在的認(rèn)知偏見(jiàn)。

此外,通過(guò)開(kāi)源社區(qū)和開(kāi)源技術(shù)來(lái)消除AI偏見(jiàn),也可能是一個(gè)不錯(cuò)的思路。至少首先解決了AI算法的透明性問(wèn)題。同時(shí),諸如像研究者提出的自動(dòng)白箱測(cè)試技術(shù)——DeepXplore,可以增強(qiáng)了AI應(yīng)力測(cè)試的強(qiáng)度,以驗(yàn)證AI的黑盒問(wèn)題,并消除可能帶來(lái)的偏見(jiàn)問(wèn)題。這也是值得研究者們長(zhǎng)期關(guān)注的問(wèn)題。

在解決AI偏見(jiàn)的問(wèn)題上,我們不可能抱著過(guò)于激進(jìn)的態(tài)度,希望通過(guò)一次社會(huì)運(yùn)動(dòng)就能徹底推動(dòng)技術(shù)界去消除這一技術(shù)問(wèn)題,畢竟這一問(wèn)題的根源更多是來(lái)自于人類自身。

我們的認(rèn)知偏見(jiàn)其實(shí)要遠(yuǎn)遠(yuǎn)多于AI,而AI所做的就是“學(xué)會(huì)”并“放大”我們的偏見(jiàn)和歧視。因此,對(duì)于AI算法訓(xùn)練的糾偏就顯得刻不容緩,但又不能操之過(guò)急。正如AI算法要經(jīng)過(guò)一次次調(diào)參的過(guò)程來(lái)將訓(xùn)練結(jié)果調(diào)整至越來(lái)越接近完美的準(zhǔn)確狀態(tài),AI的糾偏也需要這樣一個(gè)一步步緩慢調(diào)整的“調(diào)參”過(guò)程,只不過(guò)這個(gè)過(guò)程要更為復(fù)雜和艱辛。

在這個(gè)過(guò)程中,AI研究者首先是跟自己的認(rèn)知盲區(qū)和個(gè)人偏見(jiàn)做斗爭(zhēng)。如果你認(rèn)為AI中存在的偏見(jiàn)不是什么大問(wèn)題的時(shí)候,它本身已經(jīng)就是一個(gè)很大的問(wèn)題了。

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀點(diǎn),與極客網(wǎng)無(wú)關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2020-06-30
AI的“色差”與“糾偏”
AI算法又用“AI臉盲”的偏見(jiàn)再一次不經(jīng)意地“歧視”了一把Jade和她的伙伴L(zhǎng)eigh-Anne。

長(zhǎng)按掃碼 閱讀全文