我們應(yīng)該如何理解李飛飛價(jià)值十億美金的“人文AI”計(jì)劃?

原標(biāo)題:我們應(yīng)該如何理解李飛飛價(jià)值十億美金的“人文AI”計(jì)劃?

AI自從以應(yīng)用角度走進(jìn)大眾視野,就一直逃不出“人文主義”的苛責(zé)。作為一種依靠于海量數(shù)據(jù)運(yùn)轉(zhuǎn)的技術(shù),AI之所以能夠作為提升效率的工具,主要還是因?yàn)閷?duì)人類經(jīng)驗(yàn)的高度集中。

而“人類經(jīng)驗(yàn)”這件事,本身就是不夠完美的。普遍能夠累積成海量數(shù)據(jù)的經(jīng)驗(yàn),有時(shí)反而更加充滿偏見(jiàn)。就像如果把AI帶入哥倫布時(shí)代,AI也會(huì)成為一位堅(jiān)定的地心論支持者。

而李飛飛離開(kāi)谷歌回歸斯坦福后,主導(dǎo)的第一個(gè)項(xiàng)目HAI——以人為本人AI研究院(Stanford Human-Centered AI Institute),就在著重解決AI與人文主義之間的溝壑。

AI擬人化,竟是一位“富裕的白人男性”?

首先要知道的,究竟是什么讓AI無(wú)法“以人為本”?

目前從人文、從公平的角度來(lái)看,AI公認(rèn)的兩個(gè)問(wèn)題是“白人至上(White Guy Problem)”和“男性之海(Sea of Dudes)”。

所謂白人至上,是指在算法驅(qū)動(dòng)下AI所做出的一些種族歧視行為。例如谷歌的圖片自動(dòng)分類曾經(jīng)將黑人照片分類成大猩猩,以及惠普的攝像頭算法無(wú)法識(shí)別深膚色的人。在犯罪預(yù)測(cè)軟件中,甚至?xí)⒑谌说姆缸锫首R(shí)別成普通白人的兩倍以上。

而男性之海,則指的是AI從業(yè)者中有極大的性別傾斜,在2015年的NIPS上,女性與會(huì)者的人數(shù)竟然只占到了13.7%,李飛飛提到,在論文引用量,男性作者的被引用次數(shù)要比女性作者高100倍。


用《紐約時(shí)報(bào)》的話講,兩者結(jié)合,讓AI被塑造出了一個(gè)“富裕白人男性”的價(jià)值觀——?jiǎng)偤煤湍切┱莆罩萍及詸?quán)的企業(yè)主們一模一樣。

如此以來(lái),對(duì)于AI的應(yīng)用很可能反而會(huì)讓人們一直以來(lái)對(duì)于推動(dòng)種族、性別間平等所做的努力白費(fèi)。

就像平權(quán)主義者一直在推動(dòng)男女收入平等,而去年卡內(nèi)基梅隆大學(xué)的計(jì)算機(jī)科學(xué)家卻發(fā)現(xiàn),在谷歌的廣告推送機(jī)制中,更傾向于將高收入工作的招聘廣告推送給男性用戶。

而當(dāng)美國(guó)各地警察部門在執(zhí)行預(yù)測(cè)性警務(wù)工作時(shí),數(shù)據(jù)驅(qū)動(dòng)的風(fēng)險(xiǎn)評(píng)估工具會(huì)讓他們更多的前往有色人種聚集區(qū),無(wú)形中加重了對(duì)某一人群的偏見(jiàn)和標(biāo)簽化。

可怕的是,當(dāng)女性在職場(chǎng)上遇到歧視時(shí),她還可以對(duì)自己情況進(jìn)行發(fā)聲。而當(dāng)AI驅(qū)動(dòng)一切在無(wú)聲中進(jìn)行時(shí),女性甚至不知道自己正在處在歧視鏈之中——如果從沒(méi)見(jiàn)過(guò)這項(xiàng)招聘啟事,女性自然不知道高收入工作更傾向于招聘男性。

而當(dāng)AI行業(yè)中充斥著“富裕的白人男性”時(shí),他們自然也很難注意到算法黑箱中產(chǎn)生了這樣的問(wèn)題。最終萬(wàn)事萬(wàn)物都在人類歧視造就的規(guī)則下運(yùn)行,被驅(qū)動(dòng)的每一個(gè)群體卻又看不清規(guī)則的真正面目。

十億美金的遠(yuǎn)大目標(biāo)

李飛飛在斯坦福主導(dǎo)的HAI項(xiàng)目,大概有著以下三個(gè)目標(biāo):第一是推進(jìn)和發(fā)展下一代AI科學(xué)(重點(diǎn)在于腦科學(xué)和認(rèn)知科學(xué)),第二是研究和預(yù)測(cè)AI對(duì)人類社會(huì)和生活的影響,第三是設(shè)計(jì)和實(shí)踐以人為本的AI技術(shù)和應(yīng)用。

這么一看,所謂“以人為本”的說(shuō)法其實(shí)挺虛的。但綜合斯坦福的一些公開(kāi)資料,以及李飛飛的一些講話,我們可以大概總結(jié)出HAI究竟想做些什么。

首先是在AI研究中引入更多樣化的視角和交叉思維。

最主要的,就是支持女性和有色人種進(jìn)入AI研究。例如斯坦福所支持的“Black in AI”項(xiàng)目,就在號(hào)召有色人種關(guān)注目前的AI研究,關(guān)注AI無(wú)形中所帶來(lái)的歧視問(wèn)題。

同時(shí)還有持續(xù)追蹤各個(gè)領(lǐng)域應(yīng)用AI后所帶來(lái)的影響。

初次之外,HAI還邀請(qǐng)了社會(huì)各界人士共同參與,如教育、工業(yè)、藝術(shù)等等領(lǐng)域,試圖讓他們一起發(fā)表意見(jiàn),尤其是對(duì)技術(shù)研發(fā)者給出反饋,告訴他們AI究竟對(duì)這一領(lǐng)域產(chǎn)生了哪些影響,以權(quán)衡技術(shù)的未來(lái)走向。

至于推動(dòng)下一代AI科學(xué)就很好理解了,主要是幫助研究者圈定研究方向,推動(dòng)AI的可解釋性等等,這里就不再進(jìn)行贅述。


但有趣的是,HAI作為一個(gè)非常政治正確并偉光正的項(xiàng)目,并沒(méi)有在輿論獲得一致性的支持。尤其有媒體指出,該機(jī)構(gòu)有121位教職工,其中有100位以上都是白人,并只有30%的女性。

于是事情就變成了,HAI邀請(qǐng)了一群富裕的白人男性,試圖募集10億美金去從人文角度矯正人工智能的“富裕白人男性”價(jià)值觀。

齒輪之下:如何看待商業(yè)效率以外的AI?

雖然HAI獲得的評(píng)價(jià)不一,但AI所帶來(lái)的公平性問(wèn)題,確實(shí)已經(jīng)開(kāi)始影響人們的正常生活。

就像上文提到的算法錯(cuò)誤估計(jì)有色人種犯罪率將其提升了兩倍,同樣意味著算法將白人的犯罪率錯(cuò)誤的低估了兩倍。如果執(zhí)法者依賴這種錯(cuò)誤的算法,則意味著不僅可能冤枉好人,也可能錯(cuò)放壞人。

又比如前兩年亞馬遜曾經(jīng)鬧出的丑聞,用戶發(fā)現(xiàn)算法在分配貨物能否當(dāng)日送達(dá)時(shí),一旦輸入了黑人聚集區(qū)的郵政編碼,就無(wú)法使用當(dāng)日送達(dá)服務(wù)。


(被評(píng)價(jià)為“高風(fēng)險(xiǎn)”的有色人種,和擁有數(shù)次犯罪記錄卻被評(píng)定為低風(fēng)險(xiǎn)的白人)

這種偏見(jiàn)現(xiàn)象正在越來(lái)越多地出現(xiàn)在種種服務(wù)中:貸款的AI風(fēng)控、保險(xiǎn)的AI審核機(jī)制。最后就導(dǎo)致了越是弱勢(shì)群體,越容易被算法邊緣化,進(jìn)而難以獲得資源與幫助,最后進(jìn)一步地向弱勢(shì)一方傾斜,甚至最終走向犯罪,加重了算法歧視。

如此看來(lái)HAI的很多策略,是非常值得我們仔細(xì)思考的。

例如,當(dāng)我們?cè)陉P(guān)注產(chǎn)業(yè)AI的效率問(wèn)題時(shí),我們是否也應(yīng)該考慮在效率之外,AI對(duì)于產(chǎn)業(yè)的更多影響?當(dāng)AI對(duì)于擁有強(qiáng)大IT基礎(chǔ)的零售集團(tuán)發(fā)揮作用,他們更加理解用戶心智時(shí),那些小而美的微型零售店是否在風(fēng)潮中被遺忘和擠壓,最終退出舞臺(tái)?

又比如除了那些研發(fā)技術(shù)和為技術(shù)買單的人之外,我們是否有責(zé)任去傾聽(tīng)更多人的聲音?AI的研發(fā)者與技術(shù)采買者或許清晰地知道AI是如何推動(dòng)我們生活運(yùn)轉(zhuǎn)的,但那些同樣被卷在齒輪之下的人,是否也有權(quán)力了解到這些齒輪的運(yùn)轉(zhuǎn)規(guī)則?

更重要的,我們是否應(yīng)該盡力去推動(dòng)AI黑箱的透明化,在發(fā)現(xiàn)問(wèn)題時(shí)能夠從內(nèi)部技術(shù)機(jī)制上解決?

以往我們總覺(jué)得,技術(shù)永遠(yuǎn)只是研發(fā)者和應(yīng)用之間的故事。如今看來(lái),或許AI已經(jīng)成為了一個(gè)世界命題。

世界命題,就應(yīng)該廣泛參與。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2019-03-30
我們應(yīng)該如何理解李飛飛價(jià)值十億美金的“人文AI”計(jì)劃?
所謂白人至上,是指在算法驅(qū)動(dòng)下AI所做出的一些種族歧視行為。

長(zhǎng)按掃碼 閱讀全文