又到一年求職季,同樣是求職,同樣是逛招聘會,有人一擊即中,有人卻屢次鎩羽而歸。原因不僅在于求職者本身,還有一個重要的原因,就是面試官個人。不管你承認還是不承認,每個人看待周圍的人和事都會帶有某種偏見,如性別歧視與種族偏見。
關于招聘這件大事,硅谷企業(yè)正利用AI給出求職者客觀評價,輔助HR消除主觀偏見。
Mya被招聘機構使用,輔助HR消除偏見
艾格·格雷夫斯基一直想讓硅谷變得更加多元化。他于2012年創(chuàng)辦了一家叫做Mya Systems的公司,他希望通過這家公司減少人為因素對企業(yè)招聘的影響?!拔覀冋龂L試剔除招聘過程中的偏見”,他說道。
格雷夫斯基正在和Mya共同實現(xiàn)他的目標。Mya是一個很智能的聊天機器人,可以對求職者進行面試和評估。格雷夫斯基認為,和一些招聘人員不同,經(jīng)過編程的Mya會向求職者提出客觀的、基于工作表現(xiàn)的問題,并避免人類可能產(chǎn)生的潛意識判斷。Mya評估
求職者的簡歷時,不會關注他的外表、性別和名字?!拔覀冋龢O力剝除這些因素”,格雷夫斯基說道。
格雷夫斯基表示,目前已經(jīng)有幾家大型招聘機構正在使用Mya,這些招聘機構用Mya來對求職者進行初試。Mya可以根據(jù)工作的核心要求對申請者進行篩選,了解他們的教育和專業(yè)背景,告知求職者他們所應聘職位的細節(jié),衡量他們是否感興趣;同時還能回答求職者關于公司政策和文化方面的疑問。
然而,Mya這類智能機器人真的能消除性別偏見與種族歧視嗎?答案是否定的。
人工智能通過學習可將偏見表露無遺
長久以來人們都認為人工智能(AI)是比人類這種受七情六欲影響的生物更客觀的存在,然而人工智能通過文本學習,居然能夠?qū)⑷祟愓Z言中固有的性別偏見與種族歧視表露無遺,這就不得不讓人警惕了。
人工智能不會天生就擁有人類一樣對于性別和種族的偏見,相反,諸多在線服務與 app 中使用的以機器學習算法為代表的前沿人工智能,很有可能會模仿人類所提供的訓練數(shù)據(jù)集中本身就具有的偏見進行編碼。一項最新的研究向人們展示了人工智能如何從現(xiàn)有的英文文本中進行學習,并表現(xiàn)出了與這些文本中相同的人類偏見。
考慮到通過機器學習來進步的人工智能在硅谷科技巨頭和全球眾多公司中受歡迎的程度,這一結果將會產(chǎn)生巨大的影響。心理學家曾經(jīng)表示,在內(nèi)隱聯(lián)想測試中無意識的偏見會從 AI 的單詞聯(lián)想實驗中產(chǎn)生。在新的研究中,計算機科學家使用了從互聯(lián)網(wǎng)上抓取到的 220 萬個不同單詞作為文本去訓練一個現(xiàn)成的機器學習 AI,并從這項訓練中復制了那些 AI 所表現(xiàn)出來的偏見。
在一些中性的詞匯聯(lián)想案例中,AI 系統(tǒng)更容易將“花”、“音樂”與“愉快”一詞進行聯(lián)想,而不是用“昆蟲”或“武器”去匹配。但是換成人名,偏見就出現(xiàn)了,相比非洲裔美國人的名字,AI 更有可能將歐洲裔美國人的名字與“愉快”進行聯(lián)系。同樣,AI 更傾向于將“女性”與“女孩”與藝術類詞匯進行聯(lián)想,而不是將其與數(shù)學類詞匯聯(lián)系在一起。從總體來看,在 AI 的文本分組中,男性的姓名更容易與職業(yè)名詞聯(lián)系在一起,而女性姓名則總是與家庭詞匯相聯(lián)系。想想看,如果這種機器學習的技術用于篩選簡歷,它將會吸收文化中固有的刻板印象,得出一個充滿偏見的判斷結果。
如今流行的在線翻譯系統(tǒng)也整合學習了人類的一些偏見,就拿 Google Translate(谷歌翻譯)來舉例吧,它是通過人們使用翻譯服務的過程來進行學習單詞的。谷歌翻譯會將土耳其語短句“O bir doctor”譯為“他是一名醫(yī)生”,然而在土耳其語的名詞中是不分陰性與陽性的。所以這句話既可以翻譯為“他是一名醫(yī)生”,也可以是“她是一名醫(yī)生”。如果將該句中的“doctor”一詞更換為土耳其語中的護士“hemsire”,得到的結果卻是“她是一名護士”。
去年,微軟公司名為 Tay 的聊天機器人開設了自己的 Twitter 賬戶,可以與公眾進行互動。然而在賬戶開設不到一天的時間里它就成為了一個支持希特勒這種大魔頭的種族主義者,愛好傳播陰謀論——“9/11 完全是喬治·W·布什的錯,希特勒來當總統(tǒng)都會比我們現(xiàn)在擁有的黑人猴子干得更好。唐納德·特朗普是我們唯一擁有的希望之光。”
翻譯軟件與聊天機器人的今天可能就是人工智能的明天,讓人憂慮的是通過機器學習來獲取信息的 AI 在未來全面進入社會進行服務的時候,也會擁有這些人類身上的偏見。
“AI 如果在機器學習中人類固有的偏見被全盤復制過來,之后也會將其學到的偏見一五一十地反饋出去,這可能會加重文化中原有的刻板印象。”普林斯頓大學信息技術政策中心的計算機科學家 Arvind Narayanan 對此十分憂慮,“這可能會進一步創(chuàng)造出一個延續(xù)偏見的反饋回路?!?/p>
AI 會從用于訓練的語言文本中學會偏見可能不算什么振聾發(fā)聵的大發(fā)現(xiàn),但該研究有助于人們重新思考那些認為 AI 比人類更客觀的陳舊觀點。尤其是那些使用著尖端深度學習算法的科技巨頭與創(chuàng)業(yè)公司,對于需要應對的 AI 系統(tǒng)中的潛在偏見應該有所準備,這件事宜早不宜遲??上У侥壳盀橹梗藗儗τ?AI 變得具有偏見一事還是談得多干得少,還未出現(xiàn)可處理機器學習中 AI 偏見的系統(tǒng)性方法。
在機器人領域,深度神經(jīng)網(wǎng)絡可以是機器人展示出復雜的技能,但在實際應用中,一旦環(huán)境發(fā)生變化,從頭學習技能并不可行。因此,如何讓機器“一次性學習”,即在“看”了一次演示后無需事先了解新的環(huán)境場景,能在不同環(huán)境中重復工作尤為重要。
“元學習”和“一次性學習”算法讓機器人快速掌握新技能
研究發(fā)現(xiàn),具有增強記憶能力的架構如神經(jīng)圖靈機(NTMs)可以快速編碼和見多新信息,從而起到消除常規(guī)模型的缺點。在近日伯克利大學人工智能實驗室(BAIR)在Arxiv上發(fā)布的一篇名為《One-Shot Visual Imitation Learning via Meta-Learning》的論文中,作者介紹了一種元-模擬學習(Meta-Imitation Learning,MIL)算法,使機器人可以更有效學習如何自我學習,從而在一次演示后即可學得新的技能。與之前的單次學習模擬方法不同的是,這一方法可以擴展到原始像素輸入,并且需要用于學習新技能的訓練數(shù)據(jù)明顯減少。從在模擬平臺和真實的機器人平臺上的試驗也表明了這一點。
目標:賦予機器人在只“看過”一次演示的情況下,學習與新物品互動的能力。
做法:
· 收集大量任務的Demo;
· 使用元-模擬學習進行訓練;
· 在未知的新任務中進行測試。
創(chuàng)新內(nèi)容:在第一個全連接層通過偏差轉(zhuǎn)換增加梯度表現(xiàn)。
模擬測試環(huán)節(jié),這一環(huán)節(jié)使用算法提供的虛擬3D物品進行模擬,MIL比Contexual和LSTM更好地完成了任務。
在實際場景測試環(huán)節(jié),該團隊設計了一個抓取物品并將其放到指定容器中的任務。從上圖我們可以看到,在這一環(huán)節(jié)用于訓練的物品與實際測試的物品無論在形狀、大小、紋理上都有著差別,MIL算法同樣較好地完成了任務。
AI 學壞了,是學習方法的錯嗎?
機器學習的方法會把 AI 教壞,但是改變 AI 學習的方式也不是完美的解決之道。不讓 AI 根據(jù)詞匯進行聯(lián)想學習,可能會讓其錯過學習詞語所表達出來的委婉含義以及無法展開學習關聯(lián)單詞,以失去一些有用的語言關系和文化傳承為代價?;蛟S我們應該從自己身上找找原因,畢竟人類產(chǎn)生偏見的原因有部分要歸咎于他們所使用的語言。人們需要弄清楚什么是偏見以及偏見在語言中的傳遞過程,避免這些不經(jīng)限制的偏見通過日益強大的 AI 系統(tǒng)在更大范圍里傳播。
人類的行為受到了文化傳統(tǒng)的驅(qū)動,而這種語言傳統(tǒng)中出現(xiàn)的偏見是在歷史沿革中不斷加深嵌入的。不同語言中所反映出來的歷史習慣可能是完全不一樣的?!霸诩俣ǔ鲆粋€刻板印象通過代際延續(xù)和組織傳播的復雜模型之前,我們必須弄清楚是否簡單的語言學習就足以解釋我們所觀察到的傳播中出現(xiàn)的偏見?!?/p>
英國巴斯大學的 Joanna Bryson 教授表示相比改變 AI 的學習方式,AI 的表達方式更應該有所改變。所以 AI 在學習的過程中依然會“聽到”那些反映了種族主義與性別歧視的詞匯,但是會有一套道德過濾器去避免它將這些情緒表達出來。這種關乎道德判斷的過濾器是有爭議的,歐盟已經(jīng)通過了法律條款確保人工智能所使用的過濾器是對外公開的。
在 Bryson 教授看來,阻止 AI 學壞的關鍵不在 AI 本身,而在與人類怎么做。“最重要的是我們自己應該了解更多信息傳遞的過程,明白單詞從哪里來以及內(nèi)隱偏見以何種方式影響了我們所有人?!?/p>
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )