算法偏見:被AI算法包圍的時(shí)代

前言:人工智能在各個(gè)領(lǐng)域似乎被吹捧為在各種應(yīng)用領(lǐng)域?qū)崿F(xiàn)自動(dòng)化決策的“圣杯”,被認(rèn)為可以做得比人類更好或更快,但事實(shí)上人工智能面臨了一個(gè)大挑戰(zhàn)就是算法偏見。

人工智能是否全能

機(jī)器是沒有情感的,只能根據(jù)輸入的數(shù)據(jù)來(lái)進(jìn)行學(xué)習(xí),然后按照既定設(shè)計(jì)完成相應(yīng)功能,AI需要大量數(shù)據(jù)來(lái)運(yùn)作,但通常沒有合適的數(shù)據(jù)基礎(chǔ)設(shè)施來(lái)支持AI學(xué)習(xí),最終AI的數(shù)據(jù)基礎(chǔ)不夠,無(wú)法真正有效地完成功能,更多的是從事一些指令性的工作,就像生產(chǎn)線上的機(jī)器手一樣,都是提前輸入指令,由機(jī)器手臂按照固定的步驟操作完成。

人類對(duì)大腦還是未知的,我們并不清楚大腦是如何進(jìn)行學(xué)習(xí)和工作的,AI其實(shí)就是模仿人腦去思考和工作,但我們對(duì)大腦的機(jī)理并不清楚,就無(wú)法讓AI完全模擬人腦,無(wú)法完全代替人腦去學(xué)習(xí)和工作,AI更多時(shí)候是根據(jù)輸入的數(shù)據(jù),將見到的問(wèn)題錄入與已輸入的數(shù)據(jù)進(jìn)行對(duì)比,有重疊度比較高的就認(rèn)為匹配成功,執(zhí)行相應(yīng)的預(yù)設(shè)動(dòng)作,當(dāng)已有的樣本庫(kù)里沒有匹配到,那AI也不知道該怎么辦。在很多人類活動(dòng)中,摻雜著很多復(fù)雜的社會(huì)問(wèn)題,比如說(shuō)種族歧視、國(guó)家競(jìng)爭(zhēng)、疾病傳染等問(wèn)題,AI顯然還意識(shí)不到這些問(wèn)題的存在,這些數(shù)據(jù)不好采集和錄入,AI算法也沒有考慮這些社會(huì)因素。

算法的偏見來(lái)自哪里

工程師很少刻意將偏見教給算法,那偏見究竟從何而來(lái),這個(gè)問(wèn)題與人工智能背后的核心技術(shù)—機(jī)器學(xué)習(xí)休戚相關(guān)。機(jī)器學(xué)習(xí)過(guò)程可化約為如下步驟,而為算法注入偏見的主要有三個(gè)環(huán)節(jié)—數(shù)據(jù)集構(gòu)建、目標(biāo)制定與特征選取(工程師)、數(shù)據(jù)標(biāo)注(標(biāo)注者)。

工程師是規(guī)則制定者,算法工程師從頭到尾參與了整個(gè)系統(tǒng),包括:機(jī)器學(xué)習(xí)的目標(biāo)設(shè)定、采用哪種模型、選取什么特征(數(shù)據(jù)標(biāo)簽)、數(shù)據(jù)的預(yù)處理等。不恰當(dāng)?shù)哪繕?biāo)設(shè)定,可能從一開始就引入了偏見,比如意圖通過(guò)面相來(lái)識(shí)別罪犯;不過(guò),更典型的個(gè)人偏見代入,出現(xiàn)在數(shù)據(jù)特征的選取環(huán)節(jié)。

數(shù)據(jù)標(biāo)簽就是一堆幫助算法達(dá)成目標(biāo)的判定因素。算法就好像一只嗅探犬,當(dāng)工程師向它展示特定東西的氣味后,它才能夠更加精準(zhǔn)地找到目標(biāo)。因此工程師會(huì)在數(shù)據(jù)集中設(shè)置標(biāo)簽,來(lái)決定算法要學(xué)習(xí)該數(shù)據(jù)集內(nèi)部的哪些內(nèi)容、生成怎樣的模型。

對(duì)于一些非結(jié)構(gòu)化的數(shù)據(jù)集如大量描述性文字、圖片、視頻等,算法無(wú)法對(duì)其進(jìn)行直接分析。這時(shí)就需要人工為數(shù)據(jù)進(jìn)行標(biāo)注,提煉出結(jié)構(gòu)化的維度,用于訓(xùn)練算法。舉一個(gè)很簡(jiǎn)單的例子,有時(shí)Google Photos會(huì)請(qǐng)你幫助判斷一張圖片是否是貓,這時(shí)你就參與了這張圖片的打標(biāo)環(huán)節(jié)。

當(dāng)打標(biāo)者面對(duì)的是“貓或狗”的提問(wèn)時(shí),最壞結(jié)果不過(guò)是答錯(cuò);但如果面對(duì)的是“美或丑”的拷問(wèn),偏見就產(chǎn)生了。作為數(shù)據(jù)的加工人員,打標(biāo)者時(shí)常會(huì)被要求做一些主觀價(jià)值判斷,這又成為偏見的一大來(lái)源。

打標(biāo)過(guò)程正是將個(gè)人偏見轉(zhuǎn)移到數(shù)據(jù)中,被算法吸納,從而生成了帶有偏見的模型?,F(xiàn)如今,人工打標(biāo)服務(wù)已成為一種典型商業(yè)模式,許多科技公司都將其海量的數(shù)據(jù)外包進(jìn)行打標(biāo)。這意味著,算法偏見正通過(guò)一種“隱形化”、“合法化”的過(guò)程,被流傳和放大。

人工智能偏見的分類

偏見不是以一種形式出現(xiàn)的,而是有各種類型的。這包括交互偏見、潛意識(shí)偏見、選擇偏見、數(shù)據(jù)驅(qū)動(dòng)的偏見和確認(rèn)偏見。

交互偏見:是指用戶由于自己與算法的交互方式而使算法產(chǎn)生的偏見。當(dāng)機(jī)器被設(shè)置向周圍環(huán)境學(xué)習(xí)時(shí),它們不能決定要保留或者丟棄哪些數(shù)據(jù),什么是對(duì)的,什么是錯(cuò)的。相反,它們只能使用提供給它們的數(shù)據(jù)——不論是好的、壞的,還是丑的,并在此基礎(chǔ)上做出決策。機(jī)器人Tay便是這類偏見的一個(gè)例子,它是受到一個(gè)網(wǎng)絡(luò)聊天社區(qū)的影響而變得偏種族主義。

潛意識(shí)偏見:是指算法錯(cuò)誤地把觀念與種族和性別等因素聯(lián)系起來(lái)。例如,當(dāng)搜索一名醫(yī)生的圖像時(shí),人工智能會(huì)把男性醫(yī)生的圖像呈現(xiàn)給一名女性,或者在搜索護(hù)士時(shí)反過(guò)來(lái)操作。

選擇偏見:是指用于訓(xùn)練算法的數(shù)據(jù)被傾向性地用于表示一個(gè)群體或者分組,從而使該算法對(duì)這些群體有利,而代價(jià)是犧牲其他群體。以招聘為例,如果人工智能被訓(xùn)練成只識(shí)別男性的簡(jiǎn)歷,那么女性求職者在申請(qǐng)過(guò)程中就很難成功。

數(shù)據(jù)驅(qū)動(dòng)的偏見:是指用來(lái)訓(xùn)練算法的原始數(shù)據(jù)已經(jīng)存在偏見了。機(jī)器就像孩子一樣:他們不會(huì)質(zhì)疑所給出的數(shù)據(jù),而只是尋找其中的模式。如果數(shù)據(jù)在一開始就被曲解,那么其輸出的結(jié)果也將反映出這一點(diǎn)。

確認(rèn)偏見:這類似于數(shù)據(jù)驅(qū)動(dòng)的偏見,偏向于那些先入為主的信息。它影響人們?cè)鯓邮占畔ⅲ约叭藗冊(cè)鯓咏庾x信息。例如,如果自己覺得8月份出生的人比其他時(shí)候出生的更富有創(chuàng)造性,那就會(huì)偏向于尋找強(qiáng)化這種想法的數(shù)據(jù)。

Applause推出偏見解決方案

應(yīng)用測(cè)試公司Applause推出了新的人工智能解決方案,同時(shí)提供AI訓(xùn)練所需的龐大數(shù)據(jù)。

Applause已經(jīng)為其應(yīng)用程序測(cè)試解決方案建立了龐大的全球測(cè)試社區(qū),該解決方案受到谷歌、Uber、PayPal等品牌的信任。

具體地說(shuō),Applause的新解決方案跨越五種獨(dú)特的AI活動(dòng)類型:

①語(yǔ)音:源發(fā)聲以訓(xùn)練支持語(yǔ)音的設(shè)備,并對(duì)這些設(shè)備進(jìn)行測(cè)試,以確保它們能夠準(zhǔn)確地理解和響應(yīng);

②OCR:提供文檔和對(duì)應(yīng)的文本來(lái)訓(xùn)練識(shí)別文本的算法,并比較打印文檔和識(shí)別文本的準(zhǔn)確性;

③圖像識(shí)別:交付預(yù)定義對(duì)象和位置的照片,并確保正確識(shí)別圖片和識(shí)別對(duì)象;

④生物識(shí)別:獲取生物特征輸入,如人臉和指紋,并測(cè)試這些輸入是否會(huì)產(chǎn)生易于使用且實(shí)際有效的體驗(yàn);

⑤聊天機(jī)器人:給出樣本問(wèn)題和不同的意圖讓聊天機(jī)器人回答,并與聊天機(jī)器人互動(dòng),以確保它們能像人類那樣準(zhǔn)確地理解和響應(yīng)。

結(jié)尾:

但回過(guò)頭來(lái),技術(shù)不過(guò)是社會(huì)與人心的一面鏡子。某種程度上,算法偏見就像在這個(gè)我們認(rèn)為進(jìn)步、美好的當(dāng)下,重新呈遞灰暗角落的真相并敲響警鐘。因此,當(dāng)談及算法偏見的應(yīng)對(duì)時(shí),一部分努力便是要回歸于人??尚业氖牵幢闶羌夹g(shù)層面的自律與治理嘗試,也能極大地降低偏見程度、避免偏見大幅擴(kuò)張。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2019-12-30
算法偏見:被AI算法包圍的時(shí)代
前言:人工智能在各個(gè)領(lǐng)域似乎被吹捧為在各種應(yīng)用領(lǐng)域?qū)崿F(xiàn)自動(dòng)化決策的“圣杯”,被認(rèn)為可以做得比人類更好或更快,但事實(shí)上人工智能面臨了一個(gè)大挑戰(zhàn)就是算法偏見。

長(zhǎng)按掃碼 閱讀全文