算法偏見:被AI算法包圍的時代

前言:人工智能在各個領(lǐng)域似乎被吹捧為在各種應(yīng)用領(lǐng)域?qū)崿F(xiàn)自動化決策的“圣杯”,被認為可以做得比人類更好或更快,但事實上人工智能面臨了一個大挑戰(zhàn)就是算法偏見。

人工智能是否全能

機器是沒有情感的,只能根據(jù)輸入的數(shù)據(jù)來進行學習,然后按照既定設(shè)計完成相應(yīng)功能,AI需要大量數(shù)據(jù)來運作,但通常沒有合適的數(shù)據(jù)基礎(chǔ)設(shè)施來支持AI學習,最終AI的數(shù)據(jù)基礎(chǔ)不夠,無法真正有效地完成功能,更多的是從事一些指令性的工作,就像生產(chǎn)線上的機器手一樣,都是提前輸入指令,由機器手臂按照固定的步驟操作完成。

人類對大腦還是未知的,我們并不清楚大腦是如何進行學習和工作的,AI其實就是模仿人腦去思考和工作,但我們對大腦的機理并不清楚,就無法讓AI完全模擬人腦,無法完全代替人腦去學習和工作,AI更多時候是根據(jù)輸入的數(shù)據(jù),將見到的問題錄入與已輸入的數(shù)據(jù)進行對比,有重疊度比較高的就認為匹配成功,執(zhí)行相應(yīng)的預設(shè)動作,當已有的樣本庫里沒有匹配到,那AI也不知道該怎么辦。在很多人類活動中,摻雜著很多復雜的社會問題,比如說種族歧視、國家競爭、疾病傳染等問題,AI顯然還意識不到這些問題的存在,這些數(shù)據(jù)不好采集和錄入,AI算法也沒有考慮這些社會因素。

算法的偏見來自哪里

工程師很少刻意將偏見教給算法,那偏見究竟從何而來,這個問題與人工智能背后的核心技術(shù)—機器學習休戚相關(guān)。機器學習過程可化約為如下步驟,而為算法注入偏見的主要有三個環(huán)節(jié)—數(shù)據(jù)集構(gòu)建、目標制定與特征選取(工程師)、數(shù)據(jù)標注(標注者)。

工程師是規(guī)則制定者,算法工程師從頭到尾參與了整個系統(tǒng),包括:機器學習的目標設(shè)定、采用哪種模型、選取什么特征(數(shù)據(jù)標簽)、數(shù)據(jù)的預處理等。不恰當?shù)哪繕嗽O(shè)定,可能從一開始就引入了偏見,比如意圖通過面相來識別罪犯;不過,更典型的個人偏見代入,出現(xiàn)在數(shù)據(jù)特征的選取環(huán)節(jié)。

數(shù)據(jù)標簽就是一堆幫助算法達成目標的判定因素。算法就好像一只嗅探犬,當工程師向它展示特定東西的氣味后,它才能夠更加精準地找到目標。因此工程師會在數(shù)據(jù)集中設(shè)置標簽,來決定算法要學習該數(shù)據(jù)集內(nèi)部的哪些內(nèi)容、生成怎樣的模型。

對于一些非結(jié)構(gòu)化的數(shù)據(jù)集如大量描述性文字、圖片、視頻等,算法無法對其進行直接分析。這時就需要人工為數(shù)據(jù)進行標注,提煉出結(jié)構(gòu)化的維度,用于訓練算法。舉一個很簡單的例子,有時Google Photos會請你幫助判斷一張圖片是否是貓,這時你就參與了這張圖片的打標環(huán)節(jié)。

當打標者面對的是“貓或狗”的提問時,最壞結(jié)果不過是答錯;但如果面對的是“美或丑”的拷問,偏見就產(chǎn)生了。作為數(shù)據(jù)的加工人員,打標者時常會被要求做一些主觀價值判斷,這又成為偏見的一大來源。

打標過程正是將個人偏見轉(zhuǎn)移到數(shù)據(jù)中,被算法吸納,從而生成了帶有偏見的模型。現(xiàn)如今,人工打標服務(wù)已成為一種典型商業(yè)模式,許多科技公司都將其海量的數(shù)據(jù)外包進行打標。這意味著,算法偏見正通過一種“隱形化”、“合法化”的過程,被流傳和放大。

人工智能偏見的分類

偏見不是以一種形式出現(xiàn)的,而是有各種類型的。這包括交互偏見、潛意識偏見、選擇偏見、數(shù)據(jù)驅(qū)動的偏見和確認偏見。

交互偏見:是指用戶由于自己與算法的交互方式而使算法產(chǎn)生的偏見。當機器被設(shè)置向周圍環(huán)境學習時,它們不能決定要保留或者丟棄哪些數(shù)據(jù),什么是對的,什么是錯的。相反,它們只能使用提供給它們的數(shù)據(jù)——不論是好的、壞的,還是丑的,并在此基礎(chǔ)上做出決策。機器人Tay便是這類偏見的一個例子,它是受到一個網(wǎng)絡(luò)聊天社區(qū)的影響而變得偏種族主義。

潛意識偏見:是指算法錯誤地把觀念與種族和性別等因素聯(lián)系起來。例如,當搜索一名醫(yī)生的圖像時,人工智能會把男性醫(yī)生的圖像呈現(xiàn)給一名女性,或者在搜索護士時反過來操作。

選擇偏見:是指用于訓練算法的數(shù)據(jù)被傾向性地用于表示一個群體或者分組,從而使該算法對這些群體有利,而代價是犧牲其他群體。以招聘為例,如果人工智能被訓練成只識別男性的簡歷,那么女性求職者在申請過程中就很難成功。

數(shù)據(jù)驅(qū)動的偏見:是指用來訓練算法的原始數(shù)據(jù)已經(jīng)存在偏見了。機器就像孩子一樣:他們不會質(zhì)疑所給出的數(shù)據(jù),而只是尋找其中的模式。如果數(shù)據(jù)在一開始就被曲解,那么其輸出的結(jié)果也將反映出這一點。

確認偏見:這類似于數(shù)據(jù)驅(qū)動的偏見,偏向于那些先入為主的信息。它影響人們怎樣收集信息,以及人們怎樣解讀信息。例如,如果自己覺得8月份出生的人比其他時候出生的更富有創(chuàng)造性,那就會偏向于尋找強化這種想法的數(shù)據(jù)。

Applause推出偏見解決方案

應(yīng)用測試公司Applause推出了新的人工智能解決方案,同時提供AI訓練所需的龐大數(shù)據(jù)。

Applause已經(jīng)為其應(yīng)用程序測試解決方案建立了龐大的全球測試社區(qū),該解決方案受到谷歌、Uber、PayPal等品牌的信任。

具體地說,Applause的新解決方案跨越五種獨特的AI活動類型:

①語音:源發(fā)聲以訓練支持語音的設(shè)備,并對這些設(shè)備進行測試,以確保它們能夠準確地理解和響應(yīng);

②OCR:提供文檔和對應(yīng)的文本來訓練識別文本的算法,并比較打印文檔和識別文本的準確性;

③圖像識別:交付預定義對象和位置的照片,并確保正確識別圖片和識別對象;

④生物識別:獲取生物特征輸入,如人臉和指紋,并測試這些輸入是否會產(chǎn)生易于使用且實際有效的體驗;

⑤聊天機器人:給出樣本問題和不同的意圖讓聊天機器人回答,并與聊天機器人互動,以確保它們能像人類那樣準確地理解和響應(yīng)。

結(jié)尾:

但回過頭來,技術(shù)不過是社會與人心的一面鏡子。某種程度上,算法偏見就像在這個我們認為進步、美好的當下,重新呈遞灰暗角落的真相并敲響警鐘。因此,當談及算法偏見的應(yīng)對時,一部分努力便是要回歸于人。可幸的是,即便是技術(shù)層面的自律與治理嘗試,也能極大地降低偏見程度、避免偏見大幅擴張。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2019-12-30
算法偏見:被AI算法包圍的時代
前言:人工智能在各個領(lǐng)域似乎被吹捧為在各種應(yīng)用領(lǐng)域?qū)崿F(xiàn)自動化決策的“圣杯”,被認為可以做得比人類更好或更快,但事實上人工智能面臨了一個大挑戰(zhàn)就是算法偏見。

長按掃碼 閱讀全文