選擇性風險可以提高AI的公平性和準確性

隨著人工智能被用于更多高風險決策,強調(diào)這些決策要盡可能公平和準確,沒有任何固有偏見,已成為一些學術和企業(yè)團體的追求。麻省理工人工智能實驗室的研究人員發(fā)表了一篇新論文,旨在譴責在某些場景下使用選擇性回歸,因為這種技術會降低數(shù)據(jù)集中代表性不足的群體模型的整體性能。

這些代表性不足的群體往往是女性和有色人種,這種對他們的忽視導致了一些關于人工智能種族主義和性別歧視的報道。在一個賬戶中,用于風險評估的人工智能錯誤地將黑人囚犯標記為白人囚犯的兩倍。在另一項案例中,沒有任何背景的男性照片被認定為醫(yī)生和家庭主婦的比例高于女性。通過選擇性回歸,人工智能模型可以對每個輸入做出兩個選擇:預測或棄權。只有在對決策有信心的情況下,該模型才會做出預測,在幾次測試中,通過排除無法正確評估的輸入來提高模型的性能。然而,當輸入被刪除時,它會放大數(shù)據(jù)集中已經(jīng)存在的偏見。一旦AI模型被部署到現(xiàn)實生活中,這將導致代表性不足的群體進一步不準確,因為它無法像在開發(fā)過程中那樣刪除或拒絕代表性不足的群體。最終希望確保以明智的方式考慮跨組的錯誤率,而不是僅僅最小化模型的一些廣泛的錯誤率。

麻省理工學院的研究人員還引入了一種新技術,旨在提高模型在每個子組中的模型性能。這種技術被稱為單調(diào)選擇性風險,一種模型沒有棄權,而是包含種族和性別等敏感屬性,而另一種則不包含。同時,兩個模型都做出決策,沒有敏感數(shù)據(jù)的模型被用作數(shù)據(jù)集中偏差的校準。為這個特定問題提出正確的公平概念是一項挑戰(zhàn)。但是通過執(zhí)行這個標準,單調(diào)的選擇風險,我們可以確保當減少覆蓋范圍時,模型性能實際上在所有子組中都變得更好。當使用醫(yī)療保險數(shù)據(jù)集和犯罪數(shù)據(jù)集進行測試時,新技術能夠降低代表不足的群體的錯誤率,同時不顯著影響模型的整體性能。研究人員打算將這項技術應用到新的應用中,比如房價、學生平均學分績點和貸款利率,看看它是否可以用于其他任務。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2022-08-19
選擇性風險可以提高AI的公平性和準確性
這些代表性不足的群體往往是女性和有色人種,這種對他們的忽視導致了一些關于人工智能種族主義和性別歧視的報道。在一個賬戶中,用于風險評估的人工智能錯誤地將黑人囚犯標記為白人囚犯的兩倍。在另一項案例中,沒有任何背景的男性照片被認定為醫(yī)生和家庭主婦的比例高于女性。

長按掃碼 閱讀全文