如何以公平的方式阻止人工智能偏見

作者:Rik Chomko人工智能(AI)具有徹底改變業(yè)務(wù)運(yùn)營的巨大潛力。事實(shí)上,根據(jù)一項(xiàng)研究發(fā)現(xiàn),67%的企業(yè)預(yù)計(jì)人工智能和機(jī)器學(xué)習(xí)用例在未來一年將會(huì)增加。這些技術(shù)在提高業(yè)務(wù)效率、產(chǎn)生洞察力、增強(qiáng)市場競爭能力和提供個(gè)性化客戶體驗(yàn)方面具有優(yōu)勢。然而,在高度監(jiān)管的行業(yè)中,企業(yè)面臨著與AI可解釋性相關(guān)的特殊挑戰(zhàn)。金融服務(wù)、保險(xiǎn)和醫(yī)療保健等行業(yè)必須使用透明、可審計(jì)的決策平臺,以遵守嚴(yán)格的法規(guī)和合規(guī)標(biāo)準(zhǔn)。如今,有很多人工智能解決方案可以自動(dòng)化業(yè)務(wù)流程和決策,但很少有能夠提供有意義的解釋。在充滿潛力的同時(shí),企業(yè)必須絕不能忽視自動(dòng)化決策和預(yù)測背后的原因。

為未來的法規(guī)做準(zhǔn)備如今,政治組織和社會(huì)都呼吁提高人工智能的透明度。此外,政府和消費(fèi)者希望更深入地了解其信貸和貸款審批、營銷活動(dòng)和智能家居技術(shù)背后的算法。美國的算法問責(zé)法和全球歐盟人工智能法的擬議立法尋求建立安全、道德和透明的人工智能結(jié)果的標(biāo)準(zhǔn)。然而,由于用例仍在演變和出現(xiàn),政府才剛剛開始尋找對AI實(shí)施監(jiān)管的方法。例如,紐約市議會(huì)通過了一項(xiàng)針對就業(yè)工具中使用的人工智能算法的法案。該法律將于2023年生效,要求雇主聘請獨(dú)立審計(jì)師來評估,以及用于評估求職者和現(xiàn)有員工的人工智能工具。該法律要求對用于篩選求職者或提拔員工的人工智能工具進(jìn)行偏見審計(jì)。對于有偏見的AI算法或未事先通知員工和候選人使用此類工具,將處以最高1,500美元的罰款。在短期內(nèi),隨著法規(guī)的出現(xiàn)和標(biāo)準(zhǔn)的發(fā)展,企業(yè)應(yīng)該專注于提高透明度的方法,為未來的法規(guī)做好準(zhǔn)備。利用機(jī)器學(xué)習(xí)的一個(gè)挑戰(zhàn)是,根據(jù)定義,它是基于偏見構(gòu)建的。雖然并不是所有的偏見都是有害的,但當(dāng)它產(chǎn)生的結(jié)果對受保護(hù)階層,如性別、種族、年齡等有利或不利,并對一個(gè)人產(chǎn)生負(fù)面影響,如批準(zhǔn)臨床試驗(yàn)、健康管理、貸款資格或信貸批準(zhǔn)時(shí),它就會(huì)變得有害。保護(hù)算法和防止有害偏見的必要性是眾所周知的。但要有效地消除有害的偏見,就需要了解每個(gè)決定或預(yù)測的數(shù)據(jù)。為了獲得至關(guān)重要的透明度,企業(yè)必須對由機(jī)器學(xué)習(xí)和業(yè)務(wù)規(guī)則組成的算法有可見性,從而推動(dòng)決策以提供完整的審計(jì)跟蹤。例如,使用人工智能進(jìn)行理賠審批的保險(xiǎn)公司必須能夠清楚地解釋為什么要做出每個(gè)決定?!昂谙蛔印眴栴}如何加重AI創(chuàng)新的負(fù)擔(dān)借助人工智能,許多企業(yè)面臨著一個(gè)問題,它們的人工智能解決方案提供了預(yù)測并支持自動(dòng)化,但無法解釋為什么它會(huì)做出某個(gè)決定以及影響結(jié)果的因素,就將企業(yè)置于重大法律或名譽(yù)損害的風(fēng)險(xiǎn)之中。企業(yè)需要能夠清楚地看到結(jié)果背后的原因,以確保算法決定返回預(yù)期的結(jié)果。將人工智能的黑匣子變成透明、可解釋的“玻璃盒子”,對于防止對客戶和消費(fèi)者的傷害、降低公司和品牌的風(fēng)險(xiǎn)至關(guān)重要。從本質(zhì)上講,機(jī)器學(xué)習(xí)基于歷史數(shù)據(jù)進(jìn)行預(yù)測?!巴ㄟ^意識實(shí)現(xiàn)公平”指的是一種方法,該方法允許企業(yè)通過使用元數(shù)據(jù)字段來確定一個(gè)模型是否對具有共享特征的各個(gè)組同樣表現(xiàn)良好,即使該特征沒有直接在模型中使用。這種意識有助于企業(yè)在導(dǎo)致不公平或有害的決定之前避免、量化和減輕有害的偏見。企業(yè)人工智能未來的清晰愿景隨著人工智能在整個(gè)企業(yè)的應(yīng)用越來越多,企業(yè)必須尋求人工智能的透明度和可審計(jì)性,以確保結(jié)果不受有害偏見的影響。只有當(dāng)我們優(yōu)先考慮并實(shí)施可解釋的、透明的人工智能解決方案時(shí),我們才能減少有害的偏見,降低風(fēng)險(xiǎn)并促進(jìn)信任。雖然基于技能的招聘越來越受歡迎,但關(guān)于這種做法的有效性和優(yōu)點(diǎn)的神話仍然存在。消除這些誤解是促進(jìn)必要變革的關(guān)鍵,以創(chuàng)造更公平、更可持續(xù)的勞動(dòng)力。畢業(yè)生的生活美國勞動(dòng)力市場將在2022年繼續(xù)調(diào)整。一項(xiàng)針對2,300多名高管的調(diào)查發(fā)現(xiàn),65%的高管希望在上半年增加新的固定職位。還有33%的人在競爭填補(bǔ)職位空缺,目前全美有超過1080萬個(gè)職位空缺。傳統(tǒng)的招聘實(shí)踐不是滿足勞動(dòng)力需求的可行手段。公司必須使他們的方法現(xiàn)代化以保持競爭力。這意味著接受基于技能的招聘。基于技能的招聘強(qiáng)調(diào)候選人的技術(shù)技能和核心能力,而不是學(xué)位或證書,是工作成功的最關(guān)鍵因素。這種做法要求招聘團(tuán)隊(duì)定義一個(gè)角色所需的和首選的技能,并客觀地評估這些技能,以最大限度地減少招聘過程中的偏見。領(lǐng)先公司越來越多地轉(zhuǎn)向以技能為基礎(chǔ)的招聘,下面我們將討論一些關(guān)于采用基于技能的方法的最大誤區(qū)、以及如何解決它們來推動(dòng)公司的文化轉(zhuǎn)變。

1.以技能為基礎(chǔ)的招聘對大學(xué)畢業(yè)生不公平。

以技能為基礎(chǔ)的招聘并不是要把大學(xué)畢業(yè)生排除在考慮范圍之外,或者降低入職門檻。它是關(guān)于闡明學(xué)位所代表的特定技能。這樣一來,持有學(xué)位的人和通過其他途徑掌握技能的求職者都可以考慮擔(dān)任該職位。這有助于為所有人提供民主化的經(jīng)濟(jì)機(jī)會(huì),并擴(kuò)大公司可以獲得的人才庫。以前不需要學(xué)歷的職位,如今對四年學(xué)歷的需求,助長了聲望經(jīng)濟(jì),也讓企業(yè)需要付出更多的成本。在這種模式下,許多曾經(jīng)向上流動(dòng)的工作對所有人來說都變得遙不可及,只有那些能夠負(fù)擔(dān)得起不斷上漲的高等教育費(fèi)用的人才能得到。這也將人才排除在低收入社區(qū)之外,尤其是有色人種。以技能為基礎(chǔ)的招聘為解決這種不平等提供了一種切實(shí)可行的方法,并為66%沒有學(xué)士學(xué)位的美國人,包括75%以上的黑人和80%以上的拉美裔恢復(fù)了候選人資格。

2.基于技能的招聘會(huì)導(dǎo)致糟糕的招聘并損害業(yè)務(wù)。

采用以技能為基礎(chǔ)的方法可以更有效地篩選和招聘候選人?;诩寄艿恼衅笇ξ磥肀憩F(xiàn)的預(yù)測能力是基于教育招聘的5倍,是基于工作經(jīng)驗(yàn)的招聘的2.5倍。此外,許多企業(yè)報(bào)告稱,沒有學(xué)位的員工與大學(xué)畢業(yè)生的工作效率一樣高,在某些情況下甚至更高。以技能為基礎(chǔ)的招聘的其他優(yōu)勢包括:減少招聘時(shí)間,提高員工敬業(yè)度,降低人員流失率。3.在以技能為基礎(chǔ)的招聘并不是一個(gè)現(xiàn)實(shí)的人才獲取策略。也許不是在過去。從歷史上看,招聘團(tuán)隊(duì)對招聘工作采取了超本地化的視角。隨著遠(yuǎn)程工作的興起,企業(yè)可以發(fā)起更廣泛的求職者搜索,找到符合市場技能需求的人。從宏觀上來看,這可能看起來像在資源不足的地區(qū)與勞動(dòng)力開發(fā)企業(yè)建立伙伴關(guān)系,以建立技能多樣的候選人管道來填補(bǔ)遠(yuǎn)程角色。通過這些伙伴關(guān)系,企業(yè)可以同時(shí)推動(dòng)業(yè)務(wù)成果和經(jīng)濟(jì)公平。雖然設(shè)計(jì)和啟動(dòng)基于技能的招聘需要時(shí)間,需要有意識地學(xué)習(xí)和放棄,但你的公司、員工和社區(qū)最終會(huì)受益?,F(xiàn)在投資于以技能為基礎(chǔ)的招聘將使企業(yè)為未來以技能為驅(qū)動(dòng)的工作做好準(zhǔn)備,并創(chuàng)造一個(gè)所有美國人都能切實(shí)參與未來的經(jīng)濟(jì)。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-06-22
如何以公平的方式阻止人工智能偏見
隨著人工智能在整個(gè)企業(yè)的應(yīng)用越來越多,企業(yè)必須尋求人工智能的透明度和可審計(jì)性,以確保結(jié)果不受有害偏見的影響

長按掃碼 閱讀全文