AI偏見無處不在!超1/3公司因AI偏見而蒙受損失

極客網(wǎng)·人工智能1月17日 當(dāng)你看短視頻,AI會(huì)根據(jù)你的喜愛推薦內(nèi)容,這就是一種偏見。很多企業(yè)也在引入AI系統(tǒng),偏見可能會(huì)給企業(yè)帶來損失。

QQ截圖20220117164324.jpg

DataRobot在美國(guó)、英國(guó)調(diào)查350多名技術(shù)人員,超過三分之一(36%)聲稱它們因AI偏見蒙受損失。在受損失的企業(yè)中超過一半(62%)損失了營(yíng)收或者客戶(61%),將近一半(43%)失去了員工,超過三分之一(35%)卷入法律糾紛。

世界經(jīng)濟(jì)論壇AI專家Firth-Butterfield認(rèn)為,AI造成損失的原因很多。他說:“如果你用AI HR算法挑選出不合適的人,可能會(huì)損害營(yíng)收。如果你用帶偏見的算法貸款,業(yè)務(wù)就沒法增長(zhǎng),因?yàn)樽罱KAI選擇的貸款對(duì)象會(huì)是恒定的一小部分人?!?/p>

受訪者認(rèn)為,算法不可避免會(huì)對(duì)人產(chǎn)生偏見,產(chǎn)生偏見的因素很多,有性別(34%)、年齡(32%)、種族(29%)、性取向(19%)、宗教(18%)。

Forrester在報(bào)告中警告說:“基于人工智能的歧視——即使是無意的——也會(huì)對(duì)監(jiān)管、聲譽(yù)和收入造成可怕的影響?!彪m然大多企業(yè)面對(duì)AI時(shí)將公平作為原則,但要持續(xù)下去是一大挑戰(zhàn)。

華盛頓DC智庫Cato Institute的高管Mathew Feeney認(rèn)為,AI產(chǎn)生偏見是很復(fù)雜的,很大程度是因?yàn)橛?xùn)練系統(tǒng)的數(shù)據(jù)帶來的。Mathew Feeney認(rèn)為,現(xiàn)在面部識(shí)別很流行,它用到了AI技術(shù),而面部識(shí)別充滿偏見。

Mathew Feeney解釋說:“當(dāng)我們用系統(tǒng)識(shí)別黑人身份時(shí),可靠性沒有那么高。系統(tǒng)要訓(xùn)練,訓(xùn)練需要照片,當(dāng)面向特定種群的照片不夠多,或者質(zhì)量不夠好時(shí)就會(huì)出現(xiàn)偏見?!薄安⒉灰欢ㄊ枪こ處熁蛘咴O(shè)計(jì)師心存邪念,只是訓(xùn)練數(shù)據(jù)有問題?!?/p>

Firth-Butterfield認(rèn)為:“開發(fā)算法的人也有偏見,這種偏見也會(huì)影響算法。如果算法開發(fā)者是一名30歲的男子,他是白人,他帶入的偏見會(huì)與30歲的非裔美國(guó)女子不同?!?/p>

信息技術(shù)與創(chuàng)新基金(Information Technology & Innovation Foundation)副總裁Daniel Castro認(rèn)為人類在使用AI偏見一詞時(shí)反復(fù)無常。

Daniel Castro說:“我認(rèn)為所謂的AI偏見是算法精準(zhǔn)度存在的錯(cuò)誤,也就是估計(jì)值與真實(shí)值之間的差異。”“大多公司有強(qiáng)烈的市場(chǎng)意愿來消除AI偏見,因?yàn)檫@樣做算法才會(huì)更精準(zhǔn)?!薄袄纾绻惴ㄎ茨軐⒆顑?yōu)產(chǎn)品推薦給購(gòu)物者,公司營(yíng)收就會(huì)減少,蛋糕被競(jìng)爭(zhēng)對(duì)手拿走?!薄捌髽I(yè)出于聲譽(yù)考慮會(huì)要求消除AI偏見,否則產(chǎn)品和服務(wù)就會(huì)被認(rèn)為不合格?!?/p>

Daniel Castro還認(rèn)為,有時(shí)靠市場(chǎng)力量消除偏見沒有效果。他說:“出于稅收目的,政府機(jī)構(gòu)可能會(huì)用AI算法估算財(cái)產(chǎn)價(jià)值,想用這種市場(chǎng)機(jī)制來消除偏見是很難的。在這種環(huán)境下,政府應(yīng)該提供一套替代性監(jiān)管機(jī)制,比如通過透明的的措施來保證?!?/p>

 “有些人提到AI偏見會(huì)將它視為歧視。如果房東歧視特定租戶,不論是用算法還是人力來歧視,我們都應(yīng)該訴諸法律。”

DataRobot就AI監(jiān)管詢問了受訪者。81%的人認(rèn)為政府監(jiān)管在兩個(gè)方面很有用,一是定義偏見,二是預(yù)防偏見。但也有45%的人認(rèn)為政府監(jiān)管會(huì)導(dǎo)致經(jīng)營(yíng)成本增加。32%的人擔(dān)心如果沒有政府監(jiān)管部分群體可能會(huì)受傷。

Feeney說:“有許多人呼吁政府監(jiān)管,但要監(jiān)管的AI范圍太廣了,有面部識(shí)別、無人駕駛、軍事應(yīng)用等等。”

德勤預(yù)測(cè),2022年圍繞AI監(jiān)管會(huì)有很多的討論,但監(jiān)管全面實(shí)施至少要等到2023年。有些地區(qū)可能會(huì)完全封殺AI部分細(xì)分產(chǎn)業(yè)。

德勤高管Paul Silverglate說:“AI有很大的潛力,2022年它會(huì)面臨更多的審查,因?yàn)楸O(jiān)管者想深入理解新興AI應(yīng)用的隱私、數(shù)據(jù)安全問題,力求保護(hù)好消費(fèi)者?!?/p>

 “科技公司發(fā)現(xiàn)自己已經(jīng)站在了交匯點(diǎn),不能再忽視倫理問題。我們要用整體性方法來解決倫理責(zé)任問題。企業(yè)如果用這種方法來應(yīng)對(duì),尤其是在AI這樣的新興領(lǐng)域,它會(huì)獲得更廣泛的接受,贏得更多信賴,獲得更多營(yíng)收?!保ㄐ〉叮?/p>


(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2022-01-17
AI偏見無處不在!超1/3公司因AI偏見而蒙受損失
DataRobot在美國(guó)、英國(guó)調(diào)查350多名技術(shù)人員,超過三分之一(36%)聲稱它們因AI偏見蒙受損失。在受損失的企業(yè)中超過一半(62%)損失了營(yíng)收或者客戶(61%),將近一半(43%)失去了員工,超過三分之一(35%)卷入法律糾紛。

長(zhǎng)按掃碼 閱讀全文