AI偏見(jiàn)無(wú)處不在!超1/3公司因AI偏見(jiàn)而蒙受損失

極客網(wǎng)·人工智能1月17日 當(dāng)你看短視頻,AI會(huì)根據(jù)你的喜愛(ài)推薦內(nèi)容,這就是一種偏見(jiàn)。很多企業(yè)也在引入AI系統(tǒng),偏見(jiàn)可能會(huì)給企業(yè)帶來(lái)?yè)p失。

QQ截圖20220117164324.jpg

DataRobot在美國(guó)、英國(guó)調(diào)查350多名技術(shù)人員,超過(guò)三分之一(36%)聲稱(chēng)它們因AI偏見(jiàn)蒙受損失。在受損失的企業(yè)中超過(guò)一半(62%)損失了營(yíng)收或者客戶(hù)(61%),將近一半(43%)失去了員工,超過(guò)三分之一(35%)卷入法律糾紛。

世界經(jīng)濟(jì)論壇AI專(zhuān)家Firth-Butterfield認(rèn)為,AI造成損失的原因很多。他說(shuō):“如果你用AI HR算法挑選出不合適的人,可能會(huì)損害營(yíng)收。如果你用帶偏見(jiàn)的算法貸款,業(yè)務(wù)就沒(méi)法增長(zhǎng),因?yàn)樽罱KAI選擇的貸款對(duì)象會(huì)是恒定的一小部分人?!?/p>

受訪者認(rèn)為,算法不可避免會(huì)對(duì)人產(chǎn)生偏見(jiàn),產(chǎn)生偏見(jiàn)的因素很多,有性別(34%)、年齡(32%)、種族(29%)、性取向(19%)、宗教(18%)。

Forrester在報(bào)告中警告說(shuō):“基于人工智能的歧視——即使是無(wú)意的——也會(huì)對(duì)監(jiān)管、聲譽(yù)和收入造成可怕的影響?!彪m然大多企業(yè)面對(duì)AI時(shí)將公平作為原則,但要持續(xù)下去是一大挑戰(zhàn)。

華盛頓DC智庫(kù)Cato Institute的高管Mathew Feeney認(rèn)為,AI產(chǎn)生偏見(jiàn)是很復(fù)雜的,很大程度是因?yàn)橛?xùn)練系統(tǒng)的數(shù)據(jù)帶來(lái)的。Mathew Feeney認(rèn)為,現(xiàn)在面部識(shí)別很流行,它用到了AI技術(shù),而面部識(shí)別充滿偏見(jiàn)。

Mathew Feeney解釋說(shuō):“當(dāng)我們用系統(tǒng)識(shí)別黑人身份時(shí),可靠性沒(méi)有那么高。系統(tǒng)要訓(xùn)練,訓(xùn)練需要照片,當(dāng)面向特定種群的照片不夠多,或者質(zhì)量不夠好時(shí)就會(huì)出現(xiàn)偏見(jiàn)?!薄安⒉灰欢ㄊ枪こ處熁蛘咴O(shè)計(jì)師心存邪念,只是訓(xùn)練數(shù)據(jù)有問(wèn)題。”

Firth-Butterfield認(rèn)為:“開(kāi)發(fā)算法的人也有偏見(jiàn),這種偏見(jiàn)也會(huì)影響算法。如果算法開(kāi)發(fā)者是一名30歲的男子,他是白人,他帶入的偏見(jiàn)會(huì)與30歲的非裔美國(guó)女子不同。”

信息技術(shù)與創(chuàng)新基金(Information Technology & Innovation Foundation)副總裁Daniel Castro認(rèn)為人類(lèi)在使用AI偏見(jiàn)一詞時(shí)反復(fù)無(wú)常。

Daniel Castro說(shuō):“我認(rèn)為所謂的AI偏見(jiàn)是算法精準(zhǔn)度存在的錯(cuò)誤,也就是估計(jì)值與真實(shí)值之間的差異?!薄按蠖喙居袕?qiáng)烈的市場(chǎng)意愿來(lái)消除AI偏見(jiàn),因?yàn)檫@樣做算法才會(huì)更精準(zhǔn)?!薄袄?,如果算法未能將最優(yōu)產(chǎn)品推薦給購(gòu)物者,公司營(yíng)收就會(huì)減少,蛋糕被競(jìng)爭(zhēng)對(duì)手拿走?!薄捌髽I(yè)出于聲譽(yù)考慮會(huì)要求消除AI偏見(jiàn),否則產(chǎn)品和服務(wù)就會(huì)被認(rèn)為不合格。”

Daniel Castro還認(rèn)為,有時(shí)靠市場(chǎng)力量消除偏見(jiàn)沒(méi)有效果。他說(shuō):“出于稅收目的,政府機(jī)構(gòu)可能會(huì)用AI算法估算財(cái)產(chǎn)價(jià)值,想用這種市場(chǎng)機(jī)制來(lái)消除偏見(jiàn)是很難的。在這種環(huán)境下,政府應(yīng)該提供一套替代性監(jiān)管機(jī)制,比如通過(guò)透明的的措施來(lái)保證。”

 “有些人提到AI偏見(jiàn)會(huì)將它視為歧視。如果房東歧視特定租戶(hù),不論是用算法還是人力來(lái)歧視,我們都應(yīng)該訴諸法律?!?/p>

DataRobot就AI監(jiān)管詢(xún)問(wèn)了受訪者。81%的人認(rèn)為政府監(jiān)管在兩個(gè)方面很有用,一是定義偏見(jiàn),二是預(yù)防偏見(jiàn)。但也有45%的人認(rèn)為政府監(jiān)管會(huì)導(dǎo)致經(jīng)營(yíng)成本增加。32%的人擔(dān)心如果沒(méi)有政府監(jiān)管部分群體可能會(huì)受傷。

Feeney說(shuō):“有許多人呼吁政府監(jiān)管,但要監(jiān)管的AI范圍太廣了,有面部識(shí)別、無(wú)人駕駛、軍事應(yīng)用等等?!?/p>

德勤預(yù)測(cè),2022年圍繞AI監(jiān)管會(huì)有很多的討論,但監(jiān)管全面實(shí)施至少要等到2023年。有些地區(qū)可能會(huì)完全封殺AI部分細(xì)分產(chǎn)業(yè)。

德勤高管Paul Silverglate說(shuō):“AI有很大的潛力,2022年它會(huì)面臨更多的審查,因?yàn)楸O(jiān)管者想深入理解新興AI應(yīng)用的隱私、數(shù)據(jù)安全問(wèn)題,力求保護(hù)好消費(fèi)者?!?/p>

 “科技公司發(fā)現(xiàn)自己已經(jīng)站在了交匯點(diǎn),不能再忽視倫理問(wèn)題。我們要用整體性方法來(lái)解決倫理責(zé)任問(wèn)題。企業(yè)如果用這種方法來(lái)應(yīng)對(duì),尤其是在AI這樣的新興領(lǐng)域,它會(huì)獲得更廣泛的接受,贏得更多信賴(lài),獲得更多營(yíng)收?!保ㄐ〉叮?/p>


(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2022-01-17
AI偏見(jiàn)無(wú)處不在!超1/3公司因AI偏見(jiàn)而蒙受損失
DataRobot在美國(guó)、英國(guó)調(diào)查350多名技術(shù)人員,超過(guò)三分之一(36%)聲稱(chēng)它們因AI偏見(jiàn)蒙受損失。在受損失的企業(yè)中超過(guò)一半(62%)損失了營(yíng)收或者客戶(hù)(61%),將近一半(43%)失去了員工,超過(guò)三分之一(35%)卷入法律糾紛。

長(zhǎng)按掃碼 閱讀全文