我們要擔(dān)心的不是機(jī)器人殺手 而是他們的創(chuàng)造者

我們要擔(dān)心的不是機(jī)器人殺手 而是他們的創(chuàng)造者

有一天,人工智能機(jī)器人將取代人類,成為地球上的主導(dǎo)生命形式,史蒂芬·霍金(以及伊隆·馬斯克)如是說。然而,盡管近年來人工智能和機(jī)器人領(lǐng)域取得了令人矚目的進(jìn)步,但同樣也給社會帶來了最緊迫、最真實(shí)的危險。

具體來說,威脅不在于人工智能是否會超越他們現(xiàn)在所服務(wù)的目標(biāo)(如管理對沖基金或招募新員工),也不在于它們是否會反抗主人。而在于,人工智能在替主人行事時,是多么的高效。

事實(shí)上,由于機(jī)器人和人工智能還沒有展現(xiàn)出絲毫自主性或獨(dú)立性,霍金口中“新形式的生命”顯然對它們而言并不恰當(dāng)。相反,它們的存在只是一種擴(kuò)展形式,擴(kuò)展的是制造和使用它們的群體。它們是一種復(fù)雜的工具,它們幫助組織執(zhí)行某些活動。

正因?yàn)樗鼈兪瞧溥\(yùn)作者的延伸,對社會而言才成為了潛在威脅。機(jī)器人是由特定人群設(shè)計(jì)和使用,而這些人有著特定的價值觀和利益。這意味著,它們的行動不可避免地會反映和推進(jìn)這些價值觀和利益,而這些價值和利益并非符合所有群體和個人。它們具有卓越的效率和生產(chǎn)率,這意味著,它們將給擁有足夠資源的人帶來獨(dú)特的優(yōu)勢,使其能夠以自己的想法塑造世界,而犧牲那些普通人的利益。

人工智能和人類學(xué)會了偏見

要了解人工智能如何增加社會、經(jīng)濟(jì)和政治的不平等,你只需看看最近的例子,這些例子表明,人工智能和機(jī)器學(xué)習(xí)算法已經(jīng)顯示出了偏見。

例如,2016年5月,ProPublica的一項(xiàng)研究顯示,在美國多個州使用的累犯評估算法對非裔美國人存在偏見,不其標(biāo)記為“更高危人群”的比例為44.9%,而白人的這一比例為23.5%。

我們要擔(dān)心的不是機(jī)器人殺手 而是他們的創(chuàng)造者

又如,2017年4月在《科學(xué)》雜志上發(fā)表的一篇研究論文發(fā)現(xiàn),在互聯(lián)網(wǎng)上學(xué)習(xí)大量的詞匯聯(lián)想時,機(jī)器學(xué)習(xí)工具獲得了關(guān)于女性和非裔美國人的“類似人的語義偏見”(也就是刻板印象)。

之所以出現(xiàn)這樣的偏見,是因?yàn)槿斯ぶ悄芎蜋C(jī)器人從它們所接收的數(shù)據(jù)和參數(shù)中學(xué)習(xí)。更常見的情況是,這些數(shù)據(jù)和參數(shù)來自于那些設(shè)計(jì)和使用它們的人:即社會等級較高,享有特權(quán)的白人男性。

正因?yàn)槿绱?,人工智能面部識別軟件難以識別有色人種的臉。也因?yàn)槿绱?,人工智能和機(jī)器人能夠更好地促進(jìn)其制造者和所有者的利益,而不是其他人的利益。

更重要的是,到2027年,他們的工作效率會更卓越,會滲透到大約2470萬個工作崗位,這意味著,他們將在大部分生活和工作領(lǐng)域打下其制造者的烙印。它們會讓數(shù)以百萬計(jì)的工薪階層失業(yè),它們將會給有能力采用它們的組織巨大的商業(yè)競爭優(yōu)勢。因此,若一些國家和階層能夠制造并擁有它們,這些國家和群體將會增強(qiáng)更大的全球影響力。

人工智能只能為少數(shù)人代言

基于上述原因,目前越來越多向機(jī)器人賦權(quán)(甚至是賦予公民身份)的討論令人不安。機(jī)器人和人工智能受其主人產(chǎn)權(quán)的保護(hù),是不能被隨意破壞的。

因此,很明顯,賦予他們“權(quán)利”并不意味著給予他們免受破壞的消極權(quán)利(因?yàn)樗麄円呀?jīng)有了這樣的權(quán)利),但必須等于給予他們積極權(quán)利,使其追求自己的目標(biāo)(例如,政治反對),而不受來自其他方面(例如,那些不支持機(jī)器人的人)的干擾。

換句話說,這種賦權(quán)實(shí)際上等同于授權(quán)人工智能的所有者,讓他們的目標(biāo)、目的、價值觀受到特殊的保護(hù),這些所有者可以利用人工智能和機(jī)器人來達(dá)到自身目的。

最后,提到價值觀,我們就觸及了另一個不確定的主題,這個主題經(jīng)常會在人工智能的討論中出現(xiàn)。無論是歐洲議會還是研究機(jī)構(gòu),人們經(jīng)常說,我們需要確保智能機(jī)器人可以學(xué)習(xí)和維護(hù)人類的價值觀。然而,問題是:到底機(jī)器人會傳授和支持誰的價值觀,而誰又會為全人類說話呢?

不管一套真正的普世價值觀能否被灌輸?shù)饺斯ぶ悄苤?,這樣的討論只是表明,機(jī)器人的行為方式會產(chǎn)生道德、社會和經(jīng)濟(jì)影響,它們只得淪為某些價值觀的載體。

而令人擔(dān)憂的是,他們將在很大程度上由一群特定的企業(yè)和實(shí)業(yè)家制造和控制。在此情況下,他們的高效性極有可能會助力于這類人的價值觀和利益的實(shí)現(xiàn)——不管是好是壞。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2017-11-10
我們要擔(dān)心的不是機(jī)器人殺手 而是他們的創(chuàng)造者
有一天,人工智能機(jī)器人將取代人類,成為地球上的主導(dǎo)生命形式,史蒂芬·霍金(以及伊隆·馬斯克)如是說。然而,盡管近年來人工智能和機(jī)器人領(lǐng)域取得了令人矚目的進(jìn)步,但

長按掃碼 閱讀全文