《The Selfish Ledger》會(huì)成為谷歌版的“新黑鏡”嗎?

原標(biāo)題:《The Selfish Ledger》會(huì)成為谷歌版的“新黑鏡”嗎?

文 | 柯鳴

來源 | 智能相對(duì)論(aixdlun)

谷歌最近并不太平。

最近,谷歌兩年前制作的一個(gè)僅供內(nèi)部傳發(fā)的視頻被曝光,視頻中提出了“Ledger”概念,Ledger收集用戶所有數(shù)據(jù),然后根據(jù)用戶的行為、習(xí)慣等信息,引導(dǎo)用戶完成一個(gè)目標(biāo)。視頻一曝光,引發(fā)輿論嘩然的同時(shí)也讓許多人再次陷入對(duì)于信息安全的深深擔(dān)憂之中。

這部名為《The SelfishLedger》的短片,由谷歌 X 實(shí)驗(yàn)室設(shè)計(jì)負(fù)責(zé)人、Near Future Labortatory 聯(lián)合創(chuàng)立人 Nick Foster 親自操刀制作。在長達(dá)9分鐘的視頻中,F(xiàn)oster 定義了“Ledger(數(shù)據(jù)賬本)”,并假設(shè)這些數(shù)據(jù)檔案可以被建立,也可被用于修改行為以及進(jìn)行用戶之間的相互轉(zhuǎn)移。

谷歌提出“全系統(tǒng)設(shè)置”概念

基于Ledger的概念,視頻中谷歌提出了概念性的解決方案(conceptualResolutions by Google system)——提示用戶選擇一個(gè)生活的目標(biāo),在此后每次用戶與手機(jī)的互動(dòng)中,手機(jī)均會(huì)引導(dǎo)用戶去實(shí)現(xiàn)這一目標(biāo)。

谷歌認(rèn)為其可以實(shí)現(xiàn)一個(gè)“有組織的價(jià)值觀”,其包括用戶在叫Uber出行時(shí)會(huì)建議用戶使用拼車以及更加環(huán)保的出行方式,或者是引導(dǎo)用戶從Safeway購買一些本地產(chǎn)品。

谷歌解決方案引導(dǎo)用戶購買商品

實(shí)現(xiàn)這一切的前提,就是實(shí)現(xiàn)Ledger對(duì)更多數(shù)據(jù)的貪婪。它通過訪問大量的用戶數(shù)據(jù)和決策,對(duì)數(shù)據(jù)進(jìn)行搜集和學(xué)習(xí),進(jìn)而提出建議。在未來,“以目標(biāo)為導(dǎo)向的Ledger概念將變得更加可行,提出的建議可能不會(huì)由用戶轉(zhuǎn)化得出,而是由Ledger本身作出的”。

令人擔(dān)憂的谷歌版“新黑鏡”

一旦Ledger本身能夠自主作出決斷,這就讓人細(xì)思極恐了。

Foster設(shè)想了一個(gè)未來:“目標(biāo)驅(qū)動(dòng)的Ledger概念變得容易被接受,并且行動(dòng)建議可能不是由用戶而是由Ledger本身提供的”,這就是《黑鏡》描述的景象。而Ledger積極地尋求填補(bǔ)數(shù)據(jù)的空白,甚至選擇購買它認(rèn)為可以吸引用戶的產(chǎn)品,以便采集數(shù)據(jù)。

隨后,視頻中舉了一個(gè)浴室體重秤的例子。一開始,Ledger 并不知道用戶的體重。隨后,視頻畫風(fēng)開始趨向科幻情景,設(shè)想 Ledger 可能會(huì)變得十分精明,能夠依靠3D打印技術(shù)打印自己的設(shè)計(jì):“歡迎回家,Dave,我給你打印了一個(gè)體重秤?!?/p>

基于Foster對(duì)Ledger的構(gòu)想,其如若照進(jìn)現(xiàn)實(shí),智能相對(duì)論(aixdlun)分析師柯鳴認(rèn)為,這仍然存在著幾個(gè)不容忽視的問題。

1.恐成控制大眾的反烏托邦視野

Foster對(duì)Ledger的構(gòu)想并不僅僅是一個(gè)自我提升的工具。這個(gè)系統(tǒng)還能夠“填補(bǔ)知識(shí)空白”、“改進(jìn)人類的行為模型”,這不僅僅包括你我的特定行為,更包含著整個(gè)人類的群體行為。雖然視頻指出試圖通過使用思想控制技術(shù)來解決貧困和全球變暖等問題,但視頻認(rèn)真討論在全球范圍內(nèi)大規(guī)模行為改變的事實(shí)是令人恐懼的。

工智能之父馬文·明斯基認(rèn)為“大腦不過是肉做的機(jī)器”,而人類思維是一個(gè)復(fù)雜的過程。比如“為什么人類下雨不想被淋濕,卻愿意在衛(wèi)生間沐浴”這種3歲小孩都知道的問題,計(jì)算機(jī)就會(huì)感到費(fèi)解。

對(duì)于用戶而言,Ledger的預(yù)期設(shè)計(jì)讓大家感到隱憂。一位X的發(fā)言人說明道:這是多年前設(shè)計(jì)團(tuán)隊(duì)的一個(gè)思想實(shí)驗(yàn),他們使用一種被稱為“推測(cè)設(shè)計(jì)(speculative design)”的技術(shù)來探索讓人不舒服的想法和概念,從而引發(fā)討論和辯論。它與任何當(dāng)前或未來的產(chǎn)品無關(guān)。

但其實(shí),早在2015年谷歌所提交的專利申請(qǐng)中,就有存在“檢測(cè)和糾正用戶行為中的潛在錯(cuò)誤”的提法,這與Ledger的功能十分相似。當(dāng)其真正普及于人類生活之中,其依然是讓人恐慌的。

2.信息倫理問題再上風(fēng)口浪尖

“想要得到多少便利,在于你愿意放棄多少信息隱私”,這好像已經(jīng)成為諸多谷歌類公司的永恒二分法。信息倫理隨著Ledger以及亞馬遜Alexa再爆將私人對(duì)話發(fā)給同事的事故時(shí),其再次成為人們關(guān)注的熱點(diǎn)。

而此種事件,早已不是個(gè)例。早前Facebook被指控利用個(gè)人信息系統(tǒng),預(yù)測(cè)和影響選民的政治傾向,扎克爾伯格對(duì)此承諾將進(jìn)行嚴(yán)厲整改,并表示將專門成立人工智能倫理團(tuán)隊(duì)來保障信息安全問題。

其實(shí)在大衛(wèi)·惠特克事件中,谷歌早就存在著信息泄露的問題。谷歌主宰著用戶的信息獲取,而依靠這種壟斷性的力量,谷歌在早年的時(shí)候也用競(jìng)價(jià)排名的方式來推廣一些不良、虛假信息。2009年便發(fā)生了美國政府假裝在谷歌上販賣假藥并得以推廣的丑聞事件。

此后的“棱鏡門”事件,以及通過人為操作搜索詞,干涉美國大選等問題,依然是借用信息資源而進(jìn)行的不良行為。

“不再作惡”的谷歌

不太平的事情還有一件。

近日谷歌在其最新的行為準(zhǔn)則中,將“不作惡”的文本已經(jīng)幾乎徹底刪除,雖然2015年谷歌重組并將Alphabet作為母公司時(shí),該公司幾乎完全放棄了“不作惡”的口號(hào),改為了“做正確的事”。

修改后的谷歌準(zhǔn)則

同時(shí),谷歌已有十幾名員工正式請(qǐng)辭,以抗議公司繼續(xù)參與軍方的Maven項(xiàng)目。此外,學(xué)術(shù)界有364名人工智能專業(yè)人士也聯(lián)名上書,反對(duì)谷歌。為表示抗議,先是有近4000名谷歌員工聯(lián)署請(qǐng)?jiān)笗?,之后約12名谷歌員工向公司辭職。

這些辭職的員工對(duì)將人工智能運(yùn)用在無人機(jī)作戰(zhàn)感到擔(dān)憂,同時(shí)也擔(dān)心谷歌的政治決策,這些都可能導(dǎo)致用戶對(duì)谷歌的信任被削弱。雖然谷歌強(qiáng)調(diào),它的人工智能技術(shù)不會(huì)被用來殺戮,但也承認(rèn)把人工智能運(yùn)用在五角大樓的無人機(jī)項(xiàng)目中,會(huì)為技術(shù)工作者和研究人員帶來倫理和道德問題。

拋開谷歌本身而言,人工智能從通用AI(General AI)發(fā)展到“心智社會(huì)”后,智能相對(duì)論(aixdlun)分析師柯鳴認(rèn)為其依然有著許多“恐怖之處”。

1.對(duì)社會(huì)優(yōu)先問題錯(cuò)位的恐懼

目前,機(jī)器人已經(jīng)取代了部分體力勞動(dòng)。用不了多久,它們便可勝任一度被認(rèn)為只有人類才能完成的認(rèn)知工作。自動(dòng)駕駛汽車將取代出租車司機(jī);自動(dòng)駕駛飛機(jī)將取代飛行員。

也許有朝一日,所有人類工作都將被機(jī)器取代。我們所有的工作也可能被許多速度更快、不知疲倦的機(jī)器代替,由它們來生產(chǎn)更多更迅速的內(nèi)容產(chǎn)品。

在現(xiàn)代社會(huì)中,自動(dòng)化導(dǎo)致許多人失業(yè)。機(jī)器所有者變得愈發(fā)富有,其他人則愈發(fā)貧窮。這并不是科學(xué)問題,而是政治和社會(huì)經(jīng)濟(jì)問題。

誠然,若依靠AI做惡是有違科學(xué)家的初衷的,畢竟技術(shù)知識(shí)手段和工具,其真正的好壞在于使用它的人。在技術(shù)和人類面前,人類本身的安全性、穩(wěn)定性是第一位的,機(jī)器優(yōu)先、智能優(yōu)先的社會(huì)錯(cuò)位只會(huì)加深人們的不安定感和恐懼感。

2.對(duì)濫用的恐懼

從 1920 年的戲劇《R.U.R.》中憤怒的機(jī)器人到《2001:太空漫游》中的殺人計(jì)算機(jī) HAL9000,人工智能的發(fā)展總是伴隨著暗黑的神話。人工智能對(duì)人類很多好處。其中一些已經(jīng)實(shí)現(xiàn),比如搜索引擎和機(jī)器翻譯;另一些則即將實(shí)現(xiàn),比如自動(dòng)駕駛汽車。但是,隨著人工智能能力的增長,使用的便捷性更容易促進(jìn)濫用的產(chǎn)生,而AI的濫用無疑是讓人恐懼的。

近日一份由25名技術(shù)人員與公共政策研究員共同發(fā)布的報(bào)告指出,隨著人工智能的發(fā)展,被惡意利用的風(fēng)險(xiǎn)也呈上升趨勢(shì)。報(bào)告中還稱,一旦人工智能遭到了黑客攻擊,將增加諸如無人駕駛車禍,商業(yè)無人機(jī)變成針對(duì)性武器的可能性。

誠然,惡意使用人工智能會(huì)對(duì)數(shù)字、物理和政治安全造成迫在眉睫的威脅,因?yàn)樗赡鼙焕脕韺?shí)施大規(guī)模的、極具針對(duì)性的高效攻擊。 而在去年底,一個(gè)色情視頻流傳到網(wǎng)上,一些名人的面孔經(jīng)過智能摳圖,被嫁接到了不同身體上,甚至有些影片可以以假亂真,因此導(dǎo)致了很多明星名譽(yù)受損。

如今人工智能的發(fā)展可謂是突飛猛進(jìn),很多曾經(jīng)看似不可能實(shí)現(xiàn)的事情,現(xiàn)在已經(jīng)變成了可能。然而服務(wù)于人類的人工智能如果被不法分子運(yùn)用,那將會(huì)帶來災(zāi)難性的后果。

總結(jié)

從爆出《TheSelfish Ledger》短片到刪除“不作惡”的準(zhǔn)則,谷歌的人工智能領(lǐng)域確為多事之秋。但是,不可否認(rèn)的是,技術(shù)的進(jìn)步與革新帶來的是整個(gè)行業(yè)的發(fā)展?!禩he Selfish Ledger》是否會(huì)成為谷歌版的“新黑鏡”,這還需要時(shí)間和市場(chǎng)來檢驗(yàn),而谷歌本身的發(fā)展,依然需要辯證的來看待。

智能相對(duì)論(微信id:aixdlun):深挖人工智能這口井,評(píng)出咸淡,講出黑白,道出深淺。重點(diǎn)關(guān)注領(lǐng)域:AI+醫(yī)療、機(jī)器人、智能駕駛、AI+硬件、物聯(lián)網(wǎng)、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機(jī)交互等。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-05-30
《The Selfish Ledger》會(huì)成為谷歌版的“新黑鏡”嗎?
原標(biāo)題:《The Selfish Ledger》會(huì)成為谷歌版的“新黑鏡”嗎? 文 | 柯鳴 來源 | 智能相對(duì)論(aixdlun) 谷歌最近并不太平。

長按掃碼 閱讀全文