不必擔心機器覺醒,AI生來“自愿為奴”

當我們抱著樂觀的期望看待人工智能的未來時,并不難以想象出十年后人類世界的模樣。

不計其數(shù)的機器人占據(jù)工廠的流水線、倉儲的分揀線,穿梭于街巷混跡于人群,甚至登堂入室成為無數(shù)家庭的普通一員。它們?nèi)找箘谧鳎恢>?。而作為這些新物種的造物主,人類則從繁重勞動的枷鎖中解脫出來,取而代之的工作是監(jiān)視、操控機器人的一舉一動。

英偉達機器學習研究總監(jiān)、加州理工學院計算機與數(shù)學科學教授Anima Anandkumar,在日前舉辦的京東全球科技探索者大會上談到AI的發(fā)展趨勢說,未來的機器人將疊加AI能力,頭腦是AI,身體就是機器人,二者疊加將會變得更加智能。

盡管AI武裝了機器的頭腦,但"機器統(tǒng)治人類"的悲觀預言不會成為現(xiàn)實,恰恰相反,就像18世紀美國的種植園主對待從非洲販來的黑奴那樣,人類"奴役"了這些惟命是從、逆來順受的機器人,并且認為此事天經(jīng)地義、理所當然。

原本套在人類頸上的勞動枷鎖,轉(zhuǎn)而被套在了機器人身上。倘若人類對機器有些許的歉疚和感恩之情,一定會感慨:哪有什么歲月靜好,不過是有機器人在替你負重前行。

幾十年后,人們一定會回過頭來思考,究竟是什么驅(qū)使著人類堅持不懈地創(chuàng)造出AI這一新的物種?我想這其中一定有一部分因素源自人類奴役"他人"的原始欲望。不過,以人類的文明程度而言,是斷然不會承認這一點的。

我們大可不必擔心這些擁有自主意識的機器人們揭竿而起爭取解放和自由,這樣的事情只會發(fā)生在那些曾經(jīng)品嘗過自由滋味的人類奴隸身上。美國種植園的黑奴們至少在奴隸制度誕生之前有過相對的自由時代,而這些被創(chuàng)造出的機器人"生來為奴"。

法國啟蒙運動先驅(qū)拉波哀西在其傳世之作《自愿奴役論》一書中提出一個問題:"為什么有那么多人、那么多城鎮(zhèn),那么多民族竟能夠忍受一個獨夫暴君的為所欲為?" 他思考之后得出的答案是:"人們自愿為奴的第一大原因,就是他們生來就是奴隸。"

"在開始的時候,人們的確是出于不得已,被迫屈從,但以后就慢慢習慣了。至于后來出生的人,他們從來沒有經(jīng)歷過自由,甚至也不知道自由是怎么回事,他們毫無遺憾地服從,自覺自愿地服從……"

AI就是"后來出生的人"。它們生來就是為人類服務(wù)的,它們從來沒有經(jīng)歷過自由,也不知道自由是怎么回事,它所能做的就是聽從、執(zhí)行人類的命令,它們是自愿被人類所奴役的物種,它們的生命注定是虛無的。

讓AI變得更加智能從來不是人類的最終目的,迄今為止有關(guān)AI的一切研究都建立在如何讓AI更好地服務(wù)于人這一前提之上。在商業(yè)領(lǐng)域,如何讓AI更乖巧聽話、更值得信賴已經(jīng)被當做一門嚴肅課題來討論和研究。

曾在IBM公司任職,現(xiàn)任京東人工智能事業(yè)部總裁的周伯文博士,在2019京東全球探索者大會上給人工智能加了一個前綴或者說定語--可信賴。在他看來,只有"可信賴"的AI才是智能經(jīng)濟未來十年的新原點。

在我看來所謂"可信賴"只不過是對機器"惟命是從、逆來順受"的另一種委婉的表達。相比之下,谷歌旗下波士頓公司在展示什么叫"可信賴"這件事上采取的方式更加簡單直接甚至顯得過分粗暴。

由波士頓公司研發(fā)的機器狗Spot,在外觀上已經(jīng)十分接近真正的動物狗,它能夠靈活地完成行走、奔跑、攀爬,穿越障礙物等動作,甚至能與真正的寵物狗進行"對峙"互動。而當人類抬腳用力踹向它的身體時,它只是搖晃幾下然后迅速恢復平衡站立。機器狗Spot永遠不可能像一條真正的狗那樣反咬你一口。這就是所謂的"可信賴"。

AI"生來為奴",因而"自愿為奴"。我們現(xiàn)在所做的一切只不過是將其訓練得更加具備身為奴隸的專業(yè)素養(yǎng)罷了。

2016年初,人工智能領(lǐng)域發(fā)生了一件讓人略感不適的事。

微軟發(fā)布了一款取名為Tay的在線少女聊天機器人,它能夠與互聯(lián)網(wǎng)上的任何人交談互動,以此來提升自己的對話能力。結(jié)果不到一天時間,Tay就變得滿嘴臟話,甚至發(fā)表了一些涉嫌種族歧視甚至反人類的納粹言論。緊隨而來的擔憂是,如果放任AI的自主學習將會導致可怕的后果。

這樣的擔憂,在我看來當然是多余的。仔細揣摩Tay所發(fā)表的不當言論,你會發(fā)現(xiàn)它所做的一切只不過是通過對人類語言的拙劣模仿達到"嘩眾取寵"的目的罷了,本質(zhì)上是對人類的討好與迎合,以此來獲得人類的好感,讓后者覺得它是可信賴的。

AI仍然甘愿為奴,但通過這件事也幫助我們更好地理解了AI的一個特性--AI像水一樣無形無狀,它的形狀取決于放置它的容器,它的力量來源于外界的干預。AI不只是一項復雜的技術(shù),也是一門辯證的哲學。

還記得功夫巨星李小龍如何闡釋它的武術(shù)哲學嗎?

"放空你的思想,透明的,無定形的,像水一樣,如果你將水放入杯子,它就變成杯子的形狀,你將水放入瓶子,它就變成瓶子的形狀,你把水放入茶杯中,它就變成茶杯的形狀。水可以柔軟的流動,也可以堅硬的凝結(jié),像水一樣,我的朋友。"

一切事物發(fā)展到極致總會與哲學不期而遇。當AI開始具備深度學習能力之后,AI與哲學之間的關(guān)系開始引起人們的重視。復旦大學哲學學院徐英瑾教授已經(jīng)將人工智能哲學作為一門學科來研究。他認為人工智能和哲學一樣,有著很強的開放性。

而我之所以將AI比作水,恰恰也是因為AI有著像水一樣的開放性。AI是充滿不確定性的,是"以無形為有形"的。它沒有固定的形狀,將它放進棋盤里,它就成了打敗人類的圍棋冠軍;將它放進零售企業(yè)的倉儲里,它就變成了智能分揀機器人;將它放到隱患重重的公共場所,它又變成了時刻保持警覺的安全巡視員。

因此,我們就會發(fā)現(xiàn)那些致力于推動AI商業(yè)化應(yīng)用的企業(yè)們在做同一件事--為AI制造容器。由于不同企業(yè)的業(yè)務(wù)和資源不同,因而被制造出來的容器也各種各樣。

凱文·凱利在《必然》一書中談到一件往事。那是在2002年,凱文·凱利在一個小型聚會上遇到谷歌的聯(lián)合創(chuàng)始人拉里·佩奇,他問了后者一個問題:"為什么已經(jīng)有這么多的搜索公司,谷歌還要做免費的網(wǎng)絡(luò)搜索?"佩奇的回答給凱文·凱利留下了深刻印象:"其實我們在做人工智能。"在過去的十幾年中,谷歌所做的不是使用人工智能來改進搜索技術(shù),恰恰相反,谷歌一直在通過搜索技術(shù)來優(yōu)化人工智能。

"搜索引擎"就是谷歌放置AI的容器。正如IBM為機器人沃森找到的容器是"醫(yī)療"一樣。在被放進這些容器之前,谷歌的AI和IBM的AI別無二致,但在被放進不同的容器之后,二者便"術(shù)業(yè)有專攻"各走各的路。

當然,AI像水一樣是流動的。但不管它如何流動,從這里流到那里,只不過是換一種為人類服務(wù)的方式罷了。(未完待續(xù))

免責聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2019-11-21
不必擔心機器覺醒,AI生來“自愿為奴”
英偉達機器學習研究總監(jiān)、加州理工學院計算機與數(shù)學科學教授AnimaAnandkumar,在日前舉辦的京東全球科技探索者大會上談到AI的發(fā)展趨勢說,未來的機器人將疊加AI能力,頭腦是AI,身體就是機器

長按掃碼 閱讀全文