四月份的大佬們似乎都有點暴躁。自動駕駛那邊撕的熱鬧,人工智能也沒閑著。
在4月22日,斯坦福大學(xué)舉辦的一場“未來AI”主題活動中,AI圈“女神”、斯坦?!耙匀藶楸尽?a href="http://www.ygpos.cn/AI_1.html" target="_blank" class="keylink">AI研究院領(lǐng)導(dǎo)者李飛飛,就和暢銷書《人類簡史》《未來簡史》作家尤瓦爾·赫拉利,就人工智能展開了一場“論戰(zhàn)”。
場面很火爆,咖位很耀眼,2000人的演講廳是人山人海,據(jù)到場的同學(xué)說,都開始“賣站票”了??吹?a href="http://www.ygpos.cn/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD_1.html" target="_blank" class="keylink">人工智能這么受歡迎,真是我心甚慰。
但對談的內(nèi)容,卻有點讓人想打瞌睡。還是十幾年前老掉牙的話題:
1.人工智能能力太強,威脅人類大腦;
2.神經(jīng)算法不可解釋,可控性太差;
3.AI將顛覆固有模式,帶來一系列社會問題。
不是,早在2016年阿爾法狗大戰(zhàn)李世石的時候,“AI威脅論”不就被媒體用夸張的標(biāo)題和內(nèi)容來渲染,又被科學(xué)家和產(chǎn)業(yè)界人士集體辟謠了么?9012了,興沖沖地跑過來,就讓我聽這個?好像總有一種期待沒有被滿足的感覺。
不妨來聊聊這個話題:關(guān)于人工智能,哲學(xué)家和科學(xué)家為什么總在“打嘴仗”?
AI威脅論:換個“新瓶”依然很有市場的“陳年窖藏”
認真地說,這場關(guān)于人工智能的爭論還是值得一聽的。畢竟兩位大咖作為產(chǎn)業(yè)界和哲學(xué)界的代表,都有著各自深厚的功底和遠見卓識。
尤瓦爾·赫拉利的《未來簡史》,就以宏大的視角審視了人類未來的終極命運;曾任斯坦福人工智能實驗室和計算機視覺實驗室負責(zé)人、谷歌云 AI 負責(zé)人的李飛飛,對AI學(xué)術(shù)進展和產(chǎn)業(yè)落地的了解也是得到公認的。
那么,兩位“業(yè)界代表”華山論劍,都碰撞出了哪些火花呢?“課代表”已經(jīng)幫大家畫好了重點:
第一回合:AI與生物科技、大數(shù)據(jù)結(jié)合,會不會威脅人類大腦安全?
赫拉利認為,現(xiàn)在的人工智能經(jīng)過大數(shù)據(jù)的加持,已經(jīng)能夠比單個人腦做出更好的決策,甚至比人類自己還了解自己。算法能夠準(zhǔn)確地知道人類對什么感興趣、想買什么、適合怎樣的工作、如何投資理財,還能幫助人類“找對象”。
加上腦科學(xué)和生物科技的助攻,強大的人工智能算法可以從人類大腦中收集數(shù)據(jù),那么“黑入人類大腦”,自然也就是一件技術(shù)門檻很低的事情了,提防這種隱私安全和倫理風(fēng)險,很合理。
而李飛飛則以更積極的視角來看待這件事。首先,AI算法只是對人腦神經(jīng)網(wǎng)絡(luò)的模擬,人類連腦機制都沒有搞清楚的前提下,AI算法也不可比達到人腦的能力;而且,AI與生物科技的融合,已經(jīng)在新藥開發(fā)、醫(yī)療診斷等領(lǐng)域發(fā)揮價值,目前來看,技術(shù)更多的是在造福人類,而非相反;更關(guān)鍵的是,產(chǎn)業(yè)界并沒有漠視倫理和隱私問題,相反,很多AI企業(yè)早已將隱私保護作為發(fā)展AI的前提條件,也將安全保障的軟硬件技術(shù)解決方案提上了日程。
順便打了個廣告,指出斯坦福的“以人為本”AI研究院就是希望通過將社會學(xué)、心理學(xué)、哲學(xué)等多種人類學(xué)科與AI技術(shù)融合在一起,更好地應(yīng)對未來的倫理挑戰(zhàn)。
第二回合:AI能學(xué)到“愛”的能力并與人類相愛嗎?
這個問題簡直是母胎solo人士的噩耗啊,機器都要來和人搶對象了?
赫拉利認為這是很可能的。從生理學(xué)的角度,愛情的產(chǎn)生與體內(nèi)的生物化學(xué)反應(yīng)、荷爾蒙等激素變化息息相關(guān)進而影響到情緒、心跳、語言動作等一系列表征。 如果AI能夠產(chǎn)生意識,自然也就能夠模擬出類似的“反射”,也就是我們說的,識別和表達“愛”。結(jié)合前面“AI可以黑入大腦”的假設(shè),那么未來豈不是連“愛情”都是由機器操控了。
李飛飛指出了這一擔(dān)憂成立的兩個現(xiàn)實前提:一是人工智能已經(jīng)強大到可以預(yù)測人類愛和意識的程度;二是人工智能技術(shù)凌駕于其他技術(shù)至上,成為一家獨大、統(tǒng)領(lǐng)一切的存在。顯然,從AI六十多年三起三落的發(fā)展史來看,這種預(yù)期真的是……滅霸都不敢這么想。
第三回合:AI會不會出賣主人?
我們知道,現(xiàn)在的AI神經(jīng)網(wǎng)絡(luò)并不透明,連研究人員有時候都不知道算法是如何工作并得出結(jié)果的,這被稱之為AI的黑箱性,也叫不可解釋性。
既然AI能夠在不告訴主人的前提下收集信息,那么偷偷摸摸跟廣告商、大公司、政府組織聯(lián)合起來“殺熟”怎么辦?
對于赫拉利的這種擔(dān)憂,李飛飛分享了斯坦福AI研究院針對“可解釋AI”做得一系列工作,而且,業(yè)內(nèi)也在探索對數(shù)據(jù)庫依賴更少的機器學(xué)習(xí)方法,比如少樣本學(xué)習(xí)和零樣本學(xué)習(xí)。除了大超大規(guī)模的多層深度神經(jīng)網(wǎng)絡(luò),直接從人類經(jīng)驗、學(xué)習(xí)方式中得到啟發(fā)的“元學(xué)習(xí)”等方法,也能幫助解決這類問題。
(李飛飛)
第四回合:AI全球競賽,會比核競賽更可怕嗎?
赫拉利還提到,目前AI的發(fā)展只有中、美以及極少數(shù)國家具備競爭優(yōu)勢,而大多數(shù)亞歐非國家的整體技術(shù)水平甚至都不如谷歌亞馬遜這樣的科技企業(yè)。
而且,隨著AI產(chǎn)業(yè)的發(fā)展,各國之家的競爭意味也越來越濃。比如歐洲主動建構(gòu)數(shù)據(jù)壁壘,美國對中籍技術(shù)人員加強簽證審查等等。目前的趨勢是,國家競爭開始大于合作。這顯然不是一個好消息,甚至可能引發(fā)一場數(shù)字化的全球殖民。
但李飛飛并不同意這種判斷。她認為目前AI在全球范圍內(nèi)的合作和交流非常頻繁,遠超出赫拉利的想象。斯坦福每年與全球合作產(chǎn)生的科學(xué)論文就數(shù)不勝數(shù),GitHub這樣的開源服務(wù)社區(qū)也越來越多。而且,越來越多掌握技術(shù)優(yōu)勢的巨頭企業(yè)也開始推崇“AI民主化”的思路,在產(chǎn)業(yè)發(fā)展上扮演起了分享者的角色。
一些AI發(fā)展較為落后的國家,還是有很多機會和時間去思考,制定自己的AI發(fā)展戰(zhàn)略的。
(尤瓦爾·赫拉利)
四個回合的交鋒下來,我想大多數(shù)人也很難得出什么清晰有效的結(jié)論。這甚至稱不上是一場論戰(zhàn),而是兩種看待AI的思維方式之間的交談。赫拉利如同一個操心的老母親,痛心疾首地規(guī)勸青春期的AI,誰知道前面埋了多少隱患啊,猥瑣發(fā)育,別浪~
恰好碰上當(dāng)慣了“MT”的李飛飛,對于技術(shù)非常熟悉,更擅長解決問題,不會對背后的哲學(xué)危險想太多。
兩個人都想將對方引入自己的邏輯框架和經(jīng)驗體系,卻又接二連三地自說自話。
李飛飛就在對話中開了一個玩笑,說“科學(xué)家們真的很忙,我羨慕哲學(xué)家們,他們可以只提出問題來,用幾千年來反復(fù)討論卻沒有個答案,而我們科學(xué)家們卻要馬上回答。”
一種“我跟你談理想,你跟我談現(xiàn)實”的無力感覺,幾個回合下來,作為觀眾的我都感覺有點受不住了。
這里不妨列舉幾個相愛相殺的“cp”,大家品品看是不是熟悉的配方和味道。
一個恒久的命題:該不該對AI常懷恐懼?
早在五年前,類似的談話就曾在另外兩位大佬:特斯拉的創(chuàng)立者埃隆馬斯克,和Facebook創(chuàng)始人及CEO扎克伯格身上發(fā)生過。
馬斯克是一個堅定的“AI反對者”。他曾經(jīng)一再通過電視和各種社交媒體渠道提醒全世界,人工智能“可能要比核武器更危險”。為了防范AI風(fēng)險,馬斯克還出資建立了獨立人工智能實驗室OpenAI,研究目標(biāo)是開發(fā)確保不會失控的超級智能技術(shù)。
不過,與赫拉利不同的是,馬斯克認為人類想要與超級AI并存,必須讓大腦與機器直接聯(lián)系。為此,他還創(chuàng)辦了一家名叫Neuralink的公司,投資總額高達1億美元,來研究通過電腦與人類大腦連接的“神經(jīng)界面”。
但扎克伯格認為,馬斯克對人工智能的看法“相當(dāng)不負責(zé)任”,完全就是杞人憂天,還會威脅到自動駕駛和AI醫(yī)療等對人類有益的技術(shù)進步。
為了扭轉(zhuǎn)馬斯克的念頭,2014年11月19日,扎克伯格邀請馬斯克到家中共進晚餐,列席的還有Facebook人工智能實驗室的兩名頂級研究人員以及另外兩位Facebook高管。
雖然是1v3,但馬斯克完全沒有在怕的。Facebook的代表們試圖通過一頓晚餐讓馬斯克相信自己對于人工智能的看法是錯誤的,但除了費了點口水,并沒有起到任何作用。
后來扎克伯格還為此諷刺過馬斯克,“已經(jīng)和馬斯克討論過這件事,他對這個問題的理解非常有限?!?/p>
對于AI,F(xiàn)acebook的態(tài)度基本上和科技行業(yè)的看法是一致的,那就是只要能讓世界變得更美好,就是好的技術(shù)。
產(chǎn)業(yè)界爭論不休,學(xué)術(shù)界也存在分歧。
已故的物理學(xué)家史蒂芬·霍金(Stephen Hawking),就公開表達了對人類創(chuàng)造出比自己更聰明機器的擔(dān)憂。提醒人類應(yīng)該在重度押注AI之前認真考慮所產(chǎn)生的后果。
康奈爾大學(xué)計算機科學(xué)教授、貝爾實驗室前研究員Bart Selman也認為目前研究的系統(tǒng)能力過于強大,“我們現(xiàn)在還無法理解它的影響力?!?/p>
但麻省理工學(xué)院的機器人專家Rodney Brooks卻認為“AI威脅論”并不科學(xué),得出這樣不能被論證對錯的結(jié)論,是科學(xué)家們所不能接受的。
在近日對全球23位頂尖AI學(xué)者的一次調(diào)查中,其中包括了DeepMind首席執(zhí)行官Demis Hassabis,谷歌AI首席執(zhí)行官Jeff Dean和斯坦福AI負責(zé)人李飛飛等,想要在有生之年見證AGI(通用人工智能,也是令馬斯克焦慮的“超級智能”)的實現(xiàn),幾乎不可能。
目前人類已經(jīng)擁有了成千上萬的AI系統(tǒng)。可涉及到一般的腦力活動時,還沒有一個AI系統(tǒng)能夠比得上老鼠,更別說超過人類了。
對此,艾倫研究所的負責(zé)人Etzioni表示,今天的人工智能系統(tǒng)依然非常有限,花太多時間去擔(dān)心它的安全性,完全沒有意義。
硅谷有句諺語:我們會高估三年內(nèi)的成果,但低估10年后的成績。目前看來,這種觀點上的反復(fù)爭論,正恰如其分地體現(xiàn)了這一點。
對于AI這樣復(fù)雜的領(lǐng)域來說,哲學(xué)與科學(xué)的反復(fù)博弈,是一個長期且必經(jīng)的過程,未來還將持續(xù)進行下去。如何在人類社會上架設(shè)智能,沒有簡單唯一的標(biāo)準(zhǔn)答案可供參考。
即使在各學(xué)科的頂級精英內(nèi)部,都很難達成一致。
要讓大眾理解AI到底能做什么、在做什么、將做什么,也是一件任重道遠的是。大多數(shù)哲學(xué)家、社會科學(xué)家和評論家都會“AI威脅論”買單,更何況廣大普通群眾?!癆I取代人類”至今還能登上一些新聞資訊平臺的頭條,已經(jīng)足以說明問題。
惡之花到底開在哪里?科學(xué)與社會的雙重警告
值得一提的是,與其爭論“機器”會不會統(tǒng)治人類,不如擔(dān)心一小部分人利用技術(shù)工具進行不合理的操作。
比如前不久美國五角大樓試圖向科學(xué)界尋求幫助,試圖研制新型自主武器。這一舉動就遭到了4000多名谷歌員工的聯(lián)名抗議,甚至不少員工宣布不會繼續(xù)為谷歌工作。
隨后,谷歌也在輿論壓力下放棄了五角大樓價值900萬美元的合同。
當(dāng)然,習(xí)慣“調(diào)戲”社會紅線的不只有渴望技術(shù)力量的人,還有恐懼它的。
哈佛大學(xué)教授泰德·卡辛斯基(Ted Kaczynski)就是一個典型的例子。這位高智商犯罪者用18年的時間,向芝加哥大學(xué)、耶魯大學(xué)等院校的理工科教授投遞除了16枚炸彈,共炸死3人,炸傷23人。
還給《紐約時報》寄了一枚,要求他們承諾一字不改全文刊登他的論文。最終,F(xiàn)BI和美國司法部同意了這個要求,《紐約時報》和《華盛頓郵報》在1995年9月19日分別刊登了這篇《論工業(yè)社會及其未來》。
這篇論文的觀點充滿了對技術(shù)的哲學(xué)思考,比如說:
“每一項新技術(shù)單獨考慮都是可取的,但匯聚在一起,普通人的命運不再掌握在他自己手中,而是掌握在政客、公司主管、技術(shù)人員和官僚手中?!?/p>
還有,“假設(shè)計算機科學(xué)家成功地開發(fā)出了智能機器,這些機器無論做什么事都比人類強。在這種情況下,人類可能會輕易地讓自己淪落到一個完全依賴機器的位置,淪落到不能做出任何實際選擇,只能接受機器的所有決策的地步?!?/p>
即使超級智能沒有出現(xiàn),但“機器也將承擔(dān)越來越多的簡單工作,而低能力的工人將越來越過剩,未來留給人類的都是一些不那么重要的工作。以這樣的方式結(jié)局,對于人類來說也太可憐了”
……
卡辛斯基認為,新技術(shù)引入社會會引發(fā)一長串變化,其中大部分是不可預(yù)測的,因此唯一的解決方法就是放棄科學(xué)技術(shù)。
聽起來是不是和前面的“AI威脅論”有點雷同?。坑^點原本無可厚非,展開探討還能促進社會進步與技術(shù)倫理的完善。但卡辛斯基為了踐行自己的理念開始“反社會”,動不動給人寄炸藥包,這已經(jīng)不是觀點之爭了。論文發(fā)表后,卡辛斯基被自己的弟弟舉報,于1996年被捕,最終被判處終身監(jiān)禁。
或許,今天即便在眾多學(xué)者的努力和言傳之下,我們依然無法預(yù)知并得到一個關(guān)于AI的終極答案,但可以肯定的是,隨著AI自我監(jiān)督和黑箱性的破解,它的安全指數(shù)正在快速提升。某種程度上,眾多“AI威脅論”者持之以恒的批評和質(zhì)疑起到了“精神安全鎖”的作用。
不久之前,Deepmind在博客中透露,準(zhǔn)備研發(fā)一種“AI保險機制”,一旦發(fā)現(xiàn)AI的惡意傾向,就主動終止AI的活動。
當(dāng)提出問題和解決方案不斷以交替往復(fù)、互相影響的狀態(tài)向前奔跑時,也就給AI的潛在危險貼上了一個又一個“絕緣膠布”。
最后,用赫拉利的前輩蘇格拉底的一句話來結(jié)束這篇文章吧—— “我只知道一件事,那就是什么都不知道?!?/p>
免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。