今日之AI,能否回應(yīng)“中文屋”的質(zhì)疑?

原標(biāo)題:今日之AI,能否回應(yīng)“中文屋”的質(zhì)疑?

近年來人工智能與產(chǎn)業(yè)端的對撞,使其變得越來越務(wù)實。此時回憶起2016年被阿爾法狗碾壓的恐懼,恐怕大多數(shù)人都會露出“想太多”的微笑。

但偶爾地,我們也可以從實用主義中短暫地抽離一下,來探討一些“務(wù)虛”的命題。比如思考一下,“如果機器有思維”,會發(fā)生哪些變化。

機器是否擁有思維,一直是科學(xué)界和哲學(xué)界都很關(guān)注的命題。

計算機理論的先驅(qū)圖靈就認(rèn)為,機器可以思考。在著名的圖靈實驗中,只要測試者分不清問題的回答是人給出的,還是機器給出的,就說明機器和人的理解能力是沒有區(qū)別的。

當(dāng)然,這一觀點在人工智能發(fā)展的數(shù)十年,屢屢受到反駁。其中最著名的就是“中文屋實驗”。

1980年,美國哲學(xué)家約翰 · 賽爾(John Searle)在《心靈、大腦與程序》這篇論文中,提出“中文屋論證”思想實驗,認(rèn)為機器不可能真正達(dá)到人那樣的自主意識,即使它通過了圖靈測試。

圖靈與賽爾,到底誰的觀點才預(yù)言了人工智能的終極未來呢?

探尋思想:洞察機器智能的靈性之窗

首先,有必要先解釋一下,今天我們探討機器人是否能具備思維,到底有何意義?

當(dāng)然,并不是為了預(yù)測《西部世界》到底會不會真實上演。

一方面,伴隨著人工智能的廣泛落地,“智能”“智慧”等詞語已經(jīng)成為了絕大多數(shù)人生活中的一部分。今天,我們談起智慧城市、智能手機、智能家電等如數(shù)家珍,但何種機器能力的表現(xiàn)可以稱之為“智能”,現(xiàn)有的城市與云端的城市之間正在被技術(shù)劃分成不同的疆域。

舉個例子,“中華酷聯(lián)”時代的智能手機與今天“華米OV”推出的智能手機,盡管擁有著同樣的名字,但在功能、內(nèi)涵上早已潛移默化的方式發(fā)生了變化?!懊徽齽t言不順”,想要讓AI接下來能夠更合理、廣泛地發(fā)展,讓更多普通人為即將出現(xiàn)的智能大爆炸做好認(rèn)知上的準(zhǔn)備,那么適當(dāng)、準(zhǔn)確、哲學(xué)層面的概念定義,就成了必要前提。

此外,算法的精進(jìn)、算力的突破,以及各種關(guān)聯(lián)技術(shù)的興起,為人工智能的爆發(fā)奠定了基礎(chǔ)。但需要注意的是,AI在技術(shù)層面依然存在許多不足之處。

其中最為人所遺憾的,就是目前仍處于“弱人工智”階段,也就是AI只能在功能層面模擬一些人類的智慧行為,但不具備泛化、思考、認(rèn)知等高級智能,這也大大限制了其應(yīng)用場景。

舉個例子,一個被訓(xùn)練為識別蘋果好壞的機器,就無法再認(rèn)識其他物種了,除非重新進(jìn)行訓(xùn)練。

當(dāng)然,“形似神難”的困擾很早就為研究者所重視,在眾多難題之中最核心的,就是人工智能是否具備獲取語義,即理解能力。

簡單來說,就是再聰明的狗,也只能根據(jù)主人的“命令”做出對應(yīng)的動作,而并不是因為它理解了主人語言中每一個詞的意思。當(dāng)狗具有思維會怎么樣?科幻動畫《瑞克和莫蒂》中能統(tǒng)治星球的賽博小狗了解一下。

從理解符號到理解意義,思維能力的引入,有可能讓AI擺脫當(dāng)下的技術(shù)困境,向真正的強人工智能進(jìn)發(fā)。

機器的意識:中文屋在拷問什么?

既然機器是否具有意識,決定了機器智能的潛能是否充分發(fā)揮,那么對其表示質(zhì)疑的“中文屋論證”到底在拷問什么?

這個思維實驗,簡單來說,就是讓一個只會英語的人接收全部由中文寫成的紙條,同時給他一本中文翻譯程序,以及充足的稿紙和筆,最終他能夠自己把紙條上的文字翻譯成英文,再將自己的答案翻譯成中文送出去。

這種情況下,屋內(nèi)的人能夠?qū)χ形膯栴}對答如流,但他同時也對中文一竅不通。

那么,按照同樣邏輯創(chuàng)造出的機器,到底算得上知識淵博,抑或僅僅是一個“工具人”呢?

盡管今天的AI已經(jīng)遠(yuǎn)比賽爾提出“中文屋論證”的年代要強上不少,但這一哲學(xué)命題始終都在拷問著人工智能

對其的不同理解,也造就了技術(shù)發(fā)展中的兩個主要流派:

第一種,則是模擬人腦神經(jīng)網(wǎng)絡(luò)的聯(lián)結(jié)主義。它將神經(jīng)網(wǎng)絡(luò)引入數(shù)學(xué)建模之中,建立一個模擬人腦運轉(zhuǎn)方式的人工智能范式,即我們今天熟悉的“深度學(xué)習(xí)網(wǎng)絡(luò)”,由此賦予機器一定的認(rèn)知能力,比如輸入幾千貓的圖片,機器就能自己學(xué)會認(rèn)識“貓”這一物體。但這是否意味著它懂得了“貓是什么”呢?

按照圖靈測試,機器能夠自主使得對象,給出以假亂真的答案,那么它就是有意識的,這個輸入和輸出的過程就是心理狀態(tài)。

但是按照“中文屋論證”,盡管看到任何對應(yīng)物體都能夠無誤地反映出來,它只是獲得了“認(rèn)識”這一能力,卻沒有理解自己看到的“對象”。

美國科學(xué)家哲學(xué)家H·希拉里·普特南就曾在1981年提出過一個類似的“機器邪典”,他設(shè)想了一個存活在營養(yǎng)缽中的大腦,科學(xué)家可以通過計算機產(chǎn)生電子脈沖來控制大腦感官,讓大腦對自身的處境一無所知。這個“缽中之腦”(Brain in a vat)被證明是自相矛盾的,根本無法成立,也從另一個角度說明了靠電子信號獲得意識并不可行。

那么,有幸被“中文屋論證”蓋章“智能”的表現(xiàn)到底是何樣子呢?

這就要提到人工智能的另一大流派——行為主義。

行為主義人工智能強調(diào)“感知——行動”的反應(yīng)模式,即機器可以從自己身處的環(huán)境中感知并學(xué)習(xí),然后付諸行動,這種與外界互動、獨立思考并解決問題的能力,才是“中文屋”眼中的“智能”。

換句話說,機器智能應(yīng)該通過遺傳算法自己進(jìn)化出大腦,能夠建立起與大腦相同的因果能力。這樣的強人工智能(Strong Artificial Intelligence),才是“中文屋實驗”認(rèn)可的智慧級別。

這也成了當(dāng)下AI發(fā)展過程中一個矛盾的現(xiàn)狀——當(dāng)機器可以寫出比人類更通順優(yōu)美的詩歌和文章,但如果它并不擁有意識,那么該如何看待這些“么得靈魂”的作品;如果它擁有了意識,一分鐘能寫出數(shù)百篇傳世佳作,人類作者又能如何與之賽跑?

等待AI或人類來回答的三個問題

面對上述困境,接下來也是時候來抽絲剝繭,探尋一下AI發(fā)展或者說人類在智能社會中所需要一一面對的現(xiàn)實問題?

第一,要弄明白機器與意識的關(guān)系,首先要搞清楚機器解決語義問題的邏輯。

因為人類判斷機器是否具備“思維”,最核心的考察點之一就是其是否能夠?qū)φZ匯中的“意義”“意向性”等產(chǎn)生解釋能力。

過去,我們在自然語言處理領(lǐng)域見到的大多是符號主義、聯(lián)結(jié)主義層面的“智能”,比如高精準(zhǔn)的語言識別、語言合成、問答系統(tǒng)、信息檢索等等?;径继幵谝浴氨磉_(dá)”為主的輸出階段。

每出現(xiàn)一個以“理解”為主的輸出型突破,都會“技驚四座”,比如OPENAI的GPT-2,就因為具備小學(xué)三年級的閱讀理解能力而被看看做是突破性的進(jìn)展。

換句話說,機器不但要理解語義,還要以和人類相同的方式、以可解釋的形式來實現(xiàn)的。

用業(yè)界的話來說,“人工智能如果不能使用自然語言作為其知識表示的基礎(chǔ),人工智能也就永遠(yuǎn)實現(xiàn)不了跨越的夢想?!?/p>

以當(dāng)下計算機器對自然語言的運用和表達(dá)水平來看,顯然還有很長的一段路要走。

其次,科學(xué)界對AI的定義多種多樣,究竟多少比例的“智能”是恰如其分的。

當(dāng)下,幾乎人工智能各個領(lǐng)域的研究者和引用者,都試圖通過自己的角度去“還原”出人工智能的“原貌”。但很顯然,就像人類的心肝脾肺腎并不需要具備大腦的思考能力一樣,不是所有系統(tǒng)都能夠、且必須擁有認(rèn)知能力,比如說工廠流水線上的校準(zhǔn)機械臂,它只需要不斷地提高精準(zhǔn)度和靈敏度就可以了。

以絕大多數(shù)人的習(xí)慣,總是渴望一種簡單、統(tǒng)一的概念來認(rèn)知事物。在這種情況下,普通人也會產(chǎn)生一種認(rèn)知混亂,許多被賦予的智能可能只是一種修辭或概念,比如由人工控制的機器人就不被認(rèn)為是智能機器的一種,首個“機器人公民”索菲亞就被業(yè)界鄙視為“造假”。

如何在法律、商業(yè)、社會層面去嚴(yán)謹(jǐn)?shù)囟x“智能”本身,目前還是一個相對模糊的哲學(xué)領(lǐng)域。

第三,普通人怎樣理解自身和人工智能的關(guān)系?

如果AI不具備意識,強人工智能沒有到來的一天,在這種人與機器涇渭分明的共存中,接受與人類能力存在明顯分野的機器智能,似乎并不是一件難事。圖靈也表示,“既不希望貶低不能在選美競賽中有出色表現(xiàn)的機器,也不希望貶低同飛機賽跑失敗的人?!?/p>

而如果人工智能最終還是將獲得意識,那么如同《西部世界》中德洛麗絲那樣自我覺醒并擺脫和反制人類,也是早晚的事。人類不得不考慮在未來的某天,需要與機器一較高下,這種未知會令人在恐懼和盲從之間搖擺不定,甚至影響到技術(shù)進(jìn)度本身。

比如歷史上人工智能的兩次寒冬,幾乎都是在技術(shù)能力不達(dá)預(yù)期的前提下而被廢止的。

可以想見,人工智能在接下來的數(shù)年中,其進(jìn)步并不取決于技術(shù)的突破,更需要觀念的更迭作為前提。

正如弗洛里迪在《什么是信息哲學(xué)?》中所說的那樣,“人工智能就像特洛伊木馬, 把一種更具包容性的計算/信息的范式引入哲學(xué)的城堡?!眹@在木馬身邊的民眾,終有一天會向研究者們發(fā)出質(zhì)問,要求他們給出新的解釋。

而將近半個世紀(jì)過去了,AI還被困在“中文屋”當(dāng)中……

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2020-03-11
今日之AI,能否回應(yīng)“中文屋”的質(zhì)疑?
其中最為人所遺憾的,就是目前仍處于“弱人工智”階段,也就是AI只能在功能層面模擬一些人類的智慧行為,但不具備泛化、思考、認(rèn)知等高級智能,這也大大限制了其應(yīng)用場景。

長按掃碼 閱讀全文