我們真的永遠也理解不了人工智能嗎?

美國科學雜志nautil.us《鸚鵡螺》作家Aaron M. Bornstein發(fā)表了針對人工智能時代下神經(jīng)網(wǎng)絡(luò)模型的深度報道。從語音識別到語言翻譯,從下圍棋的機器人到自動駕駛汽車,各行各業(yè)都在該人工智能的驅(qū)動下出現(xiàn)了新的突破。雖然現(xiàn)代神經(jīng)網(wǎng)絡(luò)的表現(xiàn)令人激動,但也面臨一個棘手的問題:沒人理解它們的運行機制,這也就意味著,沒人能預測它們何時可能失靈。正因為如此,許多人遲疑不前、不敢對神秘莫測的神經(jīng)網(wǎng)絡(luò)下注。

我們真的永遠也理解不了人工智能嗎?

在神經(jīng)網(wǎng)絡(luò)中,數(shù)據(jù)從一層傳遞到另一層,每一步都經(jīng)歷一些簡單的轉(zhuǎn)變。在輸入層和輸出層之間還隱藏著若干層,以及眾多節(jié)點組和連接。其中往往找不出可被人類解讀的規(guī)律,與輸入或輸出也沒有明顯的聯(lián)系?!吧疃取本W(wǎng)絡(luò)便是隱藏層數(shù)量較多的神經(jīng)網(wǎng)絡(luò)

以下為文章全文:

作為IBM的一名研究科學家,迪米特里·馬里奧托夫其實不太說得上來自己究竟打造了什么。他的部分工作內(nèi)容是打造機器學習系統(tǒng)、解決IBM公司客戶面臨的棘手問題。例如,他曾為一家大型保險公司編寫了一套程序。這項任務極具挑戰(zhàn)性,要用到一套十分復雜的算法。在向客戶解釋項目結(jié)果時,馬里奧托夫更是大傷腦筋。“我們沒辦法向他們解釋這套模型,因為他們沒受過機器學習方面的培訓?!?/p>

其實,就算這些客戶都是機器學習專家,可能也于事無補。因為馬里奧托夫打造的模型為人工神經(jīng)網(wǎng)絡(luò),要從特定類型的數(shù)據(jù)中尋找規(guī)律。在上文提到的例子中,這些數(shù)據(jù)就是保險公司的客戶記錄。此類網(wǎng)絡(luò)投入實際應用已有半個世紀之久,但近年來又有愈演愈烈之勢。從語音識別到語言翻譯,從下圍棋的機器人到自動駕駛汽車,各行各業(yè)都在該技術(shù)的驅(qū)動下出現(xiàn)了新的突破。

雖然現(xiàn)代神經(jīng)網(wǎng)絡(luò)的表現(xiàn)令人激動,但也面臨一個棘手的問題:沒人理解它們的運行機制,這也就意味著,沒人能預測它們何時可能失靈。

以機器學習專家里奇·卡魯阿納和同事們前幾年報告的一起事件為例:匹茲堡大學醫(yī)學中心的一支研究團隊曾利用機器學習技術(shù)預測肺炎患者是否會出現(xiàn)嚴重并發(fā)癥。他們希望將并發(fā)癥風險較低的患者轉(zhuǎn)移到門診進行治療,好騰出更多床位和人手。該團隊試了幾種不同的方法,包括各種各樣的神經(jīng)網(wǎng)絡(luò),以及由軟件生成的決策樹,后者可總結(jié)出清晰易懂、能被人類理解的規(guī)則。

我們真的永遠也理解不了人工智能嗎?

在現(xiàn)代機器學習算法中,可解釋性與精確度難以兩全其美。深度學習精確度最高,同時可解釋性最低

神經(jīng)網(wǎng)絡(luò)的正確率比其它方法都要高。但當研究人員和醫(yī)生們分析決策樹提出的規(guī)則時,卻發(fā)現(xiàn)了一些令人不安的結(jié)果:按照其中一條規(guī)則,醫(yī)生應當讓已患有哮喘的肺炎病人出院,而醫(yī)生們都知道,哮喘患者極易出現(xiàn)并發(fā)癥。

這套模型完全遵從了指令

從數(shù)據(jù)中找出規(guī)律。它之所以給出了如此差勁的建議,其實是由數(shù)據(jù)中的一個巧合導致的。按照醫(yī)院政策,身患哮喘的肺炎患者需接受強化護理。而這項政策效果極佳,哮喘患者幾乎從不會產(chǎn)生嚴重并發(fā)癥。由于這些額外護理改變了該醫(yī)院的患者記錄,算法預測的結(jié)果也就截然不同了。

這項研究充分體現(xiàn)了算法“可解釋性”的價值所在??敯⒓{解釋道:“如果這套以規(guī)則為基礎(chǔ)的系統(tǒng)學到了‘哮喘會降低并發(fā)癥風險’這一規(guī)則,神經(jīng)網(wǎng)絡(luò)自然也會學到這一點?!钡祟愖x不懂神經(jīng)網(wǎng)絡(luò),因此很難預知其結(jié)果。馬里奧托夫指出,若不是有一套可解釋的模型,“這套系統(tǒng)可能真的會害死人?!?/p>

正因為如此,許多人遲疑不前、不敢對神秘莫測的神經(jīng)網(wǎng)絡(luò)下注。馬里奧托夫為客戶提供了兩套模型:一套是神經(jīng)網(wǎng)絡(luò)模型,雖然精確,但難以理解;另一套則是以規(guī)則為基礎(chǔ)的模型,能夠用大白話向客戶解釋運作原理。盡管保險公司對精確度要求極高,每個百分點都十分重要,但客戶仍選擇了精確度稍遜的第二套模型?!八麄冇X得第二套模型更容易理解,”馬里奧托夫表示,“他們非??粗刂庇^性?!?/p>

隨著神秘難解的神經(jīng)網(wǎng)絡(luò)影響力與日俱增,就連政府都開始對其表示關(guān)注。歐盟兩年前提出,應給予公民“要求解釋”的權(quán)利,算法決策需公開透明。但這項立法或許難以實施,因為立法者并未闡明“透明”的含義。也不清楚這一省略是由于立法者忽略了這一問題、還是覺得其太過復雜導致。

事實上,有些人認為這個詞根本無法定義。目前我們雖然知道神經(jīng)網(wǎng)絡(luò)在做什么(畢竟它們歸根到底只是電腦程序),但我們對“怎么做、為何做”幾乎一無所知。神經(jīng)網(wǎng)絡(luò)由成百上千萬的獨立單位、即神經(jīng)元構(gòu)成。每個神經(jīng)元都可將大量數(shù)字輸入轉(zhuǎn)化為單個數(shù)字輸出,再傳遞給另一個、或多個神經(jīng)元。就像在人腦中一樣,這些神經(jīng)元也分成若干“層”。一組細胞接收下一層細胞的輸入,再將輸出結(jié)果傳遞給上一層。

我們真的永遠也理解不了人工智能嗎?

神經(jīng)網(wǎng)絡(luò)可通過輸入大量數(shù)據(jù)進行訓練,同時不斷調(diào)整各層之間的聯(lián)系,直到該網(wǎng)絡(luò)計算后輸出的結(jié)果盡可能接近已知結(jié)果(通常分為若干類別)。近年來該領(lǐng)域之所以發(fā)展迅猛,還要歸功于幾項可快速訓練深度網(wǎng)絡(luò)的新技術(shù)。在深度網(wǎng)絡(luò)中,初始輸入和最終輸出之間相隔多層。有一套叫AlexNet的著名深度網(wǎng)絡(luò),可對照片進行歸類,根據(jù)照片的細微差別將其劃入不同類別。該網(wǎng)絡(luò)含有超過6000萬個“權(quán)重”,根據(jù)不同權(quán)重,神經(jīng)元會對每項輸入給予不同程度的關(guān)注。隸屬于康奈爾大學和AI初創(chuàng)公司Geometric Intelligence的計算機科學家杰森·尤辛斯基指出:“要想理解這個神經(jīng)網(wǎng)絡(luò),你就要對這6000萬個權(quán)重都有一定的了解。”

而就算能夠?qū)崿F(xiàn)這種可解讀性,也未必是件好事。對可解讀性的要求相當于制約了系統(tǒng)的能力,使模型無法僅關(guān)注輸入輸出數(shù)據(jù)、提供“純粹”的解決方案,從而有降低精確度之嫌。美國國防部高級研究計劃局項目主管戴維·甘寧曾在一次會議上對此進行了總結(jié)。在他展示的圖表中,深度神經(jīng)網(wǎng)絡(luò)是現(xiàn)代機器學習方法中最難以理解的一種,而以規(guī)則為基礎(chǔ)、重視可解釋性勝過效率的決策樹則是最容易理解的一種。

123下一頁>

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-07-27
我們真的永遠也理解不了人工智能嗎?
美國科學雜志nautil.us《鸚鵡螺》作家Aaron M. Bornstein發(fā)表了針對人工智能時代下神經(jīng)網(wǎng)絡(luò)模型的深度報道。

長按掃碼 閱讀全文