深度解讀《人工智能的可解釋性》

人工智能對(duì)我們來說是非常重要的。

《經(jīng)濟(jì)學(xué)人》智庫亞洲編輯部主任Charles Ross 用與谷歌合作的一個(gè)調(diào)查數(shù)據(jù)告訴我們?nèi)斯ぶ悄軐?duì)于每個(gè)國家所帶來的影響,左邊這幅圖,顯示的是如果國家能夠持續(xù)對(duì)人工智能產(chǎn)業(yè)采取比較積極投資和政策支持,2030年這些國家的GDP將得到顯著的更進(jìn)一步的提升。而增長(zhǎng)最快的是澳大利亞,可以增加2.71%的GDP,反之則帶來非常不利的影響。

但隨著AI研究與應(yīng)用不斷取得突破性進(jìn)展,高性能的復(fù)雜算法、模型及系統(tǒng)普遍卻缺乏決策邏輯的透明度和結(jié)果的可解釋性,導(dǎo)致在涉及需要做出關(guān)鍵決策判斷的國防、金融、醫(yī)療、法律、網(wǎng)安等領(lǐng)域中,或要求決策合規(guī)的應(yīng)用中,AI技術(shù)及系統(tǒng)難以大范圍應(yīng)用。而XAI(eXplainable Artificial Intelligence)技術(shù)就是主要研究如何使得AI系統(tǒng)的行為對(duì)人類更透明、更易懂、更可信。

什么是人工智能的可解釋性

主講嘉賓:菲律賓聯(lián)合銀行人工智能和數(shù)據(jù)資深顧問 David Hardoon 博士以汽車的發(fā)展史為例,深入淺出地解釋了人工智能的可解釋性是一個(gè)什么概念。

它就好像在1914年拿到了一輛福特T型車,很多駕駛員可以解釋他大部份的工作原理,懂得如何自己修理。而現(xiàn)在當(dāng)我們拿到了一輛特斯拉,我們可能不知道它的運(yùn)作原理,只是知道這個(gè)啟動(dòng)按鈕,踩一下這個(gè)油門,這輛車就開了。與長(zhǎng)期的汽車演化歷史相比,AI的出現(xiàn)和廣泛的運(yùn)用是如此的突然,而在如此短暫的時(shí)間里,我們作為使用者,無法完全了解這個(gè)產(chǎn)業(yè)鏈的相關(guān)信息,所以在可解釋性的第一個(gè)層面,就是回答這個(gè)問題:誰了解這個(gè)技術(shù)以及它的產(chǎn)業(yè)鏈,誰為什么環(huán)節(jié)負(fù)責(zé),如何負(fù)責(zé)。這將是我們建立信任的基礎(chǔ)。

我們有三個(gè)方面的內(nèi)容需要考慮:

01可解釋性的前提——不同的應(yīng)用場(chǎng)景和交流語境

02解釋的對(duì)象是誰?他/她需要了解什么?

03政策和規(guī)范對(duì)人工智能的可解釋性有什么標(biāo)準(zhǔn)?

可解釋性,其實(shí)是人性的需求,也是建立互信的需要。理解這個(gè)底層需求,是非常非常重要的。我們不僅僅討論的是可解釋性,我們實(shí)際上是通過解釋,通過讓人了解,去建立彼此的互信。

123下一頁>

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2020-07-28
深度解讀《人工智能的可解釋性》
人工智能對(duì)我們來說是非常重要的。

長(zhǎng)按掃碼 閱讀全文