AI算法透明早已捉襟見肘,算法問責制才是最佳解決方案

雖然人工智能曾被譽為開啟經(jīng)濟繁榮新時代的關(guān)鍵,但如今,政策制定者們卻面臨著一波又一波有關(guān)確保人工智能公平、道德和安全的呼聲。紐約市長de Blasio最近宣布成立美國第一個監(jiān)測和評估算法使用的特別工作組。幾天后,歐盟制定了全面的新數(shù)據(jù)保護規(guī)則,要求公司能夠向消費者解釋所有自動化決策。像埃隆·馬斯克這樣備受矚目的批評者,呼吁政策制定者采取更多措施來規(guī)范人工智能。

不幸的是,兩個最受歡迎的想法——要求公司披露算法源代碼并解釋它們?nèi)绾巫龀鰶Q策以及通過規(guī)范商業(yè)模式和內(nèi)部運作,會導(dǎo)致弊大于利,并不能讓這些公司對結(jié)果負責。

第一個想法——“算法透明度”——要求公司披露其AI系統(tǒng)中使用的源代碼和數(shù)據(jù)。除了過于簡單之外,這個想法并不具有作為廣泛解決方案的優(yōu)點。許多AI系統(tǒng)太復(fù)雜,僅通過查看源代碼是無法完全理解的。一些AI系統(tǒng)依賴于數(shù)百萬個數(shù)據(jù)點和數(shù)千行代碼,而且決策模型在遇到新數(shù)據(jù)時會隨時間而產(chǎn)生變化。期望即使是最積極的、資源重組的監(jiān)管機構(gòu)或有關(guān)公民,能夠發(fā)現(xiàn)該系統(tǒng)的開發(fā)人員可能無法做到的所有潛在瀆職行為,是不現(xiàn)實的。

此外,并非所有公司都有開源商業(yè)模式。要求他們披露源代碼會降低他們投資開發(fā)新算法的動力,因為這會讓競爭對手山寨。與美國在人工智能的主導(dǎo)地位上競爭激烈的中國不良行為者,經(jīng)常蔑視知識產(chǎn)權(quán),并可能會使用透明度要求來竊取源代碼。

另一個想法——“算法可解釋性”——將要求公司向消費者解釋他們的算法如何做出決策。該提議的問題在于AI系統(tǒng)中的可解釋性和準確性之間經(jīng)常存在不可避免的折衷。算法的準確性通常隨其復(fù)雜性而變化,所以算法越復(fù)雜,解釋就越困難。雖然隨著對可解釋性人工智能研究的成熟,這可能會在未來發(fā)生變化,比如DARPA在2017年投入了7500萬美元用于解決這一問題,但目前,可解釋性的要求將會付出準確性的代價。這是非常危險的。例如,對于自動駕駛汽車來說,能夠解釋事故重要,還是避免事故重要?解釋比準確性更重要的情況很少見。

政策制定者不應(yīng)該要求公司披露他們的源代碼或限制他們可以使用的算法類型,而是應(yīng)該堅持算法問責制——算法系統(tǒng)應(yīng)采用各種控制措施來確保運營商(即負責部署算法的一方)可以驗證它是否按預(yù)期運行,并確定和糾正有害后果的原則。

圍繞算法問責制構(gòu)建的政策框架將具有幾個重要好處。首先,它會使運營商對其算法可能造成的任何危害負責,而不是開發(fā)人員。運營商在算法如何影響社會方面擁有最大的影響力,而且他們已經(jīng)必須遵守各種旨在確保他們的決定不會造成傷害的法律。例如,雇主必須遵守招聘中的反歧視法律,無論他們是否是使用算法來做出這些決定的。

其次,讓運營商對結(jié)果而不是算法的內(nèi)部運作負責,可以讓他們專注于確保算法不會造成傷害的最佳方法,諸如信心措施,影響評估或程序規(guī)律等。例如,大學可以在部署人工智能系統(tǒng),預(yù)測哪些學生可能會輟學之前進行影響評估,以確保其有效和公平。與透明度或可解釋性要求不同,這將使大學能夠有效地識別任何潛在的缺陷,而不禁止使用復(fù)雜的專有算法。

這并不是說透明度和可解釋行就沒有它們的位置。例如,透明度要求對刑事司法系統(tǒng)中的風險評估算法來說是有意義的。畢竟,長期以來,公眾都有興趣要求司法系統(tǒng)接受最高程度的審查,即使這種透明度可能無法解釋先進的機器學習系統(tǒng)如何運作。

同樣,“平等信用機會法”等法律要求公司向消費者提供足夠的解釋,才能拒絕給予信貸。無論公司是否使用AI來做出決策,消費者仍然有權(quán)獲得這些解釋。

關(guān)于如何使AI安全的辯論忽視了對細微差別、有針對性的監(jiān)管方法的需要,迅速的處理算法透明度和可解釋性而不考慮它們的許多缺點是不行的。想要減輕AI造成的潛在危害是沒有錯的,但到目前為止提出的解決方案都過于簡單,過于寬泛的解決方案在很大程度上是無效的,甚至可能弊大于利。算法問責制為確保組織負責任地使用AI提供了更好的途徑,使其真正成為社會的福音。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-07-31
AI算法透明早已捉襟見肘,算法問責制才是最佳解決方案
雖然人工智能曾被譽為開啟經(jīng)濟繁榮新時代的關(guān)鍵,但如今,政策制定者們卻面臨著一波又一波有關(guān)確保人工智能公平、道德和安全的呼聲。

長按掃碼 閱讀全文