AI值得信任嗎?“可信AI”或能給出答案

科技云報(bào)道原創(chuàng)。

AI技術(shù)所帶來的便利和AI技術(shù)不可信之間的矛盾,正逐漸成為AI在現(xiàn)實(shí)生活中大規(guī)模落地應(yīng)用的核心問題。

美國前國務(wù)卿亨利·基辛格曾在文章中稱,AI的危險(xiǎn)極其巨大,“人類歷史可能重蹈印加人的覆轍,面對(duì)AI,就像印加人面對(duì)無法理解的西班牙文化一樣,甚至?xí)?duì)其產(chǎn)生崇拜和敬畏之心”。

特斯拉CEO埃隆·馬斯克曾提出警告,推進(jìn)AI 向前發(fā)展的行為無異于“召喚惡魔”,為人類帶來“比核武器更恐怖”的危險(xiǎn)。

已故物理學(xué)家史蒂芬·霍金也曾說過,AI的發(fā)明可能是“人類文明史上最可怕的事件”。

為什么這些研究者/領(lǐng)導(dǎo)者都在擔(dān)憂AI技術(shù)的未來?問題的核心正在于“信任”。

AI技術(shù)的發(fā)展:關(guān)乎信任

近30年來,人們?cè)贏I工程上取得了不少矚目的成績。

1997年,“深藍(lán)”成為戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫的第一個(gè)計(jì)算機(jī)系統(tǒng)。

2006年,Hiton提出了深度置信網(wǎng)絡(luò),成為了深度學(xué)習(xí)的前驅(qū)。

2012年,Google大腦使用超過16000個(gè)CPU,用以模擬10億個(gè)神經(jīng)元,在語言和圖像識(shí)別上都取得了突破。

2016年,擁有1920個(gè)CPU集群和280個(gè)GPU的深度學(xué)習(xí)系統(tǒng)AlphaGo擊敗李世石,成為第一個(gè)不讓子擊敗職業(yè)圍棋棋手的程序。

工程上的突破,讓人們得以將以前只能停留在理論上的模型實(shí)際運(yùn)行起來并進(jìn)行測(cè)試,大大加快了AI的發(fā)展并使之商業(yè)化。

如今,AI技術(shù)與產(chǎn)業(yè)的加速融合,從工業(yè)生產(chǎn)到消費(fèi)服務(wù)的各個(gè)方面改變著人們的生活,對(duì)生產(chǎn)和生活效率的提升極為迅速。

在政務(wù)服務(wù)領(lǐng)域,采用人臉識(shí)別、聲紋識(shí)別等AI識(shí)別技術(shù)進(jìn)行身份驗(yàn)證,采用對(duì)話式AI提供智能化政務(wù)服務(wù),采用“文本分析+知識(shí)圖譜+搜索”技術(shù)輔助刑偵、技偵工作等。

在金融行業(yè),利用人臉識(shí)別、語音識(shí)別和智能客服等AI技術(shù),提升金融領(lǐng)域的交互水平和服務(wù)質(zhì)量。

在制造業(yè)領(lǐng)域,利用AI算法開發(fā)數(shù)字化自動(dòng)研發(fā)系統(tǒng),大幅度降低周期長、成本高等研發(fā)不確定性。同時(shí),利用AI技術(shù)提升柔性生產(chǎn)能力,實(shí)現(xiàn)大規(guī)模個(gè)性化定制,提升制造業(yè)企業(yè)對(duì)市場(chǎng)需求變化的響應(yīng)能力。

在消費(fèi)零售領(lǐng)域,AI技術(shù)在商務(wù)決策場(chǎng)景、精準(zhǔn)營銷場(chǎng)景、客戶溝通場(chǎng)景等各個(gè)零售環(huán)節(jié)多點(diǎn)開花,圍繞人、貨、場(chǎng)、鏈搭建應(yīng)用場(chǎng)景。

正是基于AI技術(shù)的迅猛發(fā)展,更多的權(quán)力還在不停地被交到不可靠的機(jī)器手中。

但令人擔(dān)憂的是,這些機(jī)器并不具備對(duì)人類價(jià)值觀的理解,根本無法解決利害關(guān)系較大的問題,只能按照編程邏輯工作。

試想一下,如果AI系統(tǒng)推送了一條錯(cuò)誤的廣告,影響并不大;但如果AI系統(tǒng)自動(dòng)駕駛著汽車,全速撞向其數(shù)據(jù)庫中并不存在的外觀奇特的車輛,后果不堪設(shè)想。

事實(shí)上,AI犯錯(cuò)并不是一種假設(shè),而是屢次出現(xiàn)在現(xiàn)實(shí)生活中。

曾有部分消費(fèi)者反應(yīng),亞馬遜Alexa智能音箱居然半夜經(jīng)常會(huì)莫名其妙地發(fā)出巫婆般的恐怖笑聲,令用戶感到害怕。

Facebook人工智能研究實(shí)驗(yàn)室在訓(xùn)練兩個(gè)AI聊天機(jī)器人互相對(duì)話時(shí),AI竟逐漸發(fā)出人類無法理解的獨(dú)特語言。

微軟聊天機(jī)器人Tay上線不到24小時(shí),竟然出現(xiàn)了攻擊性和種族歧視言論,微軟不得不馬上讓其短暫休眠。

源于這些真實(shí)發(fā)生的問題,大眾對(duì)AI的信任度大大降低。

AI鴻溝:未被重視的AI魯棒性

理想與現(xiàn)實(shí)之間,存在著一個(gè)被稱為“AI鴻溝”的大坑。追根溯源,主要在于AI的魯棒性(Robust)沒有得到足夠重視。

在當(dāng)下的AI 研究中,AI的容錯(cuò)率往往較高,比如廣告和商品推薦。但在無人駕駛汽車、老人照護(hù)、醫(yī)療規(guī)劃等領(lǐng)域中,AI的魯棒性都至關(guān)重要,關(guān)系到人們的生命安全。

正因?yàn)槿狈?duì)AI魯棒性的重視,每當(dāng)AI解決方案能在某些時(shí)候發(fā)揮作用,人們就會(huì)假定,只要再多一點(diǎn)數(shù)據(jù),此系統(tǒng)就能在所有的時(shí)刻發(fā)揮作用。

但事實(shí)上,就算是目前AI最擅長的領(lǐng)域,也潛藏危機(jī)。

以圖像識(shí)別為例,很多時(shí)候AI不僅無法識(shí)別,還會(huì)犯低級(jí)錯(cuò)誤。比如給AI系統(tǒng)看一張貼著許多貼紙的停車標(biāo)志,AI系統(tǒng)可能會(huì)錯(cuò)誤地識(shí)別為“裝了許多食品和飲料的冰箱”。在自動(dòng)駕駛領(lǐng)域,AI也不能百分百識(shí)別道路情況,如特斯拉屢次撞向路邊的消防車。

這是因?yàn)楫?dāng)前的AI發(fā)展以深度學(xué)習(xí)為主,而深度學(xué)習(xí)算法最常標(biāo)榜的便是“準(zhǔn)確率高達(dá)99.99%”。由于深度學(xué)習(xí)模型的“黑匣子”特征,即使2018年憑借深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的成就獲得圖靈獎(jiǎng)的學(xué)者也無法自信地說,某一算法可以達(dá)到100%的準(zhǔn)確性。當(dāng)準(zhǔn)確率只能達(dá)到99%的深度學(xué)習(xí)算法在現(xiàn)實(shí)生活中落地時(shí),便會(huì)帶來許多不容小覷的問題。

具體而言,深度學(xué)習(xí)面臨三個(gè)核心問題,每一個(gè)問題既會(huì)影響到深度學(xué)習(xí)自身,也會(huì)影響到嚴(yán)重依賴于深度學(xué)習(xí)的其他流行技術(shù):

深度學(xué)習(xí)是貪婪的。

為了將神經(jīng)網(wǎng)絡(luò)中的所有連接都調(diào)校準(zhǔn)確,深度學(xué)習(xí)常常需要大量的數(shù)據(jù)。AlphaGo要下3000萬盤棋,才能達(dá)到超人類的水平。如果數(shù)據(jù)量減少,深度學(xué)習(xí)的表現(xiàn)水平也會(huì)急轉(zhuǎn)直下。

深度學(xué)習(xí)之所以搞不定語言和翻譯,就是因?yàn)閹в行乱饬x的新句子層出不窮。你所面對(duì)的現(xiàn)實(shí)世界問題與訓(xùn)練系統(tǒng)所使用的數(shù)據(jù)相差越大,系統(tǒng)的可靠性就越低。

深度學(xué)習(xí)是不透明的。

神經(jīng)網(wǎng)絡(luò)由大量數(shù)值矩陣組合而成,其中任何一個(gè)矩陣都是普通人類從直覺上無法理解的。就算利用復(fù)雜的工具,專業(yè)人士也很難搞明白神經(jīng)網(wǎng)絡(luò)決策背后的原因。神經(jīng)網(wǎng)絡(luò)究竟為何能做到這許多事情,至今仍然是一個(gè)未解之謎。人們也不知道神經(jīng)網(wǎng)絡(luò)在達(dá)不到既定目標(biāo)時(shí),問題究竟出在哪里。

事實(shí)上,神經(jīng)網(wǎng)絡(luò)如同“黑箱”一般,不管做什么,你只能看到結(jié)果,很難搞懂里面究竟發(fā)生了怎樣的過程。當(dāng)我們對(duì)神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)的無人駕駛汽車或家政機(jī)器人寄予厚望時(shí),這就是個(gè)非常嚴(yán)重的問題。

深度學(xué)習(xí)的不透明,還有另一個(gè)問題,就是深度學(xué)習(xí)與周遭世界的常識(shí)并不相符。若想讓深度網(wǎng)絡(luò)搞明白“蘋果長在樹上”,或是“蘋果從樹上掉下來的時(shí)候,會(huì)從上往下掉,而不是從下往上飛”,并不是件容易的事。

深度學(xué)習(xí)是脆弱的。

愚弄深度網(wǎng)絡(luò)的方法可達(dá)數(shù)十種之多,這是長期存在的問題。麻省理工學(xué)院的研究團(tuán)隊(duì)就設(shè)計(jì)出了一只三維海龜,被深度學(xué)習(xí)系統(tǒng)錯(cuò)認(rèn)成來復(fù)槍,即使將海龜放到水下環(huán)境也沒能改變錯(cuò)誤結(jié)果。該團(tuán)隊(duì)又在棒球上涂了點(diǎn)肥皂泡,放在棕色的棒球手套中,不論什么角度都會(huì)被識(shí)別錯(cuò)成一杯濃縮咖啡。

歸根結(jié)底,還是深度學(xué)習(xí)不夠深刻。有所成就,并不意味著深度學(xué)習(xí)的行為背后存在一個(gè)真正的智能。因此,深度學(xué)習(xí)不是萬能藥,依然與我們?cè)陂_放系統(tǒng)中需要的通用AI相去甚遠(yuǎn)。

可信AI:凝聚國際共識(shí)

為了避免AI可能給人們帶來的負(fù)面影響,以便人們能夠充分信任AI技術(shù),與AI技術(shù)和諧相處,可信AI最近受到越來越多的關(guān)注,發(fā)展可信AI已成為全球共識(shí)。

2019年4月,歐盟委員會(huì)發(fā)布了《人工智能倫理指南》,提出了實(shí)現(xiàn)可信人工智能的七個(gè)要素,包括:保障人工智能技術(shù)的人的自主性、穩(wěn)健性和安全性,確保隱私和數(shù)據(jù)管理,確保算法系統(tǒng)的透明度,以及要求人工智能提供多樣化、非歧視性和公平的服務(wù)。

2019年6月,G20提出“G20人工智能原則”,明確提出“促進(jìn)公共和私人對(duì)人工智能研發(fā)的投資力度,以促進(jìn)可信賴的人工智能的創(chuàng)新”。

在國內(nèi),2017年11月,中國科學(xué)家何積豐院士首次提出了可信人工智能的概念,即人工智能技術(shù)本身具備可信的品質(zhì),從學(xué)術(shù)研究角度,可信AI研究范疇包含了安全性、可解釋性、公平性、隱私保護(hù)等多方面的內(nèi)容。

隨著“可信”成為共識(shí),產(chǎn)業(yè)界也緊跟學(xué)術(shù)界步伐,紛紛投入“可信AI”的研究。

IBM于2018年開發(fā)了多個(gè)AI可信工具,以評(píng)估測(cè)試人工智能產(chǎn)品在研發(fā)過程中的公平性、魯棒性、可解釋性、可問責(zé)性、價(jià)值一致性。

例如:公平性(Fairness),AI系統(tǒng)應(yīng)該采用不帶偏見的數(shù)據(jù)集和模型,從而避免對(duì)于特定群體的不公平;可解釋性(Explainability),AI系統(tǒng)所提供的決策或建議不是一個(gè)不可解釋的黑箱,應(yīng)該能夠被用戶和開發(fā)者所分析、理解;健壯性(Robustness),AI系統(tǒng)應(yīng)該安全和可靠,不會(huì)被篡改,也不會(huì)受被“污染”的訓(xùn)練數(shù)據(jù)集影響;透明性(Transparency),AI系統(tǒng)可以被透明化管理,其開發(fā)、部署、維護(hù)等可被追蹤,能夠在生命周期范圍內(nèi)被審核等。

目前,IBM這些工具已捐獻(xiàn)給Linux Foundation并成為了開源項(xiàng)目,幫助開發(fā)人員和數(shù)據(jù)科學(xué)家構(gòu)建可信、安全、可解釋的人工智能系統(tǒng)。

除此之外,微軟、谷歌、螞蟻、京東、騰訊、曠世等科技企業(yè),也在積極開展可信AI的研究和探索。

早在2015年2月,螞蟻集團(tuán)就已啟動(dòng)基于「端特征」的手機(jī)丟失風(fēng)險(xiǎn)研究項(xiàng)目,邁出了端云協(xié)同風(fēng)控研究的第一步,旨在保護(hù)用戶的隱私安全。2017年6月,螞蟻又發(fā)布具備智能攻防能力的第一代智能風(fēng)控引擎AlphaRisk,在用戶集中的支付寶端進(jìn)行風(fēng)險(xiǎn)防控。

據(jù)了解,螞蟻集團(tuán)自2015年起投入可信AI技術(shù)的研究。2016年,全面啟動(dòng)了人工智能風(fēng)控防御戰(zhàn)略。目前,可信AI技術(shù)已在包括反欺詐、反洗錢、反盜用、企業(yè)聯(lián)合風(fēng)控、數(shù)據(jù)隱私保護(hù)在內(nèi)的多個(gè)風(fēng)控場(chǎng)景下落地,支撐著其全風(fēng)險(xiǎn)域的防御需求。

至2021年首次對(duì)外披露技術(shù)架構(gòu),螞蟻集團(tuán)已經(jīng)完成了長達(dá)6年的可信AI技術(shù)積累之路。據(jù)2021年6月權(quán)威專利機(jī)構(gòu)IPR daily發(fā)布的《人工智能安全可信關(guān)鍵技術(shù)專利報(bào)告》顯示,螞蟻集團(tuán)旗下的支付寶在該領(lǐng)域的專利申請(qǐng)數(shù)和授權(quán)數(shù),均位列全球第一。

2021年,中國信通院聯(lián)合京東探索研究院發(fā)布了《可信人工智能白皮書》,可信AI已不再局限于對(duì)人工智能技術(shù)、產(chǎn)品和服務(wù)本身狀態(tài)的界定,而是逐步擴(kuò)展至一套體系化的方法論,涉及到如何構(gòu)造“可信”人工智能的方方面面。

在企業(yè)管理上,商湯科技在2020年1月成立了人工智能倫理治理委員會(huì),并于2021年上半年上線了倫理審核系統(tǒng),建立貫穿人工智能系統(tǒng)生命周期的風(fēng)險(xiǎn)管理系統(tǒng),對(duì)將要落地的人工智能系統(tǒng)進(jìn)行全過程的追溯和審查,為國內(nèi)科技企業(yè)做出了表率。

結(jié)語

AI技術(shù)已成為互聯(lián)網(wǎng)行業(yè)發(fā)展不可缺少的原動(dòng)力之一。針對(duì)AI伴隨的風(fēng)險(xiǎn)和挑戰(zhàn),發(fā)展可信AI,推動(dòng)人工智能的透明可視、安全可控、多元包容已成為全球共識(shí),也是未來人工智能健康發(fā)展的必由之路。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-01-19
AI值得信任嗎?“可信AI”或能給出答案
AI值得信任嗎?“可信AI”或能給出答案

長按掃碼 閱讀全文