我們都相信,或許未來我們都要以人機(jī)協(xié)作的方式生存。傳說中能夠代勞一切的終極算法顯然一時半會兒不會出現(xiàn),但人類和機(jī)器人一同勞作已經(jīng)成為可能,人類也會接受越來越多來自于機(jī)器提供的服務(wù)。
如果說在人機(jī)協(xié)作上,AI技術(shù)能力的成熟與否是第一前提,那么第二前提就是人類和機(jī)器之間的信任關(guān)系了。
今天的我們總是在關(guān)注第一前提,并且取得突飛猛進(jìn)的進(jìn)展,但往往忽略第二前提的重要性。想象一下,要是人類和機(jī)器之間無法形成信任關(guān)系,人機(jī)協(xié)作的未來將會怎樣?
律師所的律師靠AI搜集整理資料,但AI搜集完了以后,律師又不放心,重新把AI助手的工作又檢查一遍,最后其實(shí)浪費(fèi)了更多的時間。而如今廠商們所宣傳的理想中的自動駕駛,是人一上車就躺下休息,而自動駕駛會把乘客安全的送達(dá)終點(diǎn)??扇绻祟惒恍湃?a href="http://www.ygpos.cn/%E8%87%AA%E5%8A%A8%E9%A9%BE%E9%A9%B6_1.html" target="_blank" class="keylink">自動駕駛,這一畫面就變成了人類上了車立刻進(jìn)入緊張狀態(tài),像駕校司機(jī)一樣緊盯路況還時不時對AI的駕駛技術(shù)表示嫌棄。這樣一來,肯定是有悖于AI提升工作效率的初衷的。就連“網(wǎng)紅機(jī)器人”索菲亞都說,為了共建人類和AI之間的信任,應(yīng)該少拍點(diǎn)機(jī)器人與人類為敵的電影。
“不道德”的AI,你能相信嗎?
但首先我們要弄明白一個問題,人類真的會很難和AI建立起信任關(guān)系嗎?想想看,我們似乎天生就相信烤箱會把食物加熱而不是讓食物有毒,也相信冰箱會用低溫保存食物而不是讓食物變質(zhì)。難道到了AI這里就不靈了嗎?
這其中的差異,在于心理學(xué)上的“釋義法則”,即人們會更容易信任他們能夠理解其原理的技術(shù)??鞠涞母邷亍⒈涞牡蜏?,其實(shí)都是千百年以來我們非常熟悉的處理食物的方式了。不信換成微波爐,這么多年了還有人質(zhì)疑它會“輻射”食物。
AI就更是如此,加上神經(jīng)網(wǎng)絡(luò)的黑箱特征,人們很難從理解原理這一層面上去信任AI。
同時當(dāng)AI進(jìn)入我們生活中的方方面面時,難免會在進(jìn)行決策時遇到道德問題。最典型的“人行橋困境”就是如此,鐵軌上綁著五個無辜的人,火車即將壓過他們的身體,這時如果把人行橋上的一位大漢推下橋去,就可以阻止火車向前拯救鐵軌上的五個人。那么究竟該不該犧牲一個人的姓名拯救五個人?在現(xiàn)實(shí)中雖然不太會出現(xiàn)這種極端情況,但有沒有可能自動駕駛在行駛時為了不發(fā)生剮蹭而碰撞到過路的動物?這時是損害車還是損害路過的小動物,也是一種道德困境。
面對這種狀況,哲學(xué)上有一種說法叫“后果論”,即認(rèn)為計(jì)算結(jié)果才是做出道德決策的正確途徑,結(jié)果收益最高的決策才是最道德決策。同時《實(shí)驗(yàn)心理學(xué)月刊》上的研究結(jié)果表明,那些通過后果論進(jìn)行決策的人往往人緣更差,人們會認(rèn)為他們冷酷、自私、不近人情,因?yàn)槠胀ㄈ烁敢庾袷卮鄠鞯牡赖掠^,即使那樣會得出收益不那么高的結(jié)果。
但AI的進(jìn)行的往往都是后果論決策,追求收益而非道德正確。因此研究推斷,未來人類很可能也會對AI做出的決策產(chǎn)生一些質(zhì)疑。因?yàn)槿祟悤J(rèn)機(jī)器沒有道德感、同理心、同情心這種以往概念里一個好的決策者應(yīng)有的特質(zhì)。
AI如何獲取人類信任?除了套路還是套路
不過現(xiàn)在也有很多研究團(tuán)隊(duì)意識到了這一問題,開始想辦法研究如何建立起人機(jī)信任。目前來看,研究方向大概分為兩個角度,一個是從人的角度尋找什么樣的AI才更容易獲得人類的信賴,另一個是從AI的角度去感知和評估人類的信任程度。
MIT曾經(jīng)和新加坡科技設(shè)計(jì)大學(xué)進(jìn)行過一系列實(shí)驗(yàn),得出兩個結(jié)論,第一是想讓人類信任AI,就需要讓人類“參與”AI訓(xùn)練的過程;第二人類更希望AI指出問題而不是確認(rèn)問題。
在第一個實(shí)驗(yàn)中,人們被要求在看過一系列照片后,再在AI的輔助下從一系列圖片庫中選中自己看過的圖片。實(shí)驗(yàn)對象被分為AB兩組,A組被告知AI技術(shù)會隨著用戶選擇過程循序漸進(jìn)提升,用戶決策正確的越多,AI技術(shù)也會隨之提升。B組沒有被告知任何信息,實(shí)際上兩組AI算法的精準(zhǔn)度是一樣的。但實(shí)驗(yàn)結(jié)果是,A組實(shí)驗(yàn)對象會更信任AI算法,B組則更信任自己的選擇。
而在第二個實(shí)驗(yàn)中,算法對無人機(jī)回傳來的畫面進(jìn)行圖像識別,A組對象中AI會把畫面中的火災(zāi)、偷盜、搶劫等等畫面圈出來,B組對象中AI則會把畫面圈出來,并且標(biāo)注上“火災(zāi)”、“偷盜”、“搶劫”等等。兩組算法都有同樣的誤差比率,但實(shí)驗(yàn)結(jié)果表明A組實(shí)驗(yàn)對象對于AI的信任程度要遠(yuǎn)高于B組,畫面檢閱的效率也遠(yuǎn)高于B組。因?yàn)樵谌祟惪磥恚瑢τ诰唧w情況的判斷失誤是一種非常嚴(yán)重的錯誤,代表著算法很不可信,所以他們要把畫面整體都重新細(xì)細(xì)看一遍,比起A組用戶判斷標(biāo)注出來畫面的具體情況,要浪費(fèi)了不少時間。
或許未來AI獲取人類信任也需要一些“套路”,像是假裝需要人類參與訓(xùn)練,或者刻意把一些工作分擔(dān)給人類。
而最近普渡大學(xué)械工程學(xué)院推出了一項(xiàng)系統(tǒng),通過對膚電測試和腦電波測試采集人們的狀態(tài),推出適用于大眾的“通用信任模型”和個人的“個性化信任模型”。研究者表示AI工具可以和這些信任模型聯(lián)動起來,尤其在兒童教育、老年人看護(hù)這些領(lǐng)域,對于人類信任狀態(tài)的感知可以幫助AI更好的服務(wù)人類。例如當(dāng)AI感知到人類的不信任時,可以暫停當(dāng)下的工作,通過安撫一類的方式提升人類的信任。
人機(jī)信任的第一步……或許是AI打假?
不過在以上提到的幾個實(shí)驗(yàn)中,都出現(xiàn)了一個有趣的共同發(fā)現(xiàn)——人類對AI的信任程度是可以被控制的,AI的表現(xiàn)越差、給用戶造成不好的體驗(yàn),人類的信任程度越低——不管是從腦電圖的生理狀況看來還是從行為看來都是如此。
例如讓人乘坐一輛自動駕駛的汽車,如果汽車總是無緣無故的突然剎車,讓人在車中顛簸,人類的信任程度就會快速降低。
那這么看來,真正有害于人機(jī)信任的并不是狗血科幻電影,而是那些正洶涌而來的人工智障?;蛟S如今建立人機(jī)信任最高效的方法不是別的,而是AI打假。
免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點(diǎn),與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。
- DeepSeek詳解量化交易內(nèi)幕,股民看了心驚肉跳
- 信創(chuàng)算力關(guān)鍵年的三個趨勢與最佳選擇
- 暴跌3萬億!中國AI技術(shù)崛起,嚇壞了美國AI芯片龍頭
- 微信又“爆改”:微信朋友圈實(shí)況照片不再默認(rèn)播放,你滿意嗎?
- 2024年全球智能手機(jī)市場復(fù)蘇:蘋果引領(lǐng),三星和小米緊隨其后
- AI搜索爆了,小紅書、百度都急了
- 在小紅書冒充TikTok難民的殺豬盤,被反詐中心盯上了
- 雙面劉雯:靠“正義”引流,割韭菜發(fā)財
- TikTok美國熬過生死局,玩家多平臺布局避險
- 輸血、輸血、輸血!微創(chuàng)機(jī)器人終于學(xué)會了造血?
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。