自動駕駛撞死一個人被判無罪,未來的AI世界會好嗎?

原標題:自動駕駛撞死一個人被判無罪,未來的AI世界會好嗎?

2018年3月18日,美國亞利桑那州,一輛配備了安全駕駛員的Uber自動駕駛汽車,撞倒了一位違規(guī)橫穿馬路的行人,后者被送往醫(yī)院,最終不治身亡。

一年后,就在大眾輿論快要忘卻這樁悲劇的時候,它有了最新判決結果,當?shù)貦z察官在一封信中稱,Uber在事故中負有刑事責任的指控“沒有依據(jù)”,事故視頻可能并未準確地描述車禍過程,當時車上的安全駕駛員則需進一步調查。

你可以理解為:這起全球首例無人車致死事故,無人車,無罪。

在post-truth時代,任何公共事件都能成為劃分敵我的分野工具。這次也不例外,判決一出,圍攏在不同利益集團和觀念陣地的旗幟下,人們迅速開始站隊。

有人欣喜于“技術的勝利”。畢竟,是“愚蠢”的人類違規(guī)橫穿馬路在先,技術又有什么錯呢?另外,“愚蠢”的還有安全駕駛員,警方表示,Uber的自動駕駛系統(tǒng)在出事前就發(fā)現(xiàn)了受害者,但因計算機系統(tǒng)的設置問題,計算機控制模式下車輛無法自動啟用緊急剎車,剎車的責任交給了安全駕駛員,但安全駕駛員在事故當晚看了大約42分鐘的“美國好聲音”,她反復低頭,無心關注路面,就在她一次抬頭的半秒鐘后,事故發(fā)生。

不過,盡管看起來無人車是“無辜”的,但對于判決結果,也有人感到“不舒服”。畢竟,是人類對機器的信賴,造成了這樁悲劇。這也是為什么,盡管檢方目前判Uber無罪,但美國國家運輸安全委員會仍在對事故進行調查,Uber也仍有可能遭到挑戰(zhàn)。

面臨挑戰(zhàn)的不只是Uber一家公司,事實上,這樁事故也猶如一記悶棍,再次逼迫所有人思考:人類信任機器的邊界在哪里?

L5可能是個夢

截至目前,全球幾乎沒有太多完善的保險條例和法律權限來規(guī)定無人車的責任,美國40多個州在無人車法規(guī)的制定上莫衷一是,已經(jīng)足以折射出自動駕駛的現(xiàn)實痛點。

首先是技術,最近大眾商用車負責人在接受媒體采訪時表示,實現(xiàn)L5自動駕駛,堪比火星探測。

我覺得他仍然低估了L5的難度。關于自動駕駛的未來,業(yè)內一種最極端的說法是:L5或許是一個夢。為什么?因為AI處理不了意外。

數(shù)十年前,AI概念誕生初期,當時的研究者心高氣傲,并不滿足于將機器僅用于計算,他們試圖讓AI完整拷貝人腦的思考過程,讓機器“知其然,也知其所以然”。

但眾所周知,多年以來,人類意識之謎沒有任何實質進展,研究者開始收縮野心,重回對“計算”的追尋。如今的機器學習就是一條試圖彎道超車的捷徑,將現(xiàn)實世界以數(shù)據(jù)作為顆粒度呈現(xiàn),再通過神經(jīng)網(wǎng)絡消化數(shù)據(jù),更好地認清這個世界。

以自動駕駛為例,它最基礎的原理就是將人類司機目力所及的一切物體,路人,建筑,其他車……都構建成三維模型,關心它們之間的移動趨勢,估算速度,預測路線,有沖突就剎車或繞路。

但從邏輯上,這也幾乎意味著,無人車做不到所謂“絕對”的準確性,因為真實的交通是一個復雜生態(tài)系統(tǒng),隨機分布著各種意外。

據(jù)說谷歌自動駕駛就遇到過一些意外:比如,幾個小孩在高速路上玩青蛙;一個殘疾人坐著電動輪椅,在路上追一只鴨子,鴨子繞圈跑,他也繞圈追……面對如此荒誕場景,你很難苛求機器能百分百預測這些人的軌跡。要知道近些年人工智能領域的一切進步,都可歸為相似的框架:“輸入數(shù)據(jù),生成回應”——換句話說,由過去推導未來,機器沒法預測完全不在它經(jīng)驗范圍內的意外。

當然,像小孩玩青蛙,殘疾人追鴨,這種意外想必大多數(shù)人也沒見過,但與機器的“沒見過”不同,因為人類“理解”他們在干嘛,就足以導向正確決策。

這也是現(xiàn)階段安全駕駛員的作用,可惜這次人類自己也失職了。

臨時不想死怎么辦?

除了技術所限,人類將方向盤徹底交給機器,還面臨道德問題。

學者萬維剛在“精英日課”專欄里舉了一個例子:你正以高速開車,突然發(fā)現(xiàn)前方有一群小學生在馬路上打鬧,避讓他們,就只能撞到路邊的建筑物墻上,這意味著你有生命危險,請問在這種情況下,你是選擇撞墻還是撞向小學生?

我相信有許多人會選擇撞墻,人性光輝,為你點贊——但問題來了,假如自動駕駛系統(tǒng)的初始設置,就是在這種情況下“先確保行人安全”,你作何感想?

可能會覺得“不舒服”,就像萬維剛老師所言:“我犧牲我自己,是我自己的決定。我不能讓汽車替我做決定!萬一我臨時不想死怎么辦?萬一汽車判斷錯了怎么辦?我不想開一輛在某種情況下會犧牲我的車?,F(xiàn)在有很多公司正在研究自動駕駛的道德規(guī)范,Google 甚至還專門聘請了哲學家,但是沒有研究出來什么令人滿意的方案。”

面對人類如此矛盾的物種,也許令人滿意的方案根本就不存在。事實上,只要是出于所謂的自由意志(盡管神經(jīng)科學已基本拋棄了它的存在),人類無論自己做出什么決策,其他人都會感到“事態(tài)可控”,但若同一決策出自AI之手,許多人就會感到巨大的不適。

所以,在危機時刻將決策權交給人類自己,或許是最討巧的選擇——如果時間來得及的話。

人類沒有回頭路

關于自動駕駛,前面潑了兩盆冷水,最后灌一碗雞湯。

依我之見,哪怕L5或許是一場幻夢,但自動駕駛本身,委實是一種確定性趨勢。

為什么這么說?原因至少有兩個。

其一當然老生常談,在概率層面,機器犯錯更少,美國交通部長趙小蘭幾乎在每次關于自動駕駛的演講中都要提及:美國持續(xù)增長的交通事故中,有94%是因駕駛員的失誤造成。而全球范圍內,每行駛20萬英里,人類駕駛員就會出現(xiàn)一次非致命性碰撞;每行駛100萬英里,就會有一名司機喪命。

我重點談一下原因之二,那就是:回溯人類技術演變史,一旦新事物破繭而出,往往就沒有了回頭路,你只能去迭代它,不能消滅它。

舉個最近很熱的例子,大概公元400多年,人類開始使用煙草,而一旦香煙誕生,你覺得它還會從世界上徹底消失嗎?永遠不會。哪怕進入現(xiàn)代,人類若想減少香煙帶給整個社會的負外部性,也只能通過技術而非禁止——比如發(fā)明電子煙。

事實上,縱觀人類文明史,解決技術帶來的問題的方式永遠都是通過更好的技術,忘了是凱文·凱利還是誰說過:“即使新的科技發(fā)明帶來的49%是問題,但它同時也帶來了51%的好處,差別就在于這2%,2%很少,但人類需要這2%,通過一年年積累產(chǎn)生強大影響力。所以,即便新發(fā)明帶來的好處只比問題多一點,這一點就是人類進步的動力?!?

自動駕駛更是如此,Uber的事故只是放緩了他們自己的研發(fā)速度,并未阻礙全球自動駕駛產(chǎn)業(yè)猛踩油門,這個世界上但凡有能力的國家和企業(yè),都已全部聚齊在自動駕駛的漫長賽道上,并且都試圖率先達成技術迭代,用戶習慣,輿論環(huán)境,基礎設施等諸多方面的動態(tài)均衡。

所以你說,今天自動駕駛撞死了一個人,被判無罪,那么未來的AI世界會好嗎?

我的回答是:除了選擇相信“會”,還能怎么樣呢?

命運自有時間表。一百多年前,人類一旦發(fā)明汽車,馬車所代表的田園牧歌,就只能成為一曲挽歌;一百多年后亦是如此,從汽車與信息文明相遇的那一瞬間,一切悲喜就已不可避免。

李北辰/文

免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2019-03-08
自動駕駛撞死一個人被判無罪,未來的AI世界會好嗎?
據(jù)說谷歌自動駕駛就遇到過一些意外:比如,幾個小孩在高速路上玩青蛙;一個殘疾人坐著電動輪椅,在路上追一只鴨子,鴨子繞圈跑,他也繞圈追……面對如此荒誕場景,你很難苛求機器能百分百預測這些人的軌跡。

長按掃碼 閱讀全文