劉興亮 |人工智能的黑匣子:生活在不通人情的世界中

01

記得小時候看過一個笑話,一個代表團蒞臨某地,當地組織開歡迎會,領導念發(fā)言稿:歡迎某某代表團長途跋涉來到我市。結果念成了「歡迎某某代表團長‘途跋涉’來到我市?!怪粴g迎了團長,團長名叫途跋涉。

我覺得這位念發(fā)言稿的領導很像人工智能,在對數據進行分析時做出了變量之間不恰當的關聯。

02

人類生活在一個可感知的世界里,用「規(guī)定性」的動作為這個無邊無際的混沌世界劃分經緯,給自身一個相對確定的觀察位置后,尋求主客體之間的相互關系。這種關系意味著一套建立在數學、物理等方法上的觀察模式,以及改善這種模式的心理學探索。

人首先生活在更真實、更自然的物理世界中,同時又生活在對這個世界的抽象中,后者是扭曲、變形、充滿人為因素的。

人工智能將要引發(fā)的那個更高階的世界脫離不開上述邏輯關系,只不過它的「人為因素」更深、更復雜、更高效。

人們擔憂人工智能比過去的科技產品更具有「黑匣子」的效應,因而讓范圍廣闊的受眾生活在被操作的危險中。

深度學習建模通常通過黑箱開發(fā)進行:算法將數量巨大的數據點作為輸入,并將特定數據特征關聯起來進行分析以產生輸出。這一過程的背后不是一個或數個程序員,而是AI自我指導的。它在簡化復雜流程、增強決策模式和發(fā)現有價值見解方面的潛力毋庸置疑。

但這同時讓人想起黑箱模型:模型的輸入和操作對用戶或其他相關方是不可見的。其實多數人生活在無數黑箱外邊,身邊的電腦、電視、乃至一塊手表的運行,他們都不可能了解背后的秘密。

03

人工智能對人類來說是黑匣子的原因在于,它依賴于機器學習算法,這些算法以人類不易審計或理解的方式內化數據,它缺乏可視化并容易被理解的透明度。

我們知道人工智能已經為人類看病開了先河,假如未來進入醫(yī)院選擇科室看病,面對的不是一位真正的大夫,而是一臺電腦,輸入一堆數據后面對它給出的「診斷和處方」,患者敢于接受嗎?它會不會算錯?出了醫(yī)療事故連個訴訟對象都沒有。

我想讓它給我解釋一下:它怎么決策,為什么決策和決策了什么。

我不想一頭霧水毫無芥蒂地接受與自身關系重大又來歷不明的任何東西。何況我病了,身上每個部位都不舒服,被強烈的不安全感籠罩著。

人工智能是否可以保證它的道德有效性和整體公平性?我們可以容忍機器沒有理由地給我們錯誤推薦了一部毫不喜歡的影視劇,但是把炒股、投資、尋求人生伴侶、生產決策或者醫(yī)療建議乃至于臨終關懷方案交由機器決定的時候,人當然希望可以得到充分的解釋說明,以便我們有足夠的信心按照它的指示去執(zhí)行。

04

你可能會說,科學只講求效率、正確的方向和可參考的意見,它既不愛人類,也不恨人類,給出的答案是基于數據和算法的客觀結果,并不存在需要被衡量的道德因素。

事實上,就跟所有普通人一樣,人工智能背后的科學家和工程師們的許多決定是基于判斷和經驗做出的,這些都是他們自己 「深度學習」 的結果。

道理我都懂,可就是感覺這樣的世界非??膳隆7路饍刃纳钐幍氖裁礀|西被觸動了。它太不通人情了,讓人感覺涼颼颼的。

05

有人說,人工智能就兩大特征:黑匣子和不確定性。

它的缺點讓人如此害怕以至于人們忘記了它的任何優(yōu)點。黑匣子問題對使用者和監(jiān)管者都帶來了很大挑戰(zhàn)。

人工智能流程的不透明性會使監(jiān)管機構難以評估這些系統(tǒng)是否符合現有規(guī)則和準則。缺乏透明度會使監(jiān)管者開發(fā)新框架以應對人工智能應用帶來的風險和挑戰(zhàn)的能力復雜化,無法見招拆招,仿佛對面是一位無形的隱身對手。

這樣的話,也難以評估人工智能系統(tǒng)的公平性、偏見和數據隱私做法,以及它們對消費者權利和市場穩(wěn)定性的潛在影響。等等。

06

然而,AI的好處也顯而易見。

盡管其思維過程受到數據限制,甚至存在算法固有的偏見,也可能引發(fā)錯誤,但AI由于其算法和對海量數據的分析能力,可能揭示新的聯系和方法。

這一方法可以為科學、技術、工程和數學的進步做出實質性、富有成效的貢獻,提供意見,優(yōu)化結果,更重要的是能夠激發(fā)人類的靈感。

AI擅長于歸納性推理,迅速找出事物幕后蘊藏的規(guī)律性。對于沒有經歷過的未知事物通常是無法理解和判斷的。人工智能更不可能擁有關于未來可變事物的數據,對中長期的事物變遷的預測能力卻相當孱弱。

這些未知的、未來變遷的不確定的部分,是AI不擅長的。我們不能全無防備地依賴人工智能的黑匣子來尋找生活、工作、技術上的因果關系。

黑匣子不會告訴任何人一株植物如何長得歪歪扭扭,一條道路何以從花壇上被踩出。它不會造出永動機,發(fā)現永生的秘密。但是它可以輔助人類研究這個可規(guī)定的,在一定范圍內能夠被抽象和解釋的世界。

只不過,在建立AI模型的時候,應該考慮融合提高透明度、可解釋性和問責制的方法,制作可解釋的開源模型。

?07

AI仍然是人類解決自身面臨問題的一套工具。它不是萬能的,有利也有弊。

如果人工智能發(fā)展到相對完美的那一步,電腦把一切都算得準確無疑,毫無出入,在面對任何問題都能給出最佳解決方案,所有人都生活在無比正確的道路上。

這樣的世界還有勁嗎?

還是那個真實的自然世界嗎?

它豈不是建立起一個更同質化、更無法逃脫的精神牢籠?

難道科學的盡頭等待人類的真的是作繭自縛?

我不得其解。如此看來,人工智能的不完美,正是它值得信賴的地方。它不通人情,但是也因此少了人類固有的人情世故和由此引發(fā)的不良作風。

免責聲明:此文內容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權歸作者所有,且僅代表作者個人觀點,與極客網無關。文章僅供讀者參考,并請自行核實相關內容。投訴郵箱:editor@fromgeek.com。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2023-11-10
劉興亮 |人工智能的黑匣子:生活在不通人情的世界中
劉興亮|人工智能的黑匣子:生活在不通人情的世界中

長按掃碼 閱讀全文