人工智能如今已經(jīng)有能力替我們做決定,這讓我們,讓這個世界都為之興奮。但總有一個揮之不去的問題或者說“隱患”:誰將成為仆人,誰將成為主人?我們應(yīng)該從不同的角度來看待人工智能嗎?我們真的應(yīng)該交出控制權(quán),讓人工智能自己有選擇權(quán)利嗎?
也許在某種程度上,或者在某些情況下,我們將不得不放棄我們的絕對控制權(quán)。沒有決策權(quán)的人工智能就不是真正意義上的人工智能。
機器學(xué)習(xí)有時必須是不受影響的
如果每次做出決定時都要等待人工輸入,那么我們根本沒法利用機器學(xué)習(xí)的優(yōu)點。例如,如果一輛自動駕駛汽車在轉(zhuǎn)彎或減速前需要向人詢問輸入信號,那么它根本就不可能完成這項工作。那么這種車和我們今天所認(rèn)知的汽車就沒有什么不同了。
在我們生活中不得不做出這么多的決定的情況下,我們想嘗試把一些決定權(quán)交給機器。如果你相信Microsoft To-Do的數(shù)據(jù),他們統(tǒng)計說我們每一天都要做35,000次決定。目前沒有研究表明支持這一數(shù)據(jù)。但康奈爾大學(xué)透露,我們每天做超過200個僅僅是關(guān)于要吃什么的決定,所以這是一個合理的推測。
其中有趣的是,大多數(shù)決定都是出于人類本能。我們甚至都不去想這些決定,因為它們是固定存在我們大腦里的。當(dāng)我們開車時會下意識遠(yuǎn)離潛在的危險,或者因為前方出現(xiàn)的意外事故而放慢速度時,這些都是我們做出的決定。當(dāng)我們把目光轉(zhuǎn)向有噪音的地方的時候,我們又做出了另一個決定。
我相信如果我們想自動化處理任務(wù),我們需要賦予機器決定權(quán)來讓它們做出類似的決定。我不認(rèn)為把很多非主觀意識的決定交給人工智能做會有什么問題。駕駛汽車過程中避開危險與決定我們開車的方向這兩種選擇是不同的。我們可以為我們必須做的決定畫一個底線。
而且幸運的是,我不是唯一一個認(rèn)為需要做決定底線的人。然而,如何以及在哪里去畫這條線,還有待我們討論。
我們在哪里劃清界限?
斯蒂芬·霍金、埃隆·馬斯克、比爾·蓋茨以及幾乎所有科技界的人都警告說,人工智能可能會接管世界,并將我們從地球上抹去。馬斯克是未來生命研究所的主要捐助者,該研究所決心保持對人工智能的控制權(quán),并準(zhǔn)備為阻止讓我們交出控制權(quán)的立法作斗爭。立法行動將是一種劃清界限的方法。
一個大問題是,為某一特定任務(wù)而設(shè)計的機器是否能夠?qū)崿F(xiàn)自我感知,并通過互聯(lián)網(wǎng)和物聯(lián)網(wǎng)對其他機器產(chǎn)生影響。
這是一個合乎邏輯的飛躍,表明汽車或機器人能夠?qū)崿F(xiàn)自我感知。但它們也有可能從背后侵入我們系統(tǒng),并發(fā)起一場有威脅的革命。但這個漏洞令許多批評人工智能的人感到擔(dān)憂。如果存在這樣的漏洞,就必須盡早采取合適的立法行動。當(dāng)我們發(fā)現(xiàn)這個漏洞已經(jīng)被制造出來的時候,控制它就太晚了。因此,是否存在這種危險這種問題是無法回答的。
另一個關(guān)于人工智能的討論的角度,遠(yuǎn)遠(yuǎn)超出了我們對于在這個世界上所處位置的擔(dān)憂程度。這個問題是,我們?yōu)槭裁葱枰斯ぶ悄?,為什么我們?nèi)绱藷嶂杂趯⒖刂茩?quán)交給機器?在這個世界上,我們存在的意義是什么呢?如果我們把重大決定權(quán)交給機器人,我們還能做什么呢?
我們愿意把控制權(quán)交給AI嗎?
人工智能最近在法律系統(tǒng)中首次亮相。目前正在進行的事例是創(chuàng)造一個完美的機器人法官,并可以讓它取代人類法官最終做出裁決。
另一個建議是,讓一個擁有完美能力的機器人法官來支持一名人類法官,因為人類具有同情心、直覺以及機器無法復(fù)制的人性品質(zhì)。這聽起來像是一個更明智的解決方案,因為人工智能可以應(yīng)用法律條文,提供建議的一系列句子,法官可以從中選擇作為判斷條件。
同樣,在創(chuàng)新一種新產(chǎn)品的過程中,產(chǎn)品設(shè)計師也可以利用機器學(xué)習(xí)難以置信的天賦在成千上萬種不同的排列組合中運行計算。我們總能使它們在利益鏈的末端能夠運用常識,以確保計算機確實能把我們的最大利益放在它們的工作目標(biāo)上。
外科醫(yī)生將被替換為擁有更穩(wěn)定的機械手的機器人,能夠更有效地在病人身上進行觀察,并且能夠更迅速地完成手術(shù)。但他們是否能夠成為合格的外科醫(yī)生?
這是另一個問題出現(xiàn)的地方。如果手術(shù)死亡率下降,或者人工智能醫(yī)生比人類醫(yī)生更安全、更成功,這是完全可能的,那么給機器人外科醫(yī)生一個更大的自主選擇權(quán)將是合情合理的。
所以,即使是人工智能也可能最終會實現(xiàn)選擇自動化。
但我們必須考慮人性。如果計算機總是正確的,那么我們最終將交出控制權(quán)。
同時設(shè)計師們發(fā)現(xiàn),電腦在一些情況下的處理效果更好,它們也將會得到更多的批準(zhǔn)和放寬政策。如果人工智能法官每次都能做出一個完美的裁決,最終,人類法官會簡單地將自己的裁決提交給人工智能法官。
因此,我們也許根本不需要一場終結(jié)者式的起義。也許這是一個對將會發(fā)生的事的一個虛構(gòu)與類比。我們也愿意將我們的決策權(quán)交給一個優(yōu)秀的人工智能。一個強大的人工智能可以讓我們的人類決策能力在下一代人里變得無關(guān)緊要。在完美的人工智能環(huán)境下長大的孩子很可能不會做出任何沖動的決定。
由于懶于參與人情世故以及和簡單知識的結(jié)合,使人工智能比人腦具有更多,更合理的處理能力。我們甚至可以把世界和每一個重大決定都交給那些從未尋求過額外控制權(quán)的人工智能。
人工智能必須用來賦權(quán)人類
與其將世界的控制權(quán)全部交給人工智能,我們難道不應(yīng)該用人工智能來強化我們自己的決策嗎?
每當(dāng)我想到人工智能應(yīng)該如何工作時,我就會想到這一點——尤其是我們在德國仍在打造完整的人工智能建筑平臺的時候。
我們現(xiàn)在總是被種種事情分散注意力。我們專注于生活中重要決策的能力受到我們生活中的信息泛濫、智能手機持續(xù)的干擾,以及受限于第二天的生活壓力中。我們需要把我們最平凡的任務(wù)交給人工智能,但一定要確保這是一個有人類意識的決定。
然而不幸的是,看起來大多數(shù)公司都在朝相反的方向發(fā)展。當(dāng)然,我們可以逆轉(zhuǎn)人工智能的發(fā)展方向,移除所有的自主選擇權(quán),將人工智能的作用下降到背后支持者的角色。但只要商業(yè)利益驅(qū)使我們實現(xiàn)完整的人工智能,這種情況就會有變故。為什么財富50強公司不希望承擔(dān)客戶決策的權(quán)力,而讓人工智能做出所有的購買決定呢?
如今,公司沒有理由不去開發(fā)這樣的人工智能,而且也沒有法律禁止他們這樣做。企業(yè)已經(jīng)創(chuàng)造出了一些產(chǎn)品,這些產(chǎn)品利用人類天性中分等的優(yōu)勢,創(chuàng)造出對大多數(shù)人來說極其難以打破的購買習(xí)慣。
可以想想語音管家Amazon dot。相信有一天,客戶會將這一按鈕的控制權(quán)交給人工智能,并且這并不是一件很遙遠(yuǎn)的事情。有了這個權(quán)利之后,人工智能能夠知道他們做了什么決定,比如他們?yōu)槲覀冑徺I了多少東西。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )