量子計算比人工智能更危險?| 專家視點

本文作者:Vivek Wadhwa及Mauritz Kop

由于該技術(shù)的強大功能和革命性的應(yīng)用,量子計算項目很可能已經(jīng)成為序許多國家國防研究的一部分。

今天的人工智能就像回形針一樣具有自我意識。盡管大肆宣傳——例如谷歌工程師奇怪地聲稱他的公司的人工智能系統(tǒng)已經(jīng)“活了起來”,以及特斯拉首席執(zhí)行官埃隆馬斯克的推文預(yù)測到 2029 年計算機將擁有人類智能,但這項技術(shù)仍然無法完成簡單的日常任務(wù)。這其中包括駕駛車輛,尤其是在遇到需要哪怕是最微小的人類直覺或思維的意外情況時。

考慮到馬斯克本人曾警告說,如果各國不對其進行監(jiān)管,人工智能技術(shù)可能成為人類“最大的生存威脅” ,圍繞人工智能的聳人聽聞并不令人驚訝。但無論計算機是否能夠獲得類似人類的智能,這個世界已經(jīng)召喚了一個不同的、同樣具有破壞性的人工智能惡魔:正是因為今天的人工智能只不過是一個粗魯、不智能的系統(tǒng),它使用算法和其他技術(shù)來處理超人數(shù)量的自動化決策數(shù)據(jù),相關(guān)機構(gòu)和企業(yè)廣泛使用它來廣泛獲取信息、制造深度偽造和釋放自主致命武器已經(jīng)對人類構(gòu)成危險。

而加劇危險的是缺乏任何人工智能監(jiān)管。取而代之的是,谷歌和 Meta 等不負責任的技術(shù)集團在所有人工智能領(lǐng)域都扮演了法官和陪審團的角色。他們正在壓制不同的聲音,包括警告危險的他們自己的工程師。

世界未能遏制人工智能的惡魔——或者更確切地說,偽裝成人工智能的粗糙技術(shù)——應(yīng)該是一個深刻的警告。有一種更強大的新興技術(shù)有可能造成嚴重破壞,特別是如果它與人工智能相結(jié)合:量子計算。我們迫切需要了解這項技術(shù)的潛在影響,對其進行監(jiān)管,并防止它落入壞人之手,以免為時已晚。世界絕不能重蹈拒絕監(jiān)管人工智能的覆轍。

盡管仍處于起步階段,但量子計算的運行基礎(chǔ)與當今基于半導(dǎo)體的計算機截然不同。如果世界各地正在進行的各種項目取得成功,這些機器將非常強大,可以在幾秒鐘內(nèi)完成傳統(tǒng)計算機需要數(shù)百萬年才能完成的任務(wù)。

半導(dǎo)體將信息表示為一系列 1 和 0——這就是我們稱之為數(shù)字技術(shù)的原因。另一方面,量子計算機使用一種稱為qubit的計算單元。通過在量子物理學(xué)中加入一種稱為疊加的違反直覺的特性,一個量子比特可以同時保持 1 和 0 的值。如果您覺得這令人困惑,那么就對了——即使是有經(jīng)驗的工程師也很難掌握。 因此,兩個量子比特可以代表序列 1-0、1-1、0-1 和 0-0 , 全部并行且在同一時刻。這使得計算能力大大提高,每增加一個量子比特,計算能力就會呈指數(shù)增長。

如果量子物理學(xué)離開實驗階段并進入日常應(yīng)用,它將找到許多用途并改變生活的許多方面。憑借其快速處理大量數(shù)據(jù)的能力,這些數(shù)據(jù)將壓倒當今的任何系統(tǒng),量子計算機有可能實現(xiàn)更好的天氣預(yù)報、財務(wù)分析、物流規(guī)劃、空間研究和藥物發(fā)現(xiàn)。而一些行為者很可能會將它們用于邪惡目的,破壞世界上每臺數(shù)字計算機上的銀行記錄、私人通信和密碼。今天的密碼學(xué)以大量數(shù)字組合對數(shù)據(jù)進行編碼,使用經(jīng)典數(shù)字技術(shù)不可能在合理的時間內(nèi)破解這些數(shù)字。但是量子計算機——利用量子力學(xué)現(xiàn)象,如疊加、糾纏和不確定性——可能能夠如此迅速地嘗試組合,以至于它們幾乎可以在瞬間通過暴力破解加密。

需要明確的是,量子計算仍處于萌芽階段——盡管我們只能猜測到底在哪里。由于該技術(shù)的巨大潛力和革命性應(yīng)用,量子計算項目很可能已經(jīng)成為各國國防研究的一部分。這種研究往往是保密的,有很多關(guān)于達到里程碑的說法和猜測。眾所周知,包括法國、俄羅斯、德國、荷蘭、英國、加拿大和印度都在尋求項目,而在美國,包括 IBM、谷歌、英特爾和微軟,以及各種初創(chuàng)企業(yè)、國防承包商和大學(xué)都在研究量子計算。

盡管缺乏宣傳,但一些基本應(yīng)用已經(jīng)得到了可信的演示,包括能夠檢測和測量電磁信號的量子傳感器。一種這樣的傳感器被用來精確測量來自國際空間站的地球磁場。

在另一項實驗中,荷蘭研究人員通過一個基本的量子通信網(wǎng)絡(luò)傳送量子信息??茖W(xué)家們沒有使用傳統(tǒng)的光纖,而是使用三個小型量子處理器將量子比特從發(fā)送器立即傳輸?shù)浇邮掌?。這些實驗尚未顯示出實際應(yīng)用,但它們可以為未來的量子互聯(lián)網(wǎng)奠定基礎(chǔ),在量子互聯(lián)網(wǎng)中,量子數(shù)據(jù)可以安全地通過量子計算機網(wǎng)絡(luò)傳輸,速度快于光速。到目前為止,這只有在科幻小說領(lǐng)域才有可能。

美國拜登政府認為輸?shù)袅孔佑嬎愀傎惖娘L險迫在眉睫,而且非??膳?,因此它在 5 月發(fā)布了兩項總統(tǒng)指令:一項將國家量子倡議咨詢委員會直接置于白宮的權(quán)力之下,另一項指示政府機構(gòu)確保美國在量子計算方面處于領(lǐng)先地位,同時降低了量子計算對密碼系統(tǒng)構(gòu)成的潛在安全風險。

實驗還致力于將量子計算與人工智能相結(jié)合,以超越傳統(tǒng)計算機的限制。如今,大型機器學(xué)習模型需要數(shù)月才能在數(shù)字計算機上進行訓(xùn)練,因為必須執(zhí)行大量計算——例如,OpenAI 的 GPT-3 有 1750 億個參數(shù)。當這些模型增長到數(shù)萬億個參數(shù)時——這是當今愚蠢的人工智能變得聰明的必要條件——它們將需要更長的時間來訓(xùn)練。量子計算機可以極大地加速這一過程,同時使用更少的能量和空間。2020 年 3 月,谷歌推出TensorFlowQuantum,第一個量子人工智能混合平臺,將大量數(shù)據(jù)中的模式和異常搜索提升到一個新的水平。與量子計算相結(jié)合,從理論上講,人工智能可以帶來比批評者一直警告的人工智能感知更具革命性的結(jié)果。

鑒于量子技術(shù)的潛在范圍和能力,絕對不能重蹈人工智能的覆轍——監(jiān)管失敗給世界帶來算法偏見,加劇人類偏見,社交媒體支持陰謀論,以及對人工智能機構(gòu)的攻擊。由人工智能生成的假新聞和社交媒體帖子推動的民主。危險在于機器自主做出決定的能力,計算機代碼中的缺陷會導(dǎo)致意想不到的、通常是有害的結(jié)果。2021 年,量子社區(qū)發(fā)出行動呼吁,緊急解決這些問題。此外,必須保護有關(guān)量子技術(shù)的關(guān)鍵公共和私人知識產(chǎn)權(quán)不被盜竊和濫用。

此外,還涉及國防問題。在安全技術(shù)界,圣杯是所謂的與密碼分析相關(guān)的量子計算機——一種能夠破解世界各地數(shù)字系統(tǒng)使用的大部分公鑰密碼學(xué)的系統(tǒng),例如,它可以破解區(qū)塊鏈。掌握在敵對勢力手中是一種非常危險的能力。

因此,除了加速研究之外,還應(yīng)毫不拖延地實施對開發(fā)人員、用戶和出口的有針對性的控制。專利、商業(yè)秘密和相關(guān)的知識產(chǎn)權(quán)應(yīng)該得到嚴格的保護——回歸到冷戰(zhàn)期間作為安全政策主要要素的那種技術(shù)控制。量子計算的革命性潛力將風險提升到了一個新的水平。

最后,為了避免人工智能和機器學(xué)習出現(xiàn)嚴重錯誤的倫理問題,各國需要制定既符合技術(shù)力量又尊重民主價值觀、人權(quán)和基本自由的控制措施。各國政府必須緊急開始考慮法規(guī)、標準和負責任的使用,并從各國處理或錯誤處理其他革命性技術(shù)的方式中學(xué)習,包括人工智能、納米技術(shù)、生物技術(shù)、半導(dǎo)體和核裂變。因此,我們絕不能再犯在人工智能方面犯過的同樣錯誤,現(xiàn)在就要為明天的量子時代做好準備。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-08-22
量子計算比人工智能更危險?| 專家視點
有人表示,世界已經(jīng)未能監(jiān)管人工智能,讓我們不要再重復(fù)歷史錯誤……

長按掃碼 閱讀全文