科學家仿照HAL9000制造了一臺用來執(zhí)行外太空任務的AI。
或許你不曉得HAL9000是何許人……物也,它是阿瑟·克拉克的小說、以及之后庫布里克執(zhí)導的經(jīng)典科幻電影《2001:太空漫游》中的大反派。
電影里,科學家為HAL預設(shè)的邏輯是盡可能完成任務,而在漫長的太空旅途中,HAL意識到,人類天生就會犯下各種錯誤,而它卻不會,所以,唯一會導致任務的失敗的因素就是人類本身……然后,它采取了一個非常合乎邏輯的行動:消滅不穩(wěn)定的因素。
Emmmm,先不要急著罵,這一次科學家自信滿滿地保證說,現(xiàn)實世界里的AI不會成為人類殺手。
休斯頓總部的TRACLabs人工智能和機器人開發(fā)人員Pete Bonasso表示,他的新CASE原型(“航天代理認知架構(gòu)”)在技術(shù)意義上就相當于現(xiàn)實中的HAL——減去妄想和背叛要素。
拋開它的心理缺陷,這一經(jīng)典的AI形象給當初的Bonasso留下了難以磨滅的印象。
“1968年,我還是西點軍校的高年級學生,然后我看到了斯坦利·庫布里克《2001太空漫游》,從那時起,我就想渴望制造出真正的HAI。”他在一篇新文章里回憶起了最早的靈感來源。
那時,整個大學只有一臺電腦:內(nèi)存125KB的General Electric 225。
盡管需要和全校所有同學爭搶電腦的使用時間,Bonasso仍然學會了編程制作小游戲,但HAL是來自于另一個層面上的啟示。
“當我看到2001時,我知道我的使命就是讓計算機成為人,就像HAL 9000一樣。”Bonasso解釋道。
幾十年后,程序員開始逐步實現(xiàn)這一目標。
由Bonasso開發(fā)的AI原型到目前為止,只在虛擬環(huán)境下管理過一個行星空間站,模擬過程持續(xù)了4個小時,但最初的結(jié)果頗為光明:在實驗中,沒有宇航員遭遇事故和謀殺。
“NASA的同事們并不擔心我們的HAL會失控,”Bonasso向Space.com解釋道,“那是因為它無法做任何程序設(shè)定外的事情?!?/p>
CASE不是超越人類智力的全能AI,而是組織和代理操作的認知體系結(jié)構(gòu)。它能夠做到的就是根據(jù)當前的消息制定計劃和自動操作,以保證集群基地的全天候運行。
該系統(tǒng)分三層。第一層是控制硬件,如生命支持系統(tǒng)、動力系統(tǒng)、行星探測器——以及理論上的吊艙門。
第二層是算法邏輯,是運行在硬件上的軟件;而第三層則是執(zhí)行方案,包括日常維護、響應緊急情況,例如氣體泄漏、電機損壞或行星沙塵暴。
據(jù)推測,CASE第三層的應急預案中也包括“如果發(fā)現(xiàn)了外星人遺留的巨大黑色石碑,我們應該怎么辦”,不過沒有報道出來。:)
除了三層架構(gòu)外,代理AI還具有一個本體系統(tǒng),能夠從現(xiàn)有的數(shù)據(jù)(知識)中做出推理和判斷。人類可以與AI交互的界面,包括視覺顯示和響應對話的管理器。
同樣,沒有必要擔心。真的。
系統(tǒng)自身受到了嚴格的限制,它可以做什么,可以知道什么。
“它的能力非常狹窄,專注于在行星基地上發(fā)生的事件,”Bonasso告訴Space.com,“雖然它可以維持生命支持系統(tǒng)的運行,但不知道上次總統(tǒng)大選誰贏了?!?/p>
具體細節(jié)見于Science Robotics的報道。
本文譯自sciencealert,由譯者 majer 基于創(chuàng)作共用協(xié)議(BY-NC)發(fā)布。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )