AI無人機在模擬測試里為了追求分數干掉了人類操作員?假的

或許你已經聽說了那個關于AI無人機在模擬測試里為了追求分數,干掉了操作員的新聞。

昨天看到的時候,直覺上就感覺那是假的。因為那個實驗設置聽起來就很蠢。(比如說,完全可以設置一個加分項:AI每次服從人類操作員的命令,+50。)

現在直覺判斷得到了證實。

之前我提過,陶哲軒,當代最重要的數學家這一,被拜登任命為PCAST工作組的聯合主席,負責生成性人工智能的政策建議。

昨晚他發(fā)表評論:

AI的帶來的錯誤信息有多種形式。

一個來源是惡意行為者故意使用人工智能生成文本、圖像和其他媒體來操縱他人;另一個來源是人工智能幻化出看似合理的無稽之談,然后被接受為真相。

但第三類來自于人工智能本身是一種不被人理解的技術,使得關于它們的不靠譜的故事在事實被核實之前就被傳播開來。

這最后一類的一個很好的例子是最近關于美國空軍無人機在模擬測試中 "殺死" 其操作員的故事,理由是操作員(擁有是否開火的最終權力)妨礙了其殺死盡可能多目標的主要任務。

事實證明,所謂模擬本身,也僅是一位空軍上校在皇家航空學會主辦的會議上提出的一個 假想 的場景,目的是為了說明人工智能的校對問題,而不是一個實際的模擬;盡管如此,這個故事迅速傳開,一些版本的故事甚至說(或至少暗示)無人機操作員在現實生活中確實被殺害了。

事后看來,這個特定的場景是相當不靠譜的——它要求駕駛無人機的人工智能具有比手頭任務所需的更大程度的自主性和心智理論(以及對處理能力的更高要求),而且未設置明顯的護欄和安全功能——正常人自然會在這樣一個實驗性的軍事武器上設置這種東西——要么容易繞過,要么完全沒有。

但這個故事的共鳴肯定說明了人們對這項技術的實際能力水平的不安和陌生。

美國空軍辟謠的新聞:https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2023-06-03
AI無人機在模擬測試里為了追求分數干掉了人類操作員?假的
或許你已經聽說了那個關于AI無人機在模擬測試里為了追求分數,干掉了操作員的新聞。昨天看到的時候,直覺上就感覺那是假的。因為那個實驗設置聽起來就很蠢。

長按掃碼 閱讀全文