7月6日消息,據外媒報道,當地時間周三,OpenAI宣布,將成立一個新的團隊,以開發(fā)引導和控制“超級智能”人工智能系統的方法。
OpenAI表示,該團隊由首席科學家、聯合創(chuàng)始人之一伊利亞·蘇斯克維爾(Ilya Sutskever)以及該公司協調團隊負責人簡·萊克(Jan Leike)共同領導。
這兩人預測,智能超過人類的人工智能將在十年內出現。他們還稱,這種人工智能不一定是仁慈的,因此有必要研究控制和限制它的方法。
除了蘇斯克維爾和萊克外,該團隊還將包括其他OpenAI部門的研究人員以及新的研究人員和工程師。
據悉,這并不是OpenAI第一次談論超級智能人工智能。2023年5月,OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)與蘇斯克維爾共同撰寫了一篇論文,他在論文中描述了對超級智能人工智能進行特殊監(jiān)管的必要性,以及在它與人類社會融合之前必須如何安全地處理它。
人工智能的潛在危險一直是人工智能研究人員和公眾最關心的問題。今年3月份,馬斯克等千名科技人士曾簽署公開信,呼吁暫停訓練比GPT-4更強大的AI系統至少6個月。(小狐貍)
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )