美國(guó)AI監(jiān)管最新動(dòng)向:OpenAI、Anthropic與NIST達(dá)成安全檢查協(xié)議

極客網(wǎng)·人工智能9月2日 大型語(yǔ)言模型(LLM)提供商O(píng)penAI和Anthropic日前與美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)下屬的美國(guó)人工智能安全研究所(AISIC)簽署了一份協(xié)議,計(jì)劃在包括測(cè)試和評(píng)估在內(nèi)的AI安全研究方面開(kāi)展合作。

作為協(xié)議的一部分,Anthropic和OpenAI都將在向公眾發(fā)布他們的新模型之前與AISIC共享,以便進(jìn)行安全檢查。

image001.jpg

AISIC負(fù)責(zé)人Elizabeth Kelly在一份聲明中表示:“有了這些協(xié)議,我們期待著與Anthropic和OpenAI開(kāi)展技術(shù)合作,共同推進(jìn)AI安全科學(xué)的發(fā)展?!?/p>

這些協(xié)議是在美國(guó)總統(tǒng)喬·拜登通過(guò)一項(xiàng)行政命令近一年后達(dá)成的,這項(xiàng)命令為AI的開(kāi)發(fā)和使用制定了一系列全面的標(biāo)準(zhǔn)、安全和隱私保護(hù)以及監(jiān)督措施。

NIST在7月初發(fā)布了一個(gè)名為Dioptra的新開(kāi)源軟件包,允許開(kāi)發(fā)人員確定哪種類型的網(wǎng)絡(luò)攻擊會(huì)降低AI模型的效率。

此外,NIST還根據(jù)行政命令發(fā)布了幾份促進(jìn)AI安全和標(biāo)準(zhǔn)的文件,包括其開(kāi)發(fā)基礎(chǔ)模型的指南初稿“管理兩用基礎(chǔ)模型的濫用風(fēng)險(xiǎn)”,以及作為NISTAI風(fēng)險(xiǎn)管理框架(AI RMF)和安全軟件開(kāi)發(fā)框架(SSDF)的配套資源,旨在幫助開(kāi)發(fā)人員管理GenAI風(fēng)險(xiǎn)的兩份指導(dǎo)文件。

協(xié)議還支持美國(guó)與英國(guó)AI安全研究所的合作

與LLM提供商達(dá)成的協(xié)議還包括一項(xiàng)條款,該條款將允許美國(guó)安全研究所與英國(guó)人工智能安全研究所的合作伙伴合作,并向兩家機(jī)構(gòu)提供有關(guān)其模型潛在安全改進(jìn)的反饋。

美國(guó)和英國(guó)的政府部門(mén)在今年4月初簽署了一項(xiàng)協(xié)議,測(cè)試支撐AI系統(tǒng)的安全LLM。

該協(xié)議由美國(guó)商務(wù)部長(zhǎng)Gina Raimondo和英國(guó)科學(xué)、創(chuàng)新和技術(shù)部部長(zhǎng)Michelle Donelan在美國(guó)華盛頓簽署,AI安全研究所之間的合作是該協(xié)議帶來(lái)的直接結(jié)果。

美國(guó)圍繞AI安全采取的其他措施

OpenAI和Anthropic簽署這份協(xié)議正值加州AI安全法案進(jìn)入成為法律的最后階段,該法案可能將制定美國(guó)最嚴(yán)格的AI法規(guī),并為其他類似的法規(guī)鋪平道路。

這項(xiàng)名為《前沿AI模型安全創(chuàng)新法案》(SB 1047)的立法為AI開(kāi)發(fā)人員提出了嚴(yán)格的測(cè)試和問(wèn)責(zé)措施,特別是那些創(chuàng)建大型復(fù)雜AI模型的開(kāi)發(fā)人員。如果該法案成為法律,將要求AI公司在向公眾發(fā)布之前測(cè)試其系統(tǒng)的安全性。

直到8月早些時(shí)候,OpenAI還在反對(duì)該法案,直到最近才承諾支持該法案。

NIST還采取了其他措施,包括今年2月成立了由AI創(chuàng)建者、用戶、學(xué)者組成的AI安全咨詢小組,為AI的使用和開(kāi)發(fā)設(shè)置了一些安全措施。

AISIC咨詢小組的任務(wù)是制定AI系統(tǒng)“紅隊(duì)”行動(dòng)指南,這些任務(wù)包括評(píng)估AI能力、管理風(fēng)險(xiǎn)、確保安全、以及為AI生成的內(nèi)容添加水印。OpenAI、Meta、谷歌、微軟、亞馬遜、英特爾和英偉達(dá)在內(nèi)的一些主要科技公司都加入了該聯(lián)盟。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2024-09-02
美國(guó)AI監(jiān)管最新動(dòng)向:OpenAI、Anthropic與NIST達(dá)成安全檢查協(xié)議
作為協(xié)議的一部分,Anthropic和OpenAI都將在向公眾發(fā)布他們的新模型之前與AISIC共享,以便進(jìn)行安全檢查。

長(zhǎng)按掃碼 閱讀全文