蘋(píng)果因數(shù)據(jù)安全問(wèn)題禁止員工使用ChatGPT等AI工具,真的有必要么?

極客網(wǎng)·人工智能5月23日 為了保護(hù)數(shù)據(jù)的機(jī)密性,越來(lái)越多的企業(yè)禁止使用ChatGPT和其他類似基于云的生成AI服務(wù),蘋(píng)果也加入了這一行列。

根據(jù)《華爾街日?qǐng)?bào)》的報(bào)道,蘋(píng)果還禁止員工使用GitHub的Copilot工具,而很多開(kāi)發(fā)人員使用該工具來(lái)幫助編寫(xiě)軟件。

最近的一項(xiàng)調(diào)查發(fā)現(xiàn),39%的Mac開(kāi)發(fā)者正在使用這項(xiàng)技術(shù)。

蘋(píng)果因數(shù)據(jù)安全問(wèn)題禁止員工使用ChatGPT等AI工具,真的有必要么?.jpg

真的有必要實(shí)施全面禁令么?

盡管蘋(píng)果實(shí)施這一禁令似乎有些極端,但表明該公司聽(tīng)從了一些信息安全專家對(duì)使用這些服務(wù)發(fā)出的警告。令人擔(dān)憂的是,使用這些服務(wù)可能泄露敏感數(shù)據(jù)或機(jī)密數(shù)據(jù)。在今年早些時(shí)候,三星發(fā)現(xiàn)其員工向ChatGPT上傳了機(jī)密的源代碼,隨后禁止員工使用這些工具。

一些信息安全專家非常清楚這個(gè)問(wèn)題。網(wǎng)絡(luò)安全服務(wù)商O(píng)range Cyberdefense的高級(jí)安全研究員Wicus Ross警告說(shuō):“雖然AI聊天機(jī)器人經(jīng)過(guò)了開(kāi)發(fā)人員進(jìn)一步的訓(xùn)練和完善,但工作人員仍有可能訪問(wèn)輸入到它們的數(shù)據(jù)。而且,考慮到人類通常是企業(yè)安全態(tài)勢(shì)中最薄弱的因素,這會(huì)使這些信息面臨一系列威脅,即使風(fēng)險(xiǎn)是偶然的?!?/p>

雖然OpenAI向企業(yè)客戶提供了一個(gè)更保密(運(yùn)行成本也更高)的自托管版本的服務(wù),但其風(fēng)險(xiǎn)在于,在公共使用協(xié)議下數(shù)據(jù)幾乎沒(méi)有機(jī)密性。

這在處理機(jī)密代碼和內(nèi)部文檔方面很糟糕,而在處理來(lái)自嚴(yán)格監(jiān)管的行業(yè),如銀行、醫(yī)療和其他領(lǐng)域的信息時(shí),將面臨更大的風(fēng)險(xiǎn)。如今已經(jīng)看到了一些數(shù)據(jù)泄露事件,例如一些人詢問(wèn)ChatGPT的問(wèn)題已經(jīng)泄露給不相關(guān)的人員。

人們提出的問(wèn)題變成了數(shù)據(jù),那么能夠信任擁有這些數(shù)據(jù)的人嗎?

盡管蘋(píng)果的這一決定可能讓人感覺(jué)反應(yīng)過(guò)度,但企業(yè)必須說(shuō)服員工對(duì)他們正在共享的數(shù)據(jù)保持警惕。問(wèn)題是,當(dāng)使用基于云的服務(wù)來(lái)處理數(shù)據(jù)時(shí),這些信息很可能會(huì)被保留,用于評(píng)分或評(píng)估,甚至在將來(lái)使用。

從本質(zhì)上來(lái)說(shuō),用戶向AI聊天機(jī)器人提出的問(wèn)題將成為未來(lái)答案的數(shù)據(jù)點(diǎn),他們提供給基于云的服務(wù)的信息可能被人訪問(wèn),無(wú)論是來(lái)自企業(yè)內(nèi)部還是外部攻擊。現(xiàn)在已經(jīng)出現(xiàn)了這種情況,在今年早些時(shí)候發(fā)生數(shù)據(jù)泄露事件之后,OpenAI不得不讓ChatGPT暫時(shí)下線。

英國(guó)國(guó)家網(wǎng)絡(luò)安全研究中心(NCSC)提供的建議解釋了這種風(fēng)險(xiǎn)的本質(zhì)。建議指出,這些詢問(wèn)的問(wèn)題對(duì)服務(wù)提供者是可見(jiàn)的,還將被存儲(chǔ)起來(lái),并且肯定會(huì)在某個(gè)時(shí)候用于開(kāi)發(fā)服務(wù)。

在這種情況下,在任何人進(jìn)行查詢之前,需要對(duì)服務(wù)的使用條款和隱私政策進(jìn)行深入審查。此外,人們面臨的另一個(gè)挑戰(zhàn)是,他們提出的問(wèn)題也會(huì)變成數(shù)據(jù)。

正如NCSC所解釋的那樣:“隨著越來(lái)越多的組織開(kāi)發(fā)大型語(yǔ)言模型(LLM),也增加了另一種風(fēng)險(xiǎn),那就是存儲(chǔ)在網(wǎng)上的查詢問(wèn)題可能被黑客攻擊和泄露,或者更有可能意外地被公開(kāi)訪問(wèn),這可能包括潛在的用戶身份信息?!?/p>

誰(shuí)將擁有和保存人們的問(wèn)題?

隨著AI行業(yè)的整合加速,還存在另一層風(fēng)險(xiǎn)。用戶可能在某一天向一個(gè)經(jīng)過(guò)安全驗(yàn)證的LLM詢問(wèn)敏感問(wèn)題,這個(gè)LLM符合企業(yè)安全協(xié)議的所有要求,但它可能不久會(huì)被網(wǎng)絡(luò)安全策略較弱的第三方購(gòu)買(mǎi),第三方購(gòu)買(mǎi)者將擁有以前提供給該服務(wù)的敏感數(shù)據(jù),但其安全防護(hù)性較差。

這個(gè)令人擔(dān)憂的問(wèn)題并沒(méi)有被提出,是因?yàn)樾畔踩珜<以跍y(cè)試中了解到會(huì)出現(xiàn)這種情況,反映出人們已經(jīng)看到了問(wèn)題。例如,根據(jù)最近發(fā)布的一份調(diào)查報(bào)告,去年在GitHub等公共存儲(chǔ)庫(kù)中對(duì)外泄露了1000多萬(wàn)條機(jī)密數(shù)據(jù),包括API密鑰和憑據(jù)。

很多時(shí)候,這類機(jī)密數(shù)據(jù)都是通過(guò)使用這類服務(wù)的個(gè)人賬戶共享的,豐田、三星和蘋(píng)果發(fā)布的禁令表明這種情況確實(shí)已經(jīng)發(fā)生了??紤]到這一點(diǎn),大多數(shù)信息安全專家都警告用戶不要在向公共服務(wù)(例如ChatGPT)進(jìn)行查詢時(shí)包含敏感機(jī)密信息。

因此,用戶永遠(yuǎn)不應(yīng)該問(wèn)那些公開(kāi)之后可能會(huì)帶來(lái)麻煩的問(wèn)題,對(duì)于任何試圖保護(hù)其數(shù)據(jù)安全的大公司來(lái)說(shuō),都可能全面禁止使用ChatGPT,而這是迄今為止最簡(jiǎn)單的解決方案,至少目前是這樣。

生成式AI會(huì)走向邊緣

但情況不會(huì)一直如此。生成式AI最合乎邏輯的發(fā)展之路是朝著能夠托管在邊緣設(shè)備上的小型LLM系統(tǒng)發(fā)展。這是可能實(shí)現(xiàn)的,因?yàn)樗固垢4髮W(xué)開(kāi)發(fā)了能夠在谷歌Pixel手機(jī)上運(yùn)行的小型LLM系統(tǒng)。這可以讓人們預(yù)期,在未來(lái)可能沒(méi)有人會(huì)在iPhone上使用ChatGPT應(yīng)用程序,因?yàn)樗麄儗⑹褂檬謾C(jī)本身提供的類似技術(shù)。

但是,對(duì)于任何使用基于云的LLM服務(wù)的人來(lái)說(shuō),其遵守的規(guī)則是,如果安全性得不到保證,永遠(yuǎn)不應(yīng)該共享機(jī)密或敏感數(shù)據(jù)。這證明了邊緣處理和隱私保護(hù)在互聯(lián)時(shí)代的價(jià)值。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2023-05-23
蘋(píng)果因數(shù)據(jù)安全問(wèn)題禁止員工使用ChatGPT等AI工具,真的有必要么?
為了保護(hù)數(shù)據(jù)的機(jī)密性,越來(lái)越多的企業(yè)禁止使用ChatGPT和其他類似基于云的生成AI服務(wù),蘋(píng)果也加入了這一行列。

長(zhǎng)按掃碼 閱讀全文