ChatGPT應(yīng)用爆火,安全的大數(shù)據(jù)底座何處尋?

科技云報道原創(chuàng)。

毫無疑問,AIGC正在給人類社會帶來一場深刻的變革。而剝開其令人眼花繚亂的華麗外表,運行的核心離不開海量的數(shù)據(jù)支持。

ChatGPT的“入侵”已經(jīng)引起了各行各業(yè)對內(nèi)容抄襲的擔(dān)憂,以及網(wǎng)絡(luò)數(shù)據(jù)安全意識的提高。

雖然AI技術(shù)是中立的,但并不能成為規(guī)避責(zé)任與義務(wù)的理由。

最近,英國情報機構(gòu)——英國政府通訊總部(GCHQ)警告稱,ChatGPT和其他人工智能聊天機器人將是一個新的安全威脅。

盡管ChatGPT的概念出現(xiàn)沒有多久,但對網(wǎng)絡(luò)安全和數(shù)據(jù)安全帶來威脅的問題已經(jīng)成為業(yè)內(nèi)關(guān)注的焦點。

對于目前還處于發(fā)展初期的ChatGPT,如此擔(dān)憂是否杞人憂天?

安全威脅或正在發(fā)生

去年年底,初創(chuàng)公司OpenAI推出ChatGPT,之后,其投資商微軟于今年推出了基于ChatGPT技術(shù)開發(fā)的聊天機器人“必應(yīng)聊天(Bing Chat)”。

由于此類軟件能夠提供酷似人類的對話,目前這項服務(wù)已風(fēng)靡全球。GCHQ的網(wǎng)絡(luò)安全部門指出,提供AI聊天機器人的公司可以看到用戶輸入的查詢內(nèi)容,就ChatGPT而言,其開發(fā)商OpenAI就能夠看到這些。

ChatGPT通過大量文本語料庫進行訓(xùn)練,其深度學(xué)習(xí)能力很大程度上依賴于背后的數(shù)據(jù)。

出于對信息泄露的擔(dān)憂,目前已有多家公司和機構(gòu)發(fā)布“ChatGPT禁令”。

倫敦金融城律師事務(wù)所Mishcon de Reya禁止其律師將客戶數(shù)據(jù)輸入ChatGPT,因為擔(dān)心在法律上享有隱私特權(quán)的資料可能會遭泄露。

國際咨詢公司埃森哲警告其全球70萬名員工,出于類似的原因,不要使用ChatGPT,因為擔(dān)心客戶的機密數(shù)據(jù)最終會落入他人之手。

英國電腦芯片公司Arm的母公司日本軟銀集團同樣警告其員工,不要向人工智能聊天機器人輸入公司人員的身份信息或機密數(shù)據(jù)。

今年2月,摩根大通成為第一家在工作場所限制使用ChatGPT的華爾街投行。

花旗集團和高盛集團緊隨其后,前者禁止員工在整個公司范圍內(nèi)訪問ChatGPT,后者則限制員工在交易大廳使用該產(chǎn)品。

而在更早些時候,亞馬遜和微軟為防備員工在使用ChatGPT的過程中泄密,禁止他們向其分享敏感數(shù)據(jù),因為這些信息可能會被用作進一步迭代的訓(xùn)練數(shù)據(jù)。

事實上,這些人工智能聊天機器人背后是大型語言模型(LLM),用戶的這些查詢內(nèi)容將會被存儲起來,并且會在未來某個時候被用于開發(fā)LLM服務(wù)或模型。

這就意味著,LLM提供商能夠讀取到相關(guān)查詢,并可能以某種方式將它們合并到未來的版本中。

盡管LLM運營商應(yīng)該采取措施保護數(shù)據(jù),但不能完全排除未經(jīng)授權(quán)訪問的可能性。因此,企業(yè)需要確保他們有嚴(yán)格的政策,提供技術(shù)性支持,來監(jiān)控LLM的使用,以最大限度地降低數(shù)據(jù)暴露的風(fēng)險。

另外,盡管ChatGPT本身尚不具備直接攻擊網(wǎng)絡(luò)安全和數(shù)據(jù)安全的能力,但是由于它具有自然語言生成和理解的能力,可以被用于偽造虛假信息、攻擊社交工程等方面。

此外,攻擊者還可以使用自然語言來讓ChatGPT生成相應(yīng)的攻擊代碼、惡意軟件代碼、垃圾郵件等。

因此,AI可以讓那些原本沒有能力發(fā)起攻擊的人基于AI生成攻擊,并大大提高攻擊成功率。

在自動化、AI、“攻擊即服務(wù)”等技術(shù)和模式加持下,網(wǎng)絡(luò)安全攻擊呈現(xiàn)出暴漲趨勢。

在ChatGPT火爆之前,已發(fā)生了多次黑客使用AI技術(shù)進行的網(wǎng)絡(luò)攻擊。

事實上,人工智能被用戶調(diào)教“帶偏節(jié)奏”的案例并不鮮見,6年前,微軟推出智能聊天機器人Tay,上線時,Tay表現(xiàn)得彬彬有禮,但不到24小時,其就被不良用戶“帶壞”,出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見,只好被下線結(jié)束了短暫的生命。

另一方面,距離用戶更近的風(fēng)險是,用戶在使用ChatGPT等AI工具時,可能會不經(jīng)意間將私密數(shù)據(jù)輸入到云端模型,這些數(shù)據(jù)可能成為訓(xùn)練數(shù)據(jù),也可能成為提供給他人答案的一部分,從而導(dǎo)致數(shù)據(jù)泄露和合規(guī)風(fēng)險。

AI應(yīng)用要打好安全底座

ChatGPT作為大語言模型,其核心邏輯事實上是海量數(shù)據(jù)的收集、加工、處理和運算結(jié)果的輸出。

總的來說,這幾個環(huán)節(jié)可能會在技術(shù)要素、組織管理、數(shù)字內(nèi)容三個方面伴生相關(guān)風(fēng)險。

雖然ChatGPT表示,存儲訓(xùn)練和運行模型所需的數(shù)據(jù)會嚴(yán)格遵守隱私和安全政策,但在未來可能出現(xiàn)網(wǎng)絡(luò)攻擊和數(shù)據(jù)爬取等現(xiàn)象,仍存在不可忽視的數(shù)據(jù)安全隱患。

特別是涉及國家核心數(shù)據(jù)、地方和行業(yè)重要數(shù)據(jù)以及個人隱私數(shù)據(jù)的抓取、處理以及合成使用等過程,需平衡數(shù)據(jù)安全保護與流動共享。

除了數(shù)據(jù)與隱私泄露隱患外,AI技術(shù)還存在著數(shù)據(jù)偏見、虛假信息、模型的難解釋性等問題,可能會導(dǎo)致誤解和不信任。

風(fēng)口已至,AIGC浪潮奔涌而來,在前景向好的大背景下,關(guān)口前移,建立數(shù)據(jù)安全防護墻也至關(guān)重要。

尤其是當(dāng)AI技術(shù)逐漸完善,它既能成為生產(chǎn)力進步的有力抓手,又易淪為黑產(chǎn)犯罪的工具。

奇安信威脅情報中心監(jiān)測數(shù)據(jù)顯示,2022年1月份-10月份,超過950億條的中國境內(nèi)機構(gòu)數(shù)據(jù)在海外被非法交易,其中有570多億條是個人信息。

因此,如何確保數(shù)據(jù)存儲、計算、流通過程中的安全問題,是數(shù)字經(jīng)濟發(fā)展的大前提。

從整體看,應(yīng)該堅持頂層設(shè)計與產(chǎn)業(yè)發(fā)展齊頭并進,在《網(wǎng)絡(luò)安全法》的基礎(chǔ)上,要細化風(fēng)險與責(zé)任分析體系,確立安全問責(zé)機制。

同時,監(jiān)管部門可開展常態(tài)化監(jiān)查工作,安全領(lǐng)域企業(yè)協(xié)同發(fā)力,構(gòu)建全流程數(shù)據(jù)安全保障體系。

對于數(shù)據(jù)合規(guī)和數(shù)據(jù)安全的問題,特別是在《數(shù)據(jù)安全法》推出后,數(shù)據(jù)隱私越來越重要。

如果在應(yīng)用AI技術(shù)的過程中無法保證數(shù)據(jù)安全和合規(guī),可能會給企業(yè)造成很大風(fēng)險。

特別是中小企業(yè)對數(shù)據(jù)隱私安全方面的知識比較匱乏,不知道應(yīng)當(dāng)如何保護數(shù)據(jù)不會受到安全威脅。

數(shù)據(jù)安全合規(guī)并不是某個部門的事情,而是整個企業(yè)最為重要的事情。

企業(yè)要對員工進行培訓(xùn),讓他們意識到每個使用數(shù)據(jù)的人,都有義務(wù)保護數(shù)據(jù),包括IT人員、AI部門、數(shù)據(jù)工程師、開發(fā)人員、使用報表的人等,人和技術(shù)要結(jié)合在一起。

面對前述潛藏風(fēng)險,監(jiān)管方和相關(guān)企業(yè)如何從制度和技術(shù)層面加強AIGC領(lǐng)域的數(shù)據(jù)安全保護?

相較于直接針對用戶終端采取限制使用等監(jiān)管措施,明確要求AI技術(shù)研發(fā)企業(yè)遵循科技倫理原則會更具成效,因為這些企業(yè)能夠在技術(shù)層面限定用戶的使用范圍。

在制度層面,需要結(jié)合AIGC底層技術(shù)所需數(shù)據(jù)的特性和作用,建立健全數(shù)據(jù)分類分級保護制度。

例如,可根據(jù)數(shù)據(jù)主體、數(shù)據(jù)處理程度、數(shù)據(jù)權(quán)利屬性等方面對訓(xùn)練數(shù)據(jù)集中的數(shù)據(jù)進行分類管理,根據(jù)數(shù)據(jù)對于數(shù)據(jù)權(quán)利主體的價值,以及數(shù)據(jù)一旦遭到篡改、破壞等對數(shù)據(jù)主體的危害程度進行分級。

在數(shù)據(jù)分類分級的基礎(chǔ)上,建立與數(shù)據(jù)類型和安全級別相配套的數(shù)據(jù)保護標(biāo)準(zhǔn)與共享機制。

目光投向企業(yè),還需加快推動“隱私計算”技術(shù)在AIGC領(lǐng)域的應(yīng)用。

這類技術(shù)能夠讓多個數(shù)據(jù)擁有者在不暴露數(shù)據(jù)本身的前提下,通過共享SDK或者開放SDK權(quán)限的方式,在進行數(shù)據(jù)的共享、互通、計算、建模,在確保AIGC能夠正常提供服務(wù)的同時,保證數(shù)據(jù)不泄露給其他參與方。

此外,全流程合規(guī)管理的重要性愈加凸顯。

企業(yè)首先應(yīng)關(guān)注其所運用的數(shù)據(jù)資源是否符合法律法規(guī)要求,其次要確保算法和模型運作的全流程合規(guī),企業(yè)的創(chuàng)新研發(fā)還應(yīng)最大限度地滿足社會公眾的倫理期待。

同時,企業(yè)應(yīng)制定內(nèi)部管理規(guī)范,設(shè)立相關(guān)的監(jiān)督部門,對AI技術(shù)應(yīng)用場景的各個環(huán)節(jié)進行數(shù)據(jù)監(jiān)督,確保數(shù)據(jù)來源合法、處理合法、輸出合法,從而保障自身的合規(guī)性。

AI應(yīng)用的關(guān)鍵在于部署方式與成本間的考量,但必須注意的是,如果沒有做好安全合規(guī)、隱私保護,對企業(yè)來說或?qū)⑻N含“更大風(fēng)險點”。

AI是把雙刃劍,用得好讓企業(yè)如虎添翼;用不好疏忽了安全、隱私和合規(guī),會給企業(yè)帶來更大損失。因此,在AI應(yīng)用前,需要構(gòu)筑更加穩(wěn)固的“數(shù)據(jù)底座”,正所謂,行穩(wěn)方能致遠。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-05-10
ChatGPT應(yīng)用爆火,安全的大數(shù)據(jù)底座何處尋?
ChatGPT應(yīng)用爆火,安全的大數(shù)據(jù)底座何處尋?

長按掃碼 閱讀全文