從數(shù)據(jù)到生成式AI,是該重新思考風險的時候了

科技云報道原創(chuàng)。

OpenAI“宮斗”大戲即將塵埃落定。

自首席執(zhí)行官Sam Altman突然被董事會宣布遭解雇、董事長兼總裁Greg Brockman辭職;緊接著OpenAI員工以辭職威脅董事會要求Altman回歸;再到OpenAI董事會更換成員、Altman回歸OpenAI。

表面上看,這似乎是一場針對一家獨領(lǐng)風騷的技術(shù)初創(chuàng)公司控制權(quán)的爭奪戰(zhàn),但從種種跡象來看,此次“宮斗”的導火索,更多應源自對AI未來發(fā)展理念的分歧:一派扛著“加速主義”旗幟,希望AI在技術(shù)精英的帶領(lǐng)下加速前進改造世界;另一邊則是以利他主義理論為根基、力求讓AI在人類控制下發(fā)展的保守派別。

從創(chuàng)造栩栩如生的藝術(shù)到如同真人般的精度模仿人類語言,生成式AI正在改寫創(chuàng)新和自動化的規(guī)則。

AI大模型訓練的高耗能、AI對語言情感和倫理道德的把握程度、AI對假消息和公眾輿論的操縱、生成式AI在人類創(chuàng)新創(chuàng)造中的角色……在生成式AI加速奔跑的今天,有些問題依然值得我們細細思考。

AI大模型成下一個 安全新戰(zhàn)場

今年三月,三星電子剛剛在企業(yè)內(nèi)部引入ChatGPT服務不久,就發(fā)生了三起機密數(shù)據(jù)泄露事件。部分員工將涉及半導體生產(chǎn)的機密代碼與內(nèi)部會議信息輸入ChatGPT端口,導致這些敏感資料被上傳至美國服務器,極可能已經(jīng)泄漏。事件發(fā)生后,三星迅速采取措施約束員工使用ChatGPT的場景和行為,也引發(fā)了行業(yè)對于這類大模型技術(shù)帶來的數(shù)據(jù)隱私和安全問題的討論。

客觀而言,在互聯(lián)網(wǎng)時代,任何向云端上傳數(shù)據(jù)的行為都具有潛在的安全風險。云計算剛剛興起的時代,就有很多企業(yè)擔憂敏感數(shù)據(jù)被云服務商泄露,拒絕將其上傳至云端。

時至今日,仍有大批企業(yè)在本地存儲隱私數(shù)據(jù)來增強安全性,云服務商仍然沒有完全贏得企業(yè)的信任。

而生成式AI的熱潮則令這一問題雪上加霜。一方面,由于大模型訓練、運營所需的成本極為高昂,極少有企業(yè)能夠負擔巨大的投資而在本地建設自有大模型服務。

另一方面,由云服務商提供的大模型服務在訓練和交互時需要海量數(shù)據(jù),尤其是特定領(lǐng)域的數(shù)據(jù)。大模型掌握的領(lǐng)域數(shù)據(jù)越多,特別是與企業(yè)研發(fā)、運營相關(guān)的數(shù)據(jù)越多,輸出的效果往往越令人滿意。

例如,企業(yè)開發(fā)人員使用AI代碼輔助生成工具時,一般需要上傳企業(yè)已有的代碼庫,使大模型給出更精準的代碼預測結(jié)果;企業(yè)營銷人員將過往的營銷材料輸入大模型,就可以自動生成高質(zhì)量的營銷內(nèi)容,提升工作效率。

為此,企業(yè)和研究機構(gòu)往往會收集包括用戶生成內(nèi)容的文本、圖像等數(shù)據(jù),這些原始訓練數(shù)據(jù)中可能含有用戶的敏感隱私信息。

如果數(shù)據(jù)采集不當、存在偏見或標簽錯誤、數(shù)據(jù)被投毒,都有可能導致大模型產(chǎn)生錯誤輸出、存在歧視或其他負面影響,同時數(shù)據(jù)在應用的過程中,也要面臨數(shù)據(jù)泄露、隱私曝光等風險,這既存在法律風險,也會引發(fā)公眾對AI的信任危機。

另外,提供大模型服務的云廠商一般會同時服務眾多客戶,而大模型在獲得各個企業(yè)的數(shù)據(jù)后,如何將這些數(shù)據(jù)充分隔離在每個客戶的服務范圍之內(nèi),就成為了困擾云廠商與企業(yè)的一大難題。

一旦數(shù)據(jù)的隔離失敗,從甲客戶獲得的數(shù)據(jù)就可能被用在對乙客戶給出的交互回答中,造成數(shù)據(jù)泄露。

如果企業(yè)上傳的大量隱私機密數(shù)據(jù)未能得到充分保護,惡意攻擊者或者云廠商內(nèi)部的惡意人士就可能利用軟件漏洞或職權(quán)獲取這些信息,攫取不當利益的同時,也對企業(yè)造成了無可估量的傷害。

考慮到大模型所需的訓練和交互數(shù)據(jù)數(shù)量龐大,遠遠超過以往企業(yè)上傳到云端的規(guī)模,這種風險相比過去也有數(shù)量級的增長。

目前,生成式AI已經(jīng)展現(xiàn)前所未有的智能化水平,由此將占據(jù)企業(yè)的IT關(guān)鍵位置,而就此重要性帶來的受攻擊頻度,也將使得生成式AI成為云計算、大數(shù)據(jù)、物聯(lián)網(wǎng)、移動互聯(lián)網(wǎng)之后的一個全新的安全戰(zhàn)場。

與此同時,大模型技術(shù)也將會在多個方面幫助提升網(wǎng)絡安全運維效率,在更深層次改變網(wǎng)絡安全格局的基礎。

有些人士還認為,生成式AI將進一步擴大貧困差距,加深數(shù)字鴻溝。生成式AI作為新興的AI技術(shù),需要基于大量的數(shù)據(jù)與巨大的計算能力,這就意味著生成式AI只能在技術(shù)先進的國家和地區(qū)普及開來,并被少數(shù)經(jīng)濟體所掌控。

數(shù)字貧困差距進一步擴大,科技弱勢地區(qū)的話語權(quán)被忽視,其潛在的風險就是發(fā)達經(jīng)濟體的價值觀廣泛傳播,數(shù)字鴻溝也會不可逆地加深。

用技術(shù)對抗技術(shù)用魔法打敗魔法

隨著大模型時代的到來,其強大能力也為安全防護技術(shù)的變革提供了新的思路?!坝肁I的力量來對抗AI”已經(jīng)成為一個熱點方向。

事實上,對抗攻防思路并不是模型安全的專屬。早在上個十年,面對種種安全威脅,人工智能領(lǐng)域就逐步形成了“以攻測防——以攻促防——攻防一體化”的安全理念,通過模擬各類攻擊場景,不斷探索模型和系統(tǒng)的弱點,以此推動算法和工程端的防御能力加強。

只不過,以往安全防護主要依賴機器學習算法模型,這需要大量專業(yè)數(shù)據(jù)知識積累,且面臨知識盲區(qū)和小樣本冷啟動不及時的問題。利用大模型技術(shù),可以實現(xiàn)更智能化的安全防控。

當前,生成式AI面臨的安全問題可以分為三級。初級問題是技術(shù)攻擊問題,也就是網(wǎng)絡攻擊、漏洞攻擊、數(shù)據(jù)攻擊問題,特別是提供給大模型不好的數(shù)據(jù)或污染它的訓練數(shù)據(jù),可能會導致結(jié)果出錯。這類問題相對比較好解決。

比較難解決的是中級問題,主要涉及內(nèi)容安全。例如大模型可以成為人們很好的幫手,也能成為壞人的工具。它可以幫一個水平不怎么樣的黑客寫更好的攻擊代碼、詐騙郵件。

如何讓它的內(nèi)容更加可控?如何防止AI大模型不作惡?這已經(jīng)超越了技術(shù)范疇。盡管現(xiàn)在有人為大模型做了內(nèi)置的所謂“安全護欄”,但它很容易遭到注入攻擊或算法攻擊。

從高級問題來看,大模型可以把人類所有知識融會貫通,再來和人類做交流、做提示。但當AI的能力超越人類后,還能不能甘于做人類的工具,這些技術(shù)帶來的挑戰(zhàn)最終還要靠技術(shù)來解決,技術(shù)自身會不斷進化,不能因為未來還沒有發(fā)生的問題就不發(fā)展相關(guān)技術(shù)。

從產(chǎn)業(yè)界現(xiàn)狀來看,AI安全與否如何評測,目前尚缺乏一套易用和標準化的評測工具和規(guī)則。

這也是大模型防御中能夠補充的另一方面,通過大模型技術(shù)學習風險知識和標準規(guī)則來提升AI對于風險的認知理解能力,以實現(xiàn)用大模型對抗大模型來進行極速防御和快速冷啟動的目的。

面對大模型下的網(wǎng)絡安全挑戰(zhàn),需要企業(yè)、安全團隊和監(jiān)管機構(gòu)等共同努力來應對。

首先,加強大模型的訓練和管理。通過采用更加有效的數(shù)據(jù)增強和處理技術(shù),減少大模型的過擬合和梯度爆炸等問題,提高模型的魯棒性和可靠性。同時,對大模型的訓練和管理也需要加強監(jiān)管和審計,確保數(shù)據(jù)的隱私和安全。

其次,研發(fā)新型安全防御技術(shù)。針對大模型的攻擊手段不斷變化和更新,需要研發(fā)新型的安全防御技術(shù)來應對。例如,可以利用人工智能技術(shù)來檢測和防御惡意代碼和網(wǎng)絡釣魚攻擊等。

以文本安全為例,大模型可以基于安全標準規(guī)則、風險領(lǐng)域知識和歷史風險樣本進行訓練,提升模型對于風險標準和內(nèi)容的理解力,從而實現(xiàn)對風險檢測能力的提升。

也采用大模型生成能力結(jié)合安全知識圖譜,來構(gòu)造攻擊樣本持續(xù)迭代優(yōu)化檢測模型。

第三,強化數(shù)據(jù)安全保護。除了要關(guān)注大模型在互聯(lián)網(wǎng)上的攻防對抗,大模型本身的安全和隱私問題同樣引發(fā)了擔憂。

針對大模型的訓練和使用過程中可能存在的數(shù)據(jù)安全問題,需要采取一系列的隱私保護技術(shù)。例如,使用同態(tài)加密、差分隱私、安全多方計算、模型水印和指紋等多種技術(shù)來保護數(shù)據(jù)的隱私和安全。

第四,加強監(jiān)管和法律保護。技術(shù)立法往往落后于技術(shù)發(fā)展的步伐,缺少法規(guī)和條例的引導和規(guī)制,越來越多使用生成式AI的公司發(fā)現(xiàn)其系統(tǒng)運行的安全性受到很大挑戰(zhàn)。

面對大模型下的網(wǎng)絡安全挑戰(zhàn),也需要監(jiān)管機構(gòu)和法律機構(gòu)加強管理和監(jiān)管。例如,政府監(jiān)管機構(gòu)要通過政策立法對生成式AI的設計、演進進行有效引導、統(tǒng)籌管理。

制定的政策框架需要與各國的立法和監(jiān)管背景保持一致,并且要隨AI技術(shù)更迭而更新,不斷提高現(xiàn)有法規(guī)的適用度。在監(jiān)管的同時給予AI創(chuàng)新的自由度,協(xié)同創(chuàng)造出更高質(zhì)量的內(nèi)容。

生成式AI是非常復雜的問題,倫理、數(shù)據(jù)、訓練等領(lǐng)域的復雜度都是前所未有的,是一個新領(lǐng)域,也是擺在所有人面前的一個命題。

從科技企業(yè)的發(fā)展史看,在新技術(shù)發(fā)展的前期,不同路線、理念的參與者往往能夠團結(jié)協(xié)作,共同為了科技普及而合作前進。

但當科技普及已經(jīng)發(fā)生,關(guān)于商業(yè)化、實現(xiàn)路徑的種種理念差異,卻可能走上不同的道路。在AI普及和深度應用的前夜里,或許,關(guān)于未來技術(shù)應該如何普及、如何監(jiān)管的理念與路徑之爭,才剛剛拉開帷幕。

面對未來的安全發(fā)展趨勢和挑戰(zhàn),企業(yè)更應該攜起手來,共同建立可度量的安全體系,為應對智能化時代的攻防新趨勢,打造內(nèi)在自適應的“安全免疫力”。

【關(guān)于科技云報道】

專注于原創(chuàng)的企業(yè)級內(nèi)容行家——科技云報道。成立于2015年,是前沿企業(yè)級IT領(lǐng)域Top10媒體。獲工信部權(quán)威認可,可信云、全球云計算大會官方指定傳播媒體之一。深入原創(chuàng)報道云計算、大數(shù)據(jù)、人工智能、區(qū)塊鏈等領(lǐng)域。

免責聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-12-13
從數(shù)據(jù)到生成式AI,是該重新思考風險的時候了
科技云報道原創(chuàng)。OpenAI“宮斗”大戲即將塵埃落定。自首席執(zhí)行官Sam Altman突然被董事會宣布遭解雇、董事長兼總裁Greg Brockman辭職;緊...

長按掃碼 閱讀全文