報告:83%組織采用AI生成代碼,面臨AI中毒和模型逃逸等風險

極客網(wǎng)·網(wǎng)絡安全9月19日 Venafi一份針對網(wǎng)絡安全高管的調查發(fā)現(xiàn),全球高達83%的組織正在使用AI來生成代碼,相應的安全防護卻嚴重滯后。調查表明,92%的受訪者對開發(fā)和運營團隊如此廣泛依賴AI所隱含的安全影響表示擔憂。

這項調查匯集了來自美國、英國、德國和法國的800名受訪者的觀點和見解,凸顯出AI 驅動開發(fā)的快速發(fā)展與有效保障新技術安全的能力之間的差距在日益擴大。

盡管風險越來越大,但72%的受訪者表示,他們別無選擇,只能允許開發(fā)人員使用AI來保持競爭力。與此同時,63%的受訪者出于安全考慮打算完全禁止AI生成的代碼。

image001.png

AI輔助代碼開發(fā)變得司空見慣

Venafi在報告中強調的一個最緊迫的挑戰(zhàn):安全團隊難以跟上AI驅動的開發(fā)速度。66%的受訪者承認,安全團隊幾乎不可能以AI驅動的代碼部署速度來管理它,這引發(fā)了人們對即將到來的“安全清算”的擔憂。與此同時,78%的受訪者預計,隨著AI的采用量繼續(xù)激增,將會面臨嚴峻的安全挑戰(zhàn)。

Venafi首席創(chuàng)新官Kevin Bocek說:“隨著開發(fā)人員和新手以尚未了解的方式使用大量GenAI生成的代碼,已經(jīng)開始出現(xiàn)一些新的威脅,例如AI中毒和模型逃逸?!?/p>

該報告還揭示了開發(fā)和運營人員對開源代碼的嚴重依賴。受訪的安全領導者估計,他們 61%的應用都包含開源組件。雖然90%的安全領導者信任這些庫,但86%的人認為開源優(yōu)先考慮的是速度而不是安全最佳實踐。

這帶來了一個嚴峻的挑戰(zhàn),因為75%的人承認,驗證每一行開源代碼的安全性幾乎是不可能實現(xiàn)的。

Venafi技術總監(jiān)Steve Judd對此表示,“組織不能盲目地相信開源解決方案,因為他們真的不知道是誰創(chuàng)建了這些解決方案或做出了貢獻?!?/p>

AI帶來的安全問題存在治理差距

Venafi的研究還指出了安全治理方面的重大差距,47%的組織缺乏確保在其開發(fā)環(huán)境中安全使用AI的政策。此外,63%的安全領導者認為,由于無法了解AI的使用情況,因此幾乎不可能在組織內(nèi)部對AI的使用進行監(jiān)管。

Venafi在報告中主張將代碼簽名作為一種關鍵的防御機制,以抵御AI和開源開發(fā)帶來的風險。92%的安全領導者認為代碼簽名對于在開源代碼中建立信任至關重要,因為它驗證了代碼的真實性和完整性。這種方法可確保不執(zhí)行任何未經(jīng)授權的代碼,從而保護組織免受潛在攻擊。

值得注意的是,早在AI出現(xiàn)之前,很多編碼工作已經(jīng)實現(xiàn)了自動化。像代碼自動補全和低代碼平臺這樣的工具已經(jīng)能夠處理一些日常任務,例如檢測bug、樣板代碼生成和語言翻譯。集成開發(fā)環(huán)境(IDE)也早就能夠提供自動完成功能,以加快編碼速度并減少人工操作。

不過,這些自動化系統(tǒng)傳統(tǒng)上主要關注調試和格式化等低級任務,主要是為了簡化特定的開發(fā)階段,與AI驅動的利用大型語言模型(LLM)來大量增加代碼大有不同。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )

贊助商
2024-09-19
報告:83%組織采用AI生成代碼,面臨AI中毒和模型逃逸等風險
63%的受訪者出于安全考慮打算完全禁止AI生成的代碼。

長按掃碼 閱讀全文