多年來,我們一直在通過語音助手、社交媒體、搜索算法、手機面部識別等方式悄悄地與人工智能互動。但隨著ChatGPT等生成式人工智能的出現(xiàn),人工智能占據(jù)了前沿和中心位置。
突然間,我們開始發(fā)自內(nèi)心地見證人工智能,對所見所聞感到驚訝。人工智能不再讓人感覺像是“某一天會出現(xiàn)的東西”。它現(xiàn)在是“存在于此,并準備好改變世界”。
改變會帶來風險。對于尚未制定AI風險管理計劃的企業(yè)和管理團隊而言,ChatGPT應(yīng)該是一個令人震驚的警鐘。本文將探討廣泛實施人工智能所帶來的風險。
以下是企業(yè)領(lǐng)導者應(yīng)注意的5大人工智能風險:
1、中斷風險
人工智能將以前所未有的技術(shù)顛覆現(xiàn)有的商業(yè)模式和市場。最明顯的例子就是ChatGPT本身。誰會想到Google作為無可爭議的搜索冠軍的地位會受到如此突然和不穩(wěn)定的挑戰(zhàn)?
似乎就在一兩年前,大多數(shù)人都設(shè)想人工智能會顛覆依賴相對低技能勞動力的行業(yè),如卡車運輸和客戶服務(wù),或者在最壞的情況下,顛覆高度有條不紊的工作,比如金融交易和放射學?,F(xiàn)在我們了解到,媒體和廣告等創(chuàng)意產(chǎn)業(yè),以及教學和財務(wù)咨詢等個性化服務(wù)行業(yè),甚至是醫(yī)藥研發(fā)和計算機科學等精英技能領(lǐng)域,都面臨著風險。
根據(jù)Goldman Sachs 2023年3月的一份報告,像ChatGPT這樣的生成式人工智能可能會在全球范圍內(nèi)淘汰多達3億個工作崗位,其中包括美國現(xiàn)有工作崗位的19%。無論從事何種行業(yè)或職業(yè),幾乎可以肯定是,企業(yè)將在未來幾年內(nèi)面臨巨大變化。與以往的技術(shù)顛覆不同,這次的賭注真的可能是“生死攸關(guān)”。
2、網(wǎng)絡(luò)安全風險
保護組織數(shù)據(jù)、系統(tǒng)和人員免受黑客和其他破壞者的侵害,已經(jīng)成為企業(yè)領(lǐng)導者面臨的一個日益嚴重的問題。2022年,攻擊次數(shù)增加了38%,平均每個組織每周攻擊超過1,000次,每次數(shù)據(jù)泄露的平均成本激增至超過400萬美元。
人工智能將成倍加劇這一挑戰(zhàn)。想象一下,當像ChatGPT這樣復雜的AI向員工發(fā)送電子郵件時,這些電子郵件看似來自老板,使用的信息通常只有老板才知道,甚至還使用了老板的寫作風格,這樣的網(wǎng)絡(luò)釣魚攻擊將有多大。
至少自2019年開始,就有報道稱在網(wǎng)絡(luò)詐騙中使用語音克隆等深度偽造技術(shù)。隨著人工智能每天都在改進和多樣化,網(wǎng)絡(luò)風險管理的問題只會越來越嚴重。
如果認為防火墻和其他當今的網(wǎng)絡(luò)防御技術(shù)可以拯救,請三思。AI將幫助壞人找到防御中最薄弱的環(huán)節(jié),然后全天候工作,直到找到突破口。
3、聲譽風險
當ChatGPT首次出現(xiàn)在公眾視野時,Google高管最初以“聲譽風險”為理由,表示不會立即推出與之競爭的人工智能。但幾天后就撤回了聲明,并宣布推出Bard。Bing和其他生成AI領(lǐng)域出現(xiàn)的錯誤和尷尬,證明了Google最初的擔憂是有根據(jù)的。
公眾正在觀望。當AI以不符合價值觀的方式行事時,可能會導致公關(guān)災(zāi)難。新興形式的人工智能已經(jīng)表現(xiàn)得像一個種族主義者、厭惡女性的怪物,導致了錯誤的逮捕,并放大了員工招聘中的偏見。
有時,人工智能會破壞人員關(guān)系。根據(jù)Forrester的數(shù)據(jù),75%的消費者對客戶服務(wù)聊天機器人感到失望,30%的消費者在人工智能驅(qū)動的客戶服務(wù)互動不佳后將業(yè)務(wù)轉(zhuǎn)移到別處。人工智能還很年輕,容易出錯。然而,盡管風險很高,但我們希望許多商業(yè)組織在部署人工智能時,會完全了解所涉及的聲譽風險。
4、法律風險
聯(lián)邦政府正準備應(yīng)對人工智能崛起帶來的社會挑戰(zhàn)。2022年,拜登政府公布了《人工智能權(quán)利法案》藍圖,以保護隱私和公民自由。2023年,美國國家標準技術(shù)研究院發(fā)布了人工智能風險管理框架,以幫助企業(yè)董事會和其他組織領(lǐng)導應(yīng)對人工智能風險?!?022年的算法問責法》仍然只是一項法案,旨在在廣泛的自動化決策機制中建立透明度。這只是聯(lián)邦立法。僅在2022年,就有不少于17個州提出了管理人工智能的立法,目標是面部識別、招聘偏見、上癮算法和其他人工智能用例。對于跨國企業(yè),歐盟擬議的《人工智能法案》旨在禁止或適度使用生物識別、心理操縱、剝削弱勢群體以及社會信用評分。
新法規(guī)即將出臺,可能會在2023年內(nèi)出臺。企業(yè)面臨的風險不僅僅是合規(guī)性。如果使用AI的產(chǎn)品或服務(wù)出現(xiàn)問題,誰將承擔責任:產(chǎn)品或服務(wù)提供商?人工智能開發(fā)者?數(shù)據(jù)供應(yīng)商?還是企業(yè)法人?至少,這需要為AI的決策方式提供透明度,以遵守新法律中的透明度規(guī)定。
5、操作風險
人工智能風險的最后一個領(lǐng)域可能是最明顯的,但在某些方面也是最危險的。如果員工不小心誤用了ChatGPT,導致商業(yè)機密泄露,會發(fā)生什么?當AI沒有按預(yù)期工作時會發(fā)生什么?過快采用人工智能的負面影響可能是巨大的。
ChatGPT是當今進人工智能最著名的例子,全世界都在測試它,且每天都在報告其缺點。但企業(yè)使用的人工智能可能無法享受這種好處。當AI告知在特定供應(yīng)商、材料或產(chǎn)品上加倍下注時,但卻做錯了——如何知道會發(fā)生什么?
IBM的Watson曾為癌癥患者提出不正確且危險的治療方法。英國Tyndaris Investments在其對沖基金AI每天損失高達2000萬美元后,被香港大亨李健勤起訴。還有,失控的特斯拉撞死了行人?這是企業(yè)領(lǐng)導者的職責——意識到這種操作風險,并加以管理。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )