Facebook:AI可檢測出平臺刪除的94.7%仇恨言論

據(jù)報道,F(xiàn)acebook周四宣布,人工智能軟件目前可以檢測出平臺上刪除的94.7%的仇恨言論。

Facebook的首席技術官麥克·斯瑞普菲(Mike Schroepfer)在一篇博客文章中透露了該數(shù)字,并補充稱,一年前該比例為80.5%,2017年時僅24%。Facebook最新的《社區(qū)標準執(zhí)行報告》中也提到了該數(shù)字。

諸如Facebook、Twitter等社交媒體公司經(jīng)常因為未能從平臺上刪除仇恨言論(包括種族誹謗、宗教攻擊等)而受到批評。

這些公司在全球依靠成千上萬名內(nèi)容審查員來管理平臺上分享的帖子、照片和視頻。周三,超過200名Facebook審查員在一封寫給扎克伯格的公開信中稱,疫情期間,公司強制要求他們回到公司上班,是棄他們的生命安全于不顧。

但是光有人類審查員還不夠。如今,科技巨頭越來越來依賴人工智能,即可以從經(jīng)驗中自動改進算法的機器學習。

“Facebook在人工智能方面的一個核心關注點是部署先進的機器學習技術,以保護人們免受有害內(nèi)容的侵擾,”斯瑞普菲說。

“隨著有數(shù)十億人使用我們的平臺,我們依賴人工智能去擴大我們的內(nèi)容審核工作,并在可能的情況下自動化內(nèi)容處理決策,”他說,“我們的目標是針對每一種形式的內(nèi)容以及全球每一種語言和社區(qū),盡可能快速而準確地識別出仇恨言論、虛假信息以及其他違反平臺政策的內(nèi)容形式。”

但是Facebook的人工智能軟件依舊很難發(fā)現(xiàn)某些違反政策的內(nèi)容。例如,該軟件很難識別圖文的含義,對反諷和俚語的識別也不總是很準確。但是在很多情況下,人類可以快速判斷一條內(nèi)容是否違反了Facebook的政策。

Facebook稱,該公司最近部署了兩項新的人工智能技術,來解決這些難題。第一項技術叫做“增強誠信優(yōu)化器”(RIO),可以從真實的在線示例和指標中學習,而非使用離線數(shù)據(jù)集;第二項技術是叫做“Linformer”的人工智能架構,可以允許Facebook使用復雜語言理解模型。之前該模型因為過于龐大而無法大規(guī)模使用。

“我們現(xiàn)在在產(chǎn)品中使用RIO和Linformer,以在全球不同地區(qū)分析Facebook和Instagram上的內(nèi)容,”斯瑞普菲說。

Facebook還表示,它還開發(fā)了一種新的工具,可以檢測deepfakes(計算機合成視頻),并對現(xiàn)有的系統(tǒng)“SimSearchNet”做了些許改進。該系統(tǒng)是一個圖像匹配工具,旨在檢測平臺上的虛假信息。

“所有這些創(chuàng)新放在一起,意味著我們的人工智能系統(tǒng)現(xiàn)在可以對內(nèi)容有更深更廣泛的了解,”斯瑞普菲說,“它們?nèi)缃駥ζ脚_上分享的內(nèi)容更加敏感,當新的熱詞和圖像出現(xiàn)并傳播時,它們可以更加快速地學習。”

斯瑞普菲還指出,F(xiàn)acebook面臨的挑戰(zhàn)“十分復雜、細微,并且發(fā)展迅速”。他還說,錯誤地將內(nèi)容標記為仇恨言論或虛假信息會“阻礙人們自由表達的能力”。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2020-11-20
Facebook:AI可檢測出平臺刪除的94.7%仇恨言論
Facebook:AI可檢測出平臺刪除的94.7%仇恨言論,據(jù)報道,F(xiàn)acebook周四宣布,人工智能軟件目前可以檢測出平臺上刪除的94.7%的仇恨言論。Fac

長按掃碼 閱讀全文