據報道,Facebook周四宣布,人工智能軟件目前可以檢測出平臺上刪除的94.7%的仇恨言論。
Facebook的首席技術官麥克·斯瑞普菲(Mike Schroepfer)在一篇博客文章中透露了該數字,并補充稱,一年前該比例為80.5%,2017年時僅24%。Facebook最新的《社區(qū)標準執(zhí)行報告》中也提到了該數字。
諸如Facebook、Twitter等社交媒體公司經常因為未能從平臺上刪除仇恨言論(包括種族誹謗、宗教攻擊等)而受到批評。
這些公司在全球依靠成千上萬名內容審查員來管理平臺上分享的帖子、照片和視頻。周三,超過200名Facebook審查員在一封寫給扎克伯格的公開信中稱,疫情期間,公司強制要求他們回到公司上班,是棄他們的生命安全于不顧。
但是光有人類審查員還不夠。如今,科技巨頭越來越來依賴人工智能,即可以從經驗中自動改進算法的機器學習。
“Facebook在人工智能方面的一個核心關注點是部署先進的機器學習技術,以保護人們免受有害內容的侵擾,”斯瑞普菲說。
“隨著有數十億人使用我們的平臺,我們依賴人工智能去擴大我們的內容審核工作,并在可能的情況下自動化內容處理決策,”他說,“我們的目標是針對每一種形式的內容以及全球每一種語言和社區(qū),盡可能快速而準確地識別出仇恨言論、虛假信息以及其他違反平臺政策的內容形式。”
但是Facebook的人工智能軟件依舊很難發(fā)現某些違反政策的內容。例如,該軟件很難識別圖文的含義,對反諷和俚語的識別也不總是很準確。但是在很多情況下,人類可以快速判斷一條內容是否違反了Facebook的政策。
Facebook稱,該公司最近部署了兩項新的人工智能技術,來解決這些難題。第一項技術叫做“增強誠信優(yōu)化器”(RIO),可以從真實的在線示例和指標中學習,而非使用離線數據集;第二項技術是叫做“Linformer”的人工智能架構,可以允許Facebook使用復雜語言理解模型。之前該模型因為過于龐大而無法大規(guī)模使用。
“我們現在在產品中使用RIO和Linformer,以在全球不同地區(qū)分析Facebook和Instagram上的內容,”斯瑞普菲說。
Facebook還表示,它還開發(fā)了一種新的工具,可以檢測deepfakes(計算機合成視頻),并對現有的系統“SimSearchNet”做了些許改進。該系統是一個圖像匹配工具,旨在檢測平臺上的虛假信息。
“所有這些創(chuàng)新放在一起,意味著我們的人工智能系統現在可以對內容有更深更廣泛的了解,”斯瑞普菲說,“它們如今對平臺上分享的內容更加敏感,當新的熱詞和圖像出現并傳播時,它們可以更加快速地學習。”
斯瑞普菲還指出,Facebook面臨的挑戰(zhàn)“十分復雜、細微,并且發(fā)展迅速”。他還說,錯誤地將內容標記為仇恨言論或虛假信息會“阻礙人們自由表達的能力”。
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。