貼上AI標(biāo)簽的評論區(qū),正在剝奪我們平等言論的自由

貼上AI標(biāo)簽的評論區(qū),正在剝奪我們平等言論的自由

自古站著說話都是不會腰疼的,在這樣一個(gè)鼓勵(lì)質(zhì)疑的社會氣氛當(dāng)中,戾氣彷佛成了最好的鼓勵(lì)。去中心化的時(shí)代,人人都有麥克風(fēng),網(wǎng)絡(luò)發(fā)言的成本達(dá)到了歷史最低。

近日,知乎正用AI識別“答非所問”和“不友善”又被媒體反復(fù)引用。前不久,羅永浩“精日沒啥”的言論相繼被北京日報(bào)和廣州日報(bào)點(diǎn)名批評,微博的評論區(qū)“錘粉”、“錘黑”的論戰(zhàn)比羅永浩本人的演講還“好看”,但是這種“好看”是靠著你來我往的火藥桶攻擊而炒起來的熱度。廣州日報(bào)官方微博下面,“小心錘蛆”評論排在熱評的第一位,“智障”、“走狗”、“SB”的字眼也屢見不鮮。微博的罵戰(zhàn)如此壯烈讓“路人”都不忍直視,更不談上不來理性的分析羅永浩是否是精日,精日是什么的問題。微博距離中國言論環(huán)境下的“公共領(lǐng)域”還差得很遠(yuǎn)。

內(nèi)容管理,要從評論區(qū)覓得曲徑通幽處

評論區(qū)比內(nèi)容本身還好看,現(xiàn)在已經(jīng)不僅僅是個(gè)口上的噱頭了。各大社交和問答平臺都開始注意到評論區(qū)的運(yùn)營。此前,為了提高評論審核的效率,有效管理微博評論,微博也開始有所動(dòng)作,面向頭部用戶和正式會員用戶開通評論審核的功能,在開放此功能之后,用戶可以對自己微博下的評論實(shí)現(xiàn)評論先審后放。

因此,如果把文章本身稱為“第一內(nèi)容區(qū)”的話,那么評論區(qū)儼然已經(jīng)成為蓬勃發(fā)展的“第二內(nèi)容區(qū)”,今天注重評論區(qū)的管理開始變得越來重要。在4月的GMIC大會上,知乎合伙人、高級副總裁李大海做了一個(gè)分享,稱知乎正在打造“智慧社區(qū)”,并透露出,在知乎的內(nèi)容社區(qū)當(dāng)中,AI已經(jīng)可以開始進(jìn)行語義識別和語境判斷。因?yàn)閱螁我蕾嚾斯さ牧α縼砉芾韮?nèi)容,實(shí)在不是一個(gè)高效的選擇。

在知乎里面,現(xiàn)在有一個(gè)2歲多的機(jī)器人叫“瓦力”,目前這個(gè)機(jī)器人可以在線上快速響應(yīng)答非所問和不友善的內(nèi)容,減少像歧視,惡意貼標(biāo)簽,辱罵等等低質(zhì)內(nèi)容對用戶的干擾。但是目前受到NPL(自然語言處理)自身的局限性和平臺運(yùn)營存在的相應(yīng)問題,這個(gè)智慧社區(qū)還存在著不少問題。

如果說人工智能算法能夠通過監(jiān)測人們說話時(shí)的聲學(xué)特征,比如發(fā)音頻率,聲音高低,以及語氣的變化,來識別人類說話的情緒類型是一項(xiàng)很了不起的技術(shù)。那么直接通過NPL來鑒定人類的說話情緒則是更難上加難的操作。因?yàn)橐粋€(gè)臟字不帶,一個(gè)敏感詞都沒有的句子,AI很難總結(jié)出它們的共同特征從而有針對性的挑選出來作為負(fù)面言論的代表,真正成為評論區(qū)的“清道夫”。

另外,目前知乎的機(jī)器學(xué)習(xí)方式是利用知乎的中文語料庫,調(diào)動(dòng)用戶積極對語料進(jìn)行手動(dòng)標(biāo)注來訓(xùn)練AI,這在機(jī)器的監(jiān)督學(xué)習(xí)中是必不可少的一步。但新的技術(shù)正在涌現(xiàn),比如強(qiáng)化學(xué)習(xí)和in-streamsupervision,數(shù)據(jù)可以在自然使用過程中獲得標(biāo)注?;蛘?,知乎還可以學(xué)習(xí)科大訊飛建立語音云平臺一樣,引入語料云平臺,這樣可以從其他更廣泛的渠道以更快的速度發(fā)現(xiàn)更新的語料。因?yàn)榈鹊街踔形恼Z料庫中有足夠的新興語料可以讓機(jī)器進(jìn)行學(xué)習(xí)時(shí),代表這類語料的存在在平臺上已經(jīng)比較廣泛了,如果此種語料是惡性的,那么則說明評論的內(nèi)容生態(tài)已經(jīng)遭到了一定污染。

在評論區(qū),AI與人的關(guān)系還值得細(xì)嚼

把目光投到國外,國外的那些頂級媒體則更早就開始重視到評論區(qū)的重要性并開始用技術(shù)對評論區(qū)進(jìn)行打理。紐約時(shí)報(bào)與Jigsaw(谷歌Alphabet旗下科研團(tuán)隊(duì))合作,并牽頭華盛頓郵報(bào)、Mozilla基金會成立了TheCoralProject(珊瑚項(xiàng)目),研究如何改進(jìn)在線評論,并孵化一系列開源工具為各大新聞編輯室提供技術(shù)支持。2015年時(shí),紐約時(shí)報(bào)采用的評論體系會依靠算法對不同用戶的評論進(jìn)行優(yōu)先級排序,并且決定哪些用戶的評論可以不用經(jīng)過較長時(shí)間的人工審查就可以發(fā)布。

但是,人工智能到底是藍(lán)海還是深坑還需要時(shí)間的檢驗(yàn),智能相對論分析師楊蘇穎還想在此提出利用人工智能管理評論內(nèi)容生態(tài)的兩個(gè)討論點(diǎn):

1、AI的背后是人,如果人不想解決某個(gè)問題,那么AI也只是噱頭和擺設(shè)。最近,在某草根公眾號中看到一篇文章,名叫《欲加之罪,何患無詞》,談?wù)摰氖怯嘘P(guān)喜馬拉雅APP內(nèi)容付費(fèi)的問題,該公眾號的主人在喜馬拉雅上傳了自己解讀書籍《烏合之眾》音頻,后突然因版權(quán)投訴而被下架了。喜馬拉雅方面的客服稱因?yàn)橐呀?jīng)有解讀該書的付費(fèi)音頻存在,所以再上傳解讀該書的音頻就算作是侵權(quán)。對于某一個(gè)單一的知識付費(fèi)內(nèi)容能不能壟斷市場暫且不論,這個(gè)唯一被平臺認(rèn)可的《烏合之眾》付費(fèi)音頻下面的評論卻顯示出這個(gè)付費(fèi)的內(nèi)容并不盡如人意。

貼上AI標(biāo)簽的評論區(qū),正在剝奪我們平等言論的自由

但是平臺不顧聽眾在評論區(qū)的反饋,完全沒有用心傳播優(yōu)質(zhì)內(nèi)容的匠心。如今許多平臺都嘗試使用AI進(jìn)行評論區(qū)的管理,但是AI要執(zhí)行的始終是人的想法,就算AI通過各種識別的功能發(fā)現(xiàn)了這個(gè)問題,如果人并不想解決這個(gè)問題,那么AI的設(shè)立又還有什么用處呢?

2、在評論區(qū),AI通過識別用戶言論來給每一個(gè)用戶貼標(biāo)簽,這一點(diǎn)很難說不是在將每個(gè)人的言論權(quán)利做一個(gè)高矮次序的排列。許多用AI來管理評論區(qū)的平臺談到技術(shù)方面都會說到現(xiàn)在可以利用AI可以對用戶進(jìn)行標(biāo)簽,有點(diǎn)兒像所謂的社會信用體系。但這種看似合理的信用體系背后的問題是:爭了好幾百年來的平等言論權(quán)就這么被AI再次剝奪了?

站在社會學(xué)的角度,我們常常在討論的是標(biāo)簽對人性的壓抑以及標(biāo)簽給人帶來的種種痛苦,并思索著如何才能讓社會環(huán)境進(jìn)一步“去標(biāo)簽化”。但我們沒注意到的是,AI正在利用我們在網(wǎng)絡(luò)留下的數(shù)據(jù)對我們進(jìn)行標(biāo)簽化。如果,某個(gè)人曾經(jīng)發(fā)布過一些負(fù)面言論,那么經(jīng)過AI的識別判定后,他的言論可能今后永遠(yuǎn)只能在評論區(qū)的下游飄蕩。潛在地,這個(gè)人是不是相當(dāng)于被間接削弱了言論權(quán)呢?你可以發(fā)言,但是不會有人看得到。這也代表了在網(wǎng)絡(luò)社區(qū)當(dāng)中話語權(quán)會被進(jìn)一步中心化。所以,AI也應(yīng)該該考慮一下去標(biāo)簽化的問題,并建立去標(biāo)簽化的機(jī)制。每個(gè)人都有被原諒的機(jī)會,但是數(shù)據(jù)會知道這一點(diǎn)嗎?

技術(shù)非但沒有使信息自由流動(dòng),反而建立了更加龐大的信息孤島。在微信當(dāng)中,只有互為好友的人才能看到在同一個(gè)人朋友圈下面的評論互動(dòng),這樣的評論機(jī)制在微信當(dāng)中建立起的無數(shù)個(gè)不同的小圈子,小圈子之間隔著高高低低的圍墻。微信雖然幫助我們連接了更多的人,但是卻把父母給隔離了起來。她/他能夠看到的評論區(qū)永遠(yuǎn)只有自己一個(gè)人,想要通過你的朋友圈了解你的生活,了解你的朋友和外面的世界,但是技術(shù)卻阻斷了這么簡單的念想,他不知道你平常是怎么和朋友打趣,甚至不知道你說的佛系,在評論區(qū)看不到更多的解釋,還以為你要去出家,趕緊打個(gè)電話過來詢問。但為了避免你麻煩的解釋過程,技術(shù)還可以建立起更多“去麻煩”的機(jī)制,比如分組可見。對于我們而言我們是在提高自己的生活效率,更好地管理自己的生活,但是對于父母而言,他們只是被強(qiáng)制削去了知情權(quán),這實(shí)際就是剝奪發(fā)言權(quán)的前一步。

在日常的信息獲取當(dāng)中,剝奪話語權(quán)的方式是很隱晦。它通常會先剝奪你的知情權(quán)。今日頭條的人工智能算法推薦信息,過度迷信算法的精準(zhǔn)性,實(shí)則把用戶困在它制造的信息孤島。由互聯(lián)網(wǎng)所打破的信息壁壘,在今日頭條的作用下被重新建立起來,只是這背后更為深刻的是,同質(zhì)信息的轟炸阻斷了那些沒有主動(dòng)獲取信息能力的人上行的通道。在這樣龐大的信息社區(qū)當(dāng)中,平臺需要建立自己的人文價(jià)值觀和社會責(zé)任,一旦當(dāng)它們的價(jià)值開始混亂,錢就會成為唯一的尺度。人工智能是技術(shù)的又一次升級,但是人工智能不能成為一切腐朽舊思想的避難所,不能包庇價(jià)值觀的混亂,也不能縱容技術(shù)平臺對用戶話語權(quán)的剝奪。如何在保護(hù)話語權(quán)和保護(hù)平臺社區(qū)環(huán)境之間尋求一個(gè)平衡點(diǎn),是運(yùn)用AI管理評論區(qū)需要思考的第一個(gè)問題。

評論區(qū)的“黃金屋”和“顏如玉”在今天是顯而易見的,但平臺的內(nèi)容運(yùn)營者們想要在這上面使力則還需要繼續(xù)探索。AI幫助進(jìn)行智能評論區(qū)管理是件好事,但在AI的背后還潛藏著太多未解的難題,管理者們一定要帶著問號去利用好AI,讓AI成為內(nèi)容管理的福音。

文 | 楊蘇穎

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-05-21
貼上AI標(biāo)簽的評論區(qū),正在剝奪我們平等言論的自由
自古站著說話都是不會腰疼的,在這樣一個(gè)鼓勵(lì)質(zhì)疑的社會氣氛當(dāng)中,戾氣彷佛成了最好的鼓勵(lì)。去中心化的時(shí)代,人人都有麥克風(fēng),網(wǎng)絡(luò)發(fā)言的成本達(dá)到了歷史最低。

長按掃碼 閱讀全文