讀題or讀你?剝開機器閱讀理解的神秘外衣

原標題:讀題or讀你?剝開機器閱讀理解的神秘外衣

最近一個有意思的現(xiàn)象,是機器閱讀理解突然開始熱絡(luò)了起來。

剛剛傳來消息,2月21日,百度自然語言處理團隊研發(fā)的V-Net模型以46.15的Rouge-L得分登上微軟的MS MARCO(Microsoft MAchine Reading COmprehension)機器閱讀理解測試排行榜首。

加上此前斯坦福大學的SQuAD競賽中,阿里、哈工大訊飛聯(lián)合實驗室等團隊先后超越了人類平均水平。這意味著,機器閱讀理解領(lǐng)域的兩大頂級賽事:MS MARCO和SQuAD的記錄先后由中國團隊打破。

這項技術(shù)的奇點似乎正在現(xiàn)實世界的邊緣升起。尤其值得注意的是,百度刷新MS MARCO成績依靠的是單模型。一般情況下多模型集成會拿到更高分數(shù),如此看來,機器閱讀理解的能力邊界還遠未觸達。

但在熱鬧的“軍備競賽”之余,機器閱讀理解領(lǐng)域的深處并非一團和氣。各種爭議和辯論正在這場“機器答題大秀”背后上演。

比如說,為什么微軟要緊隨SQuAD之后另起爐灶,發(fā)布自己的數(shù)據(jù)集和競賽?以“實戰(zhàn)派”著稱的百度NLP團隊為什么一定要選擇MS MARCO來剛正面?學術(shù)界關(guān)于機器閱讀理解的爭議為何一直不斷?

這些疑問或許可以最終歸因到一個問題:讓AI做閱讀理解,到底有什么用?

今天讓我們從百度的大冒險開始說起,聊聊“閱讀理解圈”的江湖恩怨,以及我們接下來可預見的技術(shù)應用未來。

兩大數(shù)據(jù)集對峙:機器閱讀理解的問題與爭議

所謂的機器閱讀理解,基本概念跟咱們上學時做的閱讀理解題很相似,同樣都是給出一段材料和問題,讓“考生”給出正確答案。所不同的,僅僅是機器閱讀理解的主角變成了AI模型而已。

而機器閱讀理解領(lǐng)域的比賽方式,就像斯坦福大學著名的AI競賽ImageNet一樣,都是由一個官方給定的數(shù)據(jù)集+一場跑分競賽組成。各大科技巨頭和世界名校的AI研究團隊是主要參賽選手。

百度NLP團隊這次成功刷新世界記錄的比賽,是微軟在2016年末發(fā)布的MS MARCO。

這個賽事有趣的地方在于,其運用的訓練數(shù)據(jù)并非空穴來風,而是微軟在產(chǎn)品實踐中,從真實用戶那里收集來的問題和答案。MS MARCO是微軟基于搜索引擎BING構(gòu)建的大規(guī)模英文閱讀理解數(shù)據(jù)集,包含10萬個問題和20萬篇不重復的文檔。

據(jù)了解,這個數(shù)據(jù)集的問題全部來自于BING的搜索日志,根據(jù)用戶在BING中輸入的真實問題模擬搜索引擎中的真實應用場景。此外,又整理了這些問題的人工答案作為訓練數(shù)據(jù)。這樣可以讓AI模型通過最接近真實應用的語境來進行學習、訓練和反向?qū)嵺`,完成“學以致用”的小目標。

圈內(nèi)普遍認為,微軟這么不容易地搜集一個源自真實網(wǎng)絡(luò)的數(shù)據(jù)集,就是希望硬懟斯坦福大學發(fā)布的SQuAD。

2016年早些時候,斯坦福大學相關(guān)團隊制作了一個用來測試AI模型閱讀理解能力的數(shù)據(jù)集。與MS MARCO不同,SQuAD主要訓練數(shù)據(jù)是來自維基百科的536篇文章,以及由人類閱讀這些文章后,提出的10萬多個問題及相關(guān)答案。

這種非常像校園考試的數(shù)據(jù)設(shè)定,從誕生之日起就爭議不斷。比如NLP領(lǐng)域的大牛Yoav Goldberg就認為這個數(shù)據(jù)集有些太過片面。

SQuAD受到指責的地方,主要可以分為三個層面:

1.問題過分簡單。問題的答案主要源自于文檔中的一個片段,真實應用場景中很少遇到這樣的問題。

2.數(shù)據(jù)多樣性不足。SQuAD只有500多篇文章,內(nèi)容不夠豐富,訓練出的模型被質(zhì)疑難以處理其他數(shù)據(jù)或者更復雜的問題。

3.通用性不強。為了跑分的方便,SQuAD的問題結(jié)構(gòu)比較簡單,涉及到的機器“推理”一面偏弱,導致其實用性數(shù)次受到懷疑。

舉個簡單的例子來描述一下兩個數(shù)據(jù)集之間的不同:SQuAD大多數(shù)問題的答案來自文檔本身,從文檔中“復制粘貼”就能完成回答,這樣模式固然更加方便,但客觀上對問題類型和答案范圍都做了限制,建立在SQuAD上的問題通常更加直白簡單。而MS MARCO的問題則更傾向真實的語言環(huán)境,需要智能體推理語境進行分析。

相對而言,MS MARCO的難點主要體現(xiàn)在這幾個方面:

1.對于每一個問題,MARCO 提供多篇來自搜索結(jié)果的網(wǎng)頁文檔,系統(tǒng)需要通過閱讀這些文檔來回答用戶提出的問題。但是,文檔中是否含有答案,以及答案具體在哪一篇文檔中,需要系統(tǒng)自己來判斷解決;

2.MARCO 中有一部分問題無法在文檔中直接找到答案,需要閱讀理解模型自己做出判斷;

3.MARCO 也不限制答案必須是文檔中的片段,很多問題的答案必須經(jīng)過多篇文檔綜合提煉得到。

蘿卜白菜各有所愛,有人認為SQuAD是最方便測試的機器閱讀理解比賽,也有人堅持MS MARCO是最接近人類問答習慣的競賽。但爭論的背后或許有一個共識正在浮現(xiàn):機器閱讀理解的應用性,已經(jīng)開始受到產(chǎn)業(yè)的廣泛關(guān)注。

進擊的數(shù)據(jù)集:AI閱讀也要重視“素質(zhì)教育”

當然,MS MARCO的數(shù)據(jù)集結(jié)構(gòu)同樣也有很多爭議。但相類似的“從生活中來”的機器閱讀理解訓練數(shù)據(jù)集正在越來越多。一句話總結(jié)這種趨勢,大概就是大家發(fā)現(xiàn),該讓AI從“應試教育”變成“素質(zhì)教育”了。

結(jié)構(gòu)緊湊、體系清晰的SQuAD,雖然可以非常便捷地展現(xiàn)出AI模型的測試結(jié)果,但拓展性和實用性始終受到指責。許多學者認為,這個數(shù)據(jù)集有些被過分“考試化”了,導致其最終變成為了競賽而競賽。

而直接從互聯(lián)網(wǎng)文本與產(chǎn)品實踐問題中訓練出的模型,顯然距離應用性更近。據(jù)了解,百度NLP團隊選擇MS MARCO來進行測試,很重要的一方面是看重了在其基礎(chǔ)上研發(fā)出的技術(shù),可以更好的投入場景實踐,貼近在復雜和開放的互聯(lián)網(wǎng)環(huán)境中解決問題的能力。

其實仔細想想,機器閱讀理解這項技術(shù),從來都不是紙上談兵的“象牙塔派”,在我們已經(jīng)熟悉的互聯(lián)網(wǎng)應用中,就有大量只能依靠機器閱讀理解來解決的難題。

舉個例子,當用戶在搜索引擎尋找答案的時候,傳統(tǒng)方案只能依靠用戶互助來回答,正確性和效率都嚴重不足。但智能體進行回答,就不能只依靠關(guān)鍵詞填空來處理。比如絕不會有用戶提問“()是我國最長的河流?”;更多情況用戶會詢問復雜的問題,需要完整的解決方案和建議。那么,從真實提問數(shù)據(jù)中學習理解材料、回答問題的方案,近乎于AI技術(shù)滿足搜索引擎體驗升級的唯一出路。

再比如最近爭議不斷的內(nèi)容推薦領(lǐng)域。今日頭條最近反復出狀況,很大程度來源于輿論指責其過度依賴關(guān)鍵詞進行算法推薦,忽略了用戶的對文章深度與知識性的需求。這就是因為其算法的機器閱讀理解能力不夠,無法閱讀真實的互聯(lián)網(wǎng)材料,給出個性化的推薦結(jié)果。

除此之外,語音助手、智能客服等領(lǐng)域,都大量依靠于機器閱讀理解閱讀真實問題、真實互聯(lián)網(wǎng)材料,給出完整答案的AI能力。從真實數(shù)據(jù)中訓練AI,可能是破解這些難題的唯一途徑。

百度NLP團隊選擇刷MS MARCO,大概也與產(chǎn)品實踐的需求息息相關(guān)。已經(jīng)深度部署在百度搜索和問答產(chǎn)品中的機器閱讀理解,下一步又會去往何方呢?

中文、通識、應用:可預見的機器閱讀理解未來

可以看到,有幾個傾向性趨勢,已經(jīng)開始發(fā)生在機器閱讀理解這個剛剛開始熱絡(luò)的技術(shù)當中。

首當其沖,目前機器閱讀理解的訓練數(shù)據(jù)集和競賽,大部分集中在英文領(lǐng)域。這個尷尬正在一步步被打破。

比如百度在去年發(fā)布了與微軟MS MARCO結(jié)構(gòu)類似,但數(shù)據(jù)量更豐富、數(shù)據(jù)更多元的全中文數(shù)據(jù)集DuReader。其首批發(fā)布的數(shù)據(jù)集包含20萬來自百度搜索的真實問題,100萬互聯(lián)網(wǎng)真實文檔,以及42萬人工撰寫生成的答案。同時,數(shù)據(jù)集還標注了問題類型、實體和觀點等豐富信息,并提供開源基線系統(tǒng)和評測平臺。據(jù)悉其很快也將進入競賽化。

在中國團隊一次次挑戰(zhàn)機器閱讀理解記錄的同時,讓技術(shù)紅利釋放到中文世界,似乎已經(jīng)指日可待。

另一方面,機器閱讀理解的技術(shù)能力如何通用化、泛在化,與各種其他NLP技術(shù)體系相擬合,似乎成為了廣為關(guān)注的話題。讓機器能“理解”的同時,還能歸納、能思考、能創(chuàng)作,勾勒出完整的Deep NLP時代,也已經(jīng)提上了日程。

再者,像百度這樣將機器閱讀理解能力高效投入搜索、問答等應用領(lǐng)域,產(chǎn)生現(xiàn)實價值的例子正在增多。相信不久的未來,機器閱讀理解工具化、集成化,可以滲透到各行各業(yè)當中,成為一種信息世界的主流解決方案。

比較大概率的狀況,大概是不久的將來,我們在使用百度等產(chǎn)品時,感到了某種難以具體形容卻又真實存在的體驗提升。那就是因為機器正在“讀你”,而不是“讀題”。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-02-22
讀題or讀你?剝開機器閱讀理解的神秘外衣
原標題:讀題or讀你?剝開機器閱讀理解的神秘外衣最近一個有意思的現(xiàn)象,是機器閱讀理解突然開始熱絡(luò)了起來。

長按掃碼 閱讀全文