騰訊云小微&騰訊云TI-ONE聯(lián)合團隊獲RACE 數(shù)據(jù)集深層閱讀理解冠軍

近日,騰訊云小微及騰訊云TI-ONE聯(lián)合團隊在大型深層閱讀理解任務數(shù)據(jù)集 RACE 數(shù)據(jù)集(ReAding Comprehension dataset collected from English Examinations)上登頂?shù)谝?。?jù)了解,在此次比賽中,騰訊云小微及騰訊云TI-ONE聯(lián)合團隊在基于ALBERT預訓練模型上,取得了單模型90.7%和集成模型91.4%正確率的成績。

騰訊云小微&騰訊云TI-ONE聯(lián)合團隊獲RACE 數(shù)據(jù)集深層閱讀理解冠軍

采用全新訓練策略,騰訊云小微及騰訊云TI-ONE聯(lián)合團隊展現(xiàn)AI實力

RACE 是一個來源于中學考試題目的大規(guī)模閱讀理解數(shù)據(jù)集,包含了大約 28000 個文章以及近 100000 個問題。它的形式類似于英語考試中的閱讀理解(選擇題),給定一篇文章,通過閱讀并理解文章(Passage),針對提出的問題(Question)從四個選項中選擇正確的答案(Answers)。

據(jù)了解,深度閱讀理解的難度在于,正確答案的文字并沒有直接使用文章中的話術來回答,不能通過檢索文章獲取答案,而是要從語義層面深度理解文章來作答。想要提高閱讀正確率,就需要機器模型通過分析文章中的線索并基于上下文推理,選出正確答案,這對參賽團隊的算法技術提出了更高的要求。

因此,騰訊云小微團隊通過全新的訓練策略來實現(xiàn)突破。他們跳出從現(xiàn)有的四個選項中選出一個正確答案的固定模式,采用獨立地考慮每一個答案是否合理的方式,同時利用多種其他形式的閱讀理解數(shù)據(jù)進行遷移學習,大大提高了閱讀理解的準確率,并在基于ALBERT預訓練模型上,取得了單模型90.7%和集成模型91.4%正確率的成績,贏得了本次比賽的冠軍。

除此之外,在本次比賽上,騰訊云TI-ONE聯(lián)合騰訊優(yōu)圖和機智團隊在單機性能優(yōu)化、分布式多機擴展和AutoML收斂優(yōu)化方面也作出了諸多開創(chuàng)性貢獻。

在單機性能方面,基于ALBERT的原生代碼,TI-ONE引入了Nvidia的APEX的混合精度訓練,并采用動態(tài)loss scaling進行正確的權重更新,保證最終模型的精度沒有因為低精度訓練而有所損失,最終,單卡性能提升為原來的3.6倍。

在多機擴展方面,由于PyTorch原生的DDP通信框架在公有云VPC網絡擴展性不好,團隊采用自研的TI-Horovod通信加速框架,利用2D-AllReduce和多流通信等技術,把多機訓練ALBERT性能提升為原來的5.5倍。

另外,AutoML收斂方面,騰訊自研的TI-AutoML框架解決了模型集成困難和大規(guī)模長任務調參效果差的問題,便捷地與ALBERT模型集成,同時針對ALBERT模型pretrain和fine-tune兩階段訓練的特點,采用了不同的自動調參策略,最后在騰訊云海量算力的加持下,調參效率相對人工調參提升了8倍,徹底把算法工程師從繁瑣的手工調參中解放出來,讓精力更多的聚焦在更有意義的模型算法創(chuàng)新工作上。

技術突破讓AI應用日漸廣泛,在多行業(yè)領域落地應用

深度閱讀理解是目前AI領域中最受關注、進步最快的技術方向。如何提高機器深度閱讀理解的正確率,是業(yè)內一直在關注和探索的問題。此次騰訊聯(lián)合團隊創(chuàng)新的訓練策略,和在單機性能優(yōu)化、分布式多機擴展和AutoML收斂優(yōu)化等方面的技術提升,將給AI技術領域帶來新的突破。

不止是在深度閱讀理解領域有所突破,此次參賽的騰訊云小微團隊專注于AI技術領域,在機器翻譯、人機對話、閱讀理解、自動摘要等領域內都有所研究,其相關技術多次獲得業(yè)內的認可。在AIIA2020人工智能開發(fā)者大會上,騰訊云小微獲得多項技術評測認證;在DSTC第八屆對話系統(tǒng)技術挑戰(zhàn)賽中,則獲得四項第一;在CAIL2019司法人工智能挑戰(zhàn)賽閱讀理解第一名的好成績。

當前,人工智能作為經濟發(fā)展的新動力以及新一輪產業(yè)變革的核心驅動力,機器翻譯、人機對話、閱讀理解等AI技術正在教育、文旅、出行等多個領域內落地應用。在這種背景下,騰訊云小微團隊憑借全棧AI語音能力,以及騰訊內外部豐富的內容和服務生態(tài),為各行各業(yè)輸出完整的AI解決方案,不斷滲透智慧生活各個場景。據(jù)了解,目前已在智能網聯(lián)汽車、智慧文旅、智慧教育、智能家居等多行業(yè)領域落地應用,服務廣泛的用戶群體。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )