金山辦公與英偉達團隊合作,加速WPS AI服務(wù)

7月3日消息,在辦公場景中,文檔類型圖像被廣泛使用,比如證件、發(fā)票、合同、保險單、掃描書籍、拍攝的表格等,這類圖像包含了大量的純文本信息,還包含有表格、圖片、印章、手寫、公式等復雜的版面布局和結(jié)構(gòu)信息。

早前這些信息均采用人工來處理,需要耗費大量人力,很大程度上阻礙了企業(yè)的辦公效率 。其圖像文檔識別與內(nèi)容理解業(yè)務(wù)就是為了解決此類用戶痛點。

自 2017 年以來的不斷耕耘,金山辦公在圖像文檔識別與理解領(lǐng)域已達到了國內(nèi)領(lǐng)先水平。其主要使用了 CV(Computer Vision)與 VIE(Visual Information Extraction 視覺信息抽取) 等相關(guān)深度學習技術(shù),例如通過 CV 技術(shù)識別發(fā)票和 PDF 大綱并獲取其中的數(shù)據(jù)關(guān)系,其日請求次數(shù)已達上億次。

圖像識別與理解是一個很復雜的過程,一個任務(wù)的 pipeline 用到的深度學習模型多達 20+ 個,且日請求量級較大(上億級別)需要大量的計算資源。當業(yè)務(wù)落地時,團隊主要面臨以下兩個挑戰(zhàn):任務(wù)的絕對耗時不能過長,以及成本問題。

為了解決上訴的兩個挑戰(zhàn),金山辦公采用了英偉達 T4 Tensor Core GPU 進行推理、英偉達 TensorRT 8.2.4 進行模型加速、英偉達 Triton 推理服務(wù)器 22.04 在 K8S 上進行模型部署與編排。

長鏈路(多達 20+ 個模型的 pipeline)意味著長耗時,若基于 CPU 推理的話,pipeline 耗時會長達 15 秒左右,通過 GPU 推理和 TensorRT 加速,成功將耗時降低到了 2.4 秒左右。

模型部署的時候,常見的做法是推理與業(yè)務(wù)代碼(前后處理)放在一個進程空間里,每個模型需要在每個進程中加載一次,由于顯存的限制,很多時候難以得到較高的單卡 GPU 使用率。

就算采用了進程池的方式提高了單卡的 GPU 利用率,也會因 CPU 的限制,出現(xiàn)機器整體的 GPU 利用率不高。而在引入了 Triton 推理服務(wù)器進行推理部署后,將推理與業(yè)務(wù)代碼解耦,初步實現(xiàn)將 GPU 資源池化調(diào)度。最終在同等業(yè)務(wù)規(guī)模情況下,部署成本節(jié)省了 23%。

金山辦公圖像文檔識別與理解業(yè)務(wù),通過采用英偉達 T4 Tensor Core GPU 及 TensorRT加速,相比于 CPU 其 pipeline 耗時共下降 84%;而采用英偉達 Triton 推理服務(wù)器部署,其部署成本節(jié)省了 23% 。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-07-03
金山辦公與英偉達團隊合作,加速WPS AI服務(wù)
部署成本節(jié)省了 23%。

長按掃碼 閱讀全文