VideoMind開放,你想要的模型訓(xùn)練平臺,我們給你

原標(biāo)題:VideoMind開放,你想要的模型訓(xùn)練平臺,我們給你

今天,你視頻了嗎?

不管你是80后、90后,還是00后,相信視頻已經(jīng)占據(jù)了你很多的業(yè)余時(shí)間。面對海量的視頻,如何快速了解視頻內(nèi)容并找到有價(jià)值的片段,成為一個(gè)新問題。比如,如何從一個(gè)賽季幾百小時(shí)的視頻數(shù)據(jù)中找到精彩進(jìn)球的集錦?怎么找到喜歡球星的歷屆進(jìn)球瞬間?想要解決這些問題,讀懂視頻是關(guān)鍵。盡管市面有諸多視頻AI模型,但面對復(fù)雜多變的業(yè)務(wù)場景,僅僅靠這些模型是不夠的。

為此,百度智能云開放了業(yè)內(nèi)第一個(gè)視頻AI模型自動化生產(chǎn)平臺:VideoMind,幫助企業(yè)構(gòu)建符合自身業(yè)務(wù)的AI模型,對視頻進(jìn)行智能分析,從而最大化視頻數(shù)據(jù)的價(jià)值。那么,這個(gè)平臺具體有什么功能,一起來看一下。

VideoMind能為企業(yè)做什么?

產(chǎn)品設(shè)計(jì)之初,技術(shù)團(tuán)隊(duì)站在客戶的角度上思考了很多:如果某個(gè)企業(yè)想訓(xùn)練出一個(gè)視頻AI模型,會對VideoMind有哪些期望呢?或許是希望減少數(shù)據(jù)和開發(fā)成本,這樣才能取得事半功倍的效果。或許是希望操作簡單,讓不精通技術(shù)的員工也能快速上手?;蛟S是希望模型能加速生產(chǎn),讓模型生產(chǎn)速度得跟上業(yè)務(wù)變化。最重要的是,模型質(zhì)量要好一點(diǎn),要能為業(yè)務(wù)發(fā)展提供實(shí)實(shí)在在的幫助。這些,不僅是某個(gè)企業(yè)對模型生產(chǎn)平臺的期待,也是整個(gè)視頻行業(yè)對模型生產(chǎn)平臺的期待。令人興奮的是,以上幾點(diǎn)VideoMind全部做到了。VideoMind模型訓(xùn)練平臺把用戶需要的開發(fā)成本和技術(shù)門檻降到了最低。把模型生產(chǎn)速度、操作的便捷程度和模型質(zhì)量提到了最高。目前,VideoMind已經(jīng)支持四類模型訓(xùn)練:

場景分類模型,如識別出視頻中是工廠、農(nóng)田、還是建筑工地等。
實(shí)體分類模型,如識別出視頻中出現(xiàn)的是貨車、跑車還是卡丁車等。
自然攝像頭實(shí)體檢測模型,如識別出街邊的違章停車、無照游商、亂丟垃圾現(xiàn)象等。
人體屬性檢測,如識別出工人是否戴安全帽,法官是否穿法袍等。

另外,倍受矚目的動作識別模型也即將上線,在今年8月29日的百度云智峰會上,VideoMind已提前劇透動作識別模型。通過下面這個(gè)視頻就可以看到動作識別模型的生產(chǎn)過程。

易操作,低成本

VideoMind功能全面,集成了從創(chuàng)建模型到發(fā)布模型之間的全部功能。包括新建模型、創(chuàng)建標(biāo)簽、上傳數(shù)據(jù)、標(biāo)注數(shù)據(jù)、訓(xùn)練模型、評估校驗(yàn)、發(fā)布模型7個(gè)環(huán)節(jié)?;诹鞒袒牟僮?,VideoMind自動化程度高,讓模型訓(xùn)練更加簡單易操作,大大減少企業(yè)開發(fā)成本。數(shù)據(jù)方面,VideoMind集成了高達(dá)百萬小時(shí)的標(biāo)注數(shù)據(jù),內(nèi)置海量主題標(biāo)簽和實(shí)體標(biāo)簽。用戶創(chuàng)建標(biāo)簽時(shí)如果成功映射內(nèi)置標(biāo)簽,將不再需要針對此標(biāo)簽上傳數(shù)據(jù)以及標(biāo)注數(shù)據(jù)。如果一個(gè)模型訓(xùn)練任務(wù)下的所有標(biāo)簽都成功映射內(nèi)置標(biāo)簽,則可以跳過模型訓(xùn)練環(huán)節(jié),直接獲取模型。如果用戶創(chuàng)建的標(biāo)簽沒有成功映射內(nèi)置標(biāo)簽,只需上傳數(shù)百個(gè)數(shù)據(jù)并進(jìn)行標(biāo)注,即可開始模型訓(xùn)練。由此,模型生產(chǎn)過程中的工程技術(shù)成本、數(shù)據(jù)成本均大幅降低。

生產(chǎn)高效,質(zhì)量最優(yōu)

生產(chǎn)效率上,一方面VideoMind自動化生產(chǎn)流程降低了技術(shù)門檻,為客戶省去了開發(fā)時(shí)間;另一方面內(nèi)置的預(yù)訓(xùn)練AI網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù),讓客戶能夠快速訓(xùn)練模型和迭代模型,及時(shí)地根據(jù)業(yè)務(wù)需求調(diào)整模型。得益于百度在AI領(lǐng)域多年的積累,VideoMind生產(chǎn)的模型具備出色的模型效果,能支持企業(yè)垂直類視頻及圖像內(nèi)容分析需求。每月數(shù)據(jù)庫更新達(dá)10W+,能不斷提升用戶訓(xùn)練效果。同時(shí),百度智能云視頻AI團(tuán)隊(duì)將不斷升級模型結(jié)構(gòu),保證VideoMind模型訓(xùn)練效果持續(xù)提升。工程化產(chǎn)品設(shè)計(jì)結(jié)合特有的內(nèi)置數(shù)據(jù)與模型結(jié)構(gòu),使得VideoMind模型訓(xùn)練時(shí)長縮短至小時(shí)級、分鐘級。

值得一提的是,訓(xùn)練完成的模型支持部署到公有云、私有云、嵌入式設(shè)備等,之后客戶通過API的方式就可以調(diào)用。VideoMind一經(jīng)發(fā)布就受到了視頻行業(yè)諸多伙伴的關(guān)注和認(rèn)可。未來,百度智能云還將增加更多模型類別,幫助更多企業(yè)步入AI時(shí)代,敬請期待。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2019-09-23
VideoMind開放,你想要的模型訓(xùn)練平臺,我們給你
為此,百度智能云開放了業(yè)內(nèi)第一個(gè)視頻AI模型自動化生產(chǎn)平臺:VideoMind,幫助企業(yè)構(gòu)建符合自身業(yè)務(wù)的AI模型,對視頻進(jìn)行智能分析,從而最大化視頻數(shù)據(jù)的價(jià)值。

長按掃碼 閱讀全文