阿里巴巴開源大型3D家具數(shù)據(jù)集,搭建學(xué)術(shù)研究與工業(yè)落地的橋梁

阿里巴巴淘系技術(shù)部與英國倫敦大學(xué)伯貝克學(xué)院Steve Maybank教授(Fellow of the IEEE and a Member of the Academia Europaea, the Koenderink Prize in 2008)、悉尼大學(xué)陶大程教授(Fellow of the IEEE, ACM and Australian Academy of Science)等國際知名學(xué)者合作,與3月30日正式開源業(yè)界首個飽含紋理細節(jié)的大型3D家具數(shù)據(jù)集(3D-FUTURE),共同推動3D家居智能研究。并面向全球3D幾何與視覺研究愛好者同步啟動第一屆阿里巴巴3D人工智能挑戰(zhàn)賽暨IJCAI-PRICAI 2020 Workshop。

什么是3D-FUTURE?

阿里巴巴開源大型3D家具數(shù)據(jù)集,搭建學(xué)術(shù)研究與工業(yè)落地的橋梁

在過去十多年里,科學(xué)家們在3D視覺及幾何的研究投入了巨大的努力,但是3D人工智能的工業(yè)落地任然困難重重,尤其是在家居家裝行業(yè)。阿里巴巴淘系技術(shù)部協(xié)同躺平設(shè)計家也在持續(xù)不斷地探索數(shù)字化家居建設(shè)。以真實家居場景為背景,定義了許多新問題,進行了大量的知識重建,并結(jié)合3D人工智能技術(shù)初步打造了場景化數(shù)字營銷,推出了智能設(shè)計搭配服務(wù)。同時,在相關(guān)團隊的技術(shù)研發(fā)過程中發(fā)現(xiàn),海量的高質(zhì)量3D模型與紋理,以及專業(yè)的房屋設(shè)計布局是推動未來數(shù)字化家居建設(shè)的基礎(chǔ)。為了啟發(fā)高質(zhì)量3D模型理解與重建,并且建立學(xué)術(shù)研究與工業(yè)應(yīng)用的橋梁。阿里巴巴針對家居場景開源大型3D數(shù)據(jù)集3D-FUTURE(3D Furniture shape with TextURE)。

阿里巴巴開源大型3D家具數(shù)據(jù)集,搭建學(xué)術(shù)研究與工業(yè)落地的橋梁

其初版包含20,000+高清室內(nèi)場景專業(yè)設(shè)計渲染圖,與10,000+精細的高質(zhì)量3D家具模型及對應(yīng)的高清且飽含信息的紋理,數(shù)據(jù)積累沉淀于阿里巴巴官方家裝家居設(shè)計平臺-躺平設(shè)計家。目前提供家具實例分割標(biāo)注,完全真實的2D到3D的對準(zhǔn)標(biāo)注,以及專業(yè)的細粒度家具屬性標(biāo)注。阿里巴巴希望持續(xù)建設(shè)3D-FUTURE,不斷為3D幾何及視覺研究提供需求的標(biāo)注以及新特征,包括但不限于已有數(shù)據(jù)擴充,完整房屋布局信息提供,3D模型分割標(biāo)注等,以推進學(xué)術(shù)尖端科技的工業(yè)落地。

為什么需要3D-FUTURE?

阿里巴巴開源大型3D家具數(shù)據(jù)集,搭建學(xué)術(shù)研究與工業(yè)落地的橋梁

當(dāng)前大型開源3D數(shù)據(jù)集都存在一些不足,不足以支持工業(yè)級的3D模型重建與紋理恢復(fù)等領(lǐng)域的深入細致研究。首先,已開源數(shù)據(jù)集的大多數(shù)3D CAD模型(家具類) 都是從網(wǎng)上收集的,因此普遍存在細節(jié)缺失以及無紋理或紋理信息度低等問題,且沒有多樣專業(yè)的屬性標(biāo)簽。針對此現(xiàn)象,3D-FUTURE提供多種不同風(fēng)格且?guī)в胸S富細節(jié)的高質(zhì)量3D家具模型,并配備了高清飽含信息的紋理以及多樣化的屬性標(biāo)簽。其次,目前學(xué)界暫無組織較好的大規(guī)模室內(nèi)仿真圖像數(shù)據(jù)集。3D-FUTURE通過最先進的工業(yè)3D渲染引擎,在專業(yè)設(shè)計師所設(shè)計的5,000多個場景中渲染產(chǎn)生了20,000+圖像,填補了這一空白。最后,現(xiàn)有數(shù)據(jù)集只提供2D-3D偽匹配,即根據(jù)2D圖中物體,人工從開源3D模型池里選擇與之相似的3D模型作為匹配結(jié)果。這種標(biāo)注過程極有可能忽視掉一些局部的形狀細節(jié)特征,導(dǎo)致提供的2D-3D匹配結(jié)果并非完全一致。因此難以支持數(shù)據(jù)驅(qū)動的高質(zhì)量三維重建以及高精度形狀檢索等相關(guān)3D研究。與之相比,3D-FUTURE提供的10,000+ 3D模型都是與2D渲染圖中的物體真實配對的。我們相信,3D-FUTURE這些特性可以啟發(fā)高質(zhì)量3D模型理解和重建等領(lǐng)域的創(chuàng)新研究。

阿里巴巴3D人工智能挑戰(zhàn)賽暨IJCAI-PRICAI 2020Workshop?

阿里巴巴淘系技術(shù)部聯(lián)合來自于悉尼大學(xué)、英國倫敦大學(xué)伯貝克學(xué)院、墨爾本大學(xué)、中國科學(xué)院計算所的頂尖學(xué)者舉辦基于3D-FUTURE的第一屆3D人工智能挑戰(zhàn)賽暨IJCAI-PRICAI 2020 Workshop。 3D幾何與視覺研究是廣受關(guān)注的基礎(chǔ)研究領(lǐng)域,是建設(shè)未來3D智能世界必經(jīng)之路。淘系技術(shù)部在人工智能國際頂級會議IJCAI-PRICAI舉辦workshop及競賽,旨在總結(jié)目前最先進的3D幾何與視覺技術(shù),啟發(fā)高質(zhì)量3D模型理解與重建,并且建立學(xué)術(shù)研究與工業(yè)應(yīng)用的橋梁。

競賽內(nèi)容包括三個項目,分別是基于圖片的3D模型推薦,基于單張圖的3D模型重建,實例分割。信息如下:

阿里巴巴開源大型3D家具數(shù)據(jù)集,搭建學(xué)術(shù)研究與工業(yè)落地的橋梁

基于圖片的3D模型推薦:在該項挑戰(zhàn)賽中,參賽者被要求根據(jù)2D圖片在給定3D池中檢索出對應(yīng)的3D模型。隨著極速增長的3D模型數(shù)量,建立一個可靠的IBSR(image-based 3Dshaperetrieval)系統(tǒng)不管在工業(yè)界還是在學(xué)術(shù)界都非常重要。比如用戶3D場景布局重建的基礎(chǔ)就是根據(jù)2D圖中物體,從大型3D池中找出對應(yīng)的3D模型。該項競賽最大的挑戰(zhàn)是針對2D與3D是完全不同域以及表征信息的差距,提取具有域不變性且紋理抑制的的特征表示。我們希望參賽者能充分探索最先進的解決方案,并基于此設(shè)計出更加精準(zhǔn)可靠的IBSR算法。另外,我們也期望通過這項比賽來促進具有魯棒性的形狀檢索發(fā)展,即在圖片中物體存在輕微遮擋以及具有復(fù)雜背景的情況下實現(xiàn)較高精度的檢索。 我們將用TopK召回率以及TopK平均F-score作為主要性能衡量指標(biāo)。

基于單張圖的3D模型重建:在該項挑戰(zhàn)賽中,參賽者被要求從單張RGB圖像重建對應(yīng)的3D模型,這些圖片主物體可能存在輕微遮擋以及少部分殘缺。眾所周知,3D模型的數(shù)量與質(zhì)量是數(shù)據(jù)驅(qū)動的3D理解研究以及3D相關(guān)人工智能應(yīng)用的基礎(chǔ),比如虛擬場景搭建。然而,目前海量的網(wǎng)絡(luò)圖片中的物體都沒有或很難收集到對應(yīng)的3DCAD模型。另一方面,目前工業(yè)界高質(zhì)量3D模型生產(chǎn)效率很低,無法支持大規(guī)模高效生產(chǎn)。這項獎賽旨在總結(jié)目前最先進的單目圖像3D重建方案,并啟發(fā)工業(yè)級mesh表面細節(jié)重建的研究探索思路。Chamfer Distance(CD)以及F-score將作為重建結(jié)果質(zhì)量的評價標(biāo)準(zhǔn)。

實例分割:在該項挑戰(zhàn)賽中,參賽者被要求對渲染的室內(nèi)場景圖進行實例分割。在訓(xùn)練集中,3D-FUTURE將提供場景圖中部分物體所對應(yīng)的帶有紋理的3D模型作為輔助信息,期望能提升邊緣分割精度。實例分割是學(xué)界的基礎(chǔ)研究問題,也是室內(nèi)場景理解的關(guān)鍵之一。高精度尤其是邊緣魯棒的實例分割不僅有利于啟發(fā)高質(zhì)量圖像合成相關(guān)工業(yè)應(yīng)用,例如有潛力部分取代昂貴低效的渲染過程,從而實現(xiàn)高效自動化用戶室內(nèi)搭配編輯生成;也有潛力大幅提升IBSR,3D重建等基礎(chǔ)3D問題的效果。 該項挑戰(zhàn)賽的評估指標(biāo)為被廣泛認可的Mask Average Precision (mAP)。

附workshop及競賽重要信息

重要日程節(jié)點:

3月30日競賽開啟報名,并開放部分示例數(shù)據(jù)集。

4月03日開放完整訓(xùn)練集與驗證集。

5月31日開放相關(guān)測試集。

6月05日競賽結(jié)束。

6月12日潛在優(yōu)勝者報告提交截止日期。

6月17日報告審核以及競賽最終結(jié)果公開。

7月13日3D-FUTURE Workshop at IJCAI-PRICAI 2020。

優(yōu)勝者獎勵:

l 第一名1500美金,第二名1000美金,第三名500美金。

l 受邀請到國際人工智能頂會IJCAI-PRICAI 2020 Workshop進行報告。

l 受邀合著Workshop報告。

需要本次競賽和數(shù)據(jù)集詳情,請登陸「天池」官網(wǎng)了解。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )