編劇、繪畫、后期剪輯AI全能干 百度吳華:熟練掌握AIGC讓創(chuàng)造更高效

1月5日消息,2022年以來,隨著谷歌、百度、Meta、微軟等國內(nèi)外企業(yè)先后推出自己的AI繪畫模型或者平臺,AIGC這一新型內(nèi)容創(chuàng)作形式,獲得了越來越多的關(guān)注。

在今年7月的百度世界大會上,百度創(chuàng)始人李彥宏曾表示:“AIGC或許將顛覆現(xiàn)有內(nèi)容生產(chǎn)模式,實(shí)現(xiàn)以‘十分之一的成本’,以百倍千倍的生產(chǎn)速度,去生成AI原創(chuàng)內(nèi)容。”

事實(shí)上,百度正通過AI大模型的能力,來實(shí)現(xiàn)李彥宏暢想的這一圖景。

在今天的百度“AIGC智能創(chuàng)作新風(fēng)尚”媒體溝通會上,百度技術(shù)委員會主席吳華就分享了百度AIGC內(nèi)容生成能力背后的技術(shù)原理,并針對目前火熱的“智能創(chuàng)作”介紹了百度打造的三位能力超群的“天才創(chuàng)作者”。


百度技術(shù)委員會主席 吳華

吳華指出,熟練掌握AIGC,創(chuàng)作者將能夠更加輕松、高效、快樂地創(chuàng)作,甚至一個人就可以完成編劇、美術(shù)創(chuàng)作及后期剪輯等內(nèi)容創(chuàng)作全流程工作,成為天才創(chuàng)作者。

吳華眼中這三位能力超群的百度“天才創(chuàng)作者”都身懷哪些絕技呢?作為人類創(chuàng)作者,要如何借助“天才”的能力,來豐富、提效自身創(chuàng)作?

天才編?。何男?ERNIE 3.0 Zeus

2022年5月,百度發(fā)布了融合任務(wù)相關(guān)知識的千億大模型ERNIE 3.0 Zeus。該模型能夠從豐富多樣的無標(biāo)注數(shù)據(jù)中學(xué)習(xí),同時在學(xué)習(xí)過程中融入知識圖譜指導(dǎo)模型學(xué)習(xí)世界知識和語言知識,進(jìn)而提升學(xué)習(xí)的效率。此外,該模型還能從摘要、對聯(lián)、翻譯、分類、閱讀理解等百余種不同形式的任務(wù)中學(xué)習(xí)知識,通過對通用知識和專門知識的學(xué)習(xí)來提升模型泛化能力,使得ERNIE 3.0 Zeus能夠做到多種語言理解和生成任務(wù),成為名副其實(shí)的“通才”。

例如,輸入一篇論文,ERNIE 3.0 Zeus可以立刻自動生成摘要;輸入一個題目,它可以瞬間寫出上百篇作文,而且作文還可以結(jié)合語境,寫出不同的風(fēng)格,甚至是諸如詩歌、小說等不同的體裁內(nèi)容。

同樣的,ERNIE 3.0 Zeus也會寫劇本。

吳華指出,很多電視劇的劇本并不是由一位編劇單獨(dú)完成的,而是由一位總編劇制定總綱,再制定每一集的大概內(nèi)容,再交給多位編劇分別寫每集的具體對話、詳細(xì)故事。因此,如果一個人能編制一部電視劇的總綱,他便可以把每一集的要求交給ERNIE 3.0 Zeus生成故事,然后再經(jīng)過合并整理最終寫出整部劇。

吳華介紹,文心 ERNIE 3.0 系列模型已經(jīng)在幾十類自然語言理解和生成公開權(quán)威任務(wù),以及零樣本、小樣本學(xué)習(xí)任務(wù)上處于世界領(lǐng)先水平。此外,它還發(fā)布了業(yè)界首個開放的千億參數(shù)中文生成API,供各行各業(yè)開發(fā)者到文心大模型官網(wǎng)上調(diào)用、學(xué)習(xí)。

目前,普通用戶可以通過百度飛槳旸谷社區(qū)在線體驗(yàn) ERNIE 3.0 Zeus 的文本理解和文本創(chuàng)作能力,同時,ERNIE 3.0 Zeus 也提供 API 體驗(yàn)調(diào)用入口,供開發(fā)者使用。

天才畫師:文心 ERNIE-ViLG 2.0

在編劇的工作完成后,場景和畫面的美術(shù)創(chuàng)作,以及視頻內(nèi)容的產(chǎn)出和后期剪輯,是影視創(chuàng)作中必不可少的關(guān)鍵環(huán)節(jié)。借助百度文心ERNIE-ViLG 2.0以及VIMER-TCIR等模型工具,創(chuàng)作者可以逐步完成他想要實(shí)現(xiàn)的目標(biāo)。

2022年10月,百度發(fā)布了業(yè)界首個知識增強(qiáng)的AI作畫大模型 ERNIE-ViLG 2.0。它能根據(jù)一句話或者一段描述文本,生成一幅精美的畫作。吳華介紹指出,為提高文本生成圖像的準(zhǔn)確性,百度在AI預(yù)訓(xùn)練學(xué)習(xí)過程中創(chuàng)新性地提出了知識增強(qiáng)的擴(kuò)散模型,實(shí)現(xiàn)了精準(zhǔn)的細(xì)粒度語義控制;同時通過引入混合降噪專家網(wǎng)絡(luò),對圖像生成不同階段對模型、計算性能要求的不同,使用不同網(wǎng)絡(luò)進(jìn)行了針對性地建模和優(yōu)化,進(jìn)而提升了圖像生成的質(zhì)量。

吳華指出,在實(shí)際應(yīng)用場景下,只需要輸入一段文字,ERNIE-ViLG就可以快速理解這段文字所表達(dá)的含義和場景,然后根據(jù)這個理解,幾十秒內(nèi)就可以生成媲美人類作畫水平的圖像,而且可以同時生成數(shù)百張風(fēng)格各異的畫作,比如寫實(shí)、意象、中國風(fēng)、二次元等等。它甚至可以生成現(xiàn)實(shí)世界中沒有創(chuàng)造性的圖像,比如穿西裝的齊天大圣、街邊擼串兒的熊貓,讓人們天馬行空的想象力得到精準(zhǔn)的可視化呈現(xiàn)。

文心 ERNIE-ViLG 2.0 可廣泛應(yīng)用于工業(yè)設(shè)計、動漫設(shè)計、游戲制作、攝影藝術(shù)等場景,激發(fā)設(shè)計者創(chuàng)作靈感,提升內(nèi)容生產(chǎn)的效率。


文心ERNIE-ViLG API (https://wenxin.baidu.com/moduleApi/ernieVilg)

據(jù)介紹,在權(quán)威公開數(shù)據(jù)集 MS-COCO 上,目前ERNIE-ViLG 2.0已經(jīng)刷新 SOTA 效果,性能遠(yuǎn)遠(yuǎn)超過了國際上的同類技術(shù);而在圖文相關(guān)性和圖像保真度兩個維度的人工評估上,ERNIE-ViLG 2.0 相對 DALL-E 2 和 Stable Diffusion 同樣取得了較大的優(yōu)勢。

目前,面向普通用戶,百度以文心ERNIE-ViLG 2.0大模型為底座推出了“文心一格”產(chǎn)品,用戶只需輸入一段自己的創(chuàng)想文字,并選擇期望的畫作風(fēng)格,即刻可以生成創(chuàng)意精美的畫作。


天才剪輯:VIMER-TCIR多任務(wù)大模型

由于人類眼睛的特殊生理結(jié)構(gòu),如果所看畫面的幀率高于60Hz時,就會認(rèn)為是連貫的,這也造就了早期電影膠片是一格一格拍攝出來,然后再快速播放的情況。而AI生成的圖像,在經(jīng)過幀率的調(diào)控之后,也將進(jìn)一步生成視頻。

據(jù)吳華介紹,在視覺內(nèi)容生成方面,百度在文生圖擴(kuò)散模型的基礎(chǔ)上加入時序建模,使得模型能根據(jù)文本或者圖像生成新的視頻。創(chuàng)作者可以根據(jù)用戶提供的一段描述文本,或者一幅圖像,自動地生成高清、流暢的視頻。

此外,通過百度研發(fā)的VIMER-TCIR多任務(wù)大模型,還可以實(shí)現(xiàn)對生成視頻的修復(fù)和編輯,通過畫質(zhì)提升、邊緣銳化等方式增強(qiáng)視頻的清晰度,達(dá)到全方位提升視頻編輯效率和觀感體驗(yàn)。據(jù)悉,TCIR模型已在去噪、增強(qiáng)、去模糊等多個任務(wù)領(lǐng)域達(dá)到SOTA結(jié)果,并在AIM2022壓縮圖像超分競賽中,以大幅度領(lǐng)先優(yōu)勢取得冠軍。

目前,VIMER-TCIR多任務(wù)大模型也已經(jīng)在老電影修復(fù)等場景實(shí)現(xiàn)落地,大幅提升了效率,每天單機(jī)可修復(fù)視頻28.5萬幀,解決了絕大部分畫面的修復(fù)問題。

吳華強(qiáng)調(diào),一系列AIGC生產(chǎn)工具的出現(xiàn),大幅度提高了音視頻等內(nèi)容創(chuàng)作者的工作效率。AIGC正讓個體創(chuàng)作者成為真正的“獨(dú)立”制作人。

另據(jù)吳華透露,即將于1月10日召開的 2022百度Create大會上,百度還將推出更多的AIGC工具產(chǎn)品并對相關(guān)技術(shù)進(jìn)行講解。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2023-01-05
編劇、繪畫、后期剪輯AI全能干 百度吳華:熟練掌握AIGC讓創(chuàng)造更高效
【TechWeb】1月5日消息,2022年以來,隨著谷歌、百度、Meta、微軟等國內(nèi)外企業(yè)先后推出自己的AI繪畫模型或者平臺,AIGC這一新型內(nèi)容創(chuàng)作形式,獲得

長按掃碼 閱讀全文