音樂+科技,在AI時代能擦出新的火花嗎?

人工智能和音樂的融合,是AI技術(shù)在音樂創(chuàng)作領(lǐng)域的新突破,這不再是音樂專業(yè)人士的固有權(quán)力,讓對音樂感興趣的人也能通過音樂AI創(chuàng)作專屬于自己的歌曲。音樂與人工智能技術(shù)的融合不僅對現(xiàn)有的音樂產(chǎn)業(yè)造成了一定影響,打破了作曲家進行音樂創(chuàng)作的固定模式,帶動整個音樂產(chǎn)業(yè)的快速發(fā)展。

打破傳統(tǒng)的流動音樂

二十年前,我們聽音樂是打開電視或收音機,聆聽DJ們?yōu)槲覀儾シ诺母?或者購買磁帶與CD自己播放,這樣的方式卻總讓我們受到限制,無法隨時隨地盡情享受喜歡的音樂。 而如今,我們面對的是浩如煙海的網(wǎng)絡(luò)云端音樂曲庫,隨時隨地便可鏈接我們想聽的歌。這便是科技發(fā)展給音樂體驗帶來的第一重改變:打破壁壘。

能夠自由流動的音樂為我們創(chuàng)造了無限可能,方便快捷的私人歌單讓我們每個人都成了DJ,甚至對不同歌曲的串聯(lián)與編輯,成了我們書寫故事的新方法。當音樂不再有限制,能夠在時空之間自由流動,才給我們創(chuàng)造了足夠充分的音樂享受。

AI改變創(chuàng)造音樂方式

AI音樂簡單理解就是人工智能創(chuàng)作音樂。早在1951年,英國計算機科學(xué)家艾倫·圖靈就曾使用機器錄制計算機生成的音樂,當時的計算機幾乎占滿整個實驗室。人工智能作曲的原理,是它先建立一個數(shù)據(jù)庫,它有很多首歌然后他們開發(fā)出來一個程序,歌曲主要是由旋律和和聲來構(gòu)成的,而這個程序則可以在非常多的歌曲里面隨意截取其中的某一段音頻,它可以把這個旋律和和聲結(jié)構(gòu)出來。自那以來,由AI或使用AI創(chuàng)作的音樂延續(xù)到今天。

AI的模式是從分析不同樂曲創(chuàng)作時的數(shù)據(jù)開始,通過強化學(xué)習(xí),相關(guān)算法可以學(xué)習(xí)哪些特征和模式能夠創(chuàng)造出令人愉快的音樂,或者模仿某種類型的音樂,或者是通過以獨特的方式組合元素來創(chuàng)作新的數(shù)字音樂。

算法作曲的商業(yè)應(yīng)用

算法源自古代波斯人對阿拉伯數(shù)字游戲的稱謂,意思是阿拉伯數(shù)字的運算法則。對音樂創(chuàng)作而言,廣義的算法指音樂要素及組織邏輯、運算法則、結(jié)構(gòu)模型或規(guī)則系統(tǒng),以及將算法思維與作曲思維中最小的決策單位對應(yīng)后所形成的作曲技法模型與系列,也就是音樂的數(shù)理邏輯。這種對應(yīng)關(guān)系一言以蔽之:凡作曲即有算法。如旋律的動機展開、重復(fù)、模進、轉(zhuǎn)調(diào)、逆行、倒影、隨機、模糊、音程或節(jié)奏壓擴,和聲與對位中的音高縱橫向排列組合、不諧和度、緊張度解決,配器中的音色組合,曲式中的并行、對置、對稱、回旋、奏鳴等等原則都屬于常規(guī)的作曲技法,都可以被描述為單一或組合的算法。

狹義上的算法作曲,可以簡單地形容為計算機自動作曲系統(tǒng),在人適當?shù)慕槿胂?計算機就能自動生成音樂。所謂適當指的是,與傳統(tǒng)創(chuàng)作中作曲家對所創(chuàng)作的音樂作品中的變量擁有主導(dǎo)控制權(quán)不同,在自動作曲系統(tǒng)中,人只是規(guī)則設(shè)定者與反饋調(diào)試者。

很多科技公司正投資于AI創(chuàng)造或協(xié)助音樂人創(chuàng)作音樂的未來。例如:

①A.I. Duet - Google Magenta項目:Magenta項目同時也是谷歌大腦(Google Brain)的項目分支之一,Magenta 項目一直在探索機器學(xué)習(xí)在藝術(shù)創(chuàng)作中的作用,利用算法來生成歌曲、圖像,讓藝術(shù)家利用這些技術(shù)來啟發(fā)自己的創(chuàng)作。

② DeepBach項目,音樂界的 AlphaGo:DeepBach項目是一個開源的AI作曲項目,開發(fā)人員用巴赫創(chuàng)作的352部作品目來訓(xùn)練DeepBach,在預(yù)定義音域內(nèi),將這些作品變調(diào),創(chuàng)作出了2503首作品。其中,80%用來訓(xùn)練DeepBach,而剩余20%用來驗證訓(xùn)練成果。

③蜜蜂云科技音樂AI智能硬件:蜜蜂云科技音樂AI智能硬件,一款針對全民用戶的音樂智能創(chuàng)作硬件。用戶只需對音樂AI智能硬件下達歌曲類型指令,即可快速生成各種不同風(fēng)格的創(chuàng)作曲目;利用音樂分揀技術(shù)還能將不同音種分離出來,能將其用不同的樂器彈奏出來例如:鋼琴彈奏轉(zhuǎn)吉他彈奏,還能轉(zhuǎn)化生成對應(yīng)樂器的曲譜等。

AI智能歌唱模式演進

唱歌的三大要素是發(fā)音、節(jié)拍和音調(diào),AI學(xué)會一首歌有兩種方法一是學(xué)習(xí)人唱的歌,聽人類歌手的原唱,這也是人類更喜歡的學(xué)唱歌方式,但機器通過這種方式來學(xué)唱歌需要需要判斷曲調(diào),更容易有誤差。

二是看著曲譜學(xué)這首歌,直接從曲譜生成唱出來的音頻文件,這對人類來說比較復(fù)雜,但對機器來說更容易。之后,合成一段歌聲也有兩種方法。一種是單元拼接法,把單個的聲音找出來拼在一起。

如果不考慮音調(diào),聲母和韻母湊成的單音節(jié)有400個左右,提前錄制好這400個音節(jié)的不同版本,長的短的、高音低音,湊成單元庫,再根據(jù)具體歌曲中的發(fā)音需求從單元庫中選取單元拼接起來。不過,這種方法可能不太流暢,會有一個字一個字蹦的感覺,出來的曲調(diào)過渡上會讓人感覺生硬。

另一種是參數(shù)合成法,用隱馬爾科夫模型來做。這種方法是從大量錄音數(shù)據(jù)中提取包括能量譜、時長、音高在內(nèi)的聲學(xué)參數(shù),通過聲學(xué)參數(shù)、聲碼器把音頻的波形重構(gòu)出來。這種方法得出的結(jié)果有豐富的變化,可以創(chuàng)造出從來不存在的聲音,但是在聲碼器重構(gòu)的過程中可能會引起音質(zhì)損失。

而微軟小冰的唱歌技能就是基于參數(shù)合成法,從樂譜中采集發(fā)音、節(jié)拍、音調(diào)三大要素,分別對聲譜參數(shù)、節(jié)奏序列、音高軌跡用三個模型分別建模,用神經(jīng)網(wǎng)絡(luò)預(yù)測參數(shù),之后把這些參數(shù)通過聲碼器生成波形。之后的迭代中,也借助了模塊化的方式,并將三個模型合為一個,這樣合成歌聲的自然度和流暢度就得以提升了。

就像其他科學(xué)技術(shù)一樣,AI作曲的發(fā)展帶來的直觀益處之一就是作曲門檻的降低和作曲的大眾化。當普通個人用戶能夠借助一款音樂軟件創(chuàng)作歌曲時,我們能夠想象到那是一個與現(xiàn)在十分不同的時代。專業(yè)化作曲方面,AI也很可能能夠過濾掉許多技術(shù)二三流的作曲人,從而滿足日益增長的音樂市場需求。

結(jié)尾:

AI可以通過一個理論上無限大的數(shù)據(jù)庫和高速學(xué)習(xí)能力,制造出更加“完美”的藝術(shù)作品,但AI所有的“藝術(shù)創(chuàng)作”,本質(zhì)上都是基于人類藝術(shù)家們的成果。所以,說到作曲,乃至拓展到藝術(shù)的各個領(lǐng)域,AI作為一種科技,其本質(zhì)還是讓人類的生活變得更便捷,功能是服務(wù)性的。如果我們能夠在音樂領(lǐng)域恰當運用AI,正如在其他領(lǐng)域運用科技一樣,能夠大大提高生產(chǎn)效率,并協(xié)助人類進行創(chuàng)作上的突破。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2019-12-16
音樂+科技,在AI時代能擦出新的火花嗎?
人工智能和音樂的融合,是AI技術(shù)在音樂創(chuàng)作領(lǐng)域的新突破,這不再是音樂專業(yè)人士的固有權(quán)力,讓對音樂感興趣的人也能通過音樂AI創(chuàng)作專屬于自己的歌曲。

長按掃碼 閱讀全文