2026-04-15 01:34:53
在第十三屆中國網(wǎng)絡(luò)視聽大會上,中國移動咪咕音樂黨委書記、總經(jīng)理朱泓稱AI推動音樂產(chǎn)業(yè)變革,高質(zhì)量音樂規(guī)?;?、低成本輸出成現(xiàn)實,音樂從精英藝術(shù)走向全民表達,產(chǎn)業(yè)邁向Token經(jīng)濟,但主流AI音樂模型對國風(fēng)融合不足。咪咕正研發(fā)國風(fēng)音樂大模型,降低創(chuàng)作門檻。此外,咪咕公司還與成都傳媒產(chǎn)業(yè)集團簽署了戰(zhàn)略合作協(xié)議,雙方將秉持“資源共享、優(yōu)勢互補”原則,圍繞文旅文博、演藝、體育等領(lǐng)域開展全方位合作。
每經(jīng)記者|丁舟洋 每經(jīng)編輯|畢陸名
不久前,中國移動咪咕音樂黨委書記、總經(jīng)理朱泓收到了好友的一則微信,“這是我一天時間里做的四首歌,你幫我聽聽”。這讓音樂產(chǎn)業(yè)從業(yè)者的他深受觸動,“我意識到,未來人們聽什么歌?聽自己做的歌”。
而這一切的實現(xiàn),都源于AI(人工智能)的到來。如今隨著騰訊音樂、字節(jié)跳動、昆侖萬維、MiniMax等公司推出音樂大模型,人人皆可創(chuàng)作音樂的時代已經(jīng)到來。
“我從事音樂產(chǎn)業(yè)十幾年的時間,傳統(tǒng)的音樂產(chǎn)業(yè)的生產(chǎn)是詞曲、創(chuàng)作、編曲、錄音、發(fā)行,這一套完整的產(chǎn)業(yè),由不同的行業(yè),不同的企業(yè),不同的人來完成的,是一個極其復(fù)雜的系統(tǒng)工程。最早的一首高品質(zhì)的錄音室音樂是要幾十萬元一首歌,如果還要拍MV的話,那就不再是幾十萬(元)的量級,可能是幾百萬元量級一首歌?,F(xiàn)在某個平臺的收費我知道是2毛錢,我們需要等待1分鐘就出一首歌,所以將制作周期縮短到了分鐘級,AI創(chuàng)作的邊際成本趨近于0?!痹?月14日第十三屆中國網(wǎng)絡(luò)視聽大會上,朱泓發(fā)言表示。
圖片來源:主辦方供圖
然而,當(dāng)前主流AI音樂模型多訓(xùn)練于西方流行音樂,對國風(fēng)核心元素的理解與融合仍顯不足?;凇皣L(fēng)”音樂大模型,咪咕音樂將有怎樣的探索?朱泓接受了包括《每日經(jīng)濟新聞》記者在內(nèi)的采訪。
在朱泓看來,當(dāng)前,AI技術(shù)正在深刻的推動音樂產(chǎn)業(yè)的變革,讓高質(zhì)量的音樂規(guī)?;?、低成本輸出成為現(xiàn)實,推動音樂從精英藝術(shù)走向全民表達。
“在線音樂產(chǎn)業(yè)進入了一個‘文藝復(fù)興’的時代,中國數(shù)字音樂的市場規(guī)模全年超過了1000億元,同比增長了15%,線下演藝也迎來了‘文藝復(fù)興’,成為產(chǎn)業(yè)增長的重要引擎,Z世代、阿爾法世代成為了為音樂付費的主力,文化自信帶動了國潮的爆發(fā)?!?/p>
“音樂產(chǎn)業(yè)已從唱片工業(yè)邁向Token(詞元)經(jīng)濟,一首3分鐘的AI歌曲Token消耗大概是3萬Token,技術(shù)紅利全面釋放?!敝煦硎荆巴瑫r,我們也清醒地看到,在國風(fēng)音樂的AI生成大模型方面,我們?nèi)匀徽J為一些主流的或者西方的音樂生成工具,還沒有達到國風(fēng)音樂標(biāo)準(zhǔn)的審美,這是有一些共識,還需要積極的探索?!?/p>
比如,如果讓市場上現(xiàn)有AI音樂大模型生成一首說唱流行歌曲,各種工具都能有不錯的表現(xiàn),但如果要生成一首侗族山歌,就不一定能像樣了。
朱泓表示,咪咕音樂正自主研發(fā)業(yè)內(nèi)領(lǐng)先的全棧國風(fēng)音樂大模型,深度融合地方戲曲、民族調(diào)式等傳統(tǒng)美學(xué),支持多模態(tài)文生音樂、音頻生音樂,1分鐘即可輸出專業(yè)級作品,徹底降低創(chuàng)作門檻。并構(gòu)建社區(qū)共創(chuàng)生態(tài),將咪咕音樂打造為國風(fēng)音樂愛好者、創(chuàng)作者的社區(qū)?!巴瑫r,我們給創(chuàng)作者以明確的確權(quán),以及商用的全鏈路,在咪咕自身的體系里面,一個是音樂平臺,另外一個就是視頻彩鈴平臺上,為國風(fēng)音樂創(chuàng)作者打開商業(yè)化機會?!?/p>
AI會取代音樂人創(chuàng)作嗎?“我認為這是給了創(chuàng)作人更多選擇?!敝煦貞?yīng)稱,“汽車時代到來,難道我們?nèi)祟惒粫呗妨耍覀冎皇情_著汽車跑得更快,走得更遠。甚至催生了賽車這類追求極致速度與技巧的全新形態(tài)。未來的音樂創(chuàng)作,也將迎來‘人車共創(chuàng)’般的深度融合,這正是AI音樂大模型進化的終極目標(biāo)?!?/p>
在4月14日第十三屆中國網(wǎng)絡(luò)視聽大會“AI+國風(fēng)音樂創(chuàng)新發(fā)展論壇”上,咪咕公司還與成都傳媒產(chǎn)業(yè)集團簽署戰(zhàn)略合作協(xié)議。雙方將秉持“資源共享、優(yōu)勢互補”原則,圍繞文旅文博、演藝、體育等領(lǐng)域開展全方位合作。
對于AI音樂前沿與應(yīng)用展望,清華大學(xué)信息國家研究中心副主任、中國人工智能學(xué)會副秘書長于濤在“AI+國風(fēng)音樂創(chuàng)新發(fā)展論壇”上分享道,AI與音樂、具身智能具有很大的結(jié)合空間?!拔覀兛梢钥吹?,雖然很多演出中都有機器人的樂器表演,但實際上里面展示的演藝內(nèi)容都是預(yù)編好的,想讓它們再表演些別的,又得重新做一套?!彼赃€遠沒有那么“通用”。
圖片來源:主辦方供圖
“機器人演奏最難的問題是什么?是弦樂。因為它不是打擊的,是連續(xù)的演奏,需要你的力度非常高頻的變化。”于濤表示,“所以我們首先解決了動作捕捉的問題。我們構(gòu)建了國際上第一個音視頻協(xié)同的動作捕捉系統(tǒng),基于這一寶貴的數(shù)據(jù)集,我們與中央音樂學(xué)院等國內(nèi)外頂尖科研團隊建立了廣泛合作?!?/p>
“結(jié)合AIGC(人工智能生成內(nèi)容)能力,我們實現(xiàn)了從音樂到動作的自動生成?,F(xiàn)在,只需輸入一段音頻,系統(tǒng)便能自動生成與之匹配的精細演奏動作,無需人工再行編排。我們已能用此技術(shù)驅(qū)動數(shù)字人,其演奏時手部的揉弦等細節(jié)動作都顯得極為精妙?!?/p>
于濤表示,近期,其通過與SoftRobotics的合作,進一步實現(xiàn)了滿足物理約束的具身演繹。于濤說,在具身智能層面取得突破后,我們可以暢想一個未來:或許在某一年的春晚上,登場的將不再是表演功夫的機器人,而是能夠在舞臺上真正演奏弦樂的機器人樂團。
封面圖片來源:主辦方供圖
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP