MIT利用人工智能來區(qū)分和過濾聲音 讓音樂更動(dòng)聽
一般利用均衡器可以將音樂中的低音部分調(diào)出來,但是麻省理工學(xué)院的計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室(Computer Science and Artificial Intelligence Lab,CSAIL)的研究人員發(fā)現(xiàn)了更好的解決方案。他們所研發(fā)的新系統(tǒng)PixelPlayer,能夠利用人工智能來區(qū)分和過濾聲音,讓音樂聽起來更洪亮或更柔和。
將指定視頻錄入經(jīng)過充分訓(xùn)練的PixelPlayer,系統(tǒng)隨機(jī)能夠過濾伴奏,同時(shí)識(shí)別音源,接著計(jì)算圖像中每個(gè)像素的音量,然后通過“空間定位”確定產(chǎn)生相似音波的片段。
今年9月,德國慕尼黑即將舉行歐洲計(jì)算機(jī)視覺會(huì)議(European Conference on Computer Vision),會(huì)議中要發(fā)表的一篇新論文則詳細(xì)論述了“像素的聲音(The Sound of Pixels)”。麻省理工學(xué)院計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室的博士生,同時(shí)也是這篇論文的合著者Zhao Hang同學(xué)表示,“最好的情況就是,我們能識(shí)別出哪種樂器發(fā)出怎樣的聲音。”
PixelPlayer的核心是一種基于樂器組合多模態(tài)訓(xùn)練的神經(jīng)網(wǎng)絡(luò),數(shù)據(jù)集采用了Youtube上714條未經(jīng)修剪且未經(jīng)標(biāo)記的視頻。其中,總時(shí)長為60小時(shí)的500條視頻用于訓(xùn)練,剩余的則用于驗(yàn)證和測(cè)試。在訓(xùn)練過程中,研究人員分別根據(jù)原聲吉他、大提琴、單簧管、長笛和其他樂器向系統(tǒng)饋入了算法。
這只是PixelPlayer多重機(jī)器學(xué)習(xí)框架的一個(gè)部分。經(jīng)過訓(xùn)練后的視頻分析算法將從剪輯幀中提取出視覺特征,這就是系統(tǒng)的第二個(gè)神經(jīng)網(wǎng)絡(luò),即音頻分析網(wǎng)絡(luò)。音頻分析網(wǎng)絡(luò)將聲音拆分為片段,并從中提取特征。最后,音頻合成網(wǎng)絡(luò)將把上述兩個(gè)網(wǎng)絡(luò)輸出的特定像素和聲波關(guān)聯(lián)起來。
PixelPlayer進(jìn)行完全自監(jiān)督的學(xué)習(xí),人們無需對(duì)數(shù)據(jù)注釋,而且系統(tǒng)目前已經(jīng)能識(shí)別20種樂器。Zhao Hang說,較大的數(shù)據(jù)集增強(qiáng)了系統(tǒng)的識(shí)別量,但識(shí)別樂器子類的能力卻不佳。系統(tǒng)也可以識(shí)別音樂元素,例如小提琴的諧波頻率。
研究人員認(rèn)為PixelPlayer可以進(jìn)行聲音剪輯,或者幫助機(jī)器人理解動(dòng)物、車輛和其他物體所制造的環(huán)境聲音。他們寫到,“我們希望我們的工作能夠開辟新的研究途徑,從視覺和聽覺信號(hào)角度實(shí)現(xiàn)聲源分離”。