Nvidia的人工智能技術(shù)可以讓人像Jagger一樣移動
(文章來源:教育新聞網(wǎng))
Nvidia的研究團(tuán)隊(duì)剛剛開發(fā)了一種新的AI,可以使用現(xiàn)有的視頻和一個圖像來使圖像中的人模仿視頻中的動作。從技術(shù)上講,稱為視頻到視頻合成的方法將輸入視頻(如分割蒙版或人體姿勢)使用圖像轉(zhuǎn)換為逼真的視頻。研究團(tuán)隊(duì)表示,當(dāng)前的AI模型試圖實(shí)現(xiàn)相同目標(biāo)存在兩個主要問題:首先,這些模型需要大量目標(biāo)圖像才能將它們轉(zhuǎn)換為視頻。其次,這些模型概括輸出的能力受到限制。
為了克服這些障礙,研究人員訓(xùn)練了一種新的模型,該模型學(xué)會僅使用其中的一些圖像來生成以前看不見的人或場景的視頻(訓(xùn)練數(shù)據(jù)集中不存在的圖像)。然后,團(tuán)隊(duì)在各種場景(例如舞步和會說話的頭)上對此進(jìn)行了測試。您可以在下面的視頻中查看正在運(yùn)行的AI:該模型還可用于繪畫或街道上以創(chuàng)建實(shí)時(shí)化身或數(shù)字化掌握的街道場景。這對于制作電影和游戲非常方便。
就像在“黑客新聞”主題中討論的人們所指出的那樣,人工智能還不是很完美,很難分辨這些低分辨率視頻中的所有細(xì)節(jié)是否正確。但是,對制作合成視頻進(jìn)行研究非常有用。
? ? ?