英偉達再出新研究成果 可以渲染合成交互式3D環(huán)境的AI技術(shù)
近日,在蒙特利爾舉行的神經(jīng)信息處理系統(tǒng)大會(NeurIPS)上,英偉達在一篇題為“視頻到視頻合成(“Video-to-Video Synthesis” )”的技術(shù)論文中闡述了其最新AI成果。
據(jù)透露,英偉達最新研發(fā)的這項成果,是可以渲染合成交互式3D環(huán)境的AI技術(shù)。在創(chuàng)建逼真的3D環(huán)境時,英偉達研發(fā)團隊不再使用傳統(tǒng)的圖形技術(shù),而是使用神經(jīng)網(wǎng)絡(luò) ,特別是“生成模型”,通過來自如YouTube等來源的真實視頻,進行模型訓(xùn)練,最終構(gòu)建逼真的3D虛擬世界。
英偉達研發(fā)團隊之所以使用“生成模型”來提高輸出的準確性,是由于這種模型要求機器必須有效地內(nèi)化數(shù)據(jù)的本質(zhì),它也因此被廣泛認為是促進機器“理解”大量數(shù)據(jù)之間關(guān)系的最有前途的方法之一。
但是,像所有神經(jīng)網(wǎng)絡(luò)一樣,使用這個模型也需要訓(xùn)練數(shù)據(jù)。幸運的是,英偉達研發(fā)團隊將AI模型應(yīng)用于街景,通過自動駕駛項目采集到的大量視頻數(shù)據(jù),確保了其關(guān)于城市街道上行駛車輛的訓(xùn)練鏡頭,再以分段網(wǎng)絡(luò)識別不同的對象類別,如地面,樹木,汽車,天空,建筑物等,開發(fā)算法以了解每個對象與其他對象的關(guān)系,最終,這些模型創(chuàng)建了城市環(huán)境的基本拓撲結(jié)構(gòu),然后AI再從基于從訓(xùn)練數(shù)據(jù)中學(xué)到的東西,模擬世界外觀,包括照明,材料和動態(tài)等,由此生成幾乎是還原性的高逼真3D環(huán)境。
“由于場景是完全合成生成的,因此可以輕松編輯以刪除,修改或添加對象”英偉達表示。
在論文中,英偉達研發(fā)團隊得出的結(jié)論是:“我們提出了一種基于條件生成對抗網(wǎng)絡(luò)(GAN)的通用視頻到視頻合成框架:通過精心設(shè)計的發(fā)生器、鑒別器網(wǎng)絡(luò)以及時空對抗物鏡,我們可以合成高分辨率、照片級真實、時間一致的視頻,大量實驗表明,我們的結(jié)果明顯優(yōu)于最先進方法的結(jié)果?!?/p>
不得不承認,迄今為止,AI已經(jīng)是人類最強有力的創(chuàng)新“加速器”,它讓人類的能力得以延展,并逐漸變得更加強大。我們都能看到,在全世界范圍內(nèi),數(shù)以萬計的科學(xué)家們都在為AI技術(shù)的前沿突破做出努力,除了英偉達之外,不論是像Google、Facebook這樣的海外巨頭,還是類似國內(nèi)曠視科技、極鏈科技這樣的AI科技公司,都致力于全力研發(fā)產(chǎn)出能像人一樣思考的AI技術(shù)。今天,曠視科技已經(jīng)實現(xiàn)AI識別人臉對象中的各種特征,極鏈科技已經(jīng)實現(xiàn)AI理解海量視頻的場景表達,而未來,AI必然不僅是會讓機器“知其然”,還要做到讓它“知其所以然”,以最終實現(xiàn)推動整個AI進入“深度智能”的偉大愿景。