NVIDIA 助力谷歌量子 AI 通過量子器件物理學(xué)模擬加快處理器設(shè)計(jì)
SC24 — NVIDIA 于今日宣布正在與谷歌量子 AI 合作,使用 NVIDIA CUDA-Q? 平臺進(jìn)行模擬,加快下一代量子計(jì)算器件的設(shè)計(jì)工作。
谷歌量子 AI 正在使用量子-經(jīng)典混合計(jì)算平臺和 NVIDIA Eos 超級計(jì)算機(jī),來模擬其量子處理器的物理特性。這將有助于克服量子計(jì)算硬件當(dāng)前的一些局限,即量子計(jì)算硬件只能運(yùn)行一定數(shù)量的量子運(yùn)算,然后由于存在研究人員稱之為“噪聲”的現(xiàn)象就必須終止計(jì)算。
谷歌量子 AI 的研究科學(xué)家 Guifre Vidal 表示:“要想開發(fā)出商用的量子計(jì)算機(jī),就必須能夠在控制噪聲的情況下擴(kuò)展量子硬件規(guī)模。借助 NVIDIA 加速計(jì)算,我們正在探索越來越大的量子芯片設(shè)計(jì)中噪聲的影響。”
理解量子硬件設(shè)計(jì)中的噪聲需要進(jìn)行復(fù)雜的動態(tài)模擬,以便充分了解量子處理器內(nèi)的量子比特是如何與周圍環(huán)境相互作用的。
過去,這些模擬的計(jì)算成本高得令人望而卻步。借助 CUDA-Q 平臺,谷歌可以在 NVIDIA Eos 超級計(jì)算機(jī)上使用 1024 個(gè) NVIDIA Hopper Tensor Core GPU,以極低的成本進(jìn)行世界上最大、最快的量子器件動態(tài)模擬。
NVIDIA 量子和高性能計(jì)算總監(jiān) Tim Costa 表示:“強(qiáng)大的 AI 超級計(jì)算有助于量子計(jì)算取得成功。谷歌對 CUDA-Q 平臺的使用展現(xiàn)了GPU 加速的模擬在推進(jìn)量子計(jì)算方面發(fā)揮了核心作用,它將幫助解決現(xiàn)實(shí)世界中的許多問題?!?
借助 CUDA-Q 和 Hopper GPU,谷歌可以對包含 40 個(gè)量子比特的器件進(jìn)行逼真的全面模擬,這是同類模擬中規(guī)模最大的。通過 CUDA-Q 提供的模擬技術(shù),原本需要一周時(shí)間完成的噪聲模擬現(xiàn)在只需要幾分鐘就能完成。
驅(qū)動這些加速動態(tài)模擬的軟件將公開發(fā)布在 CUDA-Q 平臺上,使量子硬件工程師能夠快速地?cái)U(kuò)展他們的系統(tǒng)設(shè)計(jì)。