AWS推出采用NVIDIA最新技術(shù)的AI云服務(wù)
AWS今天公布了一系列AI優(yōu)化的實例,號稱這是市場上最強大的實例,旨在吸引更多企業(yè)在AWS云平臺上運行人工智能項目。
這個新的P3系列是基于NVIDIA最新一代Volta GPU——Tesla V100,對標(biāo)的是微軟和Google的云產(chǎn)品。該芯片是在5月公布,在大小和蘋果Apple Watch手表的模片上封裝了211億個晶體管。這些晶體管形成了超過5700個處理核心,其中640個是所謂的Tensor Cores,是專門針對運行AI模型的優(yōu)化電路。
Amazon新推出的P3實例系列有三種規(guī)格,分別提供每虛擬機1個、4個和8個V100。最高的兩個配置中芯片是使用NVIDIA開發(fā)的NVLink技術(shù)連接的,該技術(shù)可交換數(shù)據(jù)進行處理,速度遠遠快于傳統(tǒng)方式。這三個實例背后是有最多64個基于英特爾至強E5-2686v4 CPU修改版的vCPU支持。
所有這些芯片能夠讓最大的P3實例在特定情況下提供高達1 petaflop的性能。在更實際的情況下,該系列也要比AWS上一代P2快大約14倍。
AWS高管Matt Garman在聲明中表示,P2實例已經(jīng)是“當(dāng)前云中能夠最大限度完成機器學(xué)習(xí)”的實例,也就是說,P3系列的發(fā)布只會進一步鞏固AWS的領(lǐng)先地位,特別是AWS的兩大競爭對手Google和微軟目前都還沒有在他們各自的云平臺上支持NVIDIA V100芯片。
Moor Insights & Strategy高性能計算和深度學(xué)習(xí)咨詢主管Karl Freund表示:“AWS和NVIDIA再一次走在了前列,樹立了業(yè)界其他廠商可以遵循的價格標(biāo)桿。”
現(xiàn)在企業(yè)客戶能夠開始使用新P3系列的方法有兩種,他們可以手動設(shè)置,或者使用針對P3系列的兩個預(yù)配置Amazon Machine Images之一,其中包括。
NVIDIA表示,AWS客戶是第一批可使用NVIDIA AI Cloud Container Registry的客戶,這個軟件堆棧包含常用的深度學(xué)習(xí)框架,例如TensorFlow、Caffee、CNTK和Torch。
NVIDIA公司副總裁、企業(yè)系統(tǒng)總經(jīng)理Jim McHugh表示:“這將為開發(fā)者提供他們需要的大量功能,其想法是盡可能多地吸引用戶,讓深度學(xué)習(xí)普及開來。”
盡管AWS是第一個采用NVIDIA最新技術(shù)的廠商,但是其他云提供商也將這么做,不過他并沒有提供具體的時間表。
P3系列的第一個采用者是位于紐約的化學(xué)模擬提供商Schr?dinger LLC。這家公司宣稱,新的實例讓他們在一天內(nèi)運行的模擬數(shù)量是上一代P2的4倍。