“不管是在今天 GPU 能夠做的事情上,還是 GPU 不能做的事情上,IPU 都有它的價(jià)值點(diǎn)和價(jià)值定位。” 日前,在英國(guó) AI 芯片初創(chuàng)公司 Graphcore 中國(guó)區(qū)的媒體溝通會(huì)上,Graphcore 高級(jí)副總經(jīng)理兼中國(guó)區(qū)總經(jīng)理盧濤和 Graphcore 中國(guó)工程總負(fù)責(zé)人、AI 算法科學(xué)家金琛,就 Graphcore 的新產(chǎn)品性能以及該公司在中國(guó)的落地策略向 DeepTech 等媒體進(jìn)行了同步。
溝通會(huì)上,Graphcore 解讀了其于本月公布的大規(guī)模系統(tǒng)級(jí)產(chǎn)品 IPU-M2000 的應(yīng)用測(cè)試數(shù)據(jù)。公布數(shù)據(jù)顯示,在典型 CV 模型 ResNet、基于分組卷積的 ResNeXt、EfficientNet、語(yǔ)音模型、BERT-Large 等自然語(yǔ)言處理模型以及 MCMC 等傳統(tǒng)機(jī)器學(xué)習(xí)模型中,IPU-M2000 在吞吐量、訓(xùn)練時(shí)間和學(xué)習(xí)結(jié)果生成時(shí)間方面都有較好表現(xiàn)。比如,在 IPU-M2000 上 EfficientNet 的吞吐量達(dá)到 A100 的 18 倍。
圖 | IPU-M2000 與 GPU 的吞吐量、訓(xùn)練及結(jié)果生成時(shí)間對(duì)比(來(lái)源:Graphcore)
此前,IPU-M2000 與 Graphcore 第二代 IPU 處理器 GC200 已于今年 7 月 15 日發(fā)布。據(jù)介紹,GC200 芯片基于臺(tái)積電的 7nm 工藝制造,集成 250 TFlops AI-Float 算力和 900MB 處理器內(nèi)存,相較第一代產(chǎn)品性能提升 8 倍。而對(duì)于第三代 IPU,盧濤在此次溝通會(huì)上并未透露發(fā)布的具體時(shí)間表,不過(guò)他表示下一代產(chǎn)品正在研發(fā)中,將依舊重點(diǎn)解決存儲(chǔ)問(wèn)題。
支持 PyTorch、TensorFlow,在 IPU 與 GPU 間無(wú)縫銜接
另外,Graphcore 還發(fā)布了 Poplar SDK 1.4 版本和 PyTorch 的 IPU 版本。
Graphcore 對(duì) Poplar SDK 1.4 版本在易用性和速度上進(jìn)行了優(yōu)化,能夠支持模型和數(shù)據(jù)并行,同時(shí)能夠?qū)崿F(xiàn)模型的橫向擴(kuò)展 —— 從 1 個(gè) IPU 橫向擴(kuò)展到 64 個(gè) IPU。金琛表示,下一版本的 Poplar SDK 有望實(shí)現(xiàn)橫向擴(kuò)展到 128 個(gè) IPU。
值得關(guān)注的是,除支持 Graphcore 的自研框架 PopART 外,Poplar SDK 1.4 還支持 Facebook 的 PyTorch 框架、以及 Google 的 TensorFlow 框架。
據(jù)金琛介紹,Graphcore 在 PyTorch 代碼中引入了 PopTorch 輕量級(jí)接口,通過(guò)這一接口,用戶可基于當(dāng)前的 PyTorch 模型進(jìn)行封裝,以實(shí)現(xiàn) IPU 和 CPU 之間的無(wú)障礙銜接。
對(duì)于實(shí)現(xiàn)這一功能的核心技術(shù),金琛做進(jìn)一步解釋說(shuō),Graphcore 采用 PyTorch 里的 jit.trace 機(jī)制對(duì)計(jì)算圖進(jìn)行編譯,轉(zhuǎn)化為 IPU 和 PyTorch 兼容的表達(dá)格式,最后用 Graphcore 自研框架 PopART 后端的 audiff 功能自動(dòng)生成反向圖,便可以實(shí)現(xiàn)同一個(gè)模型在不同平臺(tái)的無(wú)差別運(yùn)行。
目前,PyTorch 因其直觀易懂、靈活易用等優(yōu)勢(shì)受到開(kāi)發(fā)者的廣泛喜愛(ài)和應(yīng)用。Poplar SDK 1.4 增加了對(duì) PyTorch 的支持,策略上是希望用戶在 IPU 上也能體驗(yàn) PyTorch,讓用戶多一個(gè)轉(zhuǎn)戰(zhàn) IPU 的理由。不過(guò)目前英偉達(dá)的 GPU 已經(jīng)在 AI 計(jì)算領(lǐng)域占據(jù)大部分市場(chǎng),此時(shí) IPU 能夠提供的價(jià)值、轉(zhuǎn)場(chǎng)到 IPU 的成本等,都是用戶所要考慮的問(wèn)題。
在遷移成本上,盧濤表示,經(jīng)過(guò)幾年來(lái)對(duì) Poplar SDK 的打磨,現(xiàn)在從 GPU 到 IPU 的軟硬件遷移難度已經(jīng)比大家認(rèn)為的小得多。
金琛補(bǔ)充道,在訓(xùn)練上,針對(duì)一個(gè)不太復(fù)雜的模型,一般一周可以遷移完成,對(duì)于復(fù)雜的模型大概需要兩周;在推理上,基本上是 1-2 天的工作量。
談及性能,盧濤表示:“IPU 在訓(xùn)練推理、語(yǔ)音、圖像模型處理上基本全面超越 GPU。” 不過(guò)他也坦言:“不能說(shuō) 100% 超越了 GPU,因?yàn)樗惴P痛_實(shí)非常多,比如說(shuō)語(yǔ)音有不同的語(yǔ)音模型、圖像也是有不同的圖像模型。”
未來(lái):持續(xù)優(yōu)化性能,進(jìn)一步壓縮遷移成本
IPU 在機(jī)器學(xué)習(xí)性能上的明顯優(yōu)勢(shì)是不可否認(rèn)的,但前有身強(qiáng)體壯且努力奔跑的巨頭英偉達(dá),Graphcore 更是一刻也不容懈怠。盧濤在溝通會(huì)上也多次提到,“目前 Graphcore 面對(duì)的壓力最主要還是來(lái)自英偉達(dá)”。
“重壓” 之下,Graphcore 短期內(nèi)的計(jì)劃是聚焦在數(shù)據(jù)中心高性能訓(xùn)練和推理市場(chǎng)上,持續(xù)打磨 IPU 和軟件平臺(tái),持續(xù)優(yōu)化性能和提高可用性。盧濤說(shuō),“只有在我們聚焦的領(lǐng)域跑得更快,Graphcore 和英偉達(dá)之間的距離才會(huì)越來(lái)越短,甚至在某些領(lǐng)域超過(guò)英偉達(dá)”。
他還表示,Graphcore 希望未來(lái)數(shù)年內(nèi),能在數(shù)據(jù)中心的 AI 訓(xùn)練、推理批量部署、以及發(fā)貨和體量上做到除英偉達(dá)以外的另一個(gè)頭部地位。
為實(shí)現(xiàn)該目標(biāo),Graphcore 也將從增加 AI 框架支持、以及模型覆蓋兩個(gè)維度著手,以期進(jìn)一步減少用戶的遷移成本。此外,除目前 AI 應(yīng)用最廣泛的互聯(lián)網(wǎng)和云計(jì)算兩個(gè)場(chǎng)景外,盧濤表示公司明年還將在金融、汽車、智慧醫(yī)療、智慧教育、智慧城市和政府服務(wù)等領(lǐng)域,至少突破一到兩個(gè)比較主流的領(lǐng)域。
責(zé)任編輯:PSY
-
gpu
+關(guān)注
關(guān)注
28文章
4766瀏覽量
129188 -
數(shù)據(jù)中心
+關(guān)注
關(guān)注
16文章
4842瀏覽量
72283 -
IPU
+關(guān)注
關(guān)注
0文章
34瀏覽量
15581
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論