在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

IPU 與 GPU 間無(wú)縫銜接,未來(lái)聚焦數(shù)據(jù)中心的AI訓(xùn)練和推理部署

工程師鄧生 ? 來(lái)源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-01-02 10:22 ? 次閱讀

“不管是在今天 GPU 能夠做的事情上,還是 GPU 不能做的事情上,IPU 都有它的價(jià)值點(diǎn)和價(jià)值定位。” 日前,在英國(guó) AI 芯片初創(chuàng)公司 Graphcore 中國(guó)區(qū)的媒體溝通會(huì)上,Graphcore 高級(jí)副總經(jīng)理兼中國(guó)區(qū)總經(jīng)理盧濤和 Graphcore 中國(guó)工程總負(fù)責(zé)人、AI 算法科學(xué)家金琛,就 Graphcore 的新產(chǎn)品性能以及該公司在中國(guó)的落地策略向 DeepTech 等媒體進(jìn)行了同步。

溝通會(huì)上,Graphcore 解讀了其于本月公布的大規(guī)模系統(tǒng)級(jí)產(chǎn)品 IPU-M2000 的應(yīng)用測(cè)試數(shù)據(jù)。公布數(shù)據(jù)顯示,在典型 CV 模型 ResNet、基于分組卷積的 ResNeXt、EfficientNet、語(yǔ)音模型、BERT-Large 等自然語(yǔ)言處理模型以及 MCMC 等傳統(tǒng)機(jī)器學(xué)習(xí)模型中,IPU-M2000 在吞吐量、訓(xùn)練時(shí)間和學(xué)習(xí)結(jié)果生成時(shí)間方面都有較好表現(xiàn)。比如,在 IPU-M2000 上 EfficientNet 的吞吐量達(dá)到 A100 的 18 倍。

圖 | IPU-M2000 與 GPU 的吞吐量、訓(xùn)練及結(jié)果生成時(shí)間對(duì)比(來(lái)源:Graphcore)

66e3cb43bec8442f90d9105440bb1a58.jpeg

此前,IPU-M2000 與 Graphcore 第二代 IPU 處理器 GC200 已于今年 7 月 15 日發(fā)布。據(jù)介紹,GC200 芯片基于臺(tái)積電的 7nm 工藝制造,集成 250 TFlops AI-Float 算力和 900MB 處理器內(nèi)存,相較第一代產(chǎn)品性能提升 8 倍。而對(duì)于第三代 IPU,盧濤在此次溝通會(huì)上并未透露發(fā)布的具體時(shí)間表,不過(guò)他表示下一代產(chǎn)品正在研發(fā)中,將依舊重點(diǎn)解決存儲(chǔ)問(wèn)題。

支持 PyTorch、TensorFlow,在 IPU 與 GPU 間無(wú)縫銜接

另外,Graphcore 還發(fā)布了 Poplar SDK 1.4 版本和 PyTorch 的 IPU 版本。

Graphcore 對(duì) Poplar SDK 1.4 版本在易用性和速度上進(jìn)行了優(yōu)化,能夠支持模型和數(shù)據(jù)并行,同時(shí)能夠?qū)崿F(xiàn)模型的橫向擴(kuò)展 —— 從 1 個(gè) IPU 橫向擴(kuò)展到 64 個(gè) IPU。金琛表示,下一版本的 Poplar SDK 有望實(shí)現(xiàn)橫向擴(kuò)展到 128 個(gè) IPU。

值得關(guān)注的是,除支持 Graphcore 的自研框架 PopART 外,Poplar SDK 1.4 還支持 Facebook 的 PyTorch 框架、以及 Google 的 TensorFlow 框架。

據(jù)金琛介紹,Graphcore 在 PyTorch 代碼中引入了 PopTorch 輕量級(jí)接口,通過(guò)這一接口,用戶可基于當(dāng)前的 PyTorch 模型進(jìn)行封裝,以實(shí)現(xiàn) IPU 和 CPU 之間的無(wú)障礙銜接。

對(duì)于實(shí)現(xiàn)這一功能的核心技術(shù),金琛做進(jìn)一步解釋說(shuō),Graphcore 采用 PyTorch 里的 jit.trace 機(jī)制對(duì)計(jì)算圖進(jìn)行編譯,轉(zhuǎn)化為 IPU 和 PyTorch 兼容的表達(dá)格式,最后用 Graphcore 自研框架 PopART 后端的 audiff 功能自動(dòng)生成反向圖,便可以實(shí)現(xiàn)同一個(gè)模型在不同平臺(tái)的無(wú)差別運(yùn)行。

目前,PyTorch 因其直觀易懂、靈活易用等優(yōu)勢(shì)受到開(kāi)發(fā)者的廣泛喜愛(ài)和應(yīng)用。Poplar SDK 1.4 增加了對(duì) PyTorch 的支持,策略上是希望用戶在 IPU 上也能體驗(yàn) PyTorch,讓用戶多一個(gè)轉(zhuǎn)戰(zhàn) IPU 的理由。不過(guò)目前英偉達(dá)的 GPU 已經(jīng)在 AI 計(jì)算領(lǐng)域占據(jù)大部分市場(chǎng),此時(shí) IPU 能夠提供的價(jià)值、轉(zhuǎn)場(chǎng)到 IPU 的成本等,都是用戶所要考慮的問(wèn)題。

在遷移成本上,盧濤表示,經(jīng)過(guò)幾年來(lái)對(duì) Poplar SDK 的打磨,現(xiàn)在從 GPU 到 IPU 的軟硬件遷移難度已經(jīng)比大家認(rèn)為的小得多。

金琛補(bǔ)充道,在訓(xùn)練上,針對(duì)一個(gè)不太復(fù)雜的模型,一般一周可以遷移完成,對(duì)于復(fù)雜的模型大概需要兩周;在推理上,基本上是 1-2 天的工作量。

談及性能,盧濤表示:“IPU 在訓(xùn)練推理、語(yǔ)音、圖像模型處理上基本全面超越 GPU。” 不過(guò)他也坦言:“不能說(shuō) 100% 超越了 GPU,因?yàn)樗惴P痛_實(shí)非常多,比如說(shuō)語(yǔ)音有不同的語(yǔ)音模型、圖像也是有不同的圖像模型。”

未來(lái):持續(xù)優(yōu)化性能,進(jìn)一步壓縮遷移成本

IPU 在機(jī)器學(xué)習(xí)性能上的明顯優(yōu)勢(shì)是不可否認(rèn)的,但前有身強(qiáng)體壯且努力奔跑的巨頭英偉達(dá),Graphcore 更是一刻也不容懈怠。盧濤在溝通會(huì)上也多次提到,“目前 Graphcore 面對(duì)的壓力最主要還是來(lái)自英偉達(dá)”。

“重壓” 之下,Graphcore 短期內(nèi)的計(jì)劃是聚焦在數(shù)據(jù)中心高性能訓(xùn)練和推理市場(chǎng)上,持續(xù)打磨 IPU 和軟件平臺(tái),持續(xù)優(yōu)化性能和提高可用性。盧濤說(shuō),“只有在我們聚焦的領(lǐng)域跑得更快,Graphcore 和英偉達(dá)之間的距離才會(huì)越來(lái)越短,甚至在某些領(lǐng)域超過(guò)英偉達(dá)”。

他還表示,Graphcore 希望未來(lái)數(shù)年內(nèi),能在數(shù)據(jù)中心的 AI 訓(xùn)練、推理批量部署、以及發(fā)貨和體量上做到除英偉達(dá)以外的另一個(gè)頭部地位。

為實(shí)現(xiàn)該目標(biāo),Graphcore 也將從增加 AI 框架支持、以及模型覆蓋兩個(gè)維度著手,以期進(jìn)一步減少用戶的遷移成本。此外,除目前 AI 應(yīng)用最廣泛的互聯(lián)網(wǎng)和云計(jì)算兩個(gè)場(chǎng)景外,盧濤表示公司明年還將在金融、汽車、智慧醫(yī)療、智慧教育、智慧城市和政府服務(wù)等領(lǐng)域,至少突破一到兩個(gè)比較主流的領(lǐng)域。

責(zé)任編輯:PSY

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4766

    瀏覽量

    129188
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    16

    文章

    4842

    瀏覽量

    72283
  • IPU
    IPU
    +關(guān)注

    關(guān)注

    0

    文章

    34

    瀏覽量

    15581
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    利用Multi-Die設(shè)計(jì)的AI數(shù)據(jù)中心芯片對(duì)40G UCIe IP的需求

    ,我們估計(jì)需要6000到8000個(gè)A100 GPU歷時(shí)長(zhǎng)達(dá)一個(gè)月才能完成訓(xùn)練任務(wù)。”不斷提高的HPC和AI計(jì)算性能要求正在推動(dòng)Multi-Die設(shè)計(jì)的部署,將多個(gè)異構(gòu)或同構(gòu)裸片集成到一
    的頭像 發(fā)表于 01-09 10:10 ?349次閱讀
    利用Multi-Die設(shè)計(jì)的<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>芯片對(duì)40G UCIe IP的需求

    GPU是如何訓(xùn)練AI大模型的

    AI模型的訓(xùn)練過(guò)程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編帶您了解GPU
    的頭像 發(fā)表于 12-19 17:54 ?193次閱讀

    超云亮相2024數(shù)據(jù)中心標(biāo)準(zhǔn)大會(huì),展示AI全棧推理硬件創(chuàng)新成果

    11月20日-21日,CDCC?2024第十二屆數(shù)據(jù)中心標(biāo)準(zhǔn)大會(huì)在北京國(guó)家會(huì)議中心隆重召開(kāi)。作為數(shù)據(jù)中心行業(yè)規(guī)模最大的高端會(huì)議,本屆大會(huì)以“AI之光,照耀
    的頭像 發(fā)表于 11-22 09:54 ?224次閱讀
    超云亮相2024<b class='flag-5'>數(shù)據(jù)中心</b>標(biāo)準(zhǔn)大會(huì),展示<b class='flag-5'>AI</b>全棧<b class='flag-5'>推理</b>硬件創(chuàng)新成果

    華迅光通AI計(jì)算加速800G光模塊部署

    近年來(lái),在人工智能計(jì)算需求不斷增長(zhǎng)的推動(dòng)下,對(duì)GPU和其他計(jì)算硬件的需求急劇飆升。僅今年一年,英偉達(dá)的股價(jià)就上漲了200%以上,這一點(diǎn)顯而易見(jiàn)。此外,由于數(shù)據(jù)中心的人工智能訓(xùn)練需要高速數(shù)據(jù)
    發(fā)表于 11-13 10:16

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?372次閱讀

    SK電訊將與Lambda合作打造AI數(shù)據(jù)中心

    韓國(guó)領(lǐng)先的電信巨頭SK電訊(SK Telecom)宣布了一項(xiàng)重要合作計(jì)劃,將與美國(guó)知名的云GPU服務(wù)提供商Lambda攜手,于2024年12月在首爾共同推出一個(gè)先進(jìn)的人工智能(AI數(shù)據(jù)中心。該
    的頭像 發(fā)表于 08-23 17:29 ?1329次閱讀

    AI時(shí)代,我們需要怎樣的數(shù)據(jù)中心AI重新定義數(shù)據(jù)中心

    超過(guò)60%的中國(guó)企業(yè)計(jì)劃在未來(lái)12至24個(gè)月內(nèi)部署生成式人工智能。AI、模型的構(gòu)建,將顛覆數(shù)據(jù)中心基礎(chǔ)設(shè)施的建設(shè)、運(yùn)維和運(yùn)營(yíng)。一個(gè)全新的數(shù)據(jù)中心
    發(fā)表于 07-16 11:33 ?748次閱讀
    <b class='flag-5'>AI</b>時(shí)代,我們需要怎樣的<b class='flag-5'>數(shù)據(jù)中心</b>?<b class='flag-5'>AI</b>重新定義<b class='flag-5'>數(shù)據(jù)中心</b>

    數(shù)據(jù)中心液冷需求、技術(shù)及實(shí)際應(yīng)用

    夏日炎炎,數(shù)據(jù)中心制冷技術(shù)全新升級(jí),液冷散熱,讓服務(wù)器清涼一夏。本文將帶您一起探索數(shù)據(jù)中心液冷需求、技術(shù)及實(shí)際應(yīng)用。 1 數(shù)據(jù)中心液冷需求 AI浪潮來(lái)襲,
    的頭像 發(fā)表于 06-19 11:12 ?1211次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>液冷需求、技術(shù)及實(shí)際應(yīng)用

    英偉達(dá)數(shù)據(jù)中心GPU出貨量飆升,市場(chǎng)份額持續(xù)領(lǐng)跑

    ,英偉達(dá)在2023年數(shù)據(jù)中心GPU出貨量方面實(shí)現(xiàn)了爆炸式增長(zhǎng),這一增長(zhǎng)不僅彰顯了其在數(shù)據(jù)中心領(lǐng)域的領(lǐng)先地位,也預(yù)示著英偉達(dá)在AI和云計(jì)算等前沿技術(shù)領(lǐng)域的持續(xù)發(fā)力。
    的頭像 發(fā)表于 06-13 17:08 ?1188次閱讀

    Napatech IPU解決方案助力優(yōu)化數(shù)據(jù)中心存儲(chǔ)工作負(fù)載

    Napatech是全球領(lǐng)先的智能網(wǎng)卡(SmartNIC)和IPU解決方案供 應(yīng)商,業(yè)務(wù)范圍涵蓋云計(jì)算、企 業(yè)和電信數(shù)據(jù)中心應(yīng)用等領(lǐng)域。
    的頭像 發(fā)表于 05-29 11:50 ?646次閱讀
    Napatech <b class='flag-5'>IPU</b>解決方案助力優(yōu)化<b class='flag-5'>數(shù)據(jù)中心</b>存儲(chǔ)工作負(fù)載

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片

    。 **英偉達(dá)Blackwell架構(gòu)在數(shù)據(jù)中心方面的應(yīng)用有哪些?** 1. **AI **大模型訓(xùn)練 Blackwell 架構(gòu)的 GPU 針對(duì)當(dāng)前火爆的
    發(fā)表于 05-13 17:16

    AI推理,和訓(xùn)練有什么不同?

    如果要用一句話概括AI訓(xùn)練推理的不同之處,我覺(jué)得用“臺(tái)上一分鐘,臺(tái)下十年功”最為貼切。話說(shuō)小明已經(jīng)和心目中的女神交往數(shù)年,在邀約女神出門(mén)這件事上積累了大量的經(jīng)驗(yàn)數(shù)據(jù),但卻依然捉摸不
    的頭像 發(fā)表于 04-29 08:06 ?210次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>,和<b class='flag-5'>訓(xùn)練</b>有什么不同?

    AI訓(xùn)練,為什么需要GPU

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI大模型訓(xùn)練平臺(tái)的基石,甚至是決定性的算力底座。為什么GPU能力壓CPU,成為炙手可熱的主角呢?要回答這個(gè)問(wèn)題,首先需要了解當(dāng)前人
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>,為什么需要<b class='flag-5'>GPU</b>?

    #mpo極性 #數(shù)據(jù)中心mpo

    數(shù)據(jù)中心MPO
    jf_51241005
    發(fā)布于 :2024年04月07日 10:05:13

    Meta將于今年在數(shù)據(jù)中心部署新款定制AI芯片

    Meta近日宣布,計(jì)劃于2024年在其數(shù)據(jù)中心部署新款內(nèi)部定制的AI芯片。這款芯片將用于支持Meta的人工智能業(yè)務(wù),進(jìn)一步提升數(shù)據(jù)處理和運(yùn)算效率。
    的頭像 發(fā)表于 02-04 10:17 ?792次閱讀
    主站蜘蛛池模板: 亚洲国产美女精品久久| 午夜视频在线观看网站| 免费一级特黄视频| 好男人午夜www视频在线观看| 欧美日韩高清性色生活片| 欧美成人看片一区二区三区| 久久精品视频7| 成人黄色激情网| 天天射狠狠干| 久久草在线免费| 天天艹在线| 欧美大黄| 午夜影院7cdy| 轻点灬大ji巴太粗太大了小说| 精品成人毛片一区二区视| 亚洲天堂免费| 色碰人色碰人视频| 久久精品国产亚洲综合色| 1024成人| 国产亚洲精品久久久久久牛牛| 91大神在线精品网址| 在线观看亚洲成人| 日本大片免费观看视频| 国产色秀视频在线观看| 天天干天天舔天天操| 成年人看的黄色| 乱色伦肉小说| 色婷婷免费视频| 国产色视频网站| 色干干| 黄色的视频网站| 亚洲综合成人在线| 免费观看黄色网页| 五月天综合婷婷| 91久久天天躁狠狠躁夜夜| 卡一卡二卡三国色天香永不失联| 天堂成人网| 国产嫩草影院在线观看| 色片在线| 日韩欧美印度一级毛片| 日韩成人黄色|