在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

袁進(jìn)輝:分享了深度學(xué)習(xí)框架方面的技術(shù)進(jìn)展

mK5P_AItists ? 2018-01-25 09:23 ? 次閱讀

來(lái)源:微軟研究院AI頭條

概要:1月17日,院友袁進(jìn)輝博士回到微軟亞洲研究院做了題為《打造最強(qiáng)深度學(xué)習(xí)引擎》的報(bào)告,分享了深度學(xué)習(xí)框架方面的技術(shù)進(jìn)展。

1月17日,院友袁進(jìn)輝博士回到微軟亞洲研究院做了題為《打造最強(qiáng)深度學(xué)習(xí)引擎》的報(bào)告,分享了深度學(xué)習(xí)框架方面的技術(shù)進(jìn)展。報(bào)告中主要講解了何為最強(qiáng)的計(jì)算引擎?專(zhuān)用硬件為什么快?大規(guī)模專(zhuān)用硬件面臨著什么問(wèn)題?軟件構(gòu)架又應(yīng)該解決哪些問(wèn)題?

首先,我們一起來(lái)開(kāi)一個(gè)腦洞:想象一個(gè)最理想的深度學(xué)習(xí)引擎應(yīng)該是什么樣子的,或者說(shuō)深度學(xué)習(xí)引擎的終極形態(tài)是什么?看看這會(huì)給深度學(xué)習(xí)框架和AI專(zhuān)用芯片研發(fā)帶來(lái)什么啟發(fā)。

以大家耳熟能詳?shù)木矸e神經(jīng)網(wǎng)絡(luò)CNN 為例,可以感覺(jué)一下目前訓(xùn)練深度學(xué)習(xí)模型需要多少計(jì)算力。下方這張表列出了常見(jiàn)CNN模型處理一張圖片需要的內(nèi)存容量和浮點(diǎn)計(jì)算次數(shù),譬如VGG-16網(wǎng)絡(luò)處理一張圖片就需要16Gflops。值得注意的是,基于ImageNet數(shù)據(jù)集訓(xùn)練CNN,數(shù)據(jù)集一共大約120萬(wàn)張圖片,訓(xùn)練算法需要對(duì)這個(gè)數(shù)據(jù)集掃描100遍(epoch),這意味著10^18次浮點(diǎn)計(jì)算,即1exaFlops。簡(jiǎn)單演算一下可發(fā)現(xiàn),基于一個(gè)主頻為2.0GHz的CPU core來(lái)訓(xùn)練這樣的模型需要好幾年的時(shí)間。

袁進(jìn)輝:分享了深度學(xué)習(xí)框架方面的技術(shù)進(jìn)展

袁進(jìn)輝:分享了深度學(xué)習(xí)框架方面的技術(shù)進(jìn)展

專(zhuān)用硬件比通用硬件(如CPU、GPU)快,有多種原因,主要包括:(1)通用芯片一般經(jīng)歷“取指-譯碼-執(zhí)行”(甚至包括“取數(shù)據(jù)”)的步驟才能完成一次運(yùn)算,專(zhuān)用硬件大大減小了“取指-譯碼”等開(kāi)銷(xiāo),數(shù)據(jù)到達(dá)即執(zhí)行;(2)專(zhuān)用硬件控制電路復(fù)雜度低,可以在相同的面積下集成更多對(duì)運(yùn)算有用的器件,可以在一個(gè)時(shí)鐘周期內(nèi)完成通用硬件需要數(shù)千上萬(wàn)個(gè)時(shí)鐘周期才能完成的操作;(3)專(zhuān)用硬件和通用硬件內(nèi)都支持流水線(xiàn)并行,硬件利用率高;(4)專(zhuān)用硬件片內(nèi)帶寬高,大部分?jǐn)?shù)據(jù)在片內(nèi)傳輸。顯然,如果不考慮物理現(xiàn)實(shí),不管什么神經(jīng)網(wǎng)絡(luò),不管問(wèn)題的規(guī)模有多大,都實(shí)現(xiàn)一套專(zhuān)用硬件是效率最高的做法。問(wèn)題是,這行得通嗎?

現(xiàn)實(shí)中,不管是通用硬件(如GPU)還是專(zhuān)用硬件(如TPU) 都可以通過(guò)高速互聯(lián)技術(shù)連接在一起,通過(guò)軟件協(xié)調(diào)多個(gè)設(shè)備來(lái)完成大規(guī)模計(jì)算。使用最先進(jìn)的互聯(lián)技術(shù),設(shè)備和設(shè)備之間傳輸帶寬可以達(dá)到100Gbps或者更多,這比設(shè)備內(nèi)部帶寬低上一兩個(gè)數(shù)量級(jí),不過(guò)幸好,如果軟件“調(diào)配得當(dāng)”,在這個(gè)帶寬條件下也可能使得硬件計(jì)算飽和。當(dāng)然,“調(diào)配得當(dāng)”技術(shù)挑戰(zhàn)極大,事實(shí)上,單個(gè)設(shè)備速度越快,越難把多個(gè)設(shè)備“調(diào)配得當(dāng)”。

當(dāng)前深度學(xué)習(xí)普遍采用隨機(jī)梯度下降算法(SGD),一般一個(gè)GPU處理一小塊兒數(shù)據(jù)只需要100毫秒的時(shí)間,那么問(wèn)題的關(guān)鍵就成了,“調(diào)配”算法能否在100毫秒的時(shí)間內(nèi)為GPU處理下一塊數(shù)據(jù)做好準(zhǔn)備,如果可以的話(huà),那么GPU就會(huì)一直保持在運(yùn)算狀態(tài),如果不可以,那么GPU就要間歇性的停頓,意味著設(shè)備利用率降低。理論上是可以的,有個(gè)叫運(yùn)算強(qiáng)度(Arithmetic intensity)的概念,即flops per byte,表示一個(gè)字節(jié)的數(shù)據(jù)上發(fā)生的運(yùn)算量,只要這個(gè)運(yùn)算量足夠大,意味著傳輸一個(gè)字節(jié)可以消耗足夠多的計(jì)算量,那么即使設(shè)備間傳輸帶寬低于設(shè)備內(nèi)部帶寬,也有可能使得設(shè)備處于滿(mǎn)負(fù)荷狀態(tài)。進(jìn)一步,如果采用比GPU更快的設(shè)備,那么處理一塊兒數(shù)據(jù)的時(shí)間就比100毫秒更低,譬如10毫秒,在給定的帶寬條件下,“調(diào)配”算法能用10毫秒的時(shí)間為下一次計(jì)算做好準(zhǔn)備嗎?事實(shí)上,即使是使用不那么快(相對(duì)于TPU 等專(zhuān)用芯片)的GPU,當(dāng)前主流的深度學(xué)習(xí)框架在某些場(chǎng)景(譬如模型并行)已經(jīng)力不從心了。

一個(gè)通用的深度學(xué)習(xí)軟件框架要能對(duì)任何給定的神經(jīng)網(wǎng)絡(luò)和可用資源都能最高效的“調(diào)配”硬件,這需要解決三個(gè)核心問(wèn)題:(1)資源分配,包括計(jì)算核心,內(nèi)存,傳輸帶寬三種資源的分配,需要綜合考慮局部性和負(fù)載均衡的問(wèn)題;(2)生成正確的數(shù)據(jù)路由(相當(dāng)于前文想象的專(zhuān)用硬件之間的連線(xiàn)問(wèn)題);(3)高效的運(yùn)行機(jī)制,完美協(xié)調(diào)數(shù)據(jù)搬運(yùn)和計(jì)算,硬件利用率最高。

事實(shí)上,這三個(gè)問(wèn)題都很挑戰(zhàn),本文暫不討論其解法,假設(shè)我們能夠解決這些問(wèn)題的話(huà),會(huì)有什么好處呢?

假設(shè)我們能解決前述的三個(gè)軟件上的難題,那就能“魚(yú)與熊掌兼得”:軟件發(fā)揮靈活性,硬件發(fā)揮高效率,任給一個(gè)深度學(xué)習(xí)任務(wù),用戶(hù)不需要重新連線(xiàn),就能享受那種“無(wú)限大專(zhuān)用硬件”的性能,何其美好。更令人激動(dòng)的是,當(dāng)這種軟件得以實(shí)現(xiàn)時(shí),專(zhuān)用硬件可以比現(xiàn)在所有AI芯片都更簡(jiǎn)單更高效。讀者可以先想象一下怎么實(shí)現(xiàn)這種美好的前景。

袁進(jìn)輝:分享了深度學(xué)習(xí)框架方面的技術(shù)進(jìn)展

讓我們重申一下幾個(gè)觀(guān)點(diǎn):(1)軟件真的非常關(guān)鍵;(2)我們對(duì)宏觀(guān)層次(設(shè)備和設(shè)備之間)的優(yōu)化更感興趣;(3)深度學(xué)習(xí)框架存在一個(gè)理想的實(shí)現(xiàn),正如柏拉圖心中那個(gè)最圓的圓,當(dāng)然現(xiàn)有的深度學(xué)習(xí)框架還相距甚遠(yuǎn);(4)各行各業(yè)的公司,只要有數(shù)據(jù)驅(qū)動(dòng)的業(yè)務(wù),最終都需要一個(gè)自己的“大腦”,這種“大腦”不應(yīng)該只被少數(shù)巨頭公司獨(dú)享。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 硬件
    +關(guān)注

    關(guān)注

    11

    文章

    3328

    瀏覽量

    66223
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121162
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    352

    瀏覽量

    22215

原文標(biāo)題:深度學(xué)習(xí)引擎的終極形態(tài)是什么?

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    深度學(xué)習(xí)在自然語(yǔ)言處理方面的研究進(jìn)展

    要是關(guān)注深度學(xué)習(xí)在自然語(yǔ)言處理方面的研究進(jìn)展,我相信你一定聽(tīng)說(shuō)過(guò)Attention Model(后文有時(shí)會(huì)簡(jiǎn)
    的頭像 發(fā)表于 07-19 09:20 ?7527次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在自然語(yǔ)言處理<b class='flag-5'>方面的</b>研究<b class='flag-5'>進(jìn)展</b>

    2017全國(guó)深度學(xué)習(xí)技術(shù)應(yīng)用大會(huì)

    檢測(cè)與分割深度學(xué)習(xí)的發(fā)展及應(yīng)用  報(bào) 告 人:季向陽(yáng) 清華大學(xué)  報(bào)告摘要:物體檢測(cè)與分割是圖像處理與計(jì)算機(jī)視覺(jué)重要基礎(chǔ)研究方向之一。首先介紹全卷積網(wǎng)絡(luò)在語(yǔ)義分割與實(shí)例掩模研究方面的進(jìn)展
    發(fā)表于 03-22 17:16

    Nanopi深度學(xué)習(xí)之路(1)深度學(xué)習(xí)框架分析

    就能實(shí)現(xiàn)!還請(qǐng)關(guān)注我后面的日記。實(shí)際上我也是剛剛有時(shí)間學(xué)習(xí)深度學(xué)習(xí),我是個(gè)純初學(xué)者,但面對(duì)深度學(xué)習(xí)
    發(fā)表于 06-04 22:32

    深度學(xué)習(xí)在預(yù)測(cè)和健康管理中的應(yīng)用

    方法方面的最新進(jìn)展,目的是發(fā)現(xiàn)研究差距并提出進(jìn)一步的改進(jìn)建議。在簡(jiǎn)要介紹幾種深度學(xué)習(xí)模型之后,我們回顧并分析
    發(fā)表于 07-12 06:46

    TensorFlow、PyTorch,“后浪”O(jiān)neFlow 有沒(méi)有機(jī)會(huì)

    TensorFlow、PyTorch,“后浪”O(jiān)neFlow 有沒(méi)有機(jī)會(huì) | 一流科技工程師成誠(chéng)編者按:7月31日,一流科技在創(chuàng)業(yè)1300天后,他們宣布開(kāi)源自研的深度學(xué)習(xí)框架OneFlow,此前,CSDN對(duì)CEO
    發(fā)表于 07-27 08:24

    小米AI移動(dòng)端深度學(xué)習(xí)框架MACE開(kāi)源

    MACE,是指小米公司自研的移動(dòng)端深度學(xué)習(xí)框架Mobile AI Compute Engine。2017年12月,這一深度學(xué)習(xí)
    的頭像 發(fā)表于 07-26 14:06 ?5020次閱讀

    深度學(xué)習(xí)框架是什么?深度學(xué)習(xí)框架有哪些?

    深度學(xué)習(xí)框架是什么?深度學(xué)習(xí)框架有哪些?? 深度
    的頭像 發(fā)表于 08-17 16:03 ?2744次閱讀

    深度學(xué)習(xí)框架的作用是什么

    深度學(xué)習(xí)框架的作用是什么 深度學(xué)習(xí)是一種計(jì)算機(jī)技術(shù),它利用人工神經(jīng)網(wǎng)絡(luò)來(lái)模擬人類(lèi)的
    的頭像 發(fā)表于 08-17 16:10 ?1569次閱讀

    深度學(xué)習(xí)框架tensorflow介紹

    深度學(xué)習(xí)框架tensorflow介紹 深度學(xué)習(xí)框架TensorFlow簡(jiǎn)介
    的頭像 發(fā)表于 08-17 16:11 ?2520次閱讀

    深度學(xué)習(xí)算法庫(kù)框架學(xué)習(xí)

    深度學(xué)習(xí)算法庫(kù)框架學(xué)習(xí) 深度學(xué)習(xí)是一種非常強(qiáng)大的機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 08-17 16:11 ?701次閱讀

    深度學(xué)習(xí)框架對(duì)照表

    深度學(xué)習(xí)框架對(duì)照表? 隨著人工智能技術(shù)的發(fā)展,深度學(xué)習(xí)正在成為當(dāng)今最熱門(mén)的研究領(lǐng)域之一。而
    的頭像 發(fā)表于 08-17 16:11 ?804次閱讀

    深度學(xué)習(xí)框架連接技術(shù)

    深度學(xué)習(xí)框架連接技術(shù) 深度學(xué)習(xí)框架是一個(gè)能夠幫助機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?779次閱讀

    深度學(xué)習(xí)框架深度學(xué)習(xí)算法教程

    深度學(xué)習(xí)框架深度學(xué)習(xí)算法教程 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?1086次閱讀

    基于深度學(xué)習(xí)的語(yǔ)音合成技術(shù)進(jìn)展與未來(lái)趨勢(shì)

    近年來(lái),深度學(xué)習(xí)技術(shù)在語(yǔ)音合成領(lǐng)域取得了顯著的進(jìn)展。基于深度學(xué)習(xí)的語(yǔ)音合成
    的頭像 發(fā)表于 09-16 14:48 ?1087次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,在過(guò)去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過(guò)程中,
    的頭像 發(fā)表于 07-02 14:04 ?973次閱讀
    主站蜘蛛池模板: 毛片多多| 在线女同免费观看网站| 成人免费精品视频| 人人干干| 精品三级国产精品经典三| 在线观看s色| 黄色网址播放| 色秀网站| 日本在线观看www| 嫩草影院久久国产精品| 午夜影视免费观看| 干干天天| 性色在线播放| 国产三级日本三级日产三| 久操视频在线观看| 伊人久久综合成人亚洲| 精品卡一卡二 卡四卡视频| 九九福利| 性色爽爱性色爽爱网站| 丁香花五月婷婷开心| 1024手机在线观看视频| 涩涩高清无乱码在线观看| 中国又粗又大又爽的毛片| 国产综合第一页在线视频| 一级毛片aaaaaa免费看| 国产91小视频在线观看| 视频在线免费观看| 色播五月婷婷| 欧美夜夜| 亚洲天堂导航| 成人亚洲综合| 正在播放亚洲一区| 欧美三级一级| 国产综合在线播放| 四虎永久在线精品网址| 天天舔天天色| 一级在线免费视频| 一级片+国产| 中文字幕欧美成人免费| va在线| 欧美日本一区|