在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI芯片和傳統(tǒng)芯片的區(qū)別與應(yīng)用

旺材芯片 ? 來(lái)源:yxw ? 2019-06-06 10:53 ? 次閱讀

所謂的AI芯片,一般是指針對(duì)AI算法ASIC(專(zhuān)用芯片)。

傳統(tǒng)的CPU、GPU都可以拿來(lái)執(zhí)行AI算法,但是速度慢,性能低,無(wú)法實(shí)際商用。

比如,自動(dòng)駕駛需要識(shí)別道路行人紅綠燈等狀況,但是如果是當(dāng)前的CPU去算,那么估計(jì)車(chē)翻到河里了還沒(méi)發(fā)現(xiàn)前方是河,這是速度慢,時(shí)間就是生命。如果用GPU,的確速度要快得多,但是,功耗大,汽車(chē)的電池估計(jì)無(wú)法長(zhǎng)時(shí)間支撐正常使用,而且,老黃家的GPU巨貴,經(jīng)常單塊上萬(wàn),普通消費(fèi)者也用不起,還經(jīng)常缺貨。另外,GPU因?yàn)椴皇菍?zhuān)門(mén)針對(duì)AI算法開(kāi)發(fā)的ASIC,所以,說(shuō)到底,速度還沒(méi)到極限,還有提升空間。而類(lèi)似智能駕駛這樣的領(lǐng)域,必須快!在手機(jī)終端,可以自行人臉識(shí)別、語(yǔ)音識(shí)別等AI應(yīng)用,這個(gè)必須功耗低,所以GPU OUT!

所以,開(kāi)發(fā)ASIC就成了必然。

說(shuō)說(shuō),為什么需要AI芯片。

AI算法,在圖像識(shí)別等領(lǐng)域,常用的是CNN卷積網(wǎng)絡(luò),語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域,主要是RNN,這是兩類(lèi)有區(qū)別的算法。但是,他們本質(zhì)上,都是矩陣或vector的乘法、加法,然后配合一些除法、指數(shù)等算法。

一個(gè)成熟的AI算法,比如YOLO-V3,就是大量的卷積、殘差網(wǎng)絡(luò)、全連接等類(lèi)型的計(jì)算,本質(zhì)是乘法和加法。對(duì)于YOLO-V3來(lái)說(shuō),如果確定了具體的輸入圖形尺寸,那么總的乘法加法計(jì)算次數(shù)是確定的。比如一萬(wàn)億次。(真實(shí)的情況比這個(gè)大得多的多)

那么要快速執(zhí)行一次YOLO-V3,就必須執(zhí)行完一萬(wàn)億次的加法乘法次數(shù)。

這個(gè)時(shí)候就來(lái)看了,比如IBM的POWER8,最先進(jìn)的服務(wù)器用超標(biāo)量CPU之一,4GHz,SIMD,128bit,假設(shè)是處理16bit的數(shù)據(jù),那就是8個(gè)數(shù),那么一個(gè)周期,最多執(zhí)行8個(gè)乘加計(jì)算。一次最多執(zhí)行16個(gè)操作。這還是理論上,其實(shí)是不大可能的。

那么CPU一秒鐘的巔峰計(jì)算次數(shù)=16X4Gops=64Gops。

這樣,可以算算CPU計(jì)算一次的時(shí)間了。

同樣的,換成GPU算算,也能知道執(zhí)行時(shí)間。因?yàn)閷?duì)GPU內(nèi)部結(jié)構(gòu)不熟,所以不做具體分析。

再來(lái)說(shuō)說(shuō)AI芯片。比如大名鼎鼎的谷歌的TPU1。

TPU1,大約700M Hz,有256X256尺寸的脈動(dòng)陣列,如下圖所示。一共256X256=64K個(gè)乘加單元,每個(gè)單元一次可執(zhí)行一個(gè)乘法和一個(gè)加法。那就是128K個(gè)操作。(乘法算一個(gè),加法再算一個(gè))

另外,除了脈動(dòng)陣列,還有其他模塊,比如激活等,這些里面也有乘法、加法等。

所以,看看TPU1一秒鐘的巔峰計(jì)算次數(shù)至少是=128K X 700MHz=89600Gops=大約90Tops。

對(duì)比一下CPU與TPU1,會(huì)發(fā)現(xiàn)計(jì)算能力有幾個(gè)數(shù)量級(jí)的差距,這就是為啥說(shuō)CPU慢。

當(dāng)然,以上的數(shù)據(jù)都是完全最理想的理論值,實(shí)際情況,能夠達(dá)到5%吧。因?yàn)椋酒系拇鎯?chǔ)不夠大,所以數(shù)據(jù)會(huì)存儲(chǔ)在DRAM中,從DRAM取數(shù)據(jù)很慢的,所以,乘法邏輯往往要等待。另外,AI算法有許多層網(wǎng)絡(luò)組成,必須一層一層的算,所以,在切換層的時(shí)候,乘法邏輯又是休息的,所以,諸多因素造成了實(shí)際的芯片并不能達(dá)到利潤(rùn)的計(jì)算峰值,而且差距還極大。

可能有人要說(shuō),搞研究慢一點(diǎn)也能將就用。

目前來(lái)看,神經(jīng)網(wǎng)絡(luò)的尺寸是越來(lái)越大,參數(shù)越來(lái)越多,遇到大型NN模型,訓(xùn)練需要花幾周甚至一兩個(gè)月的時(shí)候,你會(huì)耐心等待么?突然斷電,一切重來(lái)?(曾經(jīng)動(dòng)手訓(xùn)練一個(gè)寫(xiě)小說(shuō)的AI,然后,一次訓(xùn)練(50輪)需要大約一天一夜還多,記得如果第一天早上開(kāi)始訓(xùn)練,需要到第二天下午才可能完成,這還是模型比較簡(jiǎn)單,數(shù)據(jù)只有幾萬(wàn)條的小模型呀。)

修改了模型,需要幾個(gè)星期才能知道對(duì)錯(cuò),確定等得起?

突然有了TPU,然后你發(fā)現(xiàn),吃個(gè)午飯回來(lái)就好了,參數(shù)優(yōu)化一下,繼續(xù)跑,多么爽!

計(jì)算速度快,才能迅速反復(fù)迭代,研發(fā)出更強(qiáng)的AI模型。速度就是金錢(qián)。

GPU的內(nèi)核結(jié)構(gòu)不清楚,所以就不比較了??隙ǖ氖牵珿PU還是比較快的,至少比CPU快得多,所以目前大多數(shù)都用GPU,這玩意隨便一個(gè)都能價(jià)格輕松上萬(wàn),太貴,而且,功耗高,經(jīng)常缺貨。不適合數(shù)據(jù)中心大量使用。

總的來(lái)說(shuō),CPU與GPU并不是AI專(zhuān)用芯片,為了實(shí)現(xiàn)其他功能,內(nèi)部有大量其他邏輯,而這些邏輯對(duì)于目前的AI算法來(lái)說(shuō)是完全用不上的,所以,自然造成CPU與GPU并不能達(dá)到最優(yōu)的性?xún)r(jià)比。

谷歌花錢(qián)研發(fā)TPU,而且目前已經(jīng)出了TPU3,用得還挺歡,都開(kāi)始支持谷歌云計(jì)算服務(wù)了,貌似6點(diǎn)幾美元每小時(shí)吧,不記得單位了,懶得查.

可見(jiàn),谷歌覺(jué)得很有必要自己研發(fā)TPU。

看到有答案點(diǎn)我名說(shuō)不應(yīng)該用CPU做對(duì)比,這個(gè)鍋我不背。

做一點(diǎn)解釋。

目前在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域,精度最高的算法就是基于深度學(xué)習(xí)的,傳統(tǒng)的機(jī)器學(xué)習(xí)的計(jì)算精度已經(jīng)被超越,目前應(yīng)用最廣的算法,估計(jì)非深度學(xué)習(xí)莫屬,而且,傳統(tǒng)機(jī)器學(xué)習(xí)的計(jì)算量與 深度學(xué)習(xí)比起來(lái)少很多,所以,我討論AI芯片時(shí)就針對(duì)計(jì)算量特別大的深度學(xué)習(xí)而言。畢竟,計(jì)算量小的算法,說(shuō)實(shí)話,CPU已經(jīng)很快了。而且,CPU適合執(zhí)行調(diào)度復(fù)雜的算法,這一點(diǎn)是GPU與AI芯片都做不到的,所以他們?nèi)咧皇轻槍?duì)不同的應(yīng)用場(chǎng)景而已,都有各自的主場(chǎng)。

至于為何用了CPU做對(duì)比?

而沒(méi)有具體說(shuō)GPU。是因?yàn)椋艺f(shuō)了,我目前沒(méi)有系統(tǒng)查看過(guò)GPU的論文,不了解GPU的情況,故不做分析。因?yàn)榉e累的緣故,比較熟悉超標(biāo)量CPU,所以就用熟悉的CPU做詳細(xì)比較。而且,小型的網(wǎng)絡(luò),完全可以用CPU去訓(xùn)練,沒(méi)啥大問(wèn)題,最多慢一點(diǎn)。只要不是太大的網(wǎng)絡(luò)模型。

那些AI算法公司,比如曠世、商湯等,他們的模型很大,自然也不是一塊GPU就能搞定的。GPU的算力也是很有限的。

至于說(shuō)CPU是串行,GPU是并行。

沒(méi)錯(cuò),但是不全面。只說(shuō)說(shuō)CPU串行。這位網(wǎng)友估計(jì)對(duì)CPU沒(méi)有非常深入的理解。我的回答中舉的CPU是IBM的POWER8,百度一下就知道,這是超標(biāo)量的服務(wù)器用CPU,目前來(lái)看,性能已經(jīng)是非常頂級(jí)的了,主頻4GHZ。不知是否注意到我說(shuō)了這是SIMD?這個(gè)SIMD,就代表他可以同時(shí)執(zhí)行多條同樣的指令,這就是并行,而不是串行。單個(gè)數(shù)據(jù)是128bit的,如果是16bit的精度,那么一周期理論上最多可以計(jì)算八組數(shù)據(jù)的乘法或加法,或者乘加。這還不叫并行?只是并行的程度沒(méi)有GPU那么厲害而已,但是,這也是并行。

不知道為啥就不能用CPU來(lái)比較算力?

有評(píng)論很推崇GPU。說(shuō)用CPU來(lái)做比較,不合適。

拜托,GPU本來(lái)是從CPU中分離出來(lái)專(zhuān)門(mén)處理圖像計(jì)算的,也就是說(shuō),GPU是專(zhuān)門(mén)處理圖像計(jì)算的。包括各種特效的顯示。這也是GPU的天生的缺陷,GPU更加針對(duì)圖像的渲染等計(jì)算算法。但是,這些算法,與深度學(xué)習(xí)的算法還是有比較大的區(qū)別,而我的回答里提到的AI芯片,比如TPU,這個(gè)是專(zhuān)門(mén)針對(duì)CNN等典型深度學(xué)習(xí)算法而開(kāi)發(fā)的。另外,寒武紀(jì)的NPU,也是專(zhuān)門(mén)針對(duì)神經(jīng)網(wǎng)絡(luò)的,與TPU類(lèi)似。

谷歌的TPU,寒武紀(jì)的DianNao,這些AI芯片剛出道的時(shí)候,就是用CPU/GPU來(lái)對(duì)比的。

回顧一下歷史。

上個(gè)世紀(jì)出現(xiàn)神經(jīng)網(wǎng)絡(luò)的時(shí)候,那一定是用CPU計(jì)算的。

比特幣剛出來(lái),那也是用CPU在挖。目前已經(jīng)進(jìn)化成ASIC礦機(jī)了。比特大陸了解一下。

從2006年開(kāi)始開(kāi)啟的深度學(xué)習(xí)熱潮,CPU與GPU都能計(jì)算,發(fā)現(xiàn)GPU速度更快,但是貴啊,更多用的是CPU,而且,那時(shí)候GPU的CUDA可還不怎么樣,后來(lái),隨著NN模型越來(lái)越大,GPU的優(yōu)勢(shì)越來(lái)越明顯,CUDA也越來(lái)越6,目前就成了GPU的專(zhuān)場(chǎng)。

寒武紀(jì)2014年的DianNao(NPU)比CPU快,而且更加節(jié)能。ASIC的優(yōu)勢(shì)很明顯啊。這也是為啥要開(kāi)發(fā)ASIC的理由。

至于說(shuō)很多公司的方案是可編程的,也就是大多數(shù)與FPGA配合。你說(shuō)的是商湯、深鑒么?的確,他們發(fā)表的論文,就是基于FPGA的。

這些創(chuàng)業(yè)公司,他們更多研究的是算法,至于芯片,還不是重點(diǎn),另外,他們暫時(shí)還沒(méi)有那個(gè)精力與實(shí)力。FPGA非常靈活,成本不高,可以很快實(shí)現(xiàn)架構(gòu)設(shè)計(jì)原型,所以他們自然會(huì)選擇基于FPGA的方案。不過(guò),最近他們都大力融資,官網(wǎng)也在招聘芯片設(shè)計(jì)崗位,所以,應(yīng)該也在涉足ASIC研發(fā)了。

如果以FPGA為代表的可編程方案真的有巨大的商業(yè)價(jià)值,那他們何必砸錢(qián)去做ASIC?

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 芯片
    +關(guān)注

    關(guān)注

    456

    文章

    51012

    瀏覽量

    425291
  • asic
    +關(guān)注

    關(guān)注

    34

    文章

    1205

    瀏覽量

    120600
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4760

    瀏覽量

    129128
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1898

    瀏覽量

    35121

原文標(biāo)題:精華 | AI 芯片和傳統(tǒng)芯片的區(qū)別

文章出處:【微信號(hào):wc_ysj,微信公眾號(hào):旺材芯片】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    soc芯片傳統(tǒng)芯片的主要區(qū)別在哪

    隨著科技的飛速發(fā)展,半導(dǎo)體行業(yè)也在不斷地推陳出新。SoC(System on a Chip,系統(tǒng)級(jí)芯片)作為一種新型的集成電路,正在逐漸取代傳統(tǒng)芯片設(shè)計(jì)。 1. 定義與基本概念 傳統(tǒng)
    的頭像 發(fā)表于 11-10 09:15 ?1414次閱讀

    SOC芯片傳統(tǒng)芯片區(qū)別

    隨著電子技術(shù)的發(fā)展,芯片技術(shù)也在不斷進(jìn)步。SOC(System on Chip)芯片作為一種高度集成的集成電路,已經(jīng)成為現(xiàn)代電子設(shè)備中不可或缺的核心部件。與傳統(tǒng)芯片相比,SOC
    的頭像 發(fā)表于 10-31 14:51 ?1219次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬(wàn)億的參
    的頭像 發(fā)表于 10-23 15:01 ?811次閱讀

    ai大模型和傳統(tǒng)ai區(qū)別在哪?

    AI大模型和傳統(tǒng)AI區(qū)別主要體現(xiàn)在以下幾個(gè)方面: 數(shù)據(jù)量和訓(xùn)練規(guī)模 AI大模型通常需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,以獲得更好的性能。相比之下,
    的頭像 發(fā)表于 07-16 10:06 ?1469次閱讀

    AI大模型與傳統(tǒng)AI區(qū)別

    AI大模型(如LLM,即大型語(yǔ)言模型)與傳統(tǒng)AI在多個(gè)方面存在顯著的區(qū)別。以下將從技術(shù)層面、應(yīng)用場(chǎng)景、性能表現(xiàn)、計(jì)算資源和成本、以及發(fā)展趨勢(shì)和挑戰(zhàn)等角度進(jìn)行詳細(xì)闡述。
    的頭像 發(fā)表于 07-15 11:37 ?2975次閱讀

    硅光芯片傳統(tǒng)芯片區(qū)別

    材料差異: 硅光芯片主要使用硅作為材料,而傳統(tǒng)芯片則使用硅晶體。硅光芯片利用硅的光學(xué)特性,而傳統(tǒng)芯片
    的頭像 發(fā)表于 07-12 09:33 ?7391次閱讀

    神經(jīng)網(wǎng)絡(luò)芯片傳統(tǒng)芯片區(qū)別和聯(lián)系

    應(yīng)運(yùn)而生,成為解決深度學(xué)習(xí)計(jì)算問(wèn)題的關(guān)鍵技術(shù)之一。本文將從多個(gè)角度探討神經(jīng)網(wǎng)絡(luò)芯片傳統(tǒng)芯片區(qū)別和聯(lián)系。 神經(jīng)網(wǎng)絡(luò)芯片
    的頭像 發(fā)表于 07-04 09:31 ?1033次閱讀

    AI芯片哪里買(mǎi)?

    AI芯片
    芯廣場(chǎng)
    發(fā)布于 :2024年05月31日 16:58:19

    集成芯片和外掛芯片區(qū)別

    集成芯片和外掛芯片是電子設(shè)備中兩種不同的組件,它們?cè)谠O(shè)計(jì)、功能集成度、性能和成本等方面有所區(qū)別
    的頭像 發(fā)表于 03-22 17:26 ?1251次閱讀

    ai芯片是什么東西 ai芯片和普通芯片區(qū)別

    AI芯片是專(zhuān)門(mén)為人工智能應(yīng)用設(shè)計(jì)的處理器,它們能夠高效地執(zhí)行AI算法,特別是機(jī)器學(xué)習(xí)和深度學(xué)習(xí)任務(wù)。
    的頭像 發(fā)表于 03-21 18:11 ?7289次閱讀

    交換芯片和phy芯片區(qū)別

    交換芯片和PHY芯片在網(wǎng)絡(luò)通信中各自扮演重要角色,但它們之間存在一些顯著的區(qū)別。
    的頭像 發(fā)表于 03-18 14:13 ?2661次閱讀

    fpga芯片和soc芯片區(qū)別

    FPGA芯片和SoC芯片在多個(gè)方面存在顯著的區(qū)別。
    的頭像 發(fā)表于 03-14 17:28 ?3197次閱讀

    fpga芯片和普通芯片區(qū)別

    FPGA芯片和普通芯片在多個(gè)方面存在顯著的區(qū)別。
    的頭像 發(fā)表于 03-14 17:27 ?1799次閱讀

    fpga芯片和人工智能芯片區(qū)別

    FPGA芯片和人工智能芯片AI芯片)在設(shè)計(jì)和應(yīng)用上存在一些關(guān)鍵的區(qū)別,這些區(qū)別主要體現(xiàn)在它們的
    的頭像 發(fā)表于 03-14 17:26 ?1309次閱讀

    英偉達(dá)將用AI設(shè)計(jì)AI芯片

    AI芯片行業(yè)資訊
    深圳市浮思特科技有限公司
    發(fā)布于 :2024年02月19日 17:54:43
    主站蜘蛛池模板: 天天躁狠狠躁夜夜躁2021| 真人午夜a一级毛片| 性满足久久久久久久久| 国产午夜视频在永久在线观看| 天天曰| 天天上天天操| 日本tv欧美tv天堂| 九九热精品在线| 亚洲毛片基地4455ww| 555成人免费影院| 久久精品国产精品亚洲婷婷| 在线色视频网站| 亚洲国产成人在线| 色多多在线免费观看| 黑人一区二区三区中文字幕| 国产一区二区在线视频播放| 欲色网站| 如色网| 激五月| 午夜在线播放视频| 人人干免费| 欧美在线视频免费播放| 免费大片a一级一级| 性色成人网| 免费色视频在线观看| xx视频在线| 免费在线a视频| avtom影院永久转四虎入口| 中文字幕在线乱码免费毛片| 色综合网天天综合色中文男男| 欧美xxxxxbbbb| 性日韩| 女性一级全黄生活片免费看 | 免费 在线播放| 手机看片神马午夜片| 国产精品资源网站在线观看| 美女视频黄a视频免费全过程| 超薄肉色丝袜精品足j福利| 亚洲68283精品人体| 四虎永久在线精品免费影视| 看免费黄色大片|