在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

盤點AI芯片全新黑科技

ml8z_IV_Technol ? 來源:未知 ? 作者:胡薇 ? 2018-07-19 09:47 ? 次閱讀

許多在AI芯片領域來自學術界和來自工業(yè)界的項目,試圖挑戰(zhàn)CPUGPU。這些項目大體可以分為兩類,一類是基于傳統(tǒng)的數字處理器模型,但是在處理器架構上加以改良,以提高算力以及能效比;第二類則是另辟蹊徑,使用了與傳統(tǒng)處理器完全不一樣的方法來執(zhí)行計算,從而在一些領域中獲得遠高于傳統(tǒng)處理器的性能。今天我們?yōu)榇蠹規(guī)淼氖堑诙惣夹g的總結,我們預期在第二類技術中會有一些能經歷時間的考驗,最終成為主流技術。

隨著大數據和深度學習得到越來越多應用,對于底層硬件和芯片也提出了新的要求。與傳統(tǒng)的處理器強調“處理能力”不同,大數據和深度學習應用強調的往往是“算力”以及“能效比”。由于大數據和深度學習應用算法中的特征提取和處理使用的都往往是實打實的計算,因此需要高算力的芯片以期在盡可能短的時間里完成計算。另一方面,能效比也是重要指標。能效比指的是完成計算所需要的能量,能效比越好則完成相同計算消耗的能量越小。

對于終端芯片, 越來越多的數據由于數據隱私、網絡傳輸帶寬和處理延遲的問題無法傳到云端數據中心完成計算,這也就需要終端芯片能在終端完成計算;同時終端設備的電池容量往往有限,因此終端芯片在完成計算的同時不能消耗太大能量,也就是需要很好的能效比。對于云端數據中心的芯片,同樣也需要很好的能效比,因為散熱成本是數據中心的重要開銷,因此需要芯片散熱不能太大。

在大數據和深度學習應用中,數據間往往都是獨立的,因此可以并行計算。傳統(tǒng)的CPU并行計算能力有限,因此難以實現算力的需求。GPU雖然有很高的算力(10TOPS數量級)而且在數據中心已經得到了應用,但是其功耗也很大(幾百瓦),而且其架構決定了它無法做到終端需要較低功耗(如100mW以下)的場景。同時,即使在數據中心領域,因為GPU設計的初衷是為了圖像渲染而并非大數據運算,因此也存在很大的改善空間。

因此,我們看到了許多在AI芯片領域來自學術界和來自工業(yè)界的項目,試圖挑戰(zhàn)CPU和GPU。這些項目大體可以分為兩類,一類是基于傳統(tǒng)的數字處理器模型,但是在處理器架構上加以改良,以提高算力以及能效比;第二類則是另辟蹊徑,使用了與傳統(tǒng)處理器完全不一樣的方法來執(zhí)行計算,從而在一些領域中獲得遠高于傳統(tǒng)處理器的性能。今天我們?yōu)榇蠹規(guī)淼氖堑诙惣夹g的總結,我們預期在第二類技術中會有一些能經歷時間的考驗,最終成為主流技術。

神經擬態(tài)計算

神經擬態(tài)技術(neuromorphic)事實上源遠流長,上世紀八九十年代就由加州理工的電路大師Carver Mead提出。當時Mead教授注意到MOS器件中電荷流動的現象和人體神經元的放電現象有類似的地方,因此提出了用MOS管模擬神經元以組成神經網絡進行計算,稱之為“神經擬態(tài)”。

需要注意的是,神經擬態(tài)中的神經網絡和現在深度學習算法中的神經網絡略有不同。神經擬態(tài)電路中的神經網絡是對于生物神經元和突觸的高度模擬,包括了神經電位改變、發(fā)射脈沖等過程,該過程既可以用異步數字電路實現,又可以用混合信號電路實現;而深度學習中的神經網絡是對于生物學中神經組織的抽象數學模擬,僅僅描繪了其電位變化的統(tǒng)計學特性而不會去具體描繪其充放電過程。然而,這個充放電過程卻可能是為什么人腦如此節(jié)省能量的一個關鍵。人腦中復雜的神經網絡能實現極其復雜的推理認知過程,然而其功耗卻遠小于一個GPU。

2017年5月美國橡樹嶺國家實驗室發(fā)表了一篇重要的神經擬態(tài)研究綜述,應當說目前人們對于神經擬態(tài)的研究還處于初步階段,許多神經擬態(tài)架構的潛力還沒有被人們發(fā)現,同時如何訓練神經擬態(tài)電路也是一個重要的挑戰(zhàn)。從現在的研究來看,人們發(fā)現神經擬態(tài)的神經元在不被激活的情況下功耗較低,因此可以實現較低的平均功耗,這是一個重要的優(yōu)勢。

舉例來說,當我們部署一套攝像頭加人工智能系統(tǒng)來識別是否有人進入攝像頭視野時,往往很多時間并沒有人出現在視野內。在這種情況下,使用傳統(tǒng)的深度學習算法無論攝像頭事業(yè)內情況如何都需要完成同樣的計算,因此功耗保持恒定;而如果使用神經擬態(tài)芯片則神經元僅僅在有人進入攝像頭事業(yè)時被激活,而在平時沒有人進入視野時神經元處于待機狀態(tài)功耗很低,因此其平均功耗可以遠低于傳統(tǒng)深度學習芯片。

換句話說,神經擬態(tài)電路的能效比可以遠高于傳統(tǒng)GPU/CPU芯片。除此之外,使用在終端的低功耗神經擬態(tài)芯片還能完成在線學習,而使用在終端的傳統(tǒng)深度學習推理加速芯片往往沒有在線學習的能力。這僅僅是神經擬態(tài)電路的一些好處,神經擬態(tài)電路的其他潛力還等待人們去挖掘。

神經擬態(tài)電路芯片的潛力也是一些大公司開始布局的原因。IBM和Intel都推出了自己的神經擬態(tài)芯片(IBM和TrueNorth和Intel的Loihi),可以實現非常高的能效比。我們預期在未來看到更多的神經擬態(tài)電路芯片發(fā)布,能更多挖掘神經擬態(tài)的潛力。

光電計算

硅光子技術目前在數據中心和5G的高速數據傳輸中獲得了越來越多的應用。除此之外,硅光子還可以用來以超低功耗直接加速深度學習計算。

2017年,MIT的Marin Solijacic教授和其研究組在《自然·光子學》期刊上發(fā)表了一篇使用光學器件加速深度學習計算的論文。在深度學習中,絕大部分計算都可以歸化為矩陣運算(這也是GPU用來做深度學習的原理),而實際應用中的矩陣都可以用SVD分解分解成幾個特征矩陣的乘積。一旦使用SVD分解,則兩個矩陣相乘可以使用光學器件(相移器,分光器,衰減器和馬赫-曾德干涉儀)來實現。

更重要的是,兩個矩陣相乘的過程可以轉化為兩束光的干涉,因此深度學習的計算可以以光速完成而且理論功耗為零!該論文提出的設計就是首先把深度學習的兩個輸入調制到兩束光上面,然后讓兩束光在光子芯片的器件上完成SVD分解和干涉相乘,最后再把光信號轉化為數字信號讀出結果。最后,這些光器件都可以集成到同一塊硅光子芯片上,從而實現高性能光計算模組。

MIT的光模塊用于計算深度學習

如前所述,一旦使用光干涉來實現深度學習計算,其計算速度就變成了光速,此外矩陣計算的功耗就變成了0,因此一旦能把光調制、光信號讀出等光信號處理和接口模塊的性能和功耗做好,整體系統(tǒng)的性能和能效比就能快速提升。 MIT的光計算團隊孵化出了 初創(chuàng)公司Lightelligence,目前已經完成A輪融資,光電子用于深度學習的前景讓我們共同拭目以待。

內存內計算

傳統(tǒng)的AI加速器幾乎都是基于馮諾伊曼架構,即內存訪問和計算是分開的。馮諾伊曼架構的問題是內存訪問,因為內存訪問的功耗和延遲等問題都很難降下來,因此內存成為了處理器性能和功耗的瓶頸,也即所謂的“內存墻”。

為了解決內存墻問題,不少學者提出了內存內計算的概念,這種概念在今年ISSCC上更是擁有了一個專門的session,可見學界對于這個方向還是很認可的。最著名的研究當屬MIT Anantha Chandrakasan組。Anantha Chandrakasan在芯片領域可謂是鼎鼎大名,是數字電路經典教科書《Digital Integrated Circuits: A Design Perspective》的作者之一,同時也是低功耗數字電路設計、UWB系統(tǒng)等多個領域的先驅者,基本每年Chandrakasan組在ISSCC都會至少有一篇論文發(fā)表。今年ISSCC上Chandrakasan組發(fā)表的內存內計算論文針對的是權重壓縮至1-bit的神經網絡,當權重僅僅為1-bit的時候,卷積就可以約化成多個數據的平均,而求平均值使用經典的DAC中常用的電荷平均方法可以輕易實現。

因此,該內存中計算的論文實質上是在片上SRAM上接了一個類似DAC中電荷平均的電路,在內存內直接實現模擬計算來求卷積,從而不用再需要處理器和內存之間耗費大量時間和能量移動數據。計算后的結果使用ADC可以再次轉化為數字信號。

相比傳統(tǒng)的數字電路AI加速器,使用內存內計算加模擬計算的電路可以把能效比提高60倍以上,顯示出了極大的潛力。當然,現在該電路還只能針對1-bit權重的網絡,未來如何把內存內計算推廣到更多應用場景,讓我們拭目以待。

量子計算

量子計算是真正顛覆性的范式——當然前提是需要先能把量子計算機制造出來!

量子計算和經典計算最大的不同在于,量子計算使用的是量子態(tài)。不同的量子態(tài)之間是可以互相線性疊加的,因此一個量子比特在測量前可以同時處于多個態(tài)的疊加中。而量子計算可以同時對多個疊加態(tài)進行操作,因此相當于做大量平行計算。

現在量子計算還處于非常早期研究階段,目前只有少數量子算法可以利用量子特性實現指數級的加速,所謂“量子霸權”就是指在某個特定算法可以制造出相應的量子計算機使運行速度超過經典計算機。那么,量子計算如何加速人工智能呢?首先,目前正在積極研究量子版本的線性代數算法,有望實現指數級加速,而AI算法中許多計算的基礎正是線性代數,因此一旦線性代數的量子版算法開發(fā)完成就可以大大加速人工智能計算。另外,以D-Wave為代表的量子退火算法有望能加速最優(yōu)化問題,而人工智能訓練的一個最重要問題其實就是求最優(yōu)化解。因此,量子計算有望能加速人工智能。

谷歌和UCSB聯合研發(fā)的20量子比特芯片

目前量子計算芯片有許多實現方式,包括工作在超低溫下的離子阱和超導電路以及工作在常溫的非線性光器件。應該說這些芯片目前還在很初期的階段,雖然有些芯片已經能實現很多量子比特,但是量子退相干時間和量子門保真度仍然是性能的瓶頸。量子計算進入實用還有很長的路要走,但是一旦成功將會成為顛覆式的發(fā)展,這也是谷歌、IBM和微軟等巨頭都在積極布局量子計算的原因。

結語

本文介紹了一些全新的人工智能芯片技術,包括神經擬態(tài)、光電計算、內存內計算和量子計算。傳統(tǒng)基于馮諾伊曼架構的人工智能加速器芯片存在內存墻等各種限制,我們有望看到這些新技術能在幾年后正式登上舞臺得到廣泛應用。讓我們拭目以待!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 量子計算
    +關注

    關注

    4

    文章

    1108

    瀏覽量

    34978
  • AI芯片
    +關注

    關注

    17

    文章

    1898

    瀏覽量

    35122

原文標題:AI芯片黑科技盤點

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    全球十大AI訓練芯片盤點:華為昇騰910是中國唯一入選

    英國一名資深芯片工程師James W. Hanlon,盤點了當前十大AI訓練芯片。本文對十大芯片的主要性能進行了匯總。
    的頭像 發(fā)表于 10-15 10:47 ?1.6w次閱讀

    #芯片 #AI 世界最強AI芯片H200性能大揭秘!

    芯片AI
    深圳市浮思特科技有限公司
    發(fā)布于 :2023年11月15日 15:54:37

    AI芯片哪里買?

    AI芯片
    芯廣場
    發(fā)布于 :2024年05月31日 16:58:19

    AI智能芯片火熱,全芯片產業(yè)鏈都積極奔著人工智能去

    AI分析的全新功能(如今年IFA展上,華為基于麒麟980推出的“慧眼2.0”),競爭門檻也進一步拉高。擁有先發(fā)優(yōu)勢的玩家們,則更為積極地在AI芯片道路上飛速奔跑。先是8月的最后一天,華
    發(fā)表于 10-10 18:03

    AI發(fā)展對芯片技術有什么影響?

    現在說AI是未來人類技術進步的一大方向,相信大家都不會反對。說到AI芯片技術的關系,我覺得主要體現在兩個方面:第一,AI的發(fā)展要求芯片技術
    發(fā)表于 08-12 06:38

    【免費申請】守衛(wèi)安全的“科技”,HiSpark AI Camera勇擔重任

    門禁,車站機場安檢,大到犯罪嫌疑人追蹤與金融交易,生物特征識別均存在著廣泛的應用空間。本期試用活動給大家?guī)硎匦l(wèi)安全的“科技”——HiSpark AI Camera HarmonyOS 官方定制開發(fā)板,感受
    發(fā)表于 09-10 14:43

    Elliptic Labs與鯊再聯手,兩款全新智能手機搭載 AI Virtual Smart Sensor?

    全球化AI軟件公司及AI Virtual Smart Sensors?領域的世界領導者Elliptic Labs (EuroNext Growth: ELABS.OL)與一流的游戲智能手機制造商
    發(fā)表于 10-14 11:47

    AGM X2的戶外科技大盤點!

    AGM宣布8月16日舉行AGM X2發(fā)布會,在天貓和京東已能夠看到AGM X2的預約頁面。隨著發(fā)布會越來越接近曝光的力度越來越大,而AGM X2作為一款適合戶外人群使用的手機,究竟有什么科技來支撐他們定位的,戶外人群。接下來就一起來盤點AGM X2的戶外
    發(fā)表于 08-15 08:53 ?1.7w次閱讀

    2018ces展會有哪些科技_ces科技盤點

     2018年第51屆國際消費類電子產品展覽會(簡稱CES)于美國時間1月9日-12日在拉斯維加斯召開。CES是世界上最大、影響最為廣泛的消費類電子技術年展,也是全球最大的消費技術盛會。那么在2018ces展會出現了哪些科技?今天小編就來盤點一下。
    發(fā)表于 01-10 14:56 ?3954次閱讀

    Intel推全新云端AI芯片NNP--“Spring Crest”

    昨天,Intel第一屆AI開發(fā)者大會AIDC 2018在美國舊金山藝術宮內舉辦。在英特爾AI總帥、人工智能事業(yè)部(AIPG)總負責人Naveen Rao的演講當中,Intel全新云端AI
    的頭像 發(fā)表于 06-08 11:46 ?4056次閱讀

    IBM全新AI芯片設計登上Nature,解決GPU的算力瓶頸

    現如今的人工智能的神經網絡與GPU密不可分,但是GPU的算力對于未來神經網絡的發(fā)展是不夠用的,好在IBM全新AI芯片設計,能夠解決GPU的算力瓶頸。
    發(fā)表于 06-13 09:28 ?1425次閱讀

    鯊科技官方宣布啟用全新logo 鯊3將成為首部換裝全新logo的新機

    2月23日夜間,鯊科技官方宣布,鯊品牌全面升級,同時啟用全新logo。毫無疑問,接下來的鯊3將成為首部換裝全新logo的新機。
    的頭像 發(fā)表于 02-24 09:31 ?4602次閱讀

    中國芯片公司排名_中國十大芯片企業(yè)盤點

    本文主要闡述了中國十大芯片企業(yè)盤點。
    的頭像 發(fā)表于 08-10 09:51 ?39.2w次閱讀

    AMD發(fā)布全新AI芯片Instinct MI325X

    在近日舉行的COMPUTEX臺北國際電腦展上,AMD董事長兼CEO蘇姿豐發(fā)表了精彩演講,并正式發(fā)布了一款備受矚目的AI芯片——Instinct MI325X。這款芯片預計將于2024年第四季度正式上市,將為
    的頭像 發(fā)表于 06-04 14:49 ?1016次閱讀

    炬芯科技發(fā)布全新端側AI音頻芯片

    近日,搭載炬芯科技藍牙音頻SoC芯片的新一代AI智能藍牙耳機全新上市!
    的頭像 發(fā)表于 11-21 14:41 ?356次閱讀
    主站蜘蛛池模板: 久久狠狠干| 美女张开腿让男生桶出水| 久久精品伊人波多野结| 久久草精品| 国产成人福利夜色影视| 无人区理论片手机看片| 亚洲高清免费| 天堂资源在线播放| 亚洲一二三四区| 伊人色强在线网| 狠狠操天天干| 中国性猛交xxxxx免费看| 久久semm亚洲国产| aa2424在线视频看片| h在线观看免费| 免费被视频网站在线观看| avtt天堂网 手机资源| 美女被异性狂揉下部羞羞视频| 一区二区三区高清在线观看| 色综合久久一区二区三区| 毛片站| 成人伊人| 欧美1024| 黑粗硬大欧美视频| 男人操女人在线观看| 在线资源天堂| 日韩色爱| 色婷婷视频在线观看| 免费看吻胸亲嘴激烈网站| 欧美性视频一区二区三区| 特黄特色三级在线播放| 欧美人与动另类在线| 高清性色生活片久久久| 国产免费久久精品| 国产精品 视频一区 二区三区| 国模私拍在线观看| 亚洲黄色网址| 99久久伊人一区二区yy5099| 国产精品高清免费网站| 被暗卫肉高h| 日本特级视频|