在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

盤點全新的人工智能芯片技術

傳感器技術 ? 來源:未知 ? 作者:胡薇 ? 2018-07-20 15:29 ? 次閱讀

隨著大數據和深度學習得到越來越多應用,對于底層硬件和芯片也提出了新的要求。與傳統的處理器強調“處理能力”不同,大數據和深度學習應用強調的往往是“算力”以及“能效比”。由于大數據和深度學習應用算法中的特征提取和處理使用的都往往是實打實的計算,因此需要高算力的芯片以期在盡可能短的時間里完成計算。另一方面,能效比也是重要指標。能效比指的是完成計算所需要的能量,能效比越好則完成相同計算消耗的能量越小。

對于終端芯片, 越來越多的數據由于數據隱私、網絡傳輸帶寬和處理延遲的問題無法傳到云端數據中心完成計算,這也就需要終端芯片能在終端完成計算;同時終端設備的電池容量往往有限,因此終端芯片在完成計算的同時不能消耗太大能量,也就是需要很好的能效比。對于云端數據中心的芯片,同樣也需要很好的能效比,因為散熱成本是數據中心的重要開銷,因此需要芯片散熱不能太大。

在大數據和深度學習應用中,數據間往往都是獨立的,因此可以并行計算。傳統的CPU并行計算能力有限,因此難以實現算力的需求。GPU雖然有很高的算力(10TOPS數量級)而且在數據中心已經得到了應用,但是其功耗也很大(幾百瓦),而且其架構決定了它無法做到終端需要較低功耗(如100mW以下)的場景。同時,即使在數據中心領域,因為GPU設計的初衷是為了圖像渲染而并非大數據運算,因此也存在很大的改善空間。

因此,我們看到了許多在AI芯片領域來自學術界和來自工業界的項目,試圖挑戰CPU和GPU。這些項目大體可以分為兩類,一類是基于傳統的數字處理器模型,但是在處理器架構上加以改良,以提高算力以及能效比;第二類則是另辟蹊徑,使用了與傳統處理器完全不一樣的方法來執行計算,從而在一些領域中獲得遠高于傳統處理器的性能。今天我們為大家帶來的是第二類技術的總結,我們預期在第二類技術中會有一些能經歷時間的考驗,最終成為主流技術。

神經擬態計算

神經擬態技術(neuromorphic)事實上源遠流長,上世紀八九十年代就由加州理工的電路大師Carver Mead提出。當時Mead教授注意到MOS器件中電荷流動的現象和人體神經元的放電現象有類似的地方,因此提出了用MOS管模擬神經元以組成神經網絡進行計算,稱之為“神經擬態”。

需要注意的是,神經擬態中的神經網絡和現在深度學習算法中的神經網絡略有不同。神經擬態電路中的神經網絡是對于生物神經元和突觸的高度模擬,包括了神經電位改變、發射脈沖等過程,該過程既可以用異步數字電路實現,又可以用混合信號電路實現;而深度學習中的神經網絡是對于生物學中神經組織的抽象數學模擬,僅僅描繪了其電位變化的統計學特性而不會去具體描繪其充放電過程。然而,這個充放電過程卻可能是為什么人腦如此節省能量的一個關鍵。人腦中復雜的神經網絡能實現極其復雜的推理認知過程,然而其功耗卻遠小于一個GPU。

2017年5月美國橡樹嶺國家實驗室發表了一篇重要的神經擬態研究綜述,應當說目前人們對于神經擬態的研究還處于初步階段,許多神經擬態架構的潛力還沒有被人們發現,同時如何訓練神經擬態電路也是一個重要的挑戰。從現在的研究來看,人們發現神經擬態的神經元在不被激活的情況下功耗較低,因此可以實現較低的平均功耗,這是一個重要的優勢。

舉例來說,當我們部署一套攝像頭加人工智能系統來識別是否有人進入攝像頭視野時,往往很多時間并沒有人出現在視野內。在這種情況下,使用傳統的深度學習算法無論攝像頭事業內情況如何都需要完成同樣的計算,因此功耗保持恒定;而如果使用神經擬態芯片則神經元僅僅在有人進入攝像頭事業時被激活,而在平時沒有人進入視野時神經元處于待機狀態功耗很低,因此其平均功耗可以遠低于傳統深度學習芯片。

換句話說,神經擬態電路的能效比可以遠高于傳統GPU/CPU芯片。除此之外,使用在終端的低功耗神經擬態芯片還能完成在線學習,而使用在終端的傳統深度學習推理加速芯片往往沒有在線學習的能力。這僅僅是神經擬態電路的一些好處,神經擬態電路的其他潛力還等待人們去挖掘。

神經擬態電路芯片的潛力也是一些大公司開始布局的原因。IBM和Intel都推出了自己的神經擬態芯片(IBM和TrueNorth和Intel的Loihi),可以實現非常高的能效比。我們預期在未來看到更多的神經擬態電路芯片發布,能更多挖掘神經擬態的潛力。

光電計算

硅光子技術目前在數據中心和5G的高速數據傳輸中獲得了越來越多的應用。除此之外,硅光子還可以用來以超低功耗直接加速深度學習計算。

2017年,MIT的Marin Solijacic教授和其研究組在《自然·光子學》期刊上發表了一篇使用光學器件加速深度學習計算的論文。在深度學習中,絕大部分計算都可以歸化為矩陣運算(這也是GPU用來做深度學習的原理),而實際應用中的矩陣都可以用SVD分解分解成幾個特征矩陣的乘積。一旦使用SVD分解,則兩個矩陣相乘可以使用光學器件(相移器,分光器,衰減器和馬赫-曾德干涉儀)來實現。

更重要的是, 兩個矩陣相乘的過程可以轉化為兩束光的干涉,因此深度學習的計算可以以光速完成而且理論功耗為零!該論文提出的設計就是首先把深度學習的兩個輸入調制到兩束光上面,然后讓兩束光在光子芯片的器件上完成SVD分解和干涉相乘,最后再把光信號轉化為數字信號讀出結果。最后,這些光器件都可以集成到同一塊硅光子芯片上,從而實現高性能光計算模組。

MIT的光模塊用于計算深度學習

如前所述,一旦使用光干涉來實現深度學習計算,其計算速度就變成了光速,此外矩陣計算的功耗就變成了0,因此一旦能把光調制、光信號讀出等光信號處理和接口模塊的性能和功耗做好,整體系統的性能和能效比就能快速提升。 MIT的光計算團隊孵化出了 初創公司Lightelligence,目前已經完成A輪融資,光電子用于深度學習的前景讓我們共同拭目以待。

內存內計算

傳統的AI加速器幾乎都是基于馮諾伊曼架構,即內存訪問和計算是分開的。馮諾伊曼架構的問題是內存訪問,因為內存訪問的功耗和延遲等問題都很難降下來,因此內存成為了處理器性能和功耗的瓶頸,也即所謂的“內存墻”。

為了解決內存墻問題,不少學者提出了內存內計算的概念,這種概念在今年ISSCC上更是擁有了一個專門的session,可見學界對于這個方向還是很認可的。最著名的研究當屬MIT Anantha Chandrakasan組。Anantha Chandrakasan在芯片領域可謂是鼎鼎大名,是數字電路經典教科書《Digital Integrated Circuits: A Design Perspective》的作者之一,同時也是低功耗數字電路設計、UWB系統等多個領域的先驅者,基本每年Chandrakasan組在ISSCC都會至少有一篇論文發表。今年ISSCC上Chandrakasan組發表的內存內計算論文針對的是權重壓縮至1-bit的神經網絡,當權重僅僅為1-bit的時候,卷積就可以約化成多個數據的平均,而求平均值使用經典的DAC中常用的電荷平均方法可以輕易實現。

因此,該內存中計算的論文實質上是在片上SRAM上接了一個類似DAC中電荷平均的電路,在內存內直接實現模擬計算來求卷積,從而不用再需要處理器和內存之間耗費大量時間和能量移動數據。計算后的結果使用ADC可以再次轉化為數字信號。

相比傳統的數字電路AI加速器,使用內存內計算加模擬計算的電路可以把能效比提高60倍以上,顯示出了極大的潛力。當然,現在該電路還只能針對1-bit權重的網絡,未來如何把內存內計算推廣到更多應用場景,讓我們拭目以待。

量子計算

量子計算是真正顛覆性的范式——當然前提是需要先能把量子計算機制造出來!

量子計算和經典計算最大的不同在于,量子計算使用的是量子態。不同的量子態之間是可以互相線性疊加的,因此一個量子比特在測量前可以同時處于多個態的疊加中。而量子計算可以同時對多個疊加態進行操作,因此相當于做大量平行計算。

現在量子計算還處于非常早期研究階段,目前只有少數量子算法可以利用量子特性實現指數級的加速,所謂“量子霸權”就是指在某個特定算法可以制造出相應的量子計算機使運行速度超過經典計算機。那么,量子計算如何加速人工智能呢?首先,目前正在積極研究量子版本的線性代數算法,有望實現指數級加速,而AI算法中許多計算的基礎正是線性代數,因此一旦線性代數的量子版算法開發完成就可以大大加速人工智能計算。另外,以D-Wave為代表的量子退火算法有望能加速最優化問題,而人工智能訓練的一個最重要問題其實就是求最優化解。因此,量子計算有望能加速人工智能。

谷歌和UCSB聯合研發的20量子比特芯片

目前量子計算芯片有許多實現方式,包括工作在超低溫下的離子阱和超導電路以及工作在常溫的非線性光器件。應該說這些芯片目前還在很初期的階段,雖然有些芯片已經能實現很多量子比特,但是量子退相干時間和量子門保真度仍然是性能的瓶頸。量子計算進入實用還有很長的路要走,但是一旦成功將會成為顛覆式的發展,這也是谷歌、IBM和微軟等巨頭都在積極布局量子計算的原因。

結語

本文介紹了一些全新的人工智能芯片技術,包括神經擬態、光電計算、內存內計算和量子計算。傳統基于馮諾伊曼架構的人工智能加速器芯片存在內存墻等各種限制,我們有望看到這些新技術能在幾年后正式登上舞臺得到廣泛應用。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 量子計算
    +關注

    關注

    4

    文章

    1108

    瀏覽量

    34982
  • 大數據
    +關注

    關注

    64

    文章

    8900

    瀏覽量

    137591
  • 深度學習
    +關注

    關注

    73

    文章

    5510

    瀏覽量

    121349

原文標題:AI芯片黑科技盤點

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    人工智能是什么?

    ` 人工智能是什么?什么是人工智能人工智能是未來發展的必然趨勢嗎?以后人工智能技術真的能達到電影里機器人的智能水平嗎?如果
    發表于 09-16 15:40

    人工智能技術—AI

      人工智能技術的概念從出來到現在已經有很多年的歷史了,其實所謂的人工智能技術本身就是一種模擬人類大腦的思考方式的一種技術,它的英文簡稱是AI技術,在西方國家,
    發表于 10-21 12:03

    人工智能傳感技術

    人工智能傳感技術,希望有興趣的人共享
    發表于 06-03 09:03

    百度人工智能大神離職,人工智能的出路在哪?

    政策紅利,并未考慮過自己是否具備這個技術能力。可以說,真正具備一定人工智能技術并落實生產的企業是鳳毛麟角。 好多智能設備大肆宣傳人工智能技術,機器人流行。其實在我看來,真正
    發表于 03-23 17:00

    人工智能就業前景

    越大薪酬越高的現象。人工智能目前是一個快速增長的領域,人才需求量大,相比于其他技術崗位,競爭度偏低,薪資相對較高,因此,現在是進入人工智能領域的大好時機。研究還表明,掌握三種以上技能的人
    發表于 03-29 15:46

    解讀人工智能的未來

    被稱為狹義人工智能,因為它只能做一件特定的事情。狹義AI是構建AGI的第一步嗎?許多對AGI感到困惑的人認為目前研發人員應該正在用同樣的技術把這些分散的狹義AI拼湊起來。有趣的是,關于自動化
    發表于 11-14 10:43

    2018人工智能芯片技術白皮書 中文版

    》,我們可以清晰地看到AI芯片人工智能產業和半導體產業交叉融合的新節點,涉及多個學科、多個領域的理論和技術基礎,突顯對基礎扎實、創新能力強的人才的需求。`
    發表于 12-13 16:40

    初學AI人工智能需要哪些技術?這幾本書為你解答

    手把手教你設計人工智能芯片及系統(全階設計教程+AI芯片FPGA實現+開發板)詳情鏈接:http://url.elecfans.com/u/c422a4bd15人工智能(Artific
    發表于 01-21 14:26

    人工智能技術及算法設計指南

    手把手教你設計人工智能芯片及系統(全階設計教程+AI芯片FPGA實現+開發板)詳情鏈接:http://url.elecfans.com/u/c422a4bd15人工智能各種
    發表于 02-12 14:07

    什么是基于云計算的人工智能服務?

    如今,采用人工智能的企業遇到了一個主要障礙,那就是在內部開發人工智能產品成本高昂,因此有了外包人工智能產品的需求。而對于從中小企業到預算受限的大型企業來說,通過云計算來采用人工智能的成
    發表于 09-11 11:51

    人工智能語音芯片行業的發展趨勢如何?

    人工智能是近三年來最受關注的核心基礎技術,將深刻的改造各個傳統行業。人工智能在圖像識別、語音識別領域的應用自2017年來高速發展,是人工智能最熱點的兩項落地應用。手把手教你設計
    發表于 09-11 11:52

    傳感器數據如何為機器人技術的人工智能提供動力

    傳感器數據如何為機器人技術的人工智能提供動力
    發表于 10-10 18:19

    路徑規劃用到的人工智能技術

    路徑規劃用到的人工智能技術人工智能編程語言/數據結構與算法三 人工智能基礎原理四 智能信息獲取(簡稱爬蟲) 與數據分析1、發起請求3、解析內容4、保存數據二、Requests庫介紹
    發表于 07-20 06:53

    人工智能芯片人工智能發展的

    人工智能芯片人工智能發展的 | 特倫斯謝諾夫斯基責編 | 屠敏本文內容經授權摘自《深度學習 智能時代的核心驅動力量》從AlphaGo的人
    發表于 07-27 07:02

    《移動終端人工智能技術與應用開發》人工智能的發展與AI技術的進步

    ,隨機森林,K-均值算法,支持向量機和人工神經網絡等等。在應用方面表現也異常突出,目前89%的人工智能專利申請和40%人工智能范圍相關專利都屬于機器學習的范疇,可見機器學習的時代化進程多么迅速。歸結到
    發表于 02-17 11:00
    主站蜘蛛池模板: 成人午夜毛片| 特黄一级真人毛片| 欧美综合影院| 伊人网亚洲| 亚洲一成人毛片| 啪啪.com| 大色综合色综合资源站| 天天操天天射天天爽| 夜夜操美女| 丁香花五月婷婷| 222.www免费观看| 俺也去第四色| 国产免费私拍一区二区三区| 噜噜色噜噜| 久久激情五月| 久久香蕉国产精品一区二区三| 欧美瑟瑟| 你懂的视频在线观看资源| 日本www色| 欧美在线精品一区二区三区| 免费一级网站| 鲁一鲁色一色| 丁香六月婷婷七月激情| 天天干天天操天天拍| jiucao视频在线观看| 丁香综合网| 亚洲视频一二三| 久久激情网| 国卡一卡二卡三免费网站| 欧美性色xo影院69| 美女扒开尿囗给男人玩的动图| 人人做人人爽久久久精品| 亚洲天堂网站| 特黄特色| 黄色一级视频欧美| 国产精品久久国产三级国不卡顿| 国产女主播在线| 天天干天天摸| 免费看欧美一级片| 成人午夜大片免费视频77777| 69xxxxx日本护士|