在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

王欣然教授團(tuán)隊(duì)提出基于二維材料的高效稀疏神經(jīng)網(wǎng)絡(luò)硬件方案

清新電源 ? 來源:南京大學(xué)集成電路學(xué)院 ? 2025-01-13 10:41 ? 次閱讀

1月8日,王欣然教授領(lǐng)導(dǎo)的合作團(tuán)隊(duì)在國際頂級(jí)期刊《Nature Electronics》以“An index-free sparse neural network using two-dimensional semiconductor ferroelectric field-effect transistors”為題發(fā)表最新研究進(jìn)展,報(bào)道了基于二維材料的高效稀疏神經(jīng)網(wǎng)絡(luò)硬件解決方案。

194e239a-cede-11ef-9310-92fbcf53809c.png

稀疏性 (Sparsity)是人腦中的神經(jīng)突觸的本征屬性。在大腦發(fā)育過程中,超過一半的突觸會(huì)以細(xì)粒度和非結(jié)構(gòu)化的方式被剪枝(Pruning),這是人腦具有高能效的關(guān)鍵因素。受此啟發(fā),稀疏神經(jīng)網(wǎng)絡(luò)(Sparse neural network)早在上世紀(jì)九十年代就被提出,已成為人工智能輕量化的主流路徑。

雖然稀疏神經(jīng)網(wǎng)絡(luò)中90%的權(quán)重可以被剪枝,但剪枝過程中需要反復(fù)與外部存儲(chǔ)設(shè)備進(jìn)行索引(Indexing),消耗了整個(gè)系統(tǒng)90%以上的能耗和時(shí)延。類比于分離計(jì)算和存儲(chǔ)的馮諾依曼瓶頸,索引過程成為稀疏神經(jīng)網(wǎng)絡(luò)硬件的瓶頸(圖1)。目前產(chǎn)業(yè)界主流方案為英偉達(dá)自A100芯片開始提出的粗粒度、結(jié)構(gòu)化剪枝(Structured pruning),其本質(zhì)是通過一定程度的精度犧牲來減輕索引開銷,并未在根本上解決索引瓶頸。

19647262-cede-11ef-9310-92fbcf53809c.png

圖1 硬件的索引瓶頸造成稀疏神經(jīng)網(wǎng)絡(luò)效率低下

為了解決稀疏神經(jīng)網(wǎng)絡(luò)軟硬件不適配的問題,王欣然教授領(lǐng)導(dǎo)的合作團(tuán)隊(duì)借鑒了神經(jīng)生物學(xué)模型:支持突觸產(chǎn)生、剪枝、重新生長等動(dòng)態(tài)行為的,并非神經(jīng)元本身,而是環(huán)繞在神經(jīng)元和突觸周圍的星形膠質(zhì)細(xì)胞 (Astrocytes)和小膠質(zhì)細(xì)胞 (Microglial)。受此啟發(fā),稀疏性信息在位置上也需要盡可能接近權(quán)重信息,并直接參與稀疏運(yùn)算。

在本工作中,團(tuán)隊(duì)首次提出了“存內(nèi)稀疏”計(jì)算架構(gòu)(In-Memory Sparsity),其把稀疏神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程抽象為稀疏矩陣和權(quán)重矩陣的Hadamard乘積,并集成在一個(gè)單元內(nèi)部(圖2)。整個(gè)稀疏網(wǎng)絡(luò)的硬件基于二硫化鉬(MoS?)鐵電晶體管技術(shù),每個(gè)單元包含兩個(gè)鐵電晶體管,其中模擬鐵電晶體管用于存儲(chǔ)權(quán)重?cái)?shù)據(jù),而數(shù)字鐵電晶體管用于編碼稀疏性信息,直接決定權(quán)重是否被修剪。稀疏性信息被提前編程而免除了外部索引,從而大大降低了稀疏神經(jīng)網(wǎng)絡(luò)訓(xùn)練的開銷。

19799994-cede-11ef-9310-92fbcf53809c.png

圖2 “存內(nèi)稀疏”架構(gòu)設(shè)計(jì)

為支撐存內(nèi)稀疏架構(gòu)芯片級(jí)并行計(jì)算,團(tuán)隊(duì)開發(fā)了以矢量近似更新算法(Vectorial Approximate Updating, VAU)為核心的軟件-硬件協(xié)同優(yōu)化方法(Software-Hardware Co-Optimization, SHCO)。其要點(diǎn)在于:摒棄傳統(tǒng)更新方案中完全精確但低效的逐個(gè)單元更新、以及高效卻失準(zhǔn)的行列更新,而是在預(yù)先的稀疏性編碼的基礎(chǔ)上,以行列為最小單元進(jìn)行近似更新。結(jié)果表明,VAU算法在稀疏硬件上實(shí)現(xiàn)的精確度可以和理論值媲美,證明了軟硬件協(xié)同優(yōu)化的必要性。基于存內(nèi)稀疏架構(gòu)和軟硬件協(xié)同優(yōu)化方法,團(tuán)隊(duì)制備了硬件陣列,完成了多種稀疏訓(xùn)練過程的片上實(shí)測:包括預(yù)訓(xùn)練、剪枝、過剪、以及重新生長,最后在75%的稀疏率下實(shí)現(xiàn)了精度為98.4%的EMNIST手寫字母分類(圖3)。

為了證明硬件方案的可拓展性,團(tuán)隊(duì)基于NeuroSim仿真工具,將經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)VGG8-Net部署在三種不同的硬件架構(gòu)上:密集硬件、傳統(tǒng)稀疏硬件、以及本文提出的免索引稀疏硬件。仿真證明,存內(nèi)稀疏架構(gòu)的免索引稀疏硬件,首次基于極細(xì)粒度和非結(jié)構(gòu)化稀疏性,實(shí)現(xiàn)一個(gè)數(shù)量級(jí)的能耗和時(shí)延收益。

1998aca8-cede-11ef-9310-92fbcf53809c.png

圖3 基于免索引硬件的片上稀疏訓(xùn)練

綜上所述,受人腦啟發(fā),團(tuán)隊(duì)首次提出了稀疏神經(jīng)網(wǎng)絡(luò)的“存內(nèi)稀疏”計(jì)算架構(gòu),并基于二維半導(dǎo)體鐵電晶體管技術(shù)進(jìn)行了免索引單元開發(fā)和陣列級(jí)片上演示,打破了稀疏神經(jīng)網(wǎng)絡(luò)硬件長期面臨的瓶頸。本工作也充分展示了二維半導(dǎo)體等新材料、新器件技術(shù)賦能人工智能硬件的巨大潛力:二維材料具有低溫后道工藝兼容的特點(diǎn),可以與成熟的硅基電路進(jìn)行三維單片集成,突破先進(jìn)封裝技術(shù)在互聯(lián)密度方面的局限,進(jìn)一步提升近存、存算芯片的能效。

原文鏈接:https://www.nature.com/articles/s41928-024-01328-4

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:Nature Electronics:王欣然教授團(tuán)隊(duì)提出基于二維材料的高效稀疏神經(jīng)網(wǎng)絡(luò)硬件方案

文章出處:【微信號(hào):清新電源,微信公眾號(hào):清新電源】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于非層狀二維材料β-In2S3的超高頻諧振式氣壓傳感器

    據(jù)麥姆斯咨詢報(bào)道,電子科技大學(xué)曾暉教授、夏娟研究員團(tuán)隊(duì)與中南大學(xué)周喻教授團(tuán)隊(duì)合作報(bào)道了基于非層狀二維
    的頭像 發(fā)表于 11-15 16:13 ?483次閱讀
    基于非層狀<b class='flag-5'>二維</b><b class='flag-5'>材料</b>β-In2S3的超高頻諧振式氣壓傳感器

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱為全連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個(gè)神經(jīng)元都與下一層的所有神經(jīng)元相連。這種結(jié)構(gòu)簡單直觀,但在
    的頭像 發(fā)表于 11-15 14:53 ?585次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    轉(zhuǎn)換成一個(gè)很長的一向量。轉(zhuǎn)換是在所謂的壓平層中完成的,隨后是一個(gè)或兩個(gè)全連接層。全連接層的神經(jīng)元類似于圖2所示的結(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)最后一層的輸出要與需要區(qū)分的類別的數(shù)量一致。此外,在最后一層中,數(shù)據(jù)還被
    發(fā)表于 10-24 13:56

    神經(jīng)網(wǎng)絡(luò)專用硬件實(shí)現(xiàn)的方法和技術(shù)

    神經(jīng)網(wǎng)絡(luò)專用硬件實(shí)現(xiàn)是人工智能領(lǐng)域的一個(gè)重要研究方向,旨在通過設(shè)計(jì)專門的硬件來加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和推理過程,提高計(jì)算效率和能效比。以下將詳細(xì)介紹神經(jīng)
    的頭像 發(fā)表于 07-15 10:47 ?1242次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個(gè)方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?1191次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?601次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?821次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都有廣泛的應(yīng)用,如語音識(shí)別、圖像識(shí)別、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡(luò)也存在一些問題,如容易陷入局部最優(yōu)解、訓(xùn)練時(shí)間長、對(duì)初始權(quán)重敏感等。為了解決這些問題,研究者們提出了一些改進(jìn)的BP
    的頭像 發(fā)表于 07-03 11:00 ?840次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理

    、訓(xùn)練過程以及應(yīng)用場景。 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 1.1 卷積操作 卷積神經(jīng)網(wǎng)絡(luò)的核心是卷積操作。卷積操作是一種數(shù)學(xué)運(yùn)算,用于提取輸入數(shù)據(jù)的特征。在圖像處理中,卷積操作通常用于提取圖像的局部特征,如邊緣、紋理等。 假設(shè)輸入數(shù)據(jù)為一個(gè)二維
    的頭像 發(fā)表于 07-03 10:49 ?580次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們?cè)?/div>
    的頭像 發(fā)表于 07-03 10:12 ?1274次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實(shí)現(xiàn)

    核心思想是通過卷積操作提取輸入數(shù)據(jù)的特征。與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不同,卷積神經(jīng)網(wǎng)絡(luò)具有參數(shù)共享和局部連接的特點(diǎn),這使得其在處理圖像等高數(shù)據(jù)時(shí)具有更高的效率和更好的性能。 卷積層 卷積層是卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 07-02 16:47 ?637次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?4449次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機(jī)器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運(yùn)作方式,通過復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)信息的處理、存儲(chǔ)和傳遞。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,各種神經(jīng)網(wǎng)絡(luò)架構(gòu)被
    的頭像 發(fā)表于 07-01 14:16 ?786次閱讀

    機(jī)器視覺系統(tǒng)讀取二維碼-軟硬件配置方案

    機(jī)器視覺系統(tǒng)讀取二維碼-軟硬件配置方案
    的頭像 發(fā)表于 05-24 00:56 ?659次閱讀
    機(jī)器視覺系統(tǒng)讀取<b class='flag-5'>二維</b>碼-軟<b class='flag-5'>硬件</b>配置<b class='flag-5'>方案</b>

    韓國開發(fā)出大規(guī)模人工神經(jīng)網(wǎng)絡(luò)硬件技術(shù)

    借助hBN這種二維材料的優(yōu)質(zhì)性能,該團(tuán)隊(duì)成功地實(shí)現(xiàn)了高集成度與超低功耗。他們精心設(shè)計(jì)的人工神經(jīng)元及突觸器件,在簡化結(jié)構(gòu)并提高網(wǎng)絡(luò)可擴(kuò)展性的同
    的頭像 發(fā)表于 01-26 09:55 ?616次閱讀
    韓國開發(fā)出大規(guī)模人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>硬件</b>技術(shù)
    主站蜘蛛池模板: 色中色官网| videosxxoo18欧美| 最黄毛片| 国产巨大bbbb天美| 天天做天天添天天谢| 成人精品视频在线观看播放| 欧美性受一区二区三区| 婷婷亚洲视频| 在线精品国产三级| 日本一级高清不卡视频在线| 2020年亚洲天天爽天天噜| 免费中国jlzzjlzz在线播放| 亚洲午夜在线观看| 91成人午夜性a一级毛片| 国产一级特黄老妇女大片免费| 欧美日韩亚洲色图| 欧美一级别| 精品色| 免费的黄色毛片| 欧美一区二区三区精品| 日毛片| 色久天| 速度与激情10| 婷婷六月在线| 人人乳乳香蕉大免费| 色多多福利| 六月婷婷网| 黄a在线观看| 好男人社区www在线资源视频| 成年ssswww中国女人| 成年人网站黄色| 日在线视频| 久久草精品| 国产美女一级高清免费观看| 日本乱妇| 在线99热| 九九热re| 亚洲字幕久久| 特级淫片aaaaa片毛片| 欧美啪啪精品| 97蜜桃|