日前, Elsevier(愛思唯爾)云論壇暨絡繹學術 Online 第九期線上學術會議成功舉辦,我們與 Elsevier 一同為大家呈現了信息技術芯片的發展與創新。
本次論壇由上海交通大學集成量子信息技術研究中心主任金賢敏教授主持,特邀上海交通大學人工智能研究院首席科學家徐雷教授、浙江大學光電科學與工程學院副院長戴道鋅教授、北京大學人工智能研究院類腦智能芯片研究中心主任楊玉超教授、上海交通大學物理與天文學院副研究員唐豪、以及愛思唯爾核心內容客戶顧問許靖博士,圍繞信息技術芯片的基本技術原理、產品應用及未來發展展開主題分享。
本文將結合論壇的重點內容和當前信息處理芯片的現狀,對三種未來備受關注的信息技術芯片進行概念解讀及產業分析。
信息技術芯片的演進,背后透射出算力的螺旋式上升
在算力需求大幅提升的背景下,信息技術芯片所承載的計算處理能力不足,來源于架構側、智能化水平、功耗、軟件能力等多方面的挑戰。
最早以 CPU 為代表的計算芯片采用的依然是傳統的馮·諾依曼架構,存算分離是最大的特點,也是馮諾依曼架構的瓶頸所在。在計算之前需要從存儲器當中讀取數據,之后再進行計算。這個過程中,功耗和延時花費在搬運數據的環節上。從單次操作來講,大多數情況下,搬運數據需要的功耗占據了整個功耗的約 70% 。解決這個問題最直接的思路,即是實現存算一體。
同時,存儲器性能的提升遠遠落后于計算器性能的提升。由于馮·諾依曼瓶頸和存儲墻的存在,導致存算分離架構下,算力的提升面臨天花板。為了解決這種困境,更多類型的非馮·諾依曼架構芯片出現,例如類腦芯片、光子芯片等。
除了架構側的限制,智能化水平的提升也趨勢計算芯片向更智能的階段邁進。2011 年,風險投資公司 Andreessen Horowitz 的普通合伙人 Marc Andreessen 在《華爾街日報》上發表了一篇非常有影響力的文章,名為“ Why Software Is Eating the World-軟件為何在吞噬世界”。十年后的今天,我們正站在“ Deep Learning is Eating the World-深度學習正在吞噬整個世界”的節點。
基于人工智能的自然語言處理、圖像識別和自動駕駛的技術進步,是以消耗計算資源和能源為代價的。工程師和計算機科學家正在付出巨大的努力,以找出更有效地訓練和運行深度神經網絡的方法。這也是未來計算芯片升級和演化的主要目的,為了讓其更好地執行 AI 計算。
第三代神經網絡技術預計向類腦脈沖神經網絡技術演進,對更高智能水平的人工智能技術的需求,也驅使計算平臺的架構升級和智能化升級。
不難發現,人腦是自然界中存在的典型高智能、低功耗的單體計算平臺。類腦芯片則是典型的存算一體、高度智能化的計算架構。全球范圍內對類腦智能和類腦芯片的研究,已經是非常重要的前沿課題。
圖 1丨本文關注的三類信息技術芯片
面對算力需求的提升和人工智能水平的發展,對于信息技術芯片的代際演化來說,近期以面向數字神經網絡的加速器(GPU / FPGA / ASIC 芯片)為主流解決方案;中遠期,類腦芯片是解決方案之一。除了集成電路芯片的算法、器件、工藝等突破是解決算力問題的方法之外,集成光子芯片的研發也是解決算力瓶頸的有效路徑。
未來計算芯片的三個方向,均為更好地執行 AI 計算
方向一:神經網絡計算加速器—— GPU / FPGA / ASIC
在 CPU / GPU 設計領域,中國起步較晚,在技術水平和產業規?;矫孢h落后于國際先進水平。但受益于云計算、邊緣計算、數據中心等計算需求增加,物聯網等多場景對高性能高算力芯片提出更高要求,國產替代等因素,中國在 CPU / GPU / FPGA / ASIC 技術提升和國產化速度方面加速前進。
CPU & GPU
全球 CPU 市場整體被 Intel 和 AMD 占領。無論從營收規模,臺式機、筆記本、服務器細分市場占有率來講,Intel 遠超 AMD(如圖 2 所示)。
經過數十年探索,國產 CPU 產業已初具規模,中國六大國產 CPU 芯片廠商為——以 ×86 架構為主的復雜指令集(CISC)下,有海光(×86)、上海兆芯(×86);涉及 ARM 架構、MIPS 架構、Alpha 架構的精簡指令集(RISC)下,有華為鯤鵬(ARM)、天津飛騰(ARM)、龍芯(MIPS)、申威(Alpha)。
圖 2丨Intel、NVIDIA 及 AMD 的部分財務數據
現階段適合神經網絡計算的加速器最常見的解決方案是 GPU,GPU 本質上來說依然是先進的馮 · 諾依曼架構。
同 CPU 一樣,全球 GPU 市場集中度非常高,Intel、NVIDIA 和 AMD 三雄爭霸。
根據 Jon Peddie Research 數據,在集成 GPU 領域,截至 2019 年第四季度,Intel 以 63% 的市場份額位居榜首,AMD 和 NVIDIA 分別以 19% 和 18% 的市場份額名列第二和第三;在獨立 GPU 領域中,NVIDIA 以 68.92% 的市場份額占據絕對優勢,AMD 以 31.08% 的市場份額排名第二。
三駕馬車奠定 NVIDIA 在 GPU 市場的霸主地位。長期以來,游戲顯卡業務功不可沒,游戲部門為其創造了確定的業績增長與健康的現金流,2015 年 NVIDIA 營收首次超越 AMD。之后 NVIDIA GPU 在數據中心業務中又獲得一輪爆發式增長。
此外,在阿里云、AWS、Microsoft Azure 及 Google Cloud 廠商中,NVIDIA 的市場份額大幅領先于 AMD 等一眾廠商,NVIDIA 在全球主要云廠商中占據絕對領先地位。像 Amazon 和Microsoft 這樣的大型云廠商,在計算芯片上投入了大量資金來支持機器學習算法,Google 也在研發自己的專用機器學習芯片。
圖 3丨NVIDIA 及 AMD 的部分財務數據
除此之外,NVIDIA 市值和業務最有想象空間的還是自動駕駛計算平臺(汽車中控計算芯片)。同時整個計算芯片市場的主要增長動力預計也將從數據中心,轉移到自動駕駛汽車。
CPU / GPU 計算芯片的代表公司(僅為部分,并未窮盡)
Intel(英特爾):成立于 1968 年的英特爾,崛起于 PC 時代,創辦人之一的 Gordon Moore 提出了半導體產業經典的摩爾定律。面對異構計算架構時代,英特爾以 “ SVMS 架構”應對,發布多款 FPGA 產品。今年 3 月,英特爾宣布重啟晶圓代工服務,重回 7nm 晶圓制程技術戰場。
NVIDIA(英偉達):NVIDIA 正在加速從芯片到 CPU 和 GPU 的連接方式,再到整個軟件堆棧,以及最終跨整個數據中心的性能提升。2020 年發布了首款安培架構 GPU——NVIDIA A100,單片 A100 包含超過 540 億個晶體管,使其成為世界上最大的 7nm 處理器。同時發布 NVIDIA DGX A100 系統,單節點 AI 算力達到創紀錄的 5 PFLOPS,5 個 DGX A100 系統組成的一個機架,算力可媲美一個 AI 數據中心。
AMD:AMD 于 2020 年正式推出銳龍 5000 系列臺式機處理器,采用全新“ Zen 3 ”核心架構,這是自 AMD 2017 年推出 “ Zen ” 處理器以來提升最大的一次。得益于 IPC 和頻率的雙重提升,AMD 銳龍 9 5900X 也是首款默認設置下 CineBench R20 單核心分數超過 600 的臺式機處理器。
中科曙光(Sugon):中國中科曙光依托中科院科研實力與產業資源,掌握大量高端計算機、存儲和云計算等領域核心技術,九次摘得中國超算 Top100 份額第一,在 2019 年第 54 屆全球超算 Top500 中以 71 套系統并列第二名,在國內高性能計算市場絕對領先份額。
兆芯(Zhaoxin):中國上海兆芯同時擁有 CPU、GPU、芯片組三種 IP 及芯片自主研發能力,開先 KX-6000 和開勝 KH-30000 系列處理器基于 16nm 工藝,是國內首款主頻達到 3.0GHz 的國產通用處理器。
景嘉微(JINGJIA MICRO):中國長沙景嘉微是國產 GPU 代表力量,2020 年預計實現營業總收入 6.54 億元。在圖形顯控領域,以 JM5400 研發成功為起點,研發國產高性能低功耗圖形處理芯片。第二代 GPU 芯片 JM7200 流片成功,采用 28nm 工藝,已完成與龍芯、飛騰、麒麟軟件、國心泰山、道、天脈等國內主要的 CPU 和操作系統廠商的適配工作。
FPGA / ASIC
回顧 2020 年并購交易額超過 10 億美元的 19 筆交易,大多數并購活動集中在半導體領域。Salesforce 和 NVIDIA 是唯一進行多次重大收購的公司(如圖 4 所示)。
第二大并購事件則是 AMD ——Intel 在 CPU 領域的最大對手、NVIDIA 在 GPU 領域的競爭者——以 350 億美元收購 Xilinx(賽靈思)。這不禁讓人想起 2015 年英特爾以 167 億美元收購 Altera 一案。Altera 和 Xilinx 曾是 FPGA 雙雄,而現在 FPGA 獨霸之主 Xilinx 也要被 AMD 收購。
圖 4丨2020 年最大的科技并購事件
除了 CPU 之外,GPU、APU、TPU、FPGA(現場可編程門陣列)、ASIC(專用集成電路)等多種類型的加速器芯片正扮演著愈加重要的角色。在許多情況下,這些加速器與 CPU 等芯片一起工作,用于加速某些對應用至關重要的任務,例如計算機視覺應用中的圖像識別。多種芯片協同工作的架構通常稱為異構計算。
FPGA(現場可編程門陣列)是一種靈活的半導體芯片架構,能夠在產品設計完成,甚至在投入現場使用之后進行更改或更新(由此得名)。FPGA 的設計初衷是成為 ASIC(專用集成電路)更靈活的替代品。
有些 FPGA 專門用于高性能、數據密集的工作場景,如云端數據中心,這時它們需要的運行功率高達幾百瓦;有些則用于小型、低功耗的設計,其功耗可能低至 1 毫瓦(千分之一瓦);還有些介于兩者之間。由于它們本身非常靈活,可應用于各類廣泛的環境。
以云端數據中心為例,微軟一直都在使用高功耗的 FPGA 來加速 Bing 搜索引擎的速度。在此應用中,FPGA 與 CPU 協同工作來加速微軟針對必應開發的特定搜索算法。這類高功耗的 FPGA 多由 Xilinx 和 Intel 提供。
而在一些無人機、安防攝像頭和可穿戴產品等消費電子應用中,以及預測性維護、馬達控制和機器視覺等工業應用中,小尺寸、功耗更低的 FPGA 正適配于網絡邊緣計算設備上去運行基于人工智能的軟件算法。
在未來十年內,汽車自動駕駛是 FPGA 最重要的一個探索和應用場景。不僅因為 FPGA 靈活的內部架構,它還能很好地適用于特定的連接功能,尤其是連接各類不同的信號輸入。除了在車載信息娛樂系統中顯身手外,FPGA 開始扮演一些新角色,作為多路數據的聚合器。
但由于 ASIC 一旦設計并生產出來,它的功能基本不能修改,除非重新設計和構建全新的芯片。且 ASIC 設計起來比較困難、價格高昂,在實際通用場景下比較少見。隨著時間推移和場景側的落地,未來專用于自動駕駛側的 ASIC 芯片有可能成為主流方向。
圖 5丨 Intel 在汽車自動駕駛場景用 FPGA 市場占主流位置
全球主攻 FPGA 市場的企業中,除了有 Xilinx 和 Altera 雙雄之外,Lattice 也是專做 FPGA 的上市公司。中國主攻 FPGA 的創業公司有安路科技和高云半導體。
巨頭 Intel 也是 FPGA 的強有力競爭者,英特爾不僅是 CPU 王者,又收購了 Altera,在 FPGA 領域布下一子。綜合來說,Intel 的計算芯片在汽車自動駕駛市場中的采用率,處于主流位置。不僅自動駕駛 FPGA 芯片已經量產,還收購 Mobileye 這家全球領先的視覺 ADAS 廠商,僅有自主的專有軟件算法,以及 EyeQ 芯片。
圖 6丨全球CPU及神經網絡加速器頭部公司財務表現
全球 FPGA / ASIC 代表公司
Lattice:低功耗 FPPA 市場的有力競爭者。長期盤踞消費電子市場的 Lattice 逐漸將觸手伸入工業和汽車領域,更加側重于邊緣端、嵌入式、低功耗、小尺寸的產品設計開發上。
安路科技(ANLOGIC):成立于 2011 年,大基金、華大半導體加持的 FPGA 創業公司,側重工業市場。于 2015 年推出其第一代 FPGA AL3-10,當前已經形成了從幾百個邏輯單元 CPLD 到 400K 邏輯單元 FPGA 全系列布局。
高云半導體(GOWIN Semiconductor):2015 年一季度量產出國內第一塊產業化的 55nm 工藝 400 萬門的中密度 FPGA 芯片,并開放開發軟件下載。至今五年時間陸續推出兩大家族,100 多種封裝的 FPGA 芯片,例如集成 PSRAM 的 FPGA,藍牙 FPGA、GOAI 等創新嘗試。
方向二:類腦芯片
人工智能中神經網絡模型的一個重要特點就是計算量大,而且計算過程中涉及到的數據量也很大,因此對高算力和低能耗的要求極高。目前采用馮·諾伊曼架構的主流處理器系統能耗過高、認知任務處理能力不足,無法完全滿足這種要求。在這樣的時代背景下,打破馮 · 諾伊曼架構的束縛就成為了必然的趨勢。
人腦是非常理想的計算架構參考對象。人腦約有 1000 億個神經元和 100 萬億個突觸,能夠在極低的能耗下,完成復雜的關聯記憶、自主識別、自主學習等認知處理。這是基于腦神經網絡的多層次復雜空間結構和腦神經的高度可塑性。
類腦芯片則是典型的非馮 · 諾伊曼架構。類腦計算架構的核心正是借鑒人腦信息處理方式,將存儲和計算一體化,能夠實時處理非結構化信息,具備自主學習能力,同時滿足超低功耗的需求。
目前市場上尚未出現量產的可商用的類腦芯片,但已有很多國家和機構在類腦計算研究和產業化領域探索了多年。海外類腦計算芯片產業化道路走在最前面的代表有兩家公司:IBM 和 Intel,他們發布了兩款全數字類腦計算芯片。
IBM TrueNorth
2014 年,IBM 推出了神經網絡推斷芯片 TrueNorth ,它借鑒神經元工作原理及其信息傳遞機制,實現了存儲與計算的融合。該芯片包含 4096 個神經突觸核心,每個核心包含了 256 個神經元和 6.4 萬個突觸,合計約 100 萬個神經元和 2.56 億個突觸。
TrueNorth 芯片的功耗低至僅 70 毫瓦,比傳統處理器低了 4 個數量級。更形象的來說,這相當于一款郵票大小的神經突觸原理超級計算機,并且僅用一塊智能手機的電池就可以維持工作近一周時間。TrueNorth 芯片的功率密度也做到了 20 毫瓦/平方厘米,接近腦皮層的水平,同樣相比于 CPU 低了 3-4 個數量級。
TrueNorth 芯片同時具有很好的擴展性,能通過外部連接組成更加復雜的硅基神經網絡系統。2018 年,NS16e-4 系統問世,它集成了 64 個 TrueNorth 芯片,神經元數量達到了 6400 萬個。根據 IBM 官網介紹,依托 TrueNorth 可以擴展出擁有 10 億神經元、2560 億神經突觸的超級計算系統,然而功耗僅相當于一臺桌面計算機。
圖 7 | 基于 64 個 TrueNorth 芯片的 NS16e-4 系統,集成了 6400 萬個神經元(來源:https://modha.org)
IBM 也正在探索 TrueNorth 芯片在多個領域的應用潛力,包括:運動歸類、音頻處理、立體視覺、強化學習、機器人、分類等。
圖 8|TrueNorth 芯片應用探索
Intel Loihi
2017 年,Intel 推出了支持片上學習的 Loihi 脈沖神經網絡芯片,每個芯片包含 128 個神經形態核心和 3 個× 86 處理器核心,總計 13.1 萬個神經元。與 TrueNorth 芯片類似的是,Loihi 芯片同樣表現出了非常好的可擴展性。
2019 年,Intel 推出了 64 顆 Loihi 芯片集成的 Pohoiki Beach 系統。2020 年,Intel 又推出了 Pohoiki Springs 系統,包含了 768 顆 Loihi 芯片,共擁有 1 億個神經元,已經相當于一個小型哺乳動物的大腦容量。
根據 Intel 官方披露,英特爾的 Pohoiki Springs 等神經擬態系統仍處于研究階段,其設計目的并非取代傳統的計算系統,而是為研究人員提供一個工具來開發和表征新的神經啟發算法,用于實時處理、問題解決、適應和學習。
目前,Loihi 芯片的應用在以下幾個領域表現出了更快的運算速度和更低的能耗:語音命令識別、手勢識別、圖像檢索、優化和檢索、機器人。
中國的類腦計算研發也產生了顯著的成果,這其中包括清華大學的“天機芯”、浙江大學的“達爾文芯片”以及創業公司 SynSense時識科技。
清華大學“天機芯”
2019 年 8 月,清華大學施路平教授團隊在《自然》期刊以封面文章發表首款異構融合類腦計算芯片——“天機芯(Tianjic)”。“天機芯”采用多核架構,由 156 個單功能核(FCore)組成,包含大約 4 萬個神經元和 1000 萬個神經突觸。
而所謂異構融合,指天機芯的架構打破了基于計算機科學的人工智能和基于神經科學的人工智能的壁壘,成為一個通用的平臺,在算法層面上即支持目前主流的人工神經網絡模型(Artificial Neural Network,ANN)也支持脈沖神經網絡模型(Spiking Neural Network,SNN)。
基于天機芯的無人自行車展示了可以實現語音識別、自平衡控制、探索跟蹤、自動避障等功能。之所以選用無人自行車作為展示工具,是因為它是一個類似大腦的多模態系統,能夠覆蓋感知決策和執行的完整的鏈路,為異構融合的多種模型提供支撐;同時不同于在實驗室或者電腦中做仿真,無人自行車也體現了與真實環境的交互。這一項研究成果也被評選為“ 2019 年中國十大科技進展 ”。
圖 9|清華大學“天機芯”研究成果登上《自然》期刊封面
從清華大學類腦計算中心科技成果轉化而來的靈汐科技,目前也已經獲得了來自中電海康、廣發信德、優選資本、華控基石等機構的多輪融資。施路平教授擔任靈汐科技的聯合創始人。
浙江大學“達爾文芯片”
2015 年,浙江大學牽頭研發了達爾文一代芯片,這是國內的首款類腦芯片,擁有 2048 個神經元,4 百萬個神經突觸。2019 年 8 月,達爾文二代芯片問世,這是一款主要面向智慧物聯網應用的芯片,單芯片由 576 個內核組成,擁有 15 萬神經元、1000 萬個神經突觸,在神經元數目上已經與果蠅相當,典型應用功耗約 100 毫瓦。
2020 年,浙江大學宣布了包含 792 顆達爾文二代芯片的類腦計算機 Darwin Mouse 研制成功,這一款類腦計算機支持 1.2 億脈沖神經元、720 億神經突觸,與小鼠的大腦神經元數量規模相當,典型運行功耗只需要 350-500 瓦。
SynSense 時識科技
SynSense 時識科技是一家類腦芯片、智能傳感器設計與開發公司,于 2017 年 2 月在瑞士創立(原名 ai-CTX),現已在國內落地。公司技術起源于由蘇黎世大學和蘇黎世聯邦理工學院聯合發起的蘇黎世神經信息研究所,核心技術 DYNAP (Dynamic Neuromorphic Asynchronous Processor)幫助可配置、通用、實時響應的神經網絡在脈沖神經元中的實現。
DYNAP-CNN是全球首款動態視覺專用處理器芯片,于2019年成功流片。該芯片由異步電路設計,擁有100萬脈沖神經元,200萬突觸,可以直聯動態相機(DVS)完成多種實時視覺識別及交互類任務,典型任務場景下功耗可低至1mW。
創始人喬寧博士畢業于中國科學院半導體研究所,曾在蘇黎世大學從事博士后研究工作,現任蘇黎世大學助理教授。目前,時識科技已經獲得了百度風投、默克、和利資本等投資機構的多輪融資。
圖 10|已成功流片類腦計算芯片參數
除了以上基于硅技術的類腦計算芯片,還有一部分類腦計算芯片的研究方向是基于新型納米器件和技術,以憶阻器陣列為代表。這種芯片直接利用定制的器件結構,來模擬生物神經元的電特性,集成度更高,是非常有潛力的類腦計算芯片方案。但是,讓憶阻器陣列完整實現芯片的功能,尚需要解決工藝、系統、算法等一系列的未知難題。
在這一方面,中國學者的研究成果也走在了世界的前沿。2020 年,清華大學錢鶴、吳華強教授團隊等合作研發的基于多個憶阻器陣列的存算一體系統發表在《自然》期刊上,他們在該系統上高效運行了卷積神經網絡算法,成功驗證了圖像識別功能,能耗高出 GPU 兩個數量級,實現了以更低的功耗和硬件成本完成復雜的計算。這項研究成果證明了利用憶阻器實現存算一體的可行性。
類腦芯片的發展,經歷了從純數字到數?;旌稀膯涡酒募傻较到y級的集成、從片外學習到片上學習的轉變趨勢。
類腦計算的發展未走出前期的實驗室研究階段,離工業界的實際應用仍有一定的距離。根據 Yole 報告,類腦計算最快可能將于 2024 年前后成熟,我們相信到那時類腦計算芯片表現出的相比于馮·諾伊曼架構的 AI 芯片的優勢將會帶來巨量的產業發展機會。
圖 11丨類腦計算市場規模預測
方向三:(硅)光子計算芯片
與電子計算時代的集成電路芯片的物理結構演化路徑一樣,在光子計算語境下,光子芯片就是將大量分立光路元件集成在光子芯片上,以實現更高的穩健性和可擴展性。
光子芯片的核心是在硅基上實現光子集成芯片,是在傳統 CMOS 芯片上蝕刻微米級別的光學元器件。而光子計算,其實是一個古老的技術領域。作為一種完全不同于電子計算的技術,光子計算以光子為信息處理載體,依賴光硬件而非電子硬件,以光運算代替電運算,擅長快速并行處理高度復雜的計算任務。
硅光技術的理念是“以光代電”,但受限于傳統分離式光子器件,具有光場調控手段單一、光子設計體積龐大的缺點。光子計算一直沒有明確的應用場景,多數都停留在實驗室階段。Lightelligence(曦智科技)聯合創始人兼 CEO 沈亦晨曾表示,光計算和光子芯片是最適合下一代計算芯片基建技術的選擇。
根據 Yole 數據,按照產品應用場景分類,2025 年硅光子市場規模將由 2019 年的 4.8 億美元增長至 39 億美元。光通信仍然是硅光子最重要的應用,數據中心通信是硅光子的最大市場。
圖 12丨硅光市場規模
通信、互連場景下,硅光收發器市場的競爭長期存在,其中的巨頭先行者是 IBM 和 Intel,主要是為了改善數據中心數據交換時的速率問題。此外,Luxtera(被思科收購)、Acacia、Fujitsu、Inphi、Rockley Photonics 及 NeoPhotonics 等公司都是硅光芯片領域的有力競爭者。
圖 13丨硅光收發器競爭格局
硅光芯片除了在數據中心、通信、傳感和醫療領域的應用,還有一個非常值得期待的應用是光計算。AI 所掀起的計算需求不斷膨脹,帶動了市場針對特定計算推出更適合的新架構,比如上述的類腦芯片。而在能夠延續現有成熟半導體工藝技術上,光子芯片的優勢又更為明顯。
需要明確的一點是——光子計算≠光量子計算。光子計算基于波動光學進行精準調制;后者則是用光子編碼實現兩種狀態疊加的量子比特,無法用經典波動光學描述的量子光學。
全球范圍內,光計算芯片處于非常早期的階段。從當前時間節點來看,以美國和中國為代表的光子計算公司仍在進行技術和產品上的探索,且商業化并不成熟。雖然離實際應用還需要一定時間驗證,但總體來說中國是非常有機會走在世界前列的。
在利用光進行神經網絡計算的領域中,有一些正在探索的公司,如 Lightmatter,Fathom Computing,Lightelligence(曦智科技),LightOn,Luminous 和 Optalysis。將光計算應用于脈沖神經網絡,該網絡利用大腦神經元處理信息的方式,也許可以解釋為什么人腦僅用十幾個神經元就能出色地完成工作。
圖 14丨 Lightmatter發布用于傳統電腦主板的光子計算芯片 Envise
全球光子計算芯片的代表公司(僅為部分,并未窮盡)
Lightmatter:誕生于 MIT,成立于 2017年,已從 Google Ventures(Alphabet 的風險部門),Spark Capital 和 Matrix Partners 等投資者那里籌集了總計 3300 萬美元的資金。Lightmatter 計劃在 2021 年底開始發售其首款基于光的 AI 芯片,稱為 Envise,以適合常規數據中心。Lightmatter 的 CEO Nick Harris 表示,要么發明新的計算芯片以繼續使用,要么 AI 速度就會變慢。
Lightelligence(曦智科技):誕生于 MIT,成立于 2017年,2019 年 4 月正式發布了全球首款光子芯片原型板卡,2021 年全球首款商用光子芯片即將問世。用光子芯片運行了 Google TensorFlow 自帶的卷積神經網絡模型來處理 MNIST 數據集,整個模型超過 95% 的運算是在光子芯片上完成。光子芯片處理的準確率已經接近電子芯片(97% 以上),另外光子芯片完成矩陣乘法所用的時間是最先進的電子芯片的 1% 以內。
整體來看,計算芯片的代際演進,服務于 AI 算法和智能水平的提升。當前,全球支柱性、智能化產業的信息處理環節進入算力競爭時代。更多類型的非馮 · 諾依曼架構芯片將會涌現并逐漸產業化。絡繹知圖也將持續關注計算芯片產業及前沿技術變革,為芯片產業與技術研究、投融資顧問、政策對接等專業服務貢獻力量。
編輯:lyn
-
芯片
+關注
關注
456文章
51072瀏覽量
425842 -
cpu
+關注
關注
68文章
10898瀏覽量
212528 -
信息技術
+關注
關注
0文章
604瀏覽量
29707 -
人工智能
+關注
關注
1793文章
47566瀏覽量
239415
原文標題:變革性信息技術芯片時代來臨,更多類型的非馮·諾依曼架構芯片涌現丨絡繹知圖深度分析
文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論