在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

關于AI芯片的介紹與四大芯片的特性和總結及對比

旺材芯片 ? 來源:自動駕駛全棧工程師知乎 ? 作者:William ? 2021-03-19 17:24 ? 次閱讀

1、前言

目前,智能駕駛領域在處理深度學習AI算法方面,主要采用GPUFPGA 等適合并行計算的通用芯片來實現加速。同時有部分芯片企業開始設計專門用于AI算法的ASIC專用芯片,比如谷歌TPU、地平線BPU等。在智能駕駛產業應用沒有大規模興起和批量投放之前,使用GPU、FPGA等已有的通用芯片可以避免專門研發定制芯片(ASIC)的高投入和高風險,但是,由于這類通用芯片設計初衷并非專門針對深度學習,因而存在性能不足、功耗過高等方面的問題。這些問題隨著自動駕駛行業應用規模的擴大將會日益突出。

本文從芯片種類、性能、應用和供應商等多角度介紹AI芯片,用于給行業內入門新人掃盲。

2、什么是人工智能(AI)芯片?

從廣義上講,能運行AI算法的芯片都叫AI芯片。

目前通用的CPU、GPU、FPGA等都能執行AI算法,只是執行效率差異較大。

但狹義上講一般將AI芯片定義為“專門針對AI算法做了特殊加速設計的芯片”。

目前AI芯片的主要用于語音識別、自然語言處理、圖像處理等大量使用AI算法的領域,通過芯片加速提高算法效率。AI芯片的主要任務是矩陣或向量的乘法、加法,然后配合一些除法、指數等算法。AI算法在圖像識別等領域,常用的是CNN卷積網絡,一個成熟的AI算法,就是大量的卷積、殘差網絡、全連接等類型的計算,本質是乘法和加法。

對汽車行業而言,AI芯片的主要用于就是處理智能駕駛中環境感知、傳感器融合和路徑規劃等算法帶來的大量并行計算需求。

AI芯片可以理解為一個快速計算乘法和加法的計算器,而CPU要處理和運行非常復雜的指令集,難度比AI芯片大很多。GPU雖然為圖形處理而設計,但是CPU與GPU并不是專用AI芯片,其內部有大量其他邏輯來實現其他功能,這些邏輯對于目前的AI算法來說完全無用。目前經過專門針對AI算法做過開發的GPU應用較多,也有部分企業用FPGA做開發,但是行業內對于AI算法必然出現專用AI芯片。

3、為什么要用AI芯片?

人工智能從功能上來看包括推理和訓練兩個環節,智能駕駛行業亦然。在訓練環節,通過大數據訓練出一個復雜的神經網絡模型,目前大部分企業在訓練環節主要使用英偉達的GPU集群完成。推理環節是指利用訓練好的模型,使用大量數據推理出各種結論。因此,訓練環節對芯片的算力性能要求比較高,推理環節對簡單指定的重復計算和低延遲的要求很高。

從應用場景來看,人工智能芯片應用于云端和設備端,在智能駕駛領域同樣具備云服務器和車載的各種計算平臺或域控制器,在智能駕駛深度學習的訓練階段需要極大的數據量和大量運算,單一處理器無法獨立完成,因此訓練環節只能在云服務器實現。相對的在設備端即車上,各種ECU、DCU等終端數量龐大,而且需求差異較大。因此,推理環節無法在云端完成,這就要求車上的各種電子單元、硬件計算平臺或域控制器有獨立的推理計算能力,因此必須要有專用的AI芯片來應對這些推理計算需求。

傳統的CPU、GPU都可以拿來執行AI算法,但是速度慢,性能低,尤其是CPU,在智能駕駛領域無法實際投入商用。

比如,自動駕駛需要識別道路、行人、紅綠燈等路況和交通狀況,這在自動駕駛算法里面都是屬于并行計算,如果是CPU去執行計算,那么估計車撞到人了也沒算出來個結果,CPU并行計算速度慢屬于先天不足。如果用GPU速度要快得多,畢竟GPU專為圖像處理并行計算設計,但是GPU功耗過大,汽車的電池無法長時間支撐正常使用,而且GPU價格相對較高,用于自動駕駛量產的話普通消費者也用不起。另外,GPU因為不是專門針對AI算法開發的ASIC,執行AI計算的速度優勢還沒到極限,還有提升空間。

在智能駕駛這樣的領域,環境感知、物體識別等深度學習應用要求計算響應方面必須快!時間就是生命,慢一步就有可能造成無法挽回的情況,但是保證性能快效率高的同時,功耗不能過高,不能對智能汽車的續航里程造成較大影響,也就是AI芯片必須功耗低,所以GPU不是適合智能駕駛的最佳AI芯片選擇。因此開發ASIC就成了必然。

4、AI芯片的種類

當前主流的AI芯片主要分為三類,GPU、FPGA、ASIC。GPU、FPGA均是前期較為成熟的芯片架構,屬于通用型芯片。ASIC屬于為AI特定場景定制的芯片。行業內已經確認CPU不適用于AI計算,但是在AI應用領域也是必不可少,另外一種說法是還有一種類腦芯片,算是ASIC的一種。

86f45188-8894-11eb-8b86-12bb97331649.png

FPGA(Field Programmable Gate Array,現場可編程門陣列)具有足夠的計算能力和足夠的靈活性。FPGA的計算速度快是源于它本質上是無指令、無需共享內存的體系結構。對于保存狀態的需求,FPGA中的寄存器和片上內存(BRAM)是屬于各自的控制邏輯的,無需不必要的仲裁和緩存,因此FPGA在運算速度足夠快,優于GPU。同時FPGA也是一種半定制的硬件,通過編程可定義其中的單元配置和鏈接架構進行計算,因此具有較強的靈活性。相對于GPU,FPGA能管理能運算,但是相對開發周期長,復雜算法開發難度大。

ASIC(Application Specific Integrated Circuit特定用途集成電路)根據產品的需求進行特定設計和制造的集成電路,能夠在特定功能上進行強化,具有更高的處理速度和更低的能耗。缺點是研發成本高,前期研發投入周期長,且由于是定制化,可復制性一般,因此只有用量足夠大時才能夠分攤前期投入,降低成本。

4.1 CPU (CentralProcessing Unit)

中央處理器作為計算機系統的運算和控制核心,是信息處理、程序運行的最終執行單元,CPU 是對計算機的所有硬件資源(如存儲器、輸入輸出單元) 進行控制調配、執行通用運算的核心硬件單元。

優點:CPU有大量的緩存和復雜的邏輯控制單元,非常擅長邏輯控制、串行的運算

缺點:不擅長復雜算法運算和處理并行重復的操作。

對于AI芯片來說,算力最弱的是cpu。雖然cpu主頻最高,但是單顆也就8核,16核的樣子,一個核3.5g,16核也就56g,再考慮指令周期,每秒最多也就30g次乘法。還是定點的。

生產廠商:intelAMD

4.2 GPU (GraphicsProcessing Unit)

圖形處理器,又稱顯示核心、視覺處理器、顯示芯片,是一種專門在個人電腦、工作站、游戲機和一些移動設備(如平板電腦、智能手機等)上做圖像和圖形相關運算工作的微處理器

優點:提供了多核并行計算的基礎結構,且核心數非常多,可以支撐大量數據的并行計算,擁有更高的浮點運算能力。

缺點:管理控制能力(最弱),功耗(最高)。

生產廠商:AMD、NVIDIA

4.3 FPGA(Field Programmable Gate Array)

FPGA是在PAL、GAL等可編程器件的基礎上進一步發展的產物。它是作為專用集成電路(ASIC)領域中的一種半定制電路而出現的,既解決了定制電路的不足,又克服了原有可編程器件門電路數有限的缺點。

優點:可以無限次編程,延時性比較低,同時擁有流水線并行和數據并行(GPU只有數據并行)、實時性最強、靈活性最高

缺點:開發難度大、只適合定點運算、價格比較昂貴

生產廠商:Altera(Intel收購)、Xilinx

4.4 ASIC(Application Specific IntegratedCircuit)

ASIC,即專用集成電路,指應特定用戶要求和特定電子系統的需要而設計、制造的集成電路。目前用CPLD(復雜可編程邏輯器件)和 FPGA(現場可編程邏輯陣列)來進行ASIC設計是最為流行的方式之一。

優點:它作為集成電路技術與特定用戶的整機或系統技術緊密結合的產物,與通用集成電路相比具有體積更小、重量更輕、 功耗更低、可靠性提高、性能提高、保密性增強、成本降低等優點。

缺點:靈活性不夠,成本比FPGA貴

主要性能指標:功耗、速度、成本

生產廠商:谷歌、地平線、寒武紀

4.5 四種芯片的特性總結

CPU是一個有多種功能的優秀領導者。它的優點在于調度、管理、協調能力強,計算能力則位于其次。而GPU相當于一個接受CPU調度的“擁有大量計算能力”的員工。

GPU 作為圖像處理器,設計初衷是為了應對圖像處理中需要大規模并行計算。因此,其在應用于深度學習算法時,有三個方面的局限性:

第一,應用過程中無法充分發揮并行計算優勢。深度學習包含訓練和應用兩個計算環節,GPU 在深度學習算法訓練上非常高效,但在應用時一次性只能對于一張輸入圖像進行處理,并行度的優勢不能完全發揮。

第二,硬件結構固定不具備可編程性。深度學習算法還未完全穩定,若深度學習算法發生大的變化,GPU 無法像FPGA 一樣可以靈活的配置硬件結構。

第三,運行深度學習算法能效遠低于FPGA。學術界和產業界研究已經證明,運行深度學習算法中實現同樣的性能,GPU 所需功耗遠大于FPGA,例如國內初創企業深鑒科技基于FPGA 平臺的人工智能芯片在同樣開發周期內相對GPU 能效有一個數量級的提升。

FPGA,其設計初衷是為了實現半定制芯片的功能,即硬件結構可根據需要實時配置靈活改變。

研究報告顯示,目前的FPGA市場由Xilinx 和Altera 主導,兩者共同占有85%的市場份額,其中Altera 在2015 年被intel以167 億美元收購, Xilinx則選擇與IBM進行深度合作,背后都體現了 FPGA 在人工智能時代的重要地位。

盡管 FPGA 倍受看好,甚至百度大腦、地平線AI芯片也是基于FPGA 平臺研發,但其畢竟不是專門為了適用深度學習算法而研發,實際仍然存在不少局限:

第一,基本單元的計算能力有限。為了實現可重構特性,FPGA 內部有大量極細粒度的基本單元,但是每個單元的計算能力(主要依靠LUT 查找表)都遠遠低于CPU 和GPU中的ALU模塊。

第二,速度和功耗相對專用定制芯片(ASIC)仍然存在不小差距。

第三,FPGA 價格較為昂貴,在規模放量的情況下單塊FPGA 的成本要遠高于專用定制芯片。

人工智能定制芯片是大趨勢,從發展趨勢上看,人工智能定制芯片將是計算芯片發展的大方向。

5、AI芯片算力對比

5.1 通用芯片—GPU

GPU(Graphics Processing Unit)即為圖形處理器。NVIDIA公司在1999年發布GeForce256圖形處理芯片時首先提出GPU的概念。從此NVIDIA顯卡的芯就用這個新名字GPU來稱呼。GPU使顯卡削減了對CPU的依賴,部分替代原本CPU的工作,特別是在3D圖形處理方面。由于在浮點運算、并行計算等方面,GPU可以提供數十倍乃至于上百倍于CPU的性能。

GPU相比CPU更適合人工智能計算。GPU和CPU分別針對的是兩種不同的應用場景,他們的設計目標不同,CPU需要很強的通用性來處理各種不同的數據類型,同時邏輯判斷又會引入大量的分支跳轉和中斷的處理。這些都使得CPU的內部結構異常復雜。而GPU擅長的則是在不需要被打斷的純凈的計算環境中進行類型高度統一的、相互無依賴的大規模數據處理,人工智能的計算恰巧主要是后者,這使得原本為圖像處理而生的GPU在人工智能時代煥發第二春。

CPU的邏輯運算單元(ALU)較少,控制器(control)占比較大;GPU的邏輯運算單元(ALU)小而多,控制器功能簡單,緩存(cache)也較少。架構的不同使得CPU擅長進行邏輯控制、串行計算,而GPU擅長高強度的并行計算。GPU單個運算單元處理能力弱于CPU的ALU,但是數量眾多的運算單元可以同時工作,當面對高強度并行計算時,其性能要優于CPU。現如今GPU除了圖像處理外,也越來越多的運用到別的計算中。

CPU根據功能劃分,將需要大量并行計算的任務分配給GPU。GPU從CPU獲得指令后,把大規模、無結構化的數據分解成許多獨立部分,分配給各個流處理集群(SMM)。每個流處理集群再次把數據分解,分配給調度器,調度器將任務放入自身所控制的計算核心core中完成最終的數據處理任務。

GPU性能較強但功耗較高。以NVIDIA開發的GPU為例,Xavier最高算力為30Tops,功耗為30W,NVIDIA最新發布的GPUA100相比Volta架構的640個Tensor Core,A100核心的TensorCore減少到了432個,但是性能大幅增強,支持全新的TF32運算,浮點性能156TFLOPS,同時INT8浮點性能624TOPS,FP16性能312TFLOPS,同時功耗也達到了400W。

5.2 半定制化芯片—FPGA

FPGA(Field-ProgrammableGate Array),即現場可編程門陣列。它是在PAL、GAL、CPLD等可編程器件的基礎上進一步發展的產物。它是作為專用集成電路(ASIC)領域中的一種半定制電路而出現的,既解決了定制電路的不足,又克服了原有可編程器件門電路數有限的缺點。

FPGA內部有很多可配置邏輯模塊(CLB),這些模塊是現實邏輯功能的基本單元,FPGA可通過靈活地配置CLB來令其實現工程師想要實現的邏輯功能。FPGA的并行處理能力也很強大,其可編程性也適用于不斷優化的深度學習算法的運算。目前很多公司基于FPGA開發人工智能處理器。于2016年成立的深鑒科技,就在研發深度學習通用解決方案。2016年初,深鑒科技就設計了基于FPGA、針對深度學習的DPU硬件架構。該產品實現了高性能功耗比,并且成本也比GPU產品低很多。今年8月加州的Hot Chips大會上,百度也發布了其基于FPGA芯片的A.I加速芯片—XPU。該芯片有256核,旨在尋求性能和效率的平衡,處理多樣化計算任務。

基于FPGA開發的人工智能處理器具有高性能、低能耗、可硬件編程的特點。

1)高性能

除了GPU,FPGA也擅長并行計算,基于FPGA開發的處理器可以實現更高的并行計算。而且FPGA帶有豐富的片上存儲資源,可以大大減少訪問片外存儲的延遲,提高計算性能,訪問DRAM儲存大約是訪問寄存器存儲延遲的幾百倍以上。

2)低能耗

相比于CPU和GPU,FPGA的能耗優勢主要有兩個原因:1)相比于CPU、GPU,FPGA架構有一定的優化,CPU、GPU需要頻繁的訪問DRAM,而這個能量消耗較大,FPGA可以減少這方面的能耗。2)FPGA的主頻低,CPU和GPU的主頻一般在1-3GHz之間,而FPGA的主頻一般在500MHz一下。因此,FPGA的能耗要低于CPU、GPU。

3)可硬件編程

FPGA可硬件編程,并且可以進行靜態重復編程和動態系統重配置。用戶可像編程修改軟件一樣修改系統的硬件功能,大大增強了系統設計的靈活性和通用性。使得FPGA可以靈活地部署在需要修改硬件設置場景中。

FPGA+CPU異構架構被越來越多地研究和認可。相比于CPU+GPU,因為FPGA的高性能低功耗等優勢使FPGA+CPU可以提供更好的單位功耗性能,且更易于修改和編程。因此FPGA適合做可并行計算的任務,如矩陣運算。如果是一些判斷類的問題,FPGA算得并沒有CPU快。所以已經有研究人員探討FPGA+CPU的架構模式。

5.3 全定制芯片—ASIC

ASIC(Application Specific IntegratedCircuit)在集成電路界被認為是一種為專門目的而設計的集成電路。是指應特定用戶要求和特定電子系統的需要而設計、制造的集成電路。ASIC的特點是面向特定用戶的需求,ASIC在批量生產時與通用集成電路相比具有體積更小、功耗更低、可靠性提高、性能提高、保密性增強、成本降低等優點。簡單地講,ASIC芯片就是通過臺積電等代工廠流片的芯片。目前,基于ASIC的人工智能芯片有地平線BPU、谷歌的TPU。

基于ASIC開發人工智能芯片開發周期較長。基于ASIC開發人工智能芯片更像是電路設計,需要反復優化,需要經歷較長的流片周期,故開發周期較長。

量產后ASIC人工智能芯片成本及價格較低。雖然相較于FPGA, ASIC人工智能芯片需要經歷較長的開發周期,并且需要價格昂貴的流片投入,但是這些前期開發投入在量產后會被攤薄,所以量產后,ASIC人工智能芯片的成本和價格會低于FPGA人工智能芯片。

ASIC芯片性能功耗比較高。從性能功耗比來看,ASIC作為定制芯片,其性能要比基于通用芯片FPGA開發出的各種半定制人工智能芯片更具有優勢。而且ASIC也并不是完全不具備可配置能力,只是沒有FPGA那么靈活,只要在設計的時候把電路做成某些參數可調即可。

ASIC人工智能芯片主要面向消費電子市場。ASIC更高的性能,更低的量產成本以及有限可配置特性,使其主要面向消費電子市場,如寒武紀等公司。

5.4 類腦芯片

類人腦芯片架構是一款基于神經形態的工程,旨在打破“馮·諾依曼”架構的束縛,模擬人腦處理過程,感知世界、處理問題。這種芯片的功能類似于大腦的神經突觸,處理器類似于神經元,而其通訊系統類似于神經纖維,可以允許開發者為類人腦芯片設計應用程序。通過這種神經元網絡系統,計算機可以感知、記憶和處理大量不同的信息。類腦芯片的兩大突破:1、有望形成自主認知的新形式;2、突破傳統計算機體系結構的限制,實現數據并行傳送、分布式處理,能以極低功耗實時處理大量數據。

6、總結

CPU 有強大的調度、管理、協調能力。應用范圍廣。開發方便且靈活。但其在大量數據處理上沒有 GPU 專業,相對運算量低,但功耗不低。

GPU:是單指令、多數據處理,采用數量眾多的計算單元和超長的流水線,如名字一樣,圖形處理器,GPU善于處理圖像領域的運算加速。但GPU無法單獨工作,必須由CPU進行控制調用才能工作。CPU可單獨作用,處理復雜的邏輯運算和不同的數據類型,但當需要大量的處理類型統一的數據時,則可調用GPU進行并行計算。

FPGA:和GPU相反,FPGA適用于多指令,單數據流的分析,因此常用于預測階段,如云端。FPGA是用硬件實現軟件算法,因此在實現復雜算法方面有一定的難度,缺點是價格比較高。將FPGA和GPU對比發現,一是缺少內存和控制所帶來的存儲和讀取部分,速度更快。二是因為缺少讀取的作用,所以功耗低,劣勢是運算量并不是很大。結合CPU和GPU各自的優勢,有一種解決方案就是異構。

ASIC芯片:是專用定制芯片,為實現特定要求而定制的芯片。除了不能擴展以外,在功耗、可靠性、體積方面都有優勢,尤其在高性能、低功耗的移動端。谷歌的TPU、寒武紀的MLU,地平線的BPU都屬于ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,與CPU和GPU相比,TPU把控制縮小了,因此減少了芯片的面積,降低了功耗。

四種架構將走向哪里?

眾所周知,通用處理器(CPU)的摩爾定律已入暮年,而機器學習和Web 服務的規模卻在指數級增長。

人們使用定制硬件來加速常見的計算任務,然而日新月異的行業又要求這些定制的硬件可被重新編程來執行新類型的計算任務。

將以上四種架構對比,GPU未來的主攻方向是高級復雜算法和通用性人工智能平臺,其發展路線分兩條走:一是主攻高端算法的實現,對于指令的邏輯性控制要更復雜一些,在面向需求通用的AI計算方面具有優勢;二是主攻通用性人工智能平臺,GPU的通用性強,所以應用于大型人工智能平臺可高效完成不同的需求。FPGA更適用于各種細分的行業,人工智能會應用到各個細分領域。

ASIC芯片是全定制芯片,長遠看適用于人工智能。現在很多做AI算法的企業也是從這個點切入。因為算法復雜度越強,越需要一套專用的芯片架構與其進行對應,ASIC基于人工智能算法進行定制,其發展前景看好。類腦芯片是人工智能最終的發展模式,但是離產業化還很遙遠。

幾個品牌的SOC及域控制器做的還是不錯的,尤其是基于NVIDIA Xavier以及前期PX2等芯片的開發。國內大部分企業的應用比較集中在Xavier平臺和Linux系統,尤其是新勢力造車企業,而傳統車企更青睞TI瑞薩半導體公司的智能AI芯片以及QNX系統。國內基于Xavier做開發的企業很多,天津優控智行目前的域控制器產品在行業內屬于中等偏上水平,但是其軟件工具和服務做得相對有些優勢,后期有時間也扒一扒地平線、智行者等企業的域控制器學習學習。
編輯:lyn

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • GPU芯片
    +關注

    關注

    1

    文章

    303

    瀏覽量

    5850
  • AI芯片
    +關注

    關注

    17

    文章

    1893

    瀏覽量

    35099

原文標題:干貨 | CPU、GPU、FPGA、ASIC等AI芯片特性及對比

文章出處:【微信號:wc_ysj,微信公眾號:旺材芯片】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    DMD芯片與LCD技術的對比分析 如何維護DMD芯片設備的性能

    系統的顯示技術,由德州儀器(TI)開發。 每個DMD芯片由數以百萬計的微小鏡子組成,每個鏡子可以獨立控制,反射光線以形成圖像。 DMD技術以其高對比度、高亮度和快速響應時間而聞名。 LCD技術: LCD技術利用液晶分子的光學特性
    的頭像 發表于 12-05 10:53 ?579次閱讀

    賽逸展2025響應四大行業協會倡議,審慎采購美國芯片

    ,中國互聯網協會、中國汽車工業協會、中國半導體行業協會、中國通信企業協會發表聲明,呼吁國內企業審慎選擇采購美國芯片。賽逸展堅定不移地與中國四大行業協會站在一起,迅速加入四大協會陣營,全力支持
    的頭像 發表于 12-05 09:56 ?150次閱讀

    Orin芯片與其他芯片對比

    。 1. 性能對比 Orin芯片: 核心數量: Orin芯片擁有高達2048個CUDA核心,這為其提供了強大的圖形處理能力。 AI性能: 根據NVIDIA的數據,Orin的
    的頭像 發表于 10-27 15:42 ?1145次閱讀

    RTC時鐘芯片特性及應用場景

    FRTC8563是一款實時時鐘(RTC)芯片,它采用SOP-8封裝,這種封裝形式使得芯片具有較小的體積和良好的引腳連接穩定性,便于集成到各種電子設備中。 以下是關于FRTC8563芯片
    的頭像 發表于 09-09 14:24 ?565次閱讀
    RTC時鐘<b class='flag-5'>芯片</b>的<b class='flag-5'>特性</b>及應用場景

    探秘四大主流芯片架構:誰將主宰未來科技?

    在科技日新月異的今天,芯片作為現代電子設備的心臟,其架構的選擇與設計顯得尤為重要。目前市場上主流的芯片架構有種:X86、ARM、RISC-V和MIPS。它們各具特色,廣泛應用于各種電子設備中。本文將詳細剖析這
    的頭像 發表于 07-31 11:15 ?2861次閱讀
    探秘<b class='flag-5'>四大</b>主流<b class='flag-5'>芯片</b>架構:誰將主宰未來科技?

    AI芯片會導元件中間商消失嗎?

    元件AI芯片
    芯廣場
    發布于 :2024年06月19日 18:10:01

    AI芯片哪里買?

    AI芯片
    芯廣場
    發布于 :2024年05月31日 16:58:19

    啟英泰倫:AI芯片廣泛應用,催生離線NLP市場蓬勃發展

    啟英泰倫成立于2015年,致力于提供語音芯片、語音算法、開發平臺、應用方案等全棧式技術解決方案。次年,公司成功推出首款端側AI語音芯片C11006,至今已形成包括端側AI語音
    的頭像 發表于 05-18 16:18 ?914次閱讀

    risc-v多核芯片AI方面的應用

    RISC-V多核芯片AI方面的應用主要體現在其低功耗、低成本、靈活可擴展以及能夠更好地適應AI算法的不同需求等特點上。 首先,RISC-V適合用于高效設計實現,其內核面積更小,功耗更低,使得它能
    發表于 04-28 09:20

    AI芯片未來會控制這個世界嗎?

    AI芯片行業資訊
    芯廣場
    發布于 :2024年03月27日 18:21:28

    字節跳動加速AI布局,Flow部門拓展四大業務線

    字節跳動在AI領域的布局持續提速,其最新推出的AI角色互動App“話爐”引起了業界對AI社交賽道的廣泛關注。這款應用由字節跳動內部的Flow部門傾力打造,該部門隸屬于產品研發與工程部(PDI),現已發展成為擁有
    的頭像 發表于 03-27 11:21 ?987次閱讀

    ai芯片是什么東西 ai芯片和普通芯片的區別

    AI芯片是專門為人工智能應用設計的處理器,它們能夠高效地執行AI算法,特別是機器學習和深度學習任務。
    的頭像 發表于 03-21 18:11 ?7191次閱讀

    關于NRF51822藍牙芯片的使用選型分類對比

    BLE MESH彩燈 智能小家電 無線語音遙控 無線鍵盤、鼠標 防丟器 無線充電 智能藍牙門鎖 以上,是小編目前總結到的一些NRF51822芯片使用的資料,寫得不夠好的地方還請見諒,各位行業大咖們,如果
    發表于 03-18 13:17

    AI芯片短缺已影響超微電腦

    AI芯片行業芯事
    深圳市浮思特科技有限公司
    發布于 :2024年02月21日 10:18:59

    英偉達將用AI設計AI芯片

    AI芯片行業資訊
    深圳市浮思特科技有限公司
    發布于 :2024年02月19日 17:54:43
    主站蜘蛛池模板: 黄色短视频免费观看| 亚洲一区日本| 美女网站视频色| 中日韩免费视频| 777黄色片| 成人亚洲网站www在线观看| 夜夜爽夜夜爽| 精品国产成人系列| 国产美女流出白浆在线观看| 国产经典一区| 亚洲系列_1页_mmyy11| 天天草天天操| 岛国午夜精品视频在线观看| 狠狠干人人干| 亚洲精品日韩专区silk| 免费看曰批女人爽的视频网址| 手机看片1024久久| 成人午夜精品久久久久久久小说| 狼色影院| 中文字幕第13亚洲另类| 午夜视频啪啪| 男人的亚洲天堂| 亚洲成网站| 国产hs免费高清在线观看| 日本一区二区免费在线观看| 91大神免费视频| free性乌克兰高清videos| 男人j进女人j的一进一出视频| 性欧美高清| 欧美xxxx色视频在线观看免费| 欧美一级欧美一级高清| 亚洲人毛茸茸bbxx| 色婷婷精品| 色偷偷资源| 色婷婷色婷婷| 国内自拍露脸普通话对白在线| aaaaaa级特色特黄的毛片| 97av在线播放| 国产午夜精品久久久久九九| 天天视频一区二区三区| 四虎影免看黄|