近日,來自天數智芯公司Power團隊的三位工程師闕詩璇、孫凌、甘振華合作發表的技術論文《左移:大規模人工智能(AI)處理器的功耗分析方法》順利入選第58屆(國際設計自動化會議,Design Automation Conference),并做poster presentation。
文章主要內容如下:
AI芯片最重要的設計指標之一就是單位功耗每瓦算力(TOPS/W),因此低功耗設計對于AI芯片的設計實現,在市場中具備競爭力都十分重要。然而原有的功耗分析方法存在一定的不足,對新的需求也無法滿足:
1.原有方法只是對功能驗證的場景,而缺乏真實的應用場景,跟真實的軟件應用有一定的差距;
2.傳統的功耗分析需要綜合后的網表和門級的向量,這在項目早期很難獲取,太晚介入會讓功耗優化受限;
3.對于仿真時間長的向量,尤其是要按時間分析功耗時,所需的運行時間和資源都是巨大的;
4.自適應電壓頻率縮放等需要有實時的功耗才能進行軟硬件控制,這是原有方法無法實現的;
5.為了搶占市場,需要更快的迭代設計,因此設計人員希望每周甚至每天都可以對低功耗功能進行驗證,原有方法很難趕上驗證迭代的速度;
為了解決這些挑戰跟需求,天數智芯提出了一種創新的功耗分析方案:利用一種功耗分析工具對所給的仿真向量進行高性能的按時間分析功耗的分布,從而得到平均功耗和峰值功耗等參數。這種方法在RTL階段就進行分析,有利于對AI處理器進行優化功耗的迭代,最終實現項目功耗目標。與之前的方法相比較,它在某些實驗中,可以達到100甚至1000倍的加速。
接下來將展開描述該方案在實際工作中的一個應用:通過機器學習的訓練得到實時功耗預測模型。
現在所用的新的功耗分析方法和原有的按時間分析網表的功耗分析方法,具有很好的相關一致性。所以利用它超高倍加速的分析能力,可以用于各種應用場景激勵產生訓練模型所需要的充足的數據集。當訓練數據集達到百萬甚至是上億級別,通過機器學習算法得到的模型就比較準確。這是依賴新的分析方法才能得到的,傳統的分析方法無法產生這么大的數據量。
我們用機器學習的算法對各個模塊進行參數訓練,從而得到最佳的預測模型,這樣就可以用于預測實時功耗,從而實現軟硬件的控制。
經過幾天的訓練,我們最終得到的預測模型與真實的功耗之間的誤差只有不到5%。
總的來看,創新的功耗分析方法與傳統流程相比,能在項目早期介入,所需要的運行時間跟內存消耗大大減少,可以在設計階段進行快速的迭代。它不僅僅可以對原有的功能驗證激勵進行分析,對于原型驗證的真實的應用場景向量也可以進行分析,從而得到更真實的功耗相關指標,且與項目最終簽核時的數據具有一致性。利用它的快速和節省資源特性,能夠為實時功耗的預測模型提供大量充足的數據樣本,最終得到誤差5%以內的預測模型。
關于DAC
DAC(國際設計自動化會議,Design Automation Conference)與ICCAD(國際計算機輔助設計會議,International Conference on Computer Aided Design)、DATE(歐洲設計自動化與測試學術會議,Design, Automation and Test in Europe)、ASP-DAC(亞太地區設計自動化會議,Asia and South Pacific Design Automation Conference)一起被公認為電子設計自動化領域水平最高的四大國際會議。
關于天數智芯
上海天數智芯半導體有限公司(簡稱“天數智芯”)于2018年正式啟動7納米通用并行(GPGPU)云端計算芯片設計,是中國第一家通用并行(GPGPU)云端計算芯片及高性能算力系統提供商。公司以“成為智能社會的賦能者”為使命,專注于云端服務器級的通用并行高性能云端計算芯片,瞄準以云計算、人工智能、數字化轉型為代表的數據驅動技術市場,解決核心算力瓶頸問題。重點打造自主可控、國際一流的通用、標準、高性能云端計算GPGPU芯片,從芯片端解決算力問題。
原文標題:天數智芯技術論文入選第58屆DAC
文章出處:【微信公眾號:天數智芯】歡迎添加關注!文章轉載請注明出處。
審核編輯:湯梓紅
-
參數
+關注
關注
11文章
1854瀏覽量
32353 -
自動化
+關注
關注
29文章
5613瀏覽量
79498 -
人工智能
+關注
關注
1793文章
47567瀏覽量
239417
原文標題:天數智芯技術論文入選第58屆DAC
文章出處:【微信號:IluvatarCoreX,微信公眾號:天數智芯】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論