電子發燒友網報道(文/周凱揚)隨著LLM在內的AI模型從規模和計算復雜性上成倍增加,與數年前相比,訓練優秀AI模型的成本已經上升到了一個新的高度。從最近不斷溢價、缺貨搶貨的GPU市場也可以看出,硬件成本已經成了AI發展的最大瓶頸。
為了訓練高質量的AI模型,堆硬件數量幾乎是避無可避的。為此,越來越多的AI芯片廠商看到了這個缺口,力求以自己的高性能硬件產品來填補競品造成的缺口。甚至不少此前專注在低功耗/邊緣AI計算的半導體公司,也計劃沖擊著更高的算力。
Leapmind
Leapmind是一家來自日本的邊緣AI公司,其主要產品為超低功耗的AI推理加速器IP,Efficiera。Efficiera專門針對FPGA和ASIC/ASSP設備上的CNN推理計算進行了優化,僅需極小的面積和功耗就能實現優異的算力,所以很適合集成在邊緣設備中。
雖然主打超低功耗,但Efficiera的性能表現卻一點都不差,根據Leapmind的綜合測試,在7nm工藝和533MHz的主頻下,Efficiera可以實現107.8TOPS/W的能效表現。加上Efficiera對CNN的優化,使其非常適合用于圖像識別類的應用,比如AR/VR、智能相機等。據Leapmind透露,他們已經在臺積電28nm和12nm上用此IP完成了數個SoC開發項目。
不過,Leapmind的野心并沒有止步于此,他們同樣看中了LLM大模型市場,計劃開發一款新的AI芯片來解決性能瓶頸問題。Leapmind指出,新的AI芯片將專注于AI模型訓練和推理,目標性能是2PFLOPS,且旨在實現與同等性能GPU 10倍差距的性價比。
這一AI芯片的特點包括,與Efficiera一樣,強調低精度計算下的性能表現,比如FP8等,從而減少所需的晶體管數量,也減少DRAM的帶寬壓力。同時Leapmind也會開源相關的驅動程序和編譯器,畢竟開發AI模型所需的軟件棧絕對不是Leapmind這個體量的公司能解決的問題。
Mythic
數字AI芯片的競爭或許異常激烈,但模擬AI芯片卻是Mythic的主戰場。他們打造的模擬矩陣處理器M1076芯片,可以實現單芯片25TOPS的性能,標準功耗卻只有3W到4W左右。
其模擬存內計算架構利用高密度的模擬內存來片上存儲神經網絡,而不是像數據芯片一樣需要片外數據交換,這種架構為其提供了遠低于數字芯片的功耗和延遲,為此更適合用于圖像傳感類的應用,比如物體識別等。
不過M1076的推出似乎并沒有給這家公司帶來足夠的客戶和利潤,哪怕他們甚至打入了洛克希德馬丁的供應鏈。從去年底開始,就有報道稱Mythic已經耗盡資金,無力進行下一代模擬存內計算架構的研發。直到今年3月,現有投資者和Catapult Ventures等新投資者為其再度注入了1300萬美元的資金,才將其從危機中挽救回來。
獲得新一輪融資后的Mythic的目標仍是做邊緣端的AI計算,但他們已經準備好對標桌面級GPU的算力表現了,為AR頭顯等算力需求持續拔高的機器視覺應用提供硬件支持。Mythic表示,新的M2000將進一步降低大小、功耗和成本,同時具備部署高性能機器視覺的能力,進一步擴大應用領域。
寫在最后
其實對于多數AI初創芯片公司來說,雖然競爭對手數量龐大,但低功耗AI芯片仍是一個相對更容易入局的市場。反倒是到了與GPU拼性能的時候,他們的競爭對手往往變成了GPU大廠或云服務廠商,所以必須得具備獨一無二的特性和足夠高的性價比,才能吸引到客戶以及投資。但這也恰好證明了多數AI芯片的擴展性,同樣的架構在邊緣AI芯片上實現后,也能廣泛用于更大規模的高性能AI芯片上,但他們的差異化戰略能否一并成功延續過來,仍需要接受局面完全不同的市場考驗。
-
gpu
+關注
關注
28文章
4740瀏覽量
128951 -
AI
+關注
關注
87文章
30896瀏覽量
269111 -
低功耗
+關注
關注
10文章
2403瀏覽量
103710
發布評論請先 登錄
相關推薦
評論