電子發燒友網報道(文/周凱揚)隨著AI計算在數據中心逐漸占據主導地位,整個服務器系統架構中的虛擬化、網絡交換對硬件提出了更高的需求,為了降低進一步CPU的負載,DPU也就應運而生。通過使用DPU,各種架構的CPU不僅降低了功耗,還提升了效率,完美符合當下對綠色計算的追求。
DPU真的能省錢嗎?
雖然依據各大DPU廠商的說法,大規模使用DPU可以降低總成本,不過這一觀點在過去以FPGA和ASIC主導的SmartNIC設計架構的時期很難成立。FPGA更高的成本使得云服務廠商難以通過較低的成本來實現規?;6鳤SIC方案靈活可編程的能力較低,難以跟上時刻在迭代和擴充的網絡環境,后續升級成本較高。
而如今普及的SoC方案,則通過結合不同的架構,降低成本的同時極大地提高了其靈活性。比如博通的Stingray就是Arm+ASIC的SoC方案,英特爾的IPU則是FPGA+x86或FPGA+Arm的SoC方案,Marvell的OCTEON 10也是Arm+ASIC的SoC方案等等。
這也就是為何不少云服務廠商紛紛投入使用DPU的原因,通過卸載CPU的負載,降低了整個系統的功耗,從而大幅降低了能源成本。以使用英偉達DPU的愛立信為例,據其公布的數據,他們在使用DPU后將服務器CPU的功耗降低至145W,相比過去節約了24%的能耗。
這樣的數字在單個CPU,以及短運行周期內看起來似乎不算什么,但對于大型數據中心而言,這樣的數字就意味著單個DPU應用就可以在三年間省下近200萬美元的成本。同樣可以從中受益的還有OVS這一虛擬交換機應用,根據英偉達公布的數據,在使用BlueField-2來承接原本由CPU負責的交換任務后,單臺服務器的功耗可降低29%,達到305W。對于10000臺服務器的數據中心來說,也就是3年內近500萬美元的成本節約。
CSP紛紛選擇了自研DPU
至于從云廠商的角度,那DPU是否省錢這一問題的答案就更明顯了。不少云服務廠商開始意識到,與其選擇第三方DPU,倒不如走上自研這條路。頭部CSP發現自研DPU不僅可以減少系統成本,還能解決數據中心在管理和虛擬化上的局限性,從而保證其產品優勢。
比如字節跳動早在2020年就開啟了自研DPU氦卡的研發,從2021年至今已經發布了氦卡的1.0、1.5和2.0版本。目前最新的氦卡2.0一斤支持到網絡、存儲和虛擬化全量加速。這對于字節旗下的火山引擎來說,不僅實現了IaaS、PaaS和存儲資源統一的完全并池,也降低了成本,據字節跳動公布的數據氦卡使其TCO下降高達10%。
百度也在去年底發布了其自研DPU太行的2.0版本,新的DPU 2.0支持Intel、AMD和ARM平臺,也同時支持計算、存儲、網絡和虛擬化等功能。百度也基于太行2.0 DPU這一計算底座,打造了vQPE、BTHv、BOE、BDMA、RDMA和BHQoS六大自研引擎,做到多協議、多場景、跨平臺和低時延。
這與此前百度公布的太行DPU發展路徑一致,從路線圖上來看,未來的太行DPU 3.0將定位為云原生的IO引擎,實現BVC共平臺、硬件資源的全面解耦以及軟件定義實例等,做到端到端的極致性能。
寫在最后
其實隨著CSP紛紛自研DPU,這對于不少第三方DPU廠商都提出了一定的挑戰。首先大型CSP廠商都有這樣的能力去組建一個團隊,來為其量身打造自研DPU,甚至是直接通過收購來完成這一目的,比如微軟年初收購的Fungible??梢哉f,未來DPU廠商的競爭壓力將進一步放大,不僅要和同行對手卷,還要和自己的客戶卷。但好在對于使用云服務的用戶來說,DPU的出現一定會進一步降低使用成本。
-
DPU
+關注
關注
0文章
358瀏覽量
24182
發布評論請先 登錄
相關推薦
評論