? ? ? 數據中心規模的提升直接導致組網復雜度的跨越式升級。而在新基建大潮之下,企業和社會對各類數字基礎設施的需求則有增無減。要讓數據和業務在數據中心內暢行無阻,一張能夠與數據中心規模相匹配的高效網絡是關鍵。而組建高效網絡的第一步便是選對網絡架構。
? 三種數據中心場景,三種組網模型
伴隨數字化轉型的深入,“場景化”一度成為近兩年的熱詞。而就在計算和存儲設備還在為不同場景的需求和設計絞盡腦汁時,網絡的場景化卻早已在業內成為共識。 正如面對不同的通行需求人們會修建不同等級的公路,工程師們也早已根據數據中心的不同規模和應用規劃了匹配的組網方案。
場景1:中小型數據中心
兩級Clos架構是應用應用較早、較普遍的網絡架構,現如今依然是很多行業客戶的首選。對于規模總體有限的中小型數據中心來說,借由規格不斷提升的交換機,我們仍能以這種簡單結構組成可靠的網絡。而這也正是兩級Clos架構能夠在中小型數據中心內大行其道的主要原因。
典型的兩級Clos架構:AD-DC應用驅動數據中心解決方案 在兩級Clos架構中,整網設備只有兩種角色,此種架構的優點是數據轉發路徑短,跨Leaf一跳可達,路徑和時延具有很強的一致性。統一的接入方式也給上線部署和水平擴展帶來了很大的便利條件,例如BGP協議的部署,策略的控制,日常維護和問題排查等。 兩級Clos架構對Spine交換機的性能和可靠性要求很高,一般采用數據中心框式核心交換機產品。框式核心交換機有獨立的控制平面、轉發平面和支撐系統,而且采用冗余設計,這使得整個系統在可靠性上遠高于盒式交換機。
數據中心框式核心交換機從576*10G到576*400G的性能演進 兩級Clos架構在和商用SDN控制器方案的適配上更成熟,結合SDN控制器可快速構建基于EVPN的網絡Overlay方案,降低東西向和南北向服務鏈的部署難度,滿足云場景下網絡對VM、裸金屬、容器等全形態計算資源聯動的需求。 另外,該架構也同樣適用于大型企業在各地部署的匯聚機房和邊緣機房,用于構建邊緣計算網絡,緩解主干網絡壓力和降低訪問時延。 場景2:大中型數據中心 兩級Clos架構所支撐的服務器規模一般小于20000臺,三級Clos架構的引入解決了兩級Clos架構在網絡規模上的瓶頸。三級Clos架構在兩級Clos架構的中間增加了一級匯聚交換機(Pod Spine),由一組Pod Spine交換機和其下連的所有Leaf交換機一起組成一個Pod,通過Spine層交換機將多個Pod互連組成整個網絡。增加Pod的數量即可實現網絡的水平擴展,大幅提升了網絡的擴展能力。同時,以Pod為單位進行業務部署,在適配多種業務需求、提供差異化服務等方面,三級Clos架構更具靈活性。
三級Clos架構示例 此外由于高密匯聚交換機Pod Spine的引入,Spine層的框式核心交換機突破了個位數限制,可以部署數十臺,Spine層框式核心交換機提供的總端口數可用于連接數十個Pod,整個網絡可以支撐服務器規模超過10萬臺。
高密匯聚交換機從32*100G到64*400G的性能演進 另外,通過調整Pod內Pod Spine交換機的上、下行端口比例,可以靈活定義每個Pod的收斂比,在滿足不同業務需求的同時還有助于降低成本,避免不必要的浪費。 場景3:大型、超大型數據中心 互聯網企業總是能刷新人們對“海量”一詞的認知,無論是在商業模式層面還是在基礎架構層面都是如此。每分鐘幾億乃至幾十億的業務對數據中心的規模提出了更高的要求,而這也帶動了網絡結構的再一次進化。基于盒式設備的多平面組網架構,是當前頭部互聯網公司采用的新架構,用于組建大規模和超大規模的數據中心網絡。
基于盒式設備的多平面組網示例 不同于三級Clos架構中每臺Pod Spine都需要和所有Spine層交換機全互聯;新架構中的Spine層交換機被分成多組(組數與每個Pod中Pod Spine交換機數量一致),每組中的Spine交換機均可構成一個獨立平面,而每個Pod中的Pod Spine交換機只需和對應平面中的Spine交換機全互聯即可。 這樣,整個Spine層便可連接更多的Pod,構建出支撐數十萬級別服務器的超大規模網絡。并且,隨著盒式交換機性能的提升,該架構還可以持續的提升容量空間。 同時,由于Spine和Pod Spine使用的設備相同,整個網絡在功能性、轉發延遲等方面均具備高度一致性。這就為業務部署和網絡調優創造了巨大的優勢。并且,整個網絡從100G組網向200G、400G組網以及后續更高速組網的演進上能保持同步。
未來數據中心網絡
01、可視化的網絡管理
從以上三種不同規模的數據中心組網方案中我們可以發現,無論何種架構,管理都是一個不可不談的核心問題。那么,問題接踵而至:如何以更低的成本,實現更高效的網絡管理? 看得到交通情況,我們才能更好地管理公路;網絡的可視化也是高效管理的前提。 在實際應用中,網絡可視化技術不但能夠完成端到端的流量監控、風險預警、協助故障排查;更可以通過數據積累和分析,實現數據中心網絡架構的優化設計。
02、智能網卡將成為網絡的新末端
交換機+SmartNIC+UniServer服務器的端到端解決方案 智能網卡將是DCN網絡中重要的組成部分,具備可編程能力的智能網卡在釋放CPU資源、實現高性能轉發的同時,還擁有隧道封裝/解封裝、虛擬交換、加解密、RDMA等功能,隨著業務場景和需求的增加,越來越多的數據平面功能將由智能網卡來完成,打破了基于服務器或交換機各自實現的局限性,有望做到性能、功能和靈活性的完美平衡。
為什么會產生超融合數據數據中心網?
現狀:數據中心內有三張網絡
數據中心內部有三類典型的業務:通用計算(一般業務)、高性能計算(HPC)業務和存儲業務。每類業務對于網絡有不同的訴求,比如:HPC業務的多節點進程間通信,對于時延要求非常高;而存儲業務對可靠性訴求非常高,要求網絡0丟包;通用計算業務規模大,擴展性強,要求網絡低成本、易擴展。 由于上述業務對網絡的要求不同,當前數據中心內部一般會部署三張不同的網絡:
由IB(InfiniBand)網絡來承載HPC業務
由FC(Fiber Channel)網絡來承載存儲網絡
由以太網來承載通用計算業務
數據中心內的三張網絡
AI時代的變化1:存儲和計算能力大幅提升,網絡成為瓶頸
企業數字化過程中將產生大量的數據,這些數據正在成為企業核心資產。通過AI技術從海量數據中挖掘價值成為AI時代不變的主題。通過AI機器學習利用各種數據輔助實時決策,已經成為企業經營的核心任務之一。與云計算時代相比,AI時代企業數據中心的使命正在從聚焦業務快速發放向聚焦數據高效處理轉變。 ?
數據中心正在從云計算時代走向AI時代 ? 為了提升海量AI數據處理的效率,存儲和計算領域正在發生革命性的變化:
存儲介質從機械硬盤(HDD)演進到閃存盤(SSD),來滿足數據的實時存取要求,存儲介質時延降低了不止100倍。
為了滿足數據高效計算的訴求,業界已經在采用GPU甚至專用的AI芯片,處理數據的能力提升了100倍以上。
隨著存儲介質和計算能力的大幅提升,在高性能的數據中心集群系統中,當前網絡通信的時延成為應用整體性能進一步提升的瓶頸,通信時延在整個端到端時延中占比從10%上升到60%以上,也就是說,寶貴的存儲或計算資源有一半以上的時間是在等待網絡通信。 ? 總的來說,隨著存儲介質和計算處理器的演進,網絡的低效阻礙了計算和存儲性能的發揮;只有將通信時長降低到與計算和存儲接近,才能消除木桶原理中的“短板”,提升應用整體的性能。
AI時代的變化2:RDMA替代TCP/IP成為大勢所趨,但RDMA的網絡承載方案存在不足
如下圖所示,在服務器內部,由于TCP協議棧在接收/發送報文,以及對報文進行內部處理時,會產生數十微秒的固定時延,這使得在AI數據運算和SSD分布式存儲這些微秒級系統中,TCP協議棧時延成為最明顯的瓶頸。另外,隨著網絡規模的擴大和帶寬的提高,寶貴的CPU資源越來越地多被用于傳輸數據。 ? RDMA(Remote Direct Memory Access)允許應用與網卡之間的直接數據讀寫,將服務器內的數據傳輸時延降低到接近1us。同時,RDMA允許接收端直接從發送端的內存讀取數據,極大減少了CPU的負擔。 ?
RDMA與TCP的對比 ? 根據業務的測試數據, 采用RDMA可以將計算的效率同比提升6~8倍;而服務器內1us的傳輸時延也使得SSD分布式存儲的時延從ms級降低到us級成為可能,所以在最新的NVMe(Non-Volatile Memory express)接口協議中,RDMA成為主流的默認網絡通信協議棧。因此,RDMA替換TCP/IP成為大勢所趨。 ? 在服務器之間的互聯網絡中,當前有兩種方案來承載RDMA:專用InfiniBand網絡和傳統IP以太網絡,然而,它們都存在不足:
InfiniBand網絡:架構封閉,采用私有協議,難以與現網大規模的IP網絡實現很好的兼容互通;運維復雜,專人運維,OPEX居高不下。
傳統IP以太網:對于RDMA來說,大于10-3的丟包率,將導致網絡有效吞吐急劇下降,2%的丟包則使得RDMA的吞吐率下降為0。要使得RDMA吞吐不受影響,丟包率必須保證在十萬分之一以下,最好為無丟包。而擁塞丟包是傳統IP以太網絡的基本機制,傳統IP以太網中會使用PFC和ECN機制來避免丟包,但其基本原理是通過反壓降低發送端速度來保證不丟包,實際上并沒有達到提升吞吐率的效果。
因此,RDMA的高效運行,離不開一個0丟包、高吞吐的開放以太網作為承載。
AI時代的變化3:分布式架構成為趨勢,加劇網絡擁塞,驅動網絡變革
在企業的數字化轉型中,以金融和互聯網企業為代表,大量的應用系統遷移到分布式系統上:通過海量的PC平臺替代傳統小型機,帶來了成本低廉、易擴展、自主可控等優勢,同時也給網絡互聯帶來了挑戰:
分布式架構帶來了服務器間大量的互通需求。
Incast型流量(多點對一點的流量)會在接收端造成流量突發,瞬間超過接收端接口能力,造成擁塞丟包。
分布式架構流量模型示意
隨著分布式系統應用復雜度的增加,服務器之間交互的消息長度越來越大,即流量具備“大包”特征,進一步加劇了網絡擁塞。
什么是超融合網數據中心網絡的核心指標?
從上一節來看,為了滿足AI時代的數據高效處理訴求、應對分布式架構挑戰,0丟包、低時延、高吞吐成為下一代數據中心網絡的三個核心指標。這三個核心指標是互相影響,有蹺蹺板效應,同時達到最優有很大的挑戰。 ?
三個核心指標相互影響 ? 同時滿足0丟包、低時延、高吞吐,背后的核心技術是擁塞控制算法。通用的無損網絡的擁塞控制算法DCQCN(Data Center Quantized Congestion Notification),需要網卡和網絡進行協作,每個節點需要配置數十個參數,全網的參數組合達到幾十萬;為了簡化配置,只能采用通用的配置,導致針對不同的流量模型,常常無法同時滿足這三個核心指標。
超融合數據中心網絡與HCI有什么異同?
HCI(Hyper-Converged Infrastructure,超融合基礎架構)是指在同一套單元設備中不但具備了計算、網絡、存儲和服務器虛擬化等資源和技術,而且多套單元設備可以通過網絡聚合起來,實現模塊化的無縫橫向擴展(Scale—Out),形成統一的資源池。 ? HCI將虛擬化計算和存儲整合到同一個系統平臺。簡單地說就是物理服務器上運行虛擬化軟件(Hypervisor),通過在虛擬化軟件上運行分布式存儲服務供虛擬機使用。分布式存儲可以運行在虛擬化軟件上的虛擬機里也可以是與虛擬化軟件整合的模塊。廣義上說,HCI既可以整合計算和存儲資源,還可以整合網絡以及其它更多的平臺和服務。目前業界普遍認為,軟件定義的分布式存儲層和虛擬化計算是HCI架構的最小集。 ? 與HCI不同,超融合數據中心網絡只專注于網絡層面,提供全新的計算、存儲互聯的網絡層方案。使用超融合數據中心網絡,不需像HCI那樣對計算資源、存儲資源進行改造和融合,并且基于以太網很容易實現成低成本的快速擴容。 ? 的超融合數據中心網絡,基于開放以太網,通過獨特的AI算法,可以使以太網絡同時滿足低成本,0丟包和低時延的訴求。超融合數據中心網絡成為AI時代的數據中心構建統一融合的網絡架構的最佳選擇。 ?
從獨立組網到統一融合的組網
超融合數據數據中心網絡有什么價值?
傳統的FC專網和IB專網,價格昂貴,生態封閉,且需要專人運維,也不支持SDN,無法滿足云網協同等自動化部署的訴求。 使用華為超融合數據中心網絡具有以下價值:
提升端到端業務性能使用華為超融合數據中心網絡,據權威第三方測試EANTC測試結論,可以在HPC場景下最高降低44.3%的計算時延,在分布式存儲場景下提升25%的IOPS能力,且所有場景保證網絡0丟包。 使用華為超融合數據中心網絡,可提供25G/100G/400G組網,滿足AI時代海量數據對網絡大帶寬的需求。
降低成本,提升收益 數據中心投資中網絡占比僅10%左右,相對服務器/存儲的投資(占比85%),有10倍的杠桿效應,撬動服務器和存儲投資的大幅降低;華為超融合數據數據中心網絡可以帶來25%的存儲性能提升,40%的計算效率提升,將帶來數十倍的ROI(Return On Investment)能力。
支持SDN自動化和智能運維 華為超融合數據中心網絡支持SDN云網協同的全生命周期業務自動化,OPEX降低至少60%以上。另外,由于華為超融合數據中心網絡本質上是以太網,因此傳統以太網運維人員就可以管理,且可以依托華為智能分析平臺iMaster NCE-FabricInsight,多維度地、可視化地對網絡進行運維。
超融合數據數據中心網絡如何工作? 上文提到,使用以太網來承載RDMA流量,目前使用的協議為RoCE(RDMA over Converged Ethernet)v2。華為超融合數據中心網絡,使用iLossless智能無損算法構建無損以太網絡,是一系列技術的合集,通過以下三個方面技術的相互配合,真正解決傳統以太網絡擁塞丟包的問題,為RoCEv2流量提供“無丟包、低時延、高吞吐”的網絡環境,滿足RoCEv2應用的高性能需求。
流量控制技術 流量控制是端到端的,需要做的是抑制發送端的發送速率,以便接收端來得及接收,防止設備端口在擁塞的情況下出現丟包。華為提供了PFC死鎖檢測和死鎖預防,提前預防PFC死鎖的發生。
擁塞控制技術 擁塞控制是一個全局性的過程,目的是讓網絡能承受現有的網絡負荷,往往需要轉發設備、流量發送端、流量接收端協同作用,并結合網絡中的擁塞反饋機制來調節整網流量才能起到緩解擁塞、解除擁塞的效果。在擁塞控制過程中,華為提供了AI ECN、iQCN、ECN Overlay和NPCC功能,解決了傳統DCQCN存在的問題。
智能無損存儲網絡技術
為了更好地服務存儲系統,華為提供了iNOF(智能無損存儲網絡)功能,實現對主機的快速管控。
編輯:黃飛
?
評論
查看更多