在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

現代數據中心SmartNIC/DPU的演變過程

SDNLAB ? 來源:SDNLAB ? 2023-07-19 16:11 ? 次閱讀

隨著傳統IDC向云數據中心轉型,數據中心網絡架構開始不斷演進,三層架構正過渡到Spine - Leaf架構。為了更好地利用數據中心的 CPU 資源,公有云提供商采用了多租戶模式。云平臺需要為每個租戶提供防火墻、IPsec-VPN、微分段、加解密等網絡服務,以隔離和保護其流量免受威脅。

在某些數據中心中,專門的中央設備負責執行這些網絡服務功能,數據包必須多次穿越數據中心網絡,造成了一定的流量瓶頸。現代數據中心正在嘗試將安全和網絡功能放置到更靠近工作負載的位置,以獲得更好的性能,這就是SmartNIC/DPU 出現的原因之一。

云數據中心架構

三層架構

許多傳統數據中心采用三層架構,包括核心路由器、匯聚路由器和接入交換機。核心路由器通常是大型模塊化路由器,具有非常高的帶寬和高級路由功能。匯聚路由器是中間層路由器,具有更高的上行鏈路速度。服務器與接入交換機(也稱為 TOR交換機)相連,如下所示。

985ab888-260b-11ee-962d-dac502259ad0.png ?

當大部分流量是南北向流量時,三層架構的工作效果很好:流量從數據中心外部進入,流經匯聚、接入交換機到服務器,然后再向北離開數據中心。大多數數據包每條路都會經過三個網絡設備。

隨著虛擬化技術的發展,單個服務器上可以承載多個虛擬機,再加上微服務的普及,東西向流量(服務器到服務器的通信)出現爆炸式增長。三層架構并不適合東西向流量的模式,服務器到服務器的通信必須經過兩次訪問、匯聚和/或核心設備(具體取決于目標服務器的位置),這導致延遲大大增加。此外,由于接入交換機僅與一小部分匯聚交換機通信,因此任何一個交換機的故障都會導致帶寬的顯著減少。

兩層或Spine-Leaf架構

Spine-Leaf架構只有兩層,每個Leaf設備連接到每個Spine設備。由于任意連接,這些設備需要高端口密度。這種架構在現代云數據中心中很受歡迎,因為密集的Spine-Leaf連接可以很好地支持東西向的流量模式。

98a994b2-260b-11ee-962d-dac502259ad0.png ?

Spine通常與Leaf交換機有直接連接 (40Gbps - 400Gbps) 。Leaf交換機充當此拓撲中的傳統 TOR 交換機,它們具有 20-50 個端口連接到機架中的服務器,以及多個上行鏈路 (40Gbps-400Gbps) 連接到所有Spine設備。 這種架構有以下幾個優點:

兩臺服務器之間的東西向流量最多有四個躍點 (host-leaf-spine-leaf-host),這有助于減少總體延遲和功耗。

簡化了中間層,與三層相比,拓撲中的網絡設備更少。

可以獨立添加Leaf和Spine設備,以增加網絡容量,有時被稱為“橫向擴展”架構。

服務器虛擬化

為了更好地利用數據中心的 CPU 資源,公有云提供商采用了多租戶模式,即服務器中 CPU 的計算能力在多個系統、應用程序和/或企業用戶(租戶)之間共享。盡管資源是共享的,但租戶彼此之間互不干涉,且租戶數據由服務器軟件完全分開保存。多租戶可以降低云計算硬件成本。

云服務提供商需要確保每個租戶的數據安全,計算資源在租戶之間公平共享,以及防止"嘈雜鄰居"效應(其中一個或幾個客戶端/應用程序消耗大部分接口和計算帶寬)。

主機服務器中的多租戶通常通過服務器虛擬化來實現。服務器虛擬化是通過軟件應用程序(如VMware Vsphere Hypervisor)將物理服務器劃分為多個獨立的虛擬機的過程。每個虛擬機都包含應用程序、操作系統和內核。服務器虛擬化允許每個虛擬機充當唯一的物理設備,但虛擬機依賴其專用的操作系統(OS),每個OS都會占用額外的CPU、RAM和存儲服務器。

在過去幾年中,云提供商和企業開始轉向另一種共享服務器資源的方法——容器。容器是輕量級的操作系統級虛擬化,容器與宿主機共享硬件資源及操作系統,可以實現資源的動態分配。微服務是一種軟件架構模型,其中應用程序被分解為多個具有明確定義的接口和操作的單個功能模塊(微服務)。微服務鏈接在一起以創建“可插入”應用程序。在容器中運行微服務是現代數據中心使用計算資源的最有效方式之一。

虛擬機和容器化微服務不僅增加了主機之間的流量模式,還增加了主機內虛擬機和容器之間的流量模式。所有這些主機間和主機內的流量都需要進行交換/路由和保護,這都增加了服務器 CPU 的負擔。

Spine/Leaf通信

在虛擬化之前,一臺服務器只有一個 MAC 和一個 IP 地址。服務器虛擬化后,每個虛擬機或容器至少有一個 MAC 和一個 IP 地址。

如果Spine-Leaf交換機在第 2 層 (L2) 中轉發流量,那么每個交換機都需要學習網絡中的每個 MAC 地址,包括服務器上所有虛擬機的 MAC 地址。一臺典型服務器中通常有 60-80 個虛擬機,每個機架大約有 40 臺物理服務器,大約有 20 個機架,這意味著每個Spine交換機中有 64K個 MAC 表條目。

在 L2 轉發中,當目的地未知或未被獲知時,網絡設備應將數據包泛洪到與其相連的所有端口,這可能會導致環路和數據包風暴。為了避免這種情況,可以使用生成樹協議 (STP) 對VLAN 段內的網絡拓撲修剪并創建樹狀拓撲。但STP 會阻塞冗余路徑,減少可用鏈路的數量。

但是,如果Spine-Leaf通信位于第 3 層 (L3),則Spine交換機只需為每個子網(Leaf交換機和與其關聯的服務器)使用 IP 轉發,而無需學習所有的MAC 地址。

當Leaf交換機到服務器的通信是在二層時,Leaf交換機只需要了解其本地虛擬機的 MAC 地址。此外,ECMP可用于在Spine/Leaf之間通過多個并行鏈路(多路徑)發送流量,從而更好地利用帶寬,并且具有更好的彈性。

由于以上種種原因,L3 轉發是Spine交換機和Leaf交換機之間的普遍選擇。

云數據中心的另一個關鍵需求是能夠在不更改MAC和IP地址的情況下將虛擬機從一臺物理服務器移動到另一臺物理服務器。

如果所有虛擬機都位于一個平面以太網中,那么MAC 移動是可行的。在Spine/Leaf和host之間進行L2轉發,可以使用VLAN創建多個網段,并且特定網段內的虛擬機可以自由移動。但是,由于只有 4K個VLAN,基于 VLAN 的分段無法很好地擴展,也印證了L2 轉發不是首選。

這就是 VXLAN 發揮作用的地方。VXLAN隧道協議將以太網幀封裝在IP/UDP數據包中,可以創建跨物理 L3 網絡的虛擬化 L2 子網。每個 L2 子網均由 24 位 的VNI唯一標識。執行 VXLAN Encap/Decap 的實體(如主機或網絡設備中的hypervisor等軟件應用程序)稱為 VTEP(VXLAN 隧道端點)。VTEP的服務器端位于二層橋接域,網絡端是IP網絡。

99e59a60-260b-11ee-962d-dac502259ad0.png ?

VXLAN 報頭中的 24 位 VNI 轉換為 1600 萬個 VNI 子網,這可以在 IP 底層網絡之上構建大規模虛擬以太網Overlay 網絡。還有其他Overlay 協議,如 NVGRE,也能實現類似的結果,但相對而言VXLAN 是一個流行的選擇。

SmartNIC的興起

上文在傳統三層網絡架構向二層網絡架構的轉變中,提到了服務器虛擬化和容器化的種種優勢,但虛擬機依賴其專用的操作系統(OS),每個OS都會占用額外的CPU、RAM和存儲服務器。此外,使用分布式服務模型,網絡和安全功能也需要在虛擬機/容器之間的所有流量上運行,這會給服務器 CPU 資源帶來壓力,CPU 可能會使用 30% 的內核來實現這些功能。

CPU作為服務器中最昂貴的組件,理想情況下,我們希望CPU的所有能力都用來單獨運行應用程序軟件,而不是用來處理網絡、安全或存儲功能,也就是所謂的基礎設施功能。

這就是SmartNIC出現的原因之一。

NIC 是一種網絡接口卡,通過以太網接口接收來自網絡的數據包,并將其發送到服務器 CPU,反之亦然。NIC通過PCIe接口連接到服務器CPU,以線路速率將數據包傳輸到 CPU 或從 CPU 傳輸出來。隨后,NIC開始添加硬件加速(使用 ASICFPGA),以減輕服務器 CPU 對基本數據包處理功能的負擔。

事實證明,把服務器從基礎設施功能處理中剝離出來可以節省大量成本,因此,越來越多的此類功能開始進入NIC。S

martNIC一詞是指那些使用定制 ASIC/FPGA 或基于 SOC 的硬件加速,將 CPU能力從基礎網絡功能中釋放出來的NIC。


x16 接口的 PCIe 插槽的功率預算約為 75 瓦,這限制了用于加速的硬件設備的功耗。雖然基于FPGA的解決方案開發時間更快,但很難滿足75W的功耗要求。

另外,在SOC 中使用處理器內核進行加速/卸載的方法無法獲得良好的性能,因為處理器內核無法以足夠快的速度處理數據平面流量,以跟上 >100Gbps 以太網流量。

因此,許多供應商都在提供帶有 ASIC 的混合解決方案,ASIC具有數據平面處理器內核(用于處理難以在硬件中實現的復雜網絡功能)和可編程硬件加速器以及傳統的數據包處理卸載。這些設備通常被稱為 DPU 或數據處理單元,DPU 還擁有自己的控制/管理平面。

在某些配置中,DPU 可以集成為Leaf交換機的一部分,或者作為Leaf交換機和傳統 NIC 之間的轉換器。但最常見的配置是將 DPU 作為 NIC 的一部分集成到服務器組中。

DPU是Smartest NIC?

DPU 中的典型子系統和接口如下圖所示:

9a46185e-260b-11ee-962d-dac502259ad0.png

以太網接口

通常至少有兩個端口,且每個端口為 25Gbps 至 200Gbps(有些供應商在開發 400Gbps)。每個以太網接口都連接到 MAC/PCS 子系統,以提取數據包提取并在第2層檢查數據包完整性。

與主機之間的 PCIe 接口

通常是Gen3/4/5接口。可能有多個 PCIe 接口,一些接口與 CPU 通信,另一些接口與 SSD/GPU 通信。在設計PCIe 接口到CPU的整體帶寬時,應保證能處理來自以太網接口的全部流量,以在不擁塞的情況下到達 CPU。

在具有許多虛擬機的高度虛擬化服務器中,依賴hypervisor向所有虛擬機提供連接會增加 CPU 的開銷。SR-IOV 標準允許單個NIC在hypervisor軟件中顯示為多個虛擬NIC(每個虛擬機一個)。它允許不同的虛擬機共享單個 PCIe 接口,而無需在hypervisor中使用虛擬交換機。PCIe complex支持 SR-IOV 所需的 PF/VF。

實現此功能的 DPU 負責在數據包處理引擎中的虛擬機(Open vSwitch) 之間進行切換。

數據包轉發

DPU 通常具有復雜的數據包轉發管道,支持所有 L2/L3 轉發功能。因此,非常需要有一個可編程的數據平面。P4 是轉發平面編程的首選語言,它可用于定義可編程和固定功能網絡處理單元中的數據平面行為。

除了支持基本的L2/L3轉發之外,在卸載引擎和/或處理器內核的幫助下,數據包轉發邏輯還可以支持多種功能。具體實施情況因供應商而異。

Overlay支持:DPU 可以作為 VXLAN 隧道端點 (VTEP),從服務器hypervisor卸載此功能。它可以支持VXLAN和其他Overlay協議的Inline封裝/解封裝。該邏輯在數據包處理引擎中實現。

TCP 基本功能

TCP 校驗和卸載

CP 報頭有一個校驗和字段,DPU 可以計算校驗和并將錯誤標記給 CPU。

TCP 分段卸載

CPU 可以將大數據塊與報頭模板一起發送給 DPU。DPU 對數據包進行分段,并在每個分段中添加以太網/IP 和 TCP 報頭。

TCP Large Receive Offload

DPU 可以收集單個流的多個 TCP 報文,并將它們發送到 CPU,以便 CPU 不必處理許多小報文。

Receive Side scaling

DPU 可以通過對五元組進行哈希來確定數據包的流。屬于不同流的數據包可以到達 CPU 的不同內核。這減少了單個 CPU 線程上的負載。

流表

在基于流的轉發中,主機 (CPU) 或 DPU 的控制平面處理器對前幾個報文進行報頭檢測。之后,處理器將流記錄到流表中。然后,相同流中的其余報文可以通過流表查找來處理,使用的流標識字段是通過哈希L2/IP報頭和外部封裝報頭形成的。

這可以顯著提高某些應用程序的性能,因為查找流表比全面檢查和評估每個數據包要快得多。流表由數百萬個條目組成,存儲在外部存儲器中。

安全功能

DPU 支持多種功能,以驗證和保護不同應用程序之間的流量。

加密/解密

DPU 支持 VPN 終端,可對加密的VPN流量進行在線加/解密和IPsec認證。

防火墻/ACL

現代數據中心依賴于分布式防火墻,防火墻可以通過數據平面處理器內核或卸載引擎來加速。不同的DPU 具有不同的防火墻功能。通常,廠商提供靜態數據包過濾、訪問控制列表 (ACL) 和 NAT。

TLS 加密/解密

傳輸層安全 (TLS) 對應用層流量進行加密,使黑客無法竊聽/篡改敏感信息。它運行在 TCP 之上,最初用于加密 HTTP 會話——Web 應用程序和服務器之間的流量。最近,許多運行在 TCP 上的應用程序也開始使用 TLS 來實現端到端安全。TLS 也可以運行在 UDP 之上,稱為 DTLS協議。某些 DPU 提供代理 TCP/TLS 服務,用于終止 TCP 會話、解密 TLS 加密流量,以及在將流量發送到主機處理器之前對其進行身份驗證。TCP/TLS 卸載通常通過專用硬件和處理器內核的組合來完成。

控制平面的處理器內核

DPU 具有一組運行 LinuxARM 內核,用于運行控制(包括 Open vSwitch 控制平面)和管理協議。

Cross-Bar或NoC

提供內存和緩存的連接,并保持緩存一致。

QoS/流量整形

NIC 接收托管不同在虛擬機/容器中不同應用程序的流量,并且需要支持 QoS。DPU 支持多個隊列和優先級,并支持從這些隊列進行調度的復雜調度算法,還支持流量整形以減少傳出流量的突發性。

DMA 引擎

DMA 引擎可以在DPU和主機內存之間發起內存傳輸。

存儲功能

隨著計算資源的解耦,存儲解耦在數據中心也得到了大力支持。許多云提供商正在將存儲與計算分離,以降低基礎設施成本、減少需要支持的服務器配置數量,并能夠為數據密集型 AI/ML 應用程序提供靈活的存儲資源。

存儲服務器是一組存儲設備(主要是NVMe SSD),充當邏輯池,可以分配給網絡上的任何服務器。存儲服務器中的遠程 SSD 和 CPU 之間的文件和塊數據傳輸發生在承載數據包流量的同一個Spine-Leaf網絡上。

NVMe over Fabric 和 NVMe over TCP 是流行的協議,可以使用以太網和 TCP/IP Underlay在數據中心網絡上使用 NVMe 傳輸數據。DPU 通常通過實施硬件加速引擎來支持對遠程存儲服務器的訪問,硬件加速引擎可以啟動這些協議來讀/寫 SSD。

此外,DPU 還支持 RDMA over IP (RoCE) 卸載、數據壓縮/解壓縮(以減少通過網絡傳輸到 SSD 設備的數據量)和確保安全的數據加密/解密。

負載均衡器

負載均衡器將應用程序流量分配到多個虛擬機/容器(運行應用程序),以支持多個并發用戶。比如谷歌地圖APP可能托管在谷歌數據中心的許多服務器上,當用戶在地圖上查詢路線時,根據服務器上的負載,每個查詢可能會轉到不同的服務器。

負載均衡器對第 4 層(TCP/UDP 報頭)和/或第 5-7 層(應用程序數據)中的字段進行哈希處理,以查找可用服務器的表,并使用策略分配應用程序流量。實際的實現比這個描述復雜得多,是通過卸載引擎實現的。

DPU 的未來

所有云提供商都在大力投資定制DPU的開發工作,并過渡到基于 DPU 的智能NIC,以降低基礎設施成本,并提供更好的吞吐量/性能。

目前,這些 DPU 尚未廣泛滲透到企業客戶中,它們比標準NIC要貴很多,并且在編程NIC 軟件時涉及工程工作。對于公有云提供商來說,由于其數據中心規模龐大,在所有服務器上分攤的工程工作量并不顯著。但對于中小企業客戶來說,將更多的標準化特性卸載到 DPU 和完全可編程的數據平面架構可以幫助簡化開發工作。

隨著云軟件和 DPU 硬件團隊之間更緊密的交互(硬件和軟件的共同設計),會發現更多從卸載到DPU中受益的功能。此外,DPU未來有可能完全解耦云資源,并將 CPU/GPU/GPGPU 降級為與DPU連接的勞動力。

原文鏈接: https://www.linkedin.com/pulse/evolution-smartnicsdpus-modern-data-centers-sharada-yeluri?trk=public_post-content_share-article






審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 交換機
    +關注

    關注

    21

    文章

    2640

    瀏覽量

    99646
  • 路由器
    +關注

    關注

    22

    文章

    3732

    瀏覽量

    113788
  • Mac
    Mac
    +關注

    關注

    0

    文章

    1106

    瀏覽量

    51479
  • 虛擬機
    +關注

    關注

    1

    文章

    917

    瀏覽量

    28202
  • VLAN通信
    +關注

    關注

    0

    文章

    18

    瀏覽量

    5635

原文標題:現代數據中心SmartNIC/DPU 的演變

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    buck電路原理圖講解 buck電路的演變過程

    buck電路相信很多從事電子類工作的朋友都聽過,它說白了就是個直流降壓電路,在降壓芯片出來之前,它的出場率非常高但是以前僅僅是看過他,不懂它是怎樣演變過來的,今天旺哥和大家一起分析學習下它的演變過程
    發表于 08-23 15:28 ?1340次閱讀
    buck電路原理圖講解 buck電路的<b class='flag-5'>演變過程</b>

    數據處理器:DPU編程入門》讀書筆記

    ,讓用戶可以不用關注DPU的底層硬件接口而直接對硬件進行編程。 此外,DPU數據中心基礎架構的處理芯片,預測至少30%的CPU資源用于執行數據中心基礎設施架構,而這些任務都可以卸載到
    發表于 12-21 10:47

    數據中心的建設也看重風水

    相比中國傳統的風水理論,數據中心所看重的風水則更加貼合實際。以整體架構來劃分,目前的主流的數據中心已經進入第三代,并開始向第四代演進。第一代和第二代數據中心分別誕生于20世紀40和70年代,當時
    發表于 08-07 06:22

    如何去推進新一代數據中心的發展?

    新一代數據中心有哪些實踐操作范例?如何去推進新一代數據中心的發展? 
    發表于 05-25 06:16

    【視頻分享】降壓電路的演變過程

    大家上午好:前幾天分享了姜維老師的文章講解,這次分享姜維老師的視頻講解,保證大家能夠理解透徹,有問題的同學歡迎交流討論!文章分享鏈接:詳細分析降壓電路的演變過程
    發表于 06-22 10:01

    數據中心是什么

    、結構的世界進入到不確定和非結構的世界中,它將和交通、網絡通訊一樣逐漸成為現代社會基礎設施的一部分,進而對很多產業都產生了積極影響。不過數據中心的發展不能僅憑經驗,還要真正的結合實踐,促使數據中心發揮
    發表于 07-12 07:10

    英偉達DPU的過“芯”之處

    GPU技術大會,從黃仁勛那里聽到:數據中心已成為全新的計算單元。黃仁勛之所以有這樣的底氣,就在于這次發布會上推出了一款全新處理器DPU,以及圍繞該處理器的軟件生態架構DOCA。據英偉達的介紹,DPU可以
    發表于 03-29 14:42

    【書籍評測活動NO.23】數據處理器:DPU編程入門

    ,對DPU現代數據中心中的應用有重要的普及作用。廣大讀者能深入了解DPU的技術發展、軟硬件特性、軟硬件安裝、開發環境實踐、應用用例和生態體系。對期望基于NVIDIA BlueField系列D
    發表于 10-24 15:21

    什么是DPU

    和服務器內,CPU和GPU已經被廣泛地用于各個新型超大規模數據中心。 這些數據中心通過功能強大的新型處理器連接在一起,DPU( Data Processing Unit ,數據處理器)
    發表于 11-03 10:55

    定位技術的演變過程

    定位技術從室外定位到室內定位的演變過程 今天給大家分享下定位技術的演變,從室外定位到UWB室內定位的演變過程,以及目前較新的室外定位技術和室內定位技術。本文從定位精度方面來分析。 一、室外定位—北斗
    發表于 03-13 10:36 ?1852次閱讀

    如何構建基于DPUSmartNIC

      您應該如何構建基于 DPUSmartNIC ,以及哪種 SmartNIC 對于每個工作負載來說是最好的……好吧,問題在于細節。深入了解哪些數據路徑和虛擬化加速可用以及如何使用
    的頭像 發表于 04-19 15:51 ?1415次閱讀
    如何構建基于<b class='flag-5'>DPU</b>的<b class='flag-5'>SmartNIC</b>

    探究DPU的緣起,DPU提升數據中心算力的三種方式

    DPU的出現不僅僅是為解決CPU的算力瓶頸,而是要通過先天的網絡屬性,在數據中心整體TCO的維度提升算力。我們把DPU提升數據中心算力手段總結為算力卸載、算力釋放和算力擴展三種方式。
    的頭像 發表于 09-09 15:56 ?1632次閱讀

    DPU處理器在數據中心的作用是什么?

    CPU和GPU廣泛應用于數據中心,它們非常昂貴,需要消耗大量電力,有時卻被要求處理一些并不擅長的工作。 ? 工欲善其事必先利其器,如果把CPU、GPU和DPU看成工具,使用CPU和GPU處理數據
    發表于 04-19 11:26 ?493次閱讀

    buck電路的演變過程

    buck電路相信很多從事電子類工作的朋友都聽過,它說白了就是個直流降壓電路,在降壓芯片出來之前,它的出場率非常高但是以前僅僅是看過他,不懂它是怎樣演變過來的,今天和大家一起分析學習下它的演變過程
    的頭像 發表于 09-25 14:40 ?764次閱讀
    buck電路的<b class='flag-5'>演變過程</b>

    原子鐘在數據中心的作用:原子從對數據造成不利影響到帶來各種益處的轉變過程

    原子鐘在數據中心的作用:原子從對數據造成不利影響到帶來各種益處的轉變過程
    的頭像 發表于 11-27 16:29 ?529次閱讀
    主站蜘蛛池模板: 日本免费人成黄页在线观看视频| 久久久久国产精品免费免费| 九色愉拍自拍| 清朝荒淫牲艳史在线播放| 特一级毛片| 国产一区二区三区在线观看视频 | 午夜精品视频在线观看美女| 女18poren69| 色宅男看片午夜大片免费看| xxxxxx日本人免费| 511韩国理论片在线观看| 性天堂网| 国产黄色三级网站| 国产精品美女www爽爽爽视频| 曰本在线| 波多野结衣在线视频免费观看| 91啪免费网站在线观看| 天堂a| 99免费观看视频| videosxxoo18在线| 欧美一级在线观看播放| 日本一本一道久久香蕉免费| 国产亚洲精品免费| 国产手机在线| 激情六月丁香婷婷| 欧美一级高清片欧美国产欧美| 天天躁天天爽| 69精品在线观看| 国产亚洲人成网站观看| 日本xxxx69日本| 欧洲精品码一区二区三区免费看 | 亚洲地址一地址二地址三| 高清毛片aaaaaaaaa片| 免费国产h视频在线观看| 日韩二级| 久久看精品| 天天色综合色| 天堂在线最新资源| 亚洲人毛茸茸bbxx| 亚洲一级影院| av免费网站在线观看|