在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Linux內核網絡擁塞控制算法的實現框架(二)

麥辣雞腿堡 ? 來源:技術簡說 ? 作者:董旭 ? 2023-07-28 11:34 ? 次閱讀

從上面的概念中可以得知,擁塞窗口可以間接反映網絡的狀況,進而去限制發送窗口的大小。擁塞窗口作為網絡擁塞控制中核心變量之一,對網絡擁塞控制起到關鍵作用。在Linux內核中,關于網絡的核心結構體在:[Linux內核網絡基礎-TCP相關的幾個關鍵結構體-小記]中進行了介紹,如下圖是四個核心結構體,四個結構的關系具有面向對象的特征,通過層層繼承,實現了類的復用;內核中網絡相關的很多函數,參數往往都是struct sock,函數內部依照不同的業務邏輯,將struct sock轉換為不同的業務結構。

圖片

struct tcp_sockstruct inet_connection_sock結構體的基礎上繼承而來,在struct inet_connection_sock上增加了一些tcp協議相關的字段,如滑動窗口協議,擁塞算法等一些TCP專有的屬性。由于這種繼承關系,可以互相轉換,如下舉例兩種轉換方式,第一種是struct sock轉換為struct tcp_sock,第二種是struct sock轉換成struct inet_connection_sock。。下面將struct tcp_sock展開可以看到與網絡擁塞控制相關的字段。

static inline struct tcp_sock *tcp_sk(const struct sock *sk)
{
 return (struct tcp_sock *)sk;
}
static inline struct inet_connection_sock *inet_csk(const struct sock *sk)
{
 return (struct inet_connection_sock *)sk;
}

struct tcp_sock中定義的關于網絡擁塞控制相關的字段如下所示:

struct tcp_sock {//在 inet_connection_sock  基礎上增加了 滑動窗口 擁塞控制算法等tcp 專有 屬性
    __be32    pred_flags;/*首部預測標志 在接收到 syn 跟新窗口 等時設置此標志 ,
    此標志和時間戳 序號等 用于判斷執行 快速還是慢速路徑*/

    u64    bytes_received;    /* RFC4898 tcpEStatsAppHCThruOctetsReceived
                 * sum(delta(rcv_nxt)), or how many bytes
                 * were acked.
                 */
    u32    segs_in;    /* RFC4898 tcpEStatsPerfSegsIn
                 * total number of segments in.
                 */
     u32    rcv_nxt;    /* What we want to receive next  等待接收的下一個序列號    */
    u32    copied_seq;    /* Head of yet unread data        */

/* rcv_nxt on last window update sent最早接收但沒有確認的序號, 也就是接收窗口的左端,
        在發送ack的時候, rcv_nxt更新 因此rcv_wup 更新比rcv_nxt 滯后一些  */
    u32    rcv_wup;    

    u32    snd_nxt;    /* Next sequence we send 等待發送的下一個序列號        */
    u32    segs_out;    /* RFC4898 tcpEStatsPerfSegsOut
                 * The total number of segments sent.
                 */
    u64    bytes_acked;    /* RFC4898 tcpEStatsAppHCThruOctetsAcked
                 * sum(delta(snd_una)), or how many bytes
                 * were acked.
                 */
    struct u64_stats_sync syncp; /* protects 64bit vars (cf tcp_get_info()) */

     u32    snd_una;    /* First byte we want an ack for  最早一個未被確認的序號    */
     u32    snd_sml;    /* Last byte of the most recently transmitted small packet  最近發送一個小于mss的最后 一個字節序列號
    在成功發送, 如果報文小于mss,跟新這個字段 主要用來判斷是否啟用 nagle 算法*/
    u32    rcv_tstamp;    /* timestamp of last received ACK (for keepalives)  最近一次收到ack的時間 用于 tcp 保活*/
    u32    lsndtime;    /* timestamp of last sent data packet (for restart window) 最近一次發送 數據包時間*/
    u32    last_oow_ack_time;  /* timestamp of last out-of-window ACK */

    u32    tsoffset;    /* timestamp offset */

    struct list_head tsq_node; /* anchor in tsq_tasklet.head list */
    unsigned long    tsq_flags;

    /* Data for direct copy to user cp 數據到用戶進程的控制塊 有用戶緩存以及其長度 prequeue 隊列 其內存*/
    struct {
        struct sk_buff_head    prequeue // tcp 段 緩沖到此隊列 知道進程主動讀取才真正的處理;
        struct task_struct    *task;
        struct msghdr        *msg;
        int            memory;// prequeue 當前消耗的內存
        int            len;// 用戶緩存中 當前可以使用的緩存大小 
    } ucopy;

    u32    snd_wl1;    /* Sequence for window update記錄跟新發送窗口的那個ack 段號 用來判斷是否 需要跟新窗口
    如果后續收到ack大于snd_wll 則表示需要更新 窗口*/
    u32    snd_wnd;    /* The window we expect to receive 接收方 提供的窗口大小 也就是發送方窗口大小    */
    u32    max_window;    /* Maximal window ever seen from peer 接收方通告的最大窗口    */
    u32    mss_cache;    /* Cached effective mss, not including SACKS  發送方當前有效的mss*/

    u32    window_clamp;    /* Maximal window to advertise 滑動窗口最大值        */
    u32    rcv_ssthresh;    /* Current window clamp  當前接收窗口的閾值            */
    ......
     u32    snd_ssthresh;    /* Slow start size threshold 擁塞控制 滿啟動閾值        */
     u32    snd_cwnd;    /* Sending congestion window    當前擁塞窗口大小  ---發送的擁塞窗口    */
    u32    snd_cwnd_cnt;    /* Linear increase counter    自從上次調整擁塞窗口后 到目前位置接收到的
    總ack段數 如果該字段為0  表示調整擁塞窗口但是沒有收到ack,調整擁塞窗口之后 收到ack段就回讓
    snd_cwnd_cnt 加1 */
    u32    snd_cwnd_clamp; /* Do not allow snd_cwnd to grow above this  snd_cwnd  的最大值*/
    u32    snd_cwnd_used;//記錄已經從隊列發送而沒有被ack的段數
    u32    snd_cwnd_stamp;//記錄最近一次檢驗cwnd 的時間;     擁塞期間 每次會檢驗cwnd而調節擁塞窗口 ,
    //在非擁塞期間,為了防止應用層序造成擁塞窗口失效  因此在發送后 有必要檢測cwnd
    u32    prior_cwnd;    /* Congestion window at start of Recovery.在進入 Recovery 狀態時的擁塞窗口 */
    u32    prr_delivered;    /* Number of newly delivered packets to在恢復階段給接收者新發送包的數量
                 * receiver in Recovery. */
    u32    prr_out;    /* Total number of pkts sent during Recovery.在恢復階段一共發送的包的數量 */

     u32    rcv_wnd;    /* Current receiver window 當前接收窗口的大小        */
    u32    write_seq;    /* Tail(+1) of data held in tcp send buffer   已加入發送隊列中的最后一個字節序號*/
    u32    notsent_lowat;    /* TCP_NOTSENT_LOWAT */
    u32    pushed_seq;    /* Last pushed seq, required to talk to windows */
    u32    lost_out;    /* Lost packets丟失的數據報            */
    u32    sacked_out;    /* SACK'd packets啟用 SACK 時,通過 SACK 的 TCP 選項標識已接收到的段的數量。
                 不啟用 SACK 時,標識接收到的重復確認的次數,該值在接收到確認新數據段時被清除。            */
    u32    fackets_out;    /* FACK'd packets    FACK'd packets 記錄 SND.UNA 與 (SACK 選項中目前接收方收到的段中最高序號段) 之間的段數。FACK
            用 SACK 選項來計算丟失在網絡中上的段數  lost_out=fackets_out-sacked_out  left_out=fackets_out        */

    /* from STCP, retrans queue hinting */
    struct sk_buff* lost_skb_hint; /*在重傳隊列中, 緩存下次要標志的段*/
    struct sk_buff *retransmit_skb_hint;/* 表示將要重傳的起始包*/

    /* OOO segments go in this list. Note that socket lock must be held,
     * as we do not use sk_buff_head lock.
     */
    struct sk_buff_head    out_of_order_queue;

    /* SACKs data, these 2 need to be together (see tcp_options_write) */
    struct tcp_sack_block duplicate_sack[1]; /* D-SACK block */
    struct tcp_sack_block selective_acks[4]; /* The SACKS themselves*/

    struct tcp_sack_block recv_sack_cache[4];

    struct sk_buff *highest_sack;   /* skb just after the highest
                     * skb with SACKed bit set
                     * (validity guaranteed only if
                     * sacked_out > 0)
                     */

    int     lost_cnt_hint;/* 已經標志了多少個段 */
    u32     retransmit_high;    /* L-bits may be on up to this seqno  表示將要重傳的起始包 */

    u32    prior_ssthresh; /* ssthresh saved at recovery start表示前一個snd_ssthresh得大小    */
    u32    high_seq;    /* snd_nxt at onset of congestion擁塞開始時,snd_nxt的大----開始擁塞的時候下一個要發送的序號字節*/

    u32    retrans_stamp;    /* Timestamp of the last retransmit,
                 * also used in SYN-SENT to remember stamp of
                 * the first SYN. */
    u32    undo_marker;    /* snd_una upon a new recovery episode. 在使用 F-RTO 算法進行發送超時處理,或進入 Recovery 進行重傳,
                    或進入 Loss 開始慢啟動時,記錄當時 SND.UNA, 標記重傳起始點。它是檢測是否可以進行擁塞控制撤銷的條件之一,一般在完成
                    擁塞撤銷操作或進入擁塞控制 Loss 狀態后會清零。*/
    int    undo_retrans;    /* number of undoable retransmissions. 在恢復擁塞控制之前可進行撤銷的重傳段數。
                    在進入 FTRO 算法或 擁塞狀態 Loss 時,清零,在重傳時計數,是檢測是否可以進行擁塞撤銷的條件之一。*/
    u32    total_retrans;    /* Total retransmits for entire connection */

    u32    urg_seq;    /* Seq of received urgent pointer  緊急數據的序號 所在段的序號和緊急指針相加獲得*/
    unsigned int        keepalive_time;      /* time before keep alive takes place */
    unsigned int        keepalive_intvl;  /* time interval between keep alive probes */

    int            linger2;

/* Receiver side RTT estimation */
    struct {
        u32    rtt;
        u32    seq;
        u32    time;
    } rcv_rtt_est;

/* Receiver queue space */
    struct {
        int    space;
        u32    seq;
        u32    time;
    } rcvq_space;

/* TCP-specific MTU probe information. */
    struct {
        u32          probe_seq_start;
        u32          probe_seq_end;
    } mtu_probe;
    u32    mtu_info; /* We received an ICMP_FRAG_NEEDED / ICMPV6_PKT_TOOBIG
               * while socket was owned by user.
               */

#ifdef CONFIG_TCP_MD5SIG
    const struct tcp_sock_af_ops    *af_specific;
    struct tcp_md5sig_info    __rcu *md5sig_info;
#endif

    struct tcp_fastopen_request *fastopen_req;

    struct request_sock *fastopen_rsk;
    u32    *saved_syn;
};
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Linux
    +關注

    關注

    87

    文章

    11304

    瀏覽量

    209498
  • 網絡
    +關注

    關注

    14

    文章

    7565

    瀏覽量

    88788
  • 控制算法
    +關注

    關注

    4

    文章

    166

    瀏覽量

    21723
收藏 人收藏

    評論

    相關推薦

    TCP協議技術之擁塞控制算法

    擁塞控制是在網絡層和傳輸層進行的功能。在網絡層,擁塞控制可以通過路由
    的頭像 發表于 02-03 17:06 ?2224次閱讀
    TCP協議技術之<b class='flag-5'>擁塞</b><b class='flag-5'>控制</b><b class='flag-5'>算法</b>

    Linux內核網絡的TCP傳輸控制塊相關資料分享

    1、Linux內核網絡之傳輸層接收消息簡析在傳輸層發送消息時,TCP發送出去消息后,會跟蹤這些數據包,直到得到對方的確認為止。對于接收方來講,當收到一個報文段時,其會根據情況把這些數據包添加到接收
    發表于 06-21 16:53

    Linux內核網絡網絡層發送消息之IP分片簡析

    1、Linux內核網絡網絡層發送消息之IP分片簡析本文分析下ip的分片。行 IP 分片。IP分片通常發生在網絡環境中,比如1個B環境中的MTU為500B,若的數據長度超過
    發表于 07-20 15:34

    基于衛星網絡的TCP擁塞控制算法

    分析衛星網絡的特點和現有慢啟動算法的不足,提出一種使擁塞窗口平滑增長的慢啟動算法。引入門限因子和粒度因子實現
    發表于 03-20 13:54 ?18次下載

    Linux中傳輸控制協議的擁塞控制分析

    TCP(transport control protocol)的性能在很大程度上取決于其所使用的擁塞控制算法。傳統的TCP在實現多種擁塞
    發表于 06-17 07:43 ?21次下載

    高速網絡中TCP擁塞控制算法的研究

    針對TCP 在高速網絡中的缺陷,提出了改進的BIC TCP 擁塞控制算法。優化算法通過監控鏈路緩存的變化,調整探索可用帶寬過程中的
    發表于 09-17 10:18 ?15次下載

    嵌入式LINUX內核網絡棧(源代碼)

    本文選擇 LINUX-1.2.13 內核所包含的網絡部分代碼分析(注意網絡部分代碼與內核代碼的演變是分離的,如
    發表于 05-12 10:39 ?57次下載
    嵌入式<b class='flag-5'>LINUX</b><b class='flag-5'>內核網絡</b>棧(源代碼)

    基于模糊控制和壓縮感知的無線傳感網絡擁塞算法

    針對無線傳感網絡(WSN)的擁塞問題,提出了一種將模糊控制和壓縮感知(cs)技術相結合來緩解無線傳感網絡擁塞
    發表于 01-03 09:59 ?0次下載
    基于模糊<b class='flag-5'>控制</b>和壓縮感知的無線傳感<b class='flag-5'>網絡</b><b class='flag-5'>擁塞</b><b class='flag-5'>算法</b>

    具有預測與自我調節能力的擁塞控制算法

    隨著網絡技術的日益發展,計算機網絡擁塞問題已極大地影響了用戶的使用體驗與數據傳遞。單一地提高硬件設備的投入并不能持續地防止網絡擁塞。因此
    發表于 01-18 16:18 ?0次下載
    具有預測與自我調節能力的<b class='flag-5'>擁塞</b><b class='flag-5'>控制</b><b class='flag-5'>算法</b>

    防止網絡擁塞現象的TCP擁塞控制算法

    ,近些年又出現了選擇性應答(selectiveacknowledgement,SACK)算法,還有其他方面的大大小小的改進,成為網絡研究的一個熱點。 TCP的擁塞控制主要原理依賴于一個
    的頭像 發表于 10-29 14:54 ?2486次閱讀

    如何使用Linux內核實現USB驅動程序框架

    Linux內核提供了完整的USB驅動程序框架。USB總線采用樹形結構,在一條總線上只能有唯一的主機設備。 Linux內核從主機和設備兩個角度
    發表于 11-06 17:59 ?20次下載
    如何使用<b class='flag-5'>Linux</b><b class='flag-5'>內核實現</b>USB驅動程序<b class='flag-5'>框架</b>

    如何用eBPF寫TCP擁塞控制算法

    是兩個痛點: 內核越來越策略化。 內核接口不穩定。 分別簡單說一下。 所謂內核策略化就是說越來越多的?靈巧的算法?,?小tricks?等靈活多變的代碼進入
    的頭像 發表于 12-26 09:44 ?1671次閱讀

    Linux內核配置的網絡資料說明

    Linux不止在上網時候才會用到網絡功能’一些程序在單機時候也會需要內核網絡支持。 X server是個典型的例子。如果你是從一個老內核
    發表于 03-12 10:33 ?14次下載

    Linux內核網絡擁塞控制算法的具體實現框架(一)

    控制算法,有很大差別。本文從Linux內核源碼中學習網絡擁塞
    的頭像 發表于 07-28 11:32 ?750次閱讀
    <b class='flag-5'>Linux</b><b class='flag-5'>內核網絡</b><b class='flag-5'>擁塞</b><b class='flag-5'>控制</b><b class='flag-5'>算法</b>的具體<b class='flag-5'>實現</b><b class='flag-5'>框架</b>(一)

    Linux內核網絡擁塞控制算法實現框架(三)

    下面看一個特別重要的框架,也可以稱為是擁塞控制引擎,如下結構體所示, tcp_congestion_ops描述了一套擁塞控制
    的頭像 發表于 07-28 11:38 ?992次閱讀
    <b class='flag-5'>Linux</b><b class='flag-5'>內核網絡</b><b class='flag-5'>擁塞</b><b class='flag-5'>控制</b><b class='flag-5'>算法</b>的<b class='flag-5'>實現</b><b class='flag-5'>框架</b>(三)
    主站蜘蛛池模板: 日韩欧美视频在线一区二区| 欧美透逼视频| 精品无码三级在线观看视频| 亚洲一级特黄| 91视频观看| 色多多视频在线观看免费大全| 国语一级毛片私人影院| 免费观看欧美一级高清| 久久国产精品自在自线| 女人被男人免费播放网站| 天天干天天射天天爽| 色黄网站| 另类性欧美喷潮videofree| 男女性高爱麻豆| 淫欧美| 黄色成人毛片| 福利99| 四虎4hu永久在线观看| 影音先锋色偷偷米奇四色| 69日本xxxxxxxxx30| 日本黄色大片网站| 天天操人人射| 在线观看三级视频| 国产精品亚洲一区二区三区在线播放| 国产免费福利网站| 天天色天天射综合网| 在线观看s色| 欧美色图亚洲自拍| 狠狠做久久深爱婷婷97动漫| 4444狠狠| 欧美一级视频在线| 黄色a网站| 色婷婷精品视频| 欧美天天爽| 亚洲成人伊人网| 午夜快播| 伊人7| 亚洲色图22p| 中日韩毛片| 2021日本三级理论影院| 美女扒开内裤无遮挡禁18|