最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

不為人知的網(wǎng)絡(luò)編程(十一):從底層入手,深度分析TCP連接耗時的秘密

2022-05-26 16:26 作者:nickkckckck  | 我要投稿

本文作者張彥飛,原題“聊聊TCP連接耗時的那些事兒”,有少許改動。

1、引言

對于基于互聯(lián)網(wǎng)的通信應(yīng)用(比如IM聊天、推送系統(tǒng)),數(shù)據(jù)傳遞時使用TCP協(xié)議相對較多。這是因為在TCP/IP協(xié)議簇的傳輸層協(xié)議中,TCP協(xié)議具備可靠的連接、錯誤重傳、擁塞控制等優(yōu)點,所以目前在應(yīng)用場景上比UDP更廣泛一些。

相信你也一定聽聞過TCP也存在一些缺點,能常都是老生常談的開銷要略大。但是各路技術(shù)博客里都在單單說開銷大、或者開銷小,而少見不給出具體的量化分析。不客氣的講,類似論述都是沒什么營養(yǎng)的廢話。

經(jīng)過日常工作的思考之后,我更想弄明白的是,TCP的開銷到底有多大,能否進行量化。一條TCP連接的建立需要耗時延遲多少,是多少毫秒,還是多少微秒?能不能有一個哪怕是粗略的量化估計?當然影響TCP耗時的因素有很多,比如網(wǎng)絡(luò)丟包等等。我今天只分享我在工作實踐中遇到的比較高發(fā)的各種情況。

寫在前面:得益于Linux內(nèi)核的開源,本文中所提及的底層以及具體的內(nèi)核級代碼例子,都是以Linux系統(tǒng)為例。

學習交流:

- 移動端IM開發(fā)入門文章:《新手入門一篇就夠:從零開發(fā)移動端IM》

- 開源IM框架源碼:https://github.com/JackJiang2011/MobileIMSDK(備用地址點此)

(本文已同步發(fā)布于:http://www.52im.net/thread-3265-1-1.html)

2、系列文章

本文是系列文章中的第11篇,本系列文章的大綱如下:

  1. 《不為人知的網(wǎng)絡(luò)編程(一):淺析TCP協(xié)議中的疑難雜癥(上篇)》

  2. 《不為人知的網(wǎng)絡(luò)編程(二):淺析TCP協(xié)議中的疑難雜癥(下篇)》

  3. 《不為人知的網(wǎng)絡(luò)編程(三):關(guān)閉TCP連接時為什么會TIME_WAIT、CLOSE_WAIT》

  4. 《不為人知的網(wǎng)絡(luò)編程(四):深入研究分析TCP的異常關(guān)閉》

  5. 《不為人知的網(wǎng)絡(luò)編程(五):UDP的連接性和負載均衡》

  6. 《不為人知的網(wǎng)絡(luò)編程(六):深入地理解UDP協(xié)議并用好它》

  7. 《不為人知的網(wǎng)絡(luò)編程(七):如何讓不可靠的UDP變的可靠?》

  8. 《不為人知的網(wǎng)絡(luò)編程(八):從數(shù)據(jù)傳輸層深度解密HTTP》

  9. 《不為人知的網(wǎng)絡(luò)編程(九):理論聯(lián)系實際,全方位深入理解DNS》

  10. 《不為人知的網(wǎng)絡(luò)編程(十):深入操作系統(tǒng),從內(nèi)核理解網(wǎng)絡(luò)包的接收過程(Linux篇)》

  11. 《不為人知的網(wǎng)絡(luò)編程(十一):從底層入手,深度分析TCP連接耗時的秘密》(本文)

  12. 《不為人知的網(wǎng)絡(luò)編程(十二):徹底搞懂TCP協(xié)議層的KeepAlive?;顧C制》

  13. 《不為人知的網(wǎng)絡(luò)編程(十三):深入操作系統(tǒng),徹底搞懂127.0.0.1本機網(wǎng)絡(luò)通信》

  14. 《不為人知的網(wǎng)絡(luò)編程(十四):拔掉網(wǎng)線再插上,TCP連接還在嗎?一文即懂!》

3、理想情況下的TCP連接耗時分析

要想搞清楚TCP連接的耗時,我們需要詳細了解連接的建立過程。

在前文《深入操作系統(tǒng),從內(nèi)核理解網(wǎng)絡(luò)包的接收過程(Linux篇)》中我們介紹了數(shù)據(jù)包在接收端是怎么被接收的:數(shù)據(jù)包從發(fā)送方出來,經(jīng)過網(wǎng)絡(luò)到達接收方的網(wǎng)卡;在接收方網(wǎng)卡將數(shù)據(jù)包DMA到RingBuffer后,內(nèi)核經(jīng)過硬中斷、軟中斷等機制來處理(如果發(fā)送的是用戶數(shù)據(jù)的話,最后會發(fā)送到socket的接收隊列中,并喚醒用戶進程)。

在軟中斷中,當一個包被內(nèi)核從RingBuffer中摘下來的時候,在內(nèi)核中是用struct sk_buff結(jié)構(gòu)體來表示的(參見內(nèi)核代碼include/linux/skbuff.h)。其中的data成員是接收到的數(shù)據(jù),在協(xié)議棧逐層被處理的時候,通過修改指針指向data的不同位置,來找到每一層協(xié)議關(guān)心的數(shù)據(jù)。

對于TCP協(xié)議包來說,它的Header中有一個重要的字段-flags。

如下圖:

通過設(shè)置不同的標記位,將TCP包分成SYNC、FIN、ACK、RST等類型:

  • 1)客戶端通過connect系統(tǒng)調(diào)用命令內(nèi)核發(fā)出SYNC、ACK等包來實現(xiàn)和服務(wù)器TCP連接的建立;

  • 2)在服務(wù)器端,可能會接收許許多多的連接請求,內(nèi)核還需要借助一些輔助數(shù)據(jù)結(jié)構(gòu)-半連接隊列和全連接隊列。

我們來看一下整個連接過程:

在這個連接過程中,我們來簡單分析一下每一步的耗時:

  • 1)客戶端發(fā)出SYNC包:客戶端一般是通過connect系統(tǒng)調(diào)用來發(fā)出SYN的,這里牽涉到本機的系統(tǒng)調(diào)用和軟中斷的CPU耗時開銷;

  • 2)SYN傳到服務(wù)器:SYN從客戶端網(wǎng)卡被發(fā)出,開始“跨過山和大海,也穿過人山人海......”,這是一次長途遠距離的網(wǎng)絡(luò)傳輸;

  • 3)服務(wù)器處理SYN包:內(nèi)核通過軟中斷來收包,然后放到半連接隊列中,然后再發(fā)出SYN/ACK響應(yīng)。又是CPU耗時開銷;

  • 4)SYC/ACK傳到客戶端:SYC/ACK從服務(wù)器端被發(fā)出后,同樣跨過很多山、可能很多大海來到客戶端。又一次長途網(wǎng)絡(luò)跋涉;

  • 5)客戶端處理SYN/ACK:客戶端內(nèi)核收包并處理SYN后,經(jīng)過幾us的CPU處理,接著發(fā)出ACK。同樣是軟中斷處理開銷;

  • 6)ACK傳到服務(wù)器:和SYN包,一樣,再經(jīng)過幾乎同樣遠的路,傳輸一遍。 又一次長途網(wǎng)絡(luò)跋涉;

  • 7)服務(wù)端收到ACK:服務(wù)器端內(nèi)核收到并處理ACK,然后把對應(yīng)的連接從半連接隊列中取出來,然后放到全連接隊列中。一次軟中斷CPU開銷;

  • 8)服務(wù)器端用戶進程喚醒:正在被accpet系統(tǒng)調(diào)用阻塞的用戶進程被喚醒,然后從全連接隊列中取出來已經(jīng)建立好的連接。一次上下文切換的CPU開銷。

以上幾步操作,可以簡單劃分為兩類:

  • 第一類:是內(nèi)核消耗CPU進行接收、發(fā)送或者是處理,包括系統(tǒng)調(diào)用、軟中斷和上下文切換。它們的耗時基本都是幾個us左右;

  • 第二類:是網(wǎng)絡(luò)傳輸,當包被從一臺機器上發(fā)出以后,中間要經(jīng)過各式各樣的網(wǎng)線、各種交換機路由器。所以網(wǎng)絡(luò)傳輸?shù)暮臅r相比本機的CPU處理,就要高的多了。根據(jù)網(wǎng)絡(luò)遠近一般在幾ms~到幾百ms不等。

1ms就等于1000us,因此網(wǎng)絡(luò)傳輸耗時比雙端的CPU開銷要高1000倍左右,甚至更高可能還到100000倍。

所以:在正常的TCP連接的建立過程中,一般考慮網(wǎng)絡(luò)延時即可。

PS:一個RTT指的是包從一臺服務(wù)器到另外一臺服務(wù)器的一個來回的延遲時間。

所以從全局來看:TCP連接建立的網(wǎng)絡(luò)耗時大約需要三次傳輸,再加上少許的雙方CPU開銷,總共大約比1.5倍RTT大一點點。

不過,從客戶端視角來看:只要ACK包發(fā)出了,內(nèi)核就認為連接是建立成功了。所以如果在客戶端打點統(tǒng)計TCP連接建立耗時的話,只需要兩次傳輸耗時-既1個RTT多一點的時間。(對于服務(wù)器端視角來看同理,從SYN包收到開始算,到收到ACK,中間也是一次RTT耗時)。

4、極端情況下的TCP連接耗時分析

上一節(jié)可以看到:在客戶端視角,正常情況下一次TCP連接總的耗時也就就大約是一次網(wǎng)絡(luò)RTT的耗時。如果所有的事情都這么簡單,我想我的這次分享也就沒有必要了。事情不一定總是這么美好,意外的發(fā)生在所難免。

在某些情況下,可能會導致TCP連接時的網(wǎng)絡(luò)傳輸耗時上漲、CPU處理開銷增加、甚至是連接失敗。本節(jié)將就我在線上遇到過的各種切身體會的溝溝坎坎,來分析一下極端情況下的TCP連接耗時情況。

4.1 客戶端connect調(diào)用耗時失控案例

正常一個系統(tǒng)調(diào)用的耗時也就是幾個us(微秒)左右。但是在我的《追蹤將服務(wù)器CPU耗光的兇手!》一文中,筆者的一臺服務(wù)器當時遇到一個狀況:某次運維同學轉(zhuǎn)達過來說該服務(wù)CPU不夠用了,需要擴容。

當時的服務(wù)器監(jiān)控如下圖:

該服務(wù)之前一直每秒抗2000左右的qps,CPU的idel一直有70%+,怎么突然就CPU一下就不夠用了呢。

而且更奇怪的是CPU被打到谷底的那一段時間,負載卻并不高(服務(wù)器為4核機器,負載3-4是比較正常的)。

后來經(jīng)過排查以后發(fā)現(xiàn)當TCP客戶端TIME_WAIT有30000左右,導致可用端口不是特別充足的時候,connect系統(tǒng)調(diào)用的CPU開銷直接上漲了100多倍,每次耗時達到了2500us(微秒),達到了毫秒級別。

?

當遇到這種問題的時候,雖然TCP連接建立耗時只增加了2ms左右,整體TCP連接耗時看起來還可接受。但這里的問題在于這2ms多都是在消耗CPU的周期,所以問題不小。

解決起來也非常簡單,辦法很多:修改內(nèi)核參數(shù)net.ipv4.ip_local_port_range多預(yù)留一些端口號、改用長連接都可以。

4.2 TCP半/全連接隊列滿的案例

如果連接建立的過程中,任意一個隊列滿了,那么客戶端發(fā)送過來的syn或者ack就會被丟棄??蛻舳说却荛L一段時間無果后,然后會發(fā)出TCP Retransmission重傳。

拿半連接隊列舉例:

要知道的是上面TCP握手超時重傳的時間是秒級別的。也就是說一旦server端的連接隊列導致連接建立不成功,那么光建立連接就至少需要秒級以上。而正常的在同機房的情況下只是不到1毫秒的事情,整整高了1000倍左右。

尤其是對于給用戶提供實時服務(wù)的程序來說,用戶體驗將會受到較大影響。如果連重傳也沒有握手成功的話,很可能等不及二次重試,這個用戶訪問直接就超時了。

還有另外一個更壞的情況是:它還有可能會影響其它的用戶。

假如你使用的是進程/線程池這種模型提供服務(wù),比如:php-fpm。我們知道fpm進程是阻塞的,當它響應(yīng)一個用戶請求的時候,該進程是沒有辦法再響應(yīng)其它請求的。假如你開了100個進程/線程,而某一段時間內(nèi)有50個進程/線程卡在和redis或者mysql服務(wù)器的握手連接上了(注意:這個時候你的服務(wù)器是TCP連接的客戶端一方)。這一段時間內(nèi)相當于你可以用的正常工作的進程/線程只有50個了。而這個50個worker可能根本處理不過來,這時候你的服務(wù)可能就會產(chǎn)生擁堵。再持續(xù)稍微時間長一點的話,可能就產(chǎn)生雪崩了,整個服務(wù)都有可能會受影響。

既然后果有可能這么嚴重,那么我們?nèi)绾尾榭次覀兪诸^的服務(wù)是否有因為半/全連接隊列滿的情況發(fā)生呢?

在客戶端:可以抓包查看是否有SYN的TCP Retransmission。如果有偶發(fā)的TCP Retransmission,那就說明對應(yīng)的服務(wù)端連接隊列可能有問題了。

在服務(wù)端的話:查看起來就更方便一些了。netstat -s?可查看到當前系統(tǒng)半連接隊列滿導致的丟包統(tǒng)計,但該數(shù)字記錄的是總丟包數(shù)。你需要再借助?watch?命令動態(tài)監(jiān)控。如果下面的數(shù)字在你監(jiān)控的過程中變了,那說明當前服務(wù)器有因為半連接隊列滿而產(chǎn)生的丟包。你可能需要加大你的半連接隊列的長度了。

$ watch'netstat -s | grep LISTEN'

????8 SYNs to LISTEN sockets ignored

對于全連接隊列來說呢,查看方法也類似:

$ watch'netstat -s? | grep overflowed'

????160 timesthe listen queue of a socket overflowed

如果你的服務(wù)因為隊列滿產(chǎn)生丟包,其中一個做法就是加大半/全連接隊列的長度。 半連接隊列長度Linux內(nèi)核中,主要受tcp_max_syn_backlog影響 加大它到一個合適的值就可以。

# cat /proc/sys/net/ipv4/tcp_max_syn_backlog

1024

# echo "2048" > /proc/sys/net/ipv4/tcp_max_syn_backlog

全連接隊列長度是應(yīng)用程序調(diào)用listen時傳入的backlog以及內(nèi)核參數(shù)net.core.somaxconn二者之中較小的那個。你可能需要同時調(diào)整你的應(yīng)用程序和該內(nèi)核參數(shù)。

# cat /proc/sys/net/core/somaxconn

128

# echo "256" > /proc/sys/net/core/somaxconn

改完之后我們可以通過ss命令輸出的Send-Q確認最終生效長度:

$ ss -nlt

Recv-Q Send-Q Local Address:Port Address:Port

0????? 128??? *:80?????????????? *:*

Recv-Q告訴了我們當前該進程的全連接隊列使用長度情況。如果Recv-Q已經(jīng)逼近了Send-Q,那么可能不需要等到丟包也應(yīng)該準備加大你的全連接隊列了。

如果加大隊列后仍然有非常偶發(fā)的隊列溢出的話,我們可以暫且容忍。

如果仍然有較長時間處理不過來怎么辦?

另外一個做法就是直接報錯,不要讓客戶端超時等待。

例如將Redis、Mysql等后端接口的內(nèi)核參數(shù)tcp_abort_on_overflow為1。如果隊列滿了,直接發(fā)reset給client。告訴后端進程/線程不要癡情地傻等。這時候client會收到錯誤“connection reset by peer”。犧牲一個用戶的訪問請求,要比把整個站都搞崩了還是要強的。

5、TCP連接耗時實測分析

5.1 測試前的準備

我寫了一段非常簡單的代碼,用來在客戶端統(tǒng)計每創(chuàng)建一個TCP連接需要消耗多長時間。

<?php

$ip= {服務(wù)器ip};

$port= {服務(wù)器端口};

$count= 50000;

function buildConnect($ip,$port,$num){

????for($i=0;$i<$num;$i++){

????????$socket= socket_create(AF_INET,SOCK_STREAM,SOL_TCP);

????????if($socket==false) {

????????????echo"$ip $port socket_create() 失敗的原因是:".socket_strerror(socket_last_error($socket))."\n";

????????????sleep(5);

????????????continue;

????????}

?

????????if(false == socket_connect($socket, $ip, $port)){

????????????echo"$ip $port socket_connect() 失敗的原因是:".socket_strerror(socket_last_error($socket))."\n";

????????????sleep(5);

????????????continue;

????????}

????????socket_close($socket);

????}

}

?

$t1= microtime(true);

buildConnect($ip, $port, $count);

echo(($t2-$t1)*1000).'ms';

在測試之前,我們需要本機linux可用的端口數(shù)充足,如果不夠50000個,最好調(diào)整充足。

# echo "5000?? 65000" /proc/sys/net/ipv4/ip_local_port_range

5.2 正常情況下的測試

注意:無論是客戶端還是服務(wù)器端都不要選擇有線上服務(wù)在跑的機器,否則你的測試可能會影響正常用戶訪問

首先:我的客戶端位于河北懷來的IDC機房內(nèi),服務(wù)器選擇的是公司廣東機房的某臺機器。執(zhí)行ping命令得到的延遲大約是37ms,使用上述腳本建立50000次連接后,得到的連接平均耗時也是37ms。

這是因為前面我們說過的,對于客戶端來看,第三次的握手只要包發(fā)送出去,就認為是握手成功了,所以只需要一次RTT、兩次傳輸耗時。雖然這中間還會有客戶端和服務(wù)端的系統(tǒng)調(diào)用開銷、軟中斷開銷,但由于它們的開銷正常情況下只有幾個us(微秒),所以對總的連接建立延時影響不大。

接下來:我換了一臺目標服務(wù)器,該服務(wù)器所在機房位于北京。離懷來有一些距離,但是和廣東比起來可要近多了。這一次ping出來的RTT是1.6~1.7ms左右,在客戶端統(tǒng)計建立50000次連接后算出每條連接耗時是1.64ms。

再做一次實驗:這次選中實驗的服務(wù)器和客戶端直接位于同一個機房內(nèi),ping延遲在0.2ms~0.3ms左右。跑了以上腳本以后,實驗結(jié)果是50000 TCP連接總共消耗了11605ms,平均每次需要0.23ms。

線上架構(gòu)提示:這里看到同機房延遲只有零點幾ms,但是跨個距離不遠的機房,光TCP握手耗時就漲了4倍。如果再要是跨地區(qū)到廣東,那就是百倍的耗時差距了。線上部署時,理想的方案是將自己服務(wù)依賴的各種mysql、redis等服務(wù)和自己部署在同一個地區(qū)、同一個機房(再變態(tài)一點,甚至可以是甚至是同一個機架)。因為這樣包括TCP鏈接建立啥的各種網(wǎng)絡(luò)包傳輸都要快很多。要盡可能避免長途跨地區(qū)機房的調(diào)用情況出現(xiàn)。

5.3 TCP連接隊列溢出情況下的測試

測試完了跨地區(qū)、跨機房和跨機器。這次為了快,直接和本機建立連接結(jié)果會咋樣呢?

Ping本機ip或127.0.0.1的延遲大概是0.02ms,本機ip比其它機器RTT肯定要短。我覺得肯定連接會非常快,嗯實驗一下。

連續(xù)建立5W TCP連接:總時間消耗27154ms,平均每次需要0.54ms左右。

嗯???怎么比跨機器還長很多?

有了前面的理論基礎(chǔ),我們應(yīng)該想到了:由于本機RTT太短,所以瞬間連接建立請求量很大,就會導致全連接隊列或者半連接隊列被打滿的情況。一旦發(fā)生隊列滿,當時撞上的那個連接請求就得需要3秒+的連接建立延時。所以上面的實驗結(jié)果中,平均耗時看起來比RTT高很多。

在實驗的過程中,我使用tcpdump抓包看到了下面的一幕。原來有少部分握手耗時3s+,原因是半連接隊列滿了導致客戶端等待超時后進行了SYN的重傳。

我們又重新改成每500個連接,sleep 1秒。嗯好,終于沒有卡的了(或者也可以加大連接隊列長度)。

結(jié)論是:本機50000次TCP連接在客戶端統(tǒng)計總耗時102399 ms,減去sleep的100秒后,平均每個TCP連接消耗0.048ms。比ping延遲略高一些。

這是因為當RTT變的足夠小的時候,內(nèi)核CPU耗時開銷就會顯現(xiàn)出來了,另外TCP連接要比ping的icmp協(xié)議更復雜一些,所以比ping延遲略高0.02ms左右比較正常。

6、本文小結(jié)

TCP連接在建立異常的情況下,可能需要好幾秒,一個壞處就是會影響用戶體驗,甚至導致當前用戶訪問超時都有可能。另外一個壞處是可能會誘發(fā)雪崩。

所以當你的服務(wù)器使用短連接的方式訪問數(shù)據(jù)的時候:一定要學會要監(jiān)控你的服務(wù)器的連接建立是否有異常狀態(tài)發(fā)生。如果有,學會優(yōu)化掉它。當然你也可以采用本機內(nèi)存緩存,或者使用連接池來保持長連接,通過這兩種方式直接避免掉TCP握手揮手的各種開銷也可以。

再說正常情況下:TCP建立的延時大約就是兩臺機器之間的一個RTT耗時,這是避免不了的。但是你可以控制兩臺機器之間的物理距離來降低這個RTT,比如把你要訪問的redis盡可能地部署的離后端接口機器近一點,這樣RTT也能從幾十ms削減到最低可能零點幾ms。

最后我們再思考一下:如果我們把服務(wù)器部署在北京,給紐約的用戶訪問可行嗎?

前面的我們同機房也好,跨機房也好,電信號傳輸?shù)暮臅r基本可以忽略(因為物理距離很近),網(wǎng)絡(luò)延遲基本上是轉(zhuǎn)發(fā)設(shè)備占用的耗時。但是如果是跨越了半個地球的話,電信號的傳輸耗時我們可得算一算了。 北京到紐約的球面距離大概是15000公里,那么拋開設(shè)備轉(zhuǎn)發(fā)延遲,僅僅光速傳播一個來回(RTT是Rround trip time,要跑兩次),需要時間 = 15,000,000 *2 / 光速 = 100ms。實際的延遲可能比這個還要大一些,一般都得200ms以上。建立在這個延遲上,要想提供用戶能訪問的秒級服務(wù)就很困難了。所以對于海外用戶,最好都要在當?shù)亟C房或者購買海外的服務(wù)器。

附錄:更多網(wǎng)絡(luò)編程精華資料

[1] 網(wǎng)絡(luò)編程(基礎(chǔ))資料:

  1. 《TCP/IP詳解?-?第17章·TCP:傳輸控制協(xié)議》

  2. 《技術(shù)往事:改變世界的TCP/IP協(xié)議(珍貴多圖、手機慎點)》

  3. 《通俗易懂-深入理解TCP協(xié)議(上):理論基礎(chǔ)》

  4. 《理論經(jīng)典:TCP協(xié)議的3次握手與4次揮手過程詳解》

  5. 《P2P技術(shù)詳解(一):NAT詳解——詳細原理、P2P簡介》

  6. 《網(wǎng)絡(luò)編程懶人入門(一):快速理解網(wǎng)絡(luò)通信協(xié)議(上篇)》

  7. 《網(wǎng)絡(luò)編程懶人入門(二):快速理解網(wǎng)絡(luò)通信協(xié)議(下篇)》

  8. 《網(wǎng)絡(luò)編程懶人入門(三):快速理解TCP協(xié)議一篇就夠》

  9. 《網(wǎng)絡(luò)編程懶人入門(四):快速理解TCP和UDP的差異》

  10. 《網(wǎng)絡(luò)編程懶人入門(五):快速理解為什么說UDP有時比TCP更有優(yōu)勢》

  11. 《網(wǎng)絡(luò)編程懶人入門(六):史上最通俗的集線器、交換機、路由器功能原理入門》

  12. 《網(wǎng)絡(luò)編程懶人入門(七):深入淺出,全面理解HTTP協(xié)議》

  13. 《網(wǎng)絡(luò)編程懶人入門(八):手把手教你寫基于TCP的Socket長連接》

  14. 《網(wǎng)絡(luò)編程懶人入門(九):通俗講解,有了IP地址,為何還要用MAC地址?》

  15. 《網(wǎng)絡(luò)編程懶人入門(十):一泡尿的時間,快速讀懂QUIC協(xié)議》

  16. 《網(wǎng)絡(luò)編程懶人入門(十一):一文讀懂什么是IPv6》

  17. 《網(wǎng)絡(luò)編程懶人入門(十二):快速讀懂Http/3協(xié)議,一篇就夠!》

  18. 《網(wǎng)絡(luò)編程懶人入門(十三):一泡尿的時間,快速搞懂TCP和UDP的區(qū)別》

  19. 《網(wǎng)絡(luò)編程懶人入門(十四):到底什么是Socket?一文即懂!》

  20. 《技術(shù)掃盲:新一代基于UDP的低延時網(wǎng)絡(luò)傳輸層協(xié)議——QUIC詳解》

  21. 《讓互聯(lián)網(wǎng)更快:新一代QUIC協(xié)議在騰訊的技術(shù)實踐分享》

  22. 《聊聊iOS中網(wǎng)絡(luò)編程長連接的那些事》

  23. 《IPv6技術(shù)詳解:基本概念、應(yīng)用現(xiàn)狀、技術(shù)實踐(上篇)》

  24. 《IPv6技術(shù)詳解:基本概念、應(yīng)用現(xiàn)狀、技術(shù)實踐(下篇)》

  25. 《Java對IPv6的支持詳解:支持情況、相關(guān)API、演示代碼》

  26. 《從HTTP/0.9到HTTP/2:一文讀懂HTTP協(xié)議的歷史演變和設(shè)計思路》

  27. 《腦殘式網(wǎng)絡(luò)編程入門(一):跟著動畫來學TCP三次握手和四次揮手》

  28. 《腦殘式網(wǎng)絡(luò)編程入門(二):我們在讀寫Socket時,究竟在讀寫什么?》

  29. 《腦殘式網(wǎng)絡(luò)編程入門(三):HTTP協(xié)議必知必會的一些知識》

  30. 《腦殘式網(wǎng)絡(luò)編程入門(四):快速理解HTTP/2的服務(wù)器推送(Server Push)》

  31. 《腦殘式網(wǎng)絡(luò)編程入門(五):每天都在用的Ping命令,它到底是什么?》

  32. 《腦殘式網(wǎng)絡(luò)編程入門(六):什么是公網(wǎng)IP和內(nèi)網(wǎng)IP?NAT轉(zhuǎn)換又是什么鬼?》

  33. 《腦殘式網(wǎng)絡(luò)編程入門(七):面視必備,史上最通俗計算機網(wǎng)絡(luò)分層詳解》

  34. 《腦殘式網(wǎng)絡(luò)編程入門(八):你真的了解127.0.0.1和0.0.0.0的區(qū)別?》

  35. 《腦殘式網(wǎng)絡(luò)編程入門(九):面試必考,史上最通俗大小端字節(jié)序詳解》

  36. 《邁向高階:優(yōu)秀Android程序員必知必會的網(wǎng)絡(luò)基礎(chǔ)》

  37. 《Android程序員必知必會的網(wǎng)絡(luò)通信傳輸層協(xié)議——UDP和TCP》

  38. 《技術(shù)大牛陳碩的分享:由淺入深,網(wǎng)絡(luò)編程學習經(jīng)驗干貨總結(jié)》

  39. 《可能會搞砸你的面試:你知道一個TCP連接上能發(fā)起多少個HTTP請求嗎?》

  40. 《5G時代已經(jīng)到來,TCP/IP老矣,尚能飯否?》

  41. >>?更多同類文章 ……

[2] 網(wǎng)絡(luò)編程(高階)資料:

  1. 《高性能網(wǎng)絡(luò)編程(一):單臺服務(wù)器并發(fā)TCP連接數(shù)到底可以有多少》

  2. 《高性能網(wǎng)絡(luò)編程(二):上一個10年,著名的C10K并發(fā)連接問題》

  3. 《高性能網(wǎng)絡(luò)編程(三):下一個10年,是時候考慮C10M并發(fā)問題了》

  4. 《高性能網(wǎng)絡(luò)編程(四):從C10K到C10M高性能網(wǎng)絡(luò)應(yīng)用的理論探索》

  5. 《高性能網(wǎng)絡(luò)編程(五):一文讀懂高性能網(wǎng)絡(luò)編程中的I/O模型》

  6. 《高性能網(wǎng)絡(luò)編程(六):一文讀懂高性能網(wǎng)絡(luò)編程中的線程模型》

  7. 《高性能網(wǎng)絡(luò)編程(七):到底什么是高并發(fā)?一文即懂!》

  8. 《IM開發(fā)者的零基礎(chǔ)通信技術(shù)入門(十):零基礎(chǔ),史上最強5G技術(shù)掃盲》

  9. 《IM開發(fā)者的零基礎(chǔ)通信技術(shù)入門(十一):為什么WiFi信號差?一文即懂!》

  10. 《IM開發(fā)者的零基礎(chǔ)通信技術(shù)入門(十二):上網(wǎng)卡頓?網(wǎng)絡(luò)掉線?一文即懂!》

  11. 《IM開發(fā)者的零基礎(chǔ)通信技術(shù)入門(十三):為什么手機信號差?一文即懂!》

  12. 《IM開發(fā)者的零基礎(chǔ)通信技術(shù)入門(十四):高鐵上無線上網(wǎng)有多難?一文即懂!》

  13. 《IM開發(fā)者的零基礎(chǔ)通信技術(shù)入門(十五):理解定位技術(shù),一篇就夠》

  14. 《以網(wǎng)游服務(wù)端的網(wǎng)絡(luò)接入層設(shè)計為例,理解實時通信的技術(shù)挑戰(zhàn)》

  15. 《知乎技術(shù)分享:知乎千萬級并發(fā)的高性能長連接網(wǎng)關(guān)技術(shù)實踐》

  16. 《淘寶技術(shù)分享:手淘億級移動端接入層網(wǎng)關(guān)的技術(shù)演進之路》

  17. >>?更多同類文章 ……

(本文已同步發(fā)布于:http://www.52im.net/thread-3265-1-1.html)


不為人知的網(wǎng)絡(luò)編程(十一):從底層入手,深度分析TCP連接耗時的秘密的評論 (共 條)

分享到微博請遵守國家法律
乌鲁木齐县| 张家口市| 道孚县| 区。| 城口县| 大田县| 榆树市| 彭山县| 连山| 宁陵县| 南郑县| 平潭县| 栾城县| 潼南县| 察隅县| 上饶县| 上饶市| 华坪县| 屏边| 托里县| 孝义市| 柯坪县| 禄劝| 华容县| 柏乡县| 鱼台县| 无棣县| 古浪县| 壶关县| 太白县| 芜湖县| 碌曲县| 库车县| 湟中县| 江川县| 尖扎县| 兴山县| 边坝县| 丰县| 通河县| 封开县|