精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

聊聊TCP連接耗時的那些事兒

網絡 通信技術
條TCP連接的建立需要耗時延遲多少,是多少毫秒,還是多少微秒?能不能有一個哪怕是粗略的量化估計?當然影響TCP耗時的因素有很多,比如網絡丟包等等。我今天只分享我在工作實踐中遇到的比較高發的各種情況。

在互聯網后端日常開發接口的時候中,不管你使用的是C、Java、PHP還是Golang,都避免不了需要調用mysql、redis等組件來獲取數據,可能還需要執行一些rpc遠程調用,或者再調用一些其它restful api。 在這些調用的底層,基本都是在使用TCP協議進行傳輸。這是因為在傳輸層協議中,TCP協議具備可靠的連接,錯誤重傳,擁塞控制等優點,所以目前應用比UDP更廣泛一些。

[[375616]]

相信你也一定聽聞過TCP也存在一些缺點,那就是老生常談的開銷要略大。但是各路技術博客里都在單單說開銷大、或者開銷小,而少見不給出具體的量化分析。不客氣一點,這都是營養不大的廢話。經過日常工作的思考之后,我更想弄明白的是,開銷到底多大。一條TCP連接的建立需要耗時延遲多少,是多少毫秒,還是多少微秒?能不能有一個哪怕是粗略的量化估計?當然影響TCP耗時的因素有很多,比如網絡丟包等等。我今天只分享我在工作實踐中遇到的比較高發的各種情況。

一、正常TCP連接建立過程

要想搞清楚TCP連接的建立耗時,我們需要詳細了解連接的建立過程。在前文《圖解Linux網絡包接收過程》中我們介紹了數據包在接收端是怎么被接收的。數據包從發送方出來,經過網絡到達接收方的網卡。在接收方網卡將數據包DMA到RingBuffer后,內核經過硬中斷、軟中斷等機制來處理(如果發送的是用戶數據的話,最后會發送到socket的接收隊列中,并喚醒用戶進程)。

在軟中斷中,當一個包被內核從RingBuffer中摘下來的時候,在內核中是用struct sk_buff結構體來表示的(參見內核代碼include/linux/skbuff.h)。其中的data成員是接收到的數據,在協議棧逐層被處理的時候,通過修改指針指向data的不同位置,來找到每一層協議關心的數據。

對于TCP協議包來說,它的Header中有一個重要的字段-flags。如下圖:

通過設置不同的標記為,將TCP包分成SYNC、FIN、ACK、RST等類型。客戶端通過connect系統調用命令內核發出SYNC、ACK等包來實現和服務器TCP連接的建立。在服務器端,可能會接收許許多多的連接請求,內核還需要借助一些輔助數據結構-半連接隊列和全連接隊列。我們來看一下整個連接過程:

在這個連接過程中,我們來簡單分析一下每一步的耗時:

  • 客戶端發出SYNC包:客戶端一般是通過connect系統調用來發出SYN的,這里牽涉到本機的系統調用和軟中斷的CPU耗時開銷
  • SYN傳到服務器:SYN從客戶端網卡被發出,開始“跨過山和大海,也穿過人山人海......”,這是一次長途遠距離的網絡傳輸
  • 服務器處理SYN包:內核通過軟中斷來收包,然后放到半連接隊列中,然后再發出SYN/ACK響應。又是CPU耗時開銷
  • SYC/ACK傳到客戶端:SYC/ACK從服務器端被發出后,同樣跨過很多山、可能很多大海來到客戶端。又一次長途網絡跋涉
  • 客戶端處理SYN/ACK:客戶端內核收包并處理SYN后,經過幾us的CPU處理,接著發出ACK。同樣是軟中斷處理開銷
  • ACK傳到服務器:和SYN包,一樣,再經過幾乎同樣遠的路,傳輸一遍。 又一次長途網絡跋涉
  • 服務端收到ACK:服務器端內核收到并處理ACK,然后把對應的連接從半連接隊列中取出來,然后放到全連接隊列中。一次軟中斷CPU開銷
  • 服務器端用戶進程喚醒:正在被accpet系統調用阻塞的用戶進程被喚醒,然后從全連接隊列中取出來已經建立好的連接。一次上下文切換的CPU開銷

以上幾步操作,可以簡單劃分為兩類:

  • 第一類是內核消耗CPU進行接收、發送或者是處理,包括系統調用、軟中斷和上下文切換。它們的耗時基本都是幾個us左右。
  • 第二類是網絡傳輸,當包被從一臺機器上發出以后,中間要經過各式各樣的網線、各種交換機路由器。所以網絡傳輸的耗時相比本機的CPU處理,就要高的多了。根據網絡遠近一般在幾ms~到幾百ms不等。

1ms就等于1000us,因此網絡傳輸耗時比雙端的CPU開銷要高1000倍左右,甚至更高可能還到100000倍。所以,在正常的TCP連接的建立過程中,一般可以考慮網絡延時即可。一個RTT指的是包從一臺服務器到另外一臺服務器的一個來回的延遲時間。所以從全局來看,TCP連接建立的網絡耗時大約需要三次傳輸,再加上少許的雙方CPU開銷,總共大約比1.5倍RTT大一點點。不過從客戶端視角來看,只要ACK包發出了,內核就認為連接是建立成功了。所以如果在客戶端打點統計TCP連接建立耗時的話,只需要兩次傳輸耗時-既1個RTT多一點的時間。(對于服務器端視角來看同理,從SYN包收到開始算,到收到ACK,中間也是一次RTT耗時)

二、TCP連接建立時的異常情況

上一節可以看到在客戶端視角,在正常情況下一次TCP連接總的耗時也就就大約是一次網絡RTT的耗時。如果所有的事情都這么簡單,我想我的這次分享也就沒有必要了。事情不一定總是這么美好,總會有意外發生。在某些情況下,可能會導致連接時的網絡傳輸耗時上漲、CPU處理開銷增加、甚至是連接失敗?,F在我們說一下我在線上遇到過的各種溝溝坎坎。

1. 客戶端connect系統調用耗時失控

正常一個系統調用的耗時也就是幾個us(微秒)左右。但是在《追蹤將服務器CPU耗光的兇手!》一文中筆者的一臺服務器當時遇到一個狀況,某次運維同學轉達過來說該服務CPU不夠用了,需要擴容。當時的服務器監控如下圖:

該服務之前一直每秒抗2000左右的qps,CPU的idel一直有70%+。怎么突然就CPU一下就不夠用了呢。而且更奇怪的是CPU被打到谷底的那一段時間,負載卻并不高(服務器為4核機器,負載3-4是比較正常的)。 后來經過排查以后發現當TCP客戶端TIME_WAIT有30000左右,導致可用端口不是特別充足的時候,connect系統調用的CPU開銷直接上漲了100多倍,每次耗時達到了2500us(微秒),達到了毫秒級別。

當遇到這種問題的時候,雖然TCP連接建立耗時只增加了2ms左右,整體TCP連接耗時看起來還可接受。但是這里的問題在于這2ms多都是在消耗CPU的周期,所以問題不小。 解決起來也非常簡單,辦法很多:修改內核參數net.ipv4.ip_local_port_range多預留一些端口號、改用長連接都可以。

2. 半/全連接隊列滿

如果連接建立的過程中,任意一個隊列滿了,那么客戶端發送過來的syn或者ack就會被丟棄??蛻舳说却荛L一段時間無果后,然后會發出TCP Retransmission重傳。拿半連接隊列舉例:

 

要知道的是上面TCP握手超時重傳的時間是秒級別的。也就是說一旦server端的連接隊列導致連接建立不成功,那么光建立連接就至少需要秒級以上。而正常的在同機房的情況下只是不到1毫秒的事情,整整高了1000倍左右。尤其是對于給用戶提供實時服務的程序來說,用戶體驗將會受到較大影響。如果連重傳也沒有握手成功的話,很可能等不及二次重試,這個用戶訪問直接就超時了。

還有另外一個更壞的情況是,它還有可能會影響其它的用戶。假如你使用的是進程/線程池這種模型提供服務,比如php-fpm。我們知道fpm進程是阻塞的,當它響應一個用戶請求的時候,該進程是沒有辦法再響應其它請求的。假如你開了100個進程/線程,而某一段時間內有50個進程/線程卡在和redis或者mysql服務器的握手連接上了(注意:這個時候你的服務器是TCP連接的客戶端一方)。這一段時間內相當于你可以用的正常工作的進程/線程只有50個了。而這個50個worker可能根本處理不過來,這時候你的服務可能就會產生擁堵。再持續稍微時間長一點的話,可能就產生雪崩了,整個服務都有可能會受影響。

既然后果有可能這么嚴重,那么我們如何查看我們手頭的服務是否有因為半/全連接隊列滿的情況發生呢?在客戶端,可以抓包查看是否有SYN的TCP Retransmission。如果有偶發的TCP Retransmission,那就說明對應的服務端連接隊列可能有問題了。

在服務端的話,查看起來就更方便一些了。netstat -s可查看到當前系統半連接隊列滿導致的丟包統計,但該數字記錄的是總丟包數。你需要再借助watch命令動態監控。如果下面的數字在你監控的過程中變了,那說明當前服務器有因為半連接隊列滿而產生的丟包。你可能需要加大你的半連接隊列的長度了。

  1. $ watch 'netstat -s | grep LISTEN' 
  2.     8 SYNs to LISTEN sockets ignored 

對于全連接隊列來說呢,查看方法也類似。

  1. $ watch 'netstat -s  | grep overflowed' 
  2.     160 times the listen queue of a socket overflowed 

如果你的服務因為隊列滿產生丟包,其中一個做法就是加大半/全連接隊列的長度。 半連接隊列長度Linux內核中,主要受tcp_max_syn_backlog影響 加大它到一個合適的值就可以。

  1. # cat /proc/sys/net/ipv4/tcp_max_syn_backlog 
  2. 1024 
  3. # echo "2048" > /proc/sys/net/ipv4/tcp_max_syn_backlog 

全連接隊列長度是應用程序調用listen時傳入的backlog以及內核參數net.core.somaxconn二者之中較小的那個。你可能需要同時調整你的應用程序和該內核參數。

  1. # cat /proc/sys/net/core/somaxconn 
  2. 128 
  3. # echo "256" > /proc/sys/net/core/somaxconn 

改完之后我們可以通過ss命令輸出的Send-Q確認最終生效長度:

  1. $ ss -nlt 
  2. Recv-Q Send-Q Local Address:Port Address:Port 
  3. 0      128    *:80               *:* 

Recv-Q告訴了我們當前該進程的全連接隊列使用長度情況。如果Recv-Q已經逼近了Send-Q,那么可能不需要等到丟包也應該準備加大你的全連接隊列了。

如果加大隊列后仍然有非常偶發的隊列溢出的話,我們可以暫且容忍。如果仍然有較長時間處理不過來怎么辦?另外一個做法就是直接報錯,不要讓客戶端超時等待。例如將Redis、Mysql等后端接口的內核參數tcp_abort_on_overflow為1。如果隊列滿了,直接發reset給client。告訴后端進程/線程不要癡情地傻等。這時候client會收到錯誤“connection reset by peer”。犧牲一個用戶的訪問請求,要比把整個站都搞崩了還是要強的。

三、TCP連接耗時實測

我寫了一段非常簡單的代碼,用來在客戶端統計每創建一個TCP連接需要消耗多長時間。

  1. <?php 
  2. $ip = {服務器ip}; 
  3. $port = {服務器端口}; 
  4. $count = 50000
  5. function buildConnect($ip,$port,$num){ 
  6.     for($i=0;$i<$num;$i++){ 
  7.         $socket = socket_create(AF_INET,SOCK_STREAM,SOL_TCP); 
  8.         if($socket ==false) { 
  9.             echo "$ip $port socket_create() 失敗的原因是:".socket_strerror(socket_last_error($socket))."\n"; 
  10.             sleep(5); 
  11.             continue; 
  12.         } 
  13.  
  14.         if(false == socket_connect($socket, $ip, $port)){ 
  15.             echo "$ip $port socket_connect() 失敗的原因是:".socket_strerror(socket_last_error($socket))."\n"; 
  16.             sleep(5); 
  17.             continue; 
  18.         } 
  19.         socket_close($socket); 
  20.     } 
  21.  
  22. $t1 = microtime(true); 
  23. buildConnect($ip, $port, $count); 
  24. echo (($t2-$t1)*1000).'ms'; 

在測試之前,我們需要本機linux可用的端口數充足,如果不夠50000個,最好調整充足。

  1. # echo "5000   65000" /proc/sys/net/ipv4/ip_local_port_range 

1. 正常情況

注意:無論是客戶端還是服務器端都不要選擇有線上服務在跑的機器,否則你的測試可能會影響正常用戶訪問

首先我的客戶端位于河北懷來的IDC機房內,服務器選擇的是公司廣東機房的某臺機器。執行ping命令得到的延遲大約是37ms,使用上述腳本建立50000次連接后,得到的連接平均耗時也是37ms。這是因為前面我們說過的,對于客戶端來看,第三次的握手只要包發送出去,就認為是握手成功了,所以只需要一次RTT、兩次傳輸耗時。雖然這中間還會有客戶端和服務端的系統調用開銷、軟中斷開銷,但由于它們的開銷正常情況下只有幾個us(微秒),所以對總的連接建立延時影響不大。

接下來我換了一臺目標服務器,該服務器所在機房位于北京。離懷來有一些距離,但是和廣東比起來可要近多了。這一次ping出來的RTT是1.6~1.7ms左右,在客戶端統計建立50000次連接后算出每條連接耗時是1.64ms。

再做一次實驗,這次選中實驗的服務器和客戶端直接位于同一個機房內,ping延遲在0.2ms~0.3ms左右。跑了以上腳本以后,實驗結果是50000 TCP連接總共消耗了11605ms,平均每次需要0.23ms。

線上架構提示:這里看到同機房延遲只有零點幾ms,但是跨個距離不遠的機房,光TCP握手耗時就漲了4倍。如果再要是跨地區到廣東,那就是百倍的耗時差距了。線上部署時,理想的方案是將自己服務依賴的各種mysql、redis等服務和自己部署在同一個地區、同一個機房(再變態一點,甚至可以是甚至是同一個機架)。因為這樣包括TCP鏈接建立啥的各種網絡包傳輸都要快很多。要盡可能避免長途跨地區機房的調用情況出現。

2. 連接隊列溢出

測試完了跨地區、跨機房和跨機器。這次為了快,直接和本機建立連接結果會咋樣呢?Ping本機ip或127.0.0.1的延遲大概是0.02ms,本機ip比其它機器RTT肯定要短。我覺得肯定連接會非常快,嗯實驗一下。連續建立5W TCP連接,總時間消耗27154ms,平均每次需要0.54ms左右。嗯!?怎么比跨機器還長很多? 有了前面的理論基礎,我們應該想到了,由于本機RTT太短,所以瞬間連接建立請求量很大,就會導致全連接隊列或者半連接隊列被打滿的情況。一旦發生隊列滿,當時撞上的那個連接請求就得需要3秒+的連接建立延時。所以上面的實驗結果中,平均耗時看起來比RTT高很多。

在實驗的過程中,我使用tcpdump抓包看到了下面的一幕。原來有少部分握手耗時3s+,原因是半連接隊列滿了導致客戶端等待超時后進行了SYN的重傳。

我們又重新改成每500個連接,sleep 1秒。嗯好,終于沒有卡的了(或者也可以加大連接隊列長度)。結論是本機50000次TCP連接在客戶端統計總耗時102399 ms,減去sleep的100秒后,平均每個TCP連接消耗0.048ms。比ping延遲略高一些。這是因為當RTT變的足夠小的時候,內核CPU耗時開銷就會顯現出來了,另外TCP連接要比ping的icmp協議更復雜一些,所以比ping延遲略高0.02ms左右比較正常。

四、結論

TCP連接建立異常情況下,可能需要好幾秒,一個壞處就是會影響用戶體驗,甚至導致當前用戶訪問超時都有可能。另外一個壞處是可能會誘發雪崩。所以當你的服務器使用短連接的方式訪問數據的時候,一定要學會要監控你的服務器的連接建立是否有異常狀態發生。如果有,學會優化掉它。當然你也可以采用本機內存緩存,或者使用連接池來保持長連接,通過這兩種方式直接避免掉TCP握手揮手的各種開銷也可以。

再說正常情況下,TCP建立的延時大約就是兩臺機器之間的一個RTT耗時,這是避免不了的。但是你可以控制兩臺機器之間的物理距離來降低這個RTT,比如把你要訪問的redis盡可能地部署的離后端接口機器近一點,這樣RTT也能從幾十ms削減到最低可能零點幾ms。

最后我們再思考一下,如果我們把服務器部署在北京,給紐約的用戶訪問可行嗎? 前面的我們同機房也好,跨機房也好,電信號傳輸的耗時基本可以忽略(因為物理距離很近),網絡延遲基本上是轉發設備占用的耗時。但是如果是跨越了半個地球的話,電信號的傳輸耗時我們可得算一算了。 北京到紐約的球面距離大概是15000公里,那么拋開設備轉發延遲,僅僅光速傳播一個來回(RTT是Rround trip time,要跑兩次),需要時間 = 15,000,000 *2 / 光速 = 100ms。實際的延遲可能比這個還要大一些,一般都得200ms以上。建立在這個延遲上,要想提供用戶能訪問的秒級服務就很困難了。所以對于海外用戶,最好都要在當地建機房或者購買海外的服務器。

 

責任編輯:趙寧寧 來源: 開發內功修煉
相關推薦

2021-06-02 08:33:31

TPCTPC-H系統

2022-04-14 11:50:39

函數組件hook

2021-05-10 08:58:09

Harbor架構Registry 服務

2022-05-23 08:34:08

微前端微服務開發

2022-06-02 08:42:15

Redis數據庫

2013-01-11 16:05:41

求職招聘

2019-01-07 12:02:02

TCP長連接Java

2018-04-24 09:05:09

容器存儲接口

2020-09-17 13:43:03

等保2.0網絡安全漏洞

2019-03-12 10:46:17

TCP協議算法

2021-03-02 11:06:17

工業互聯網

2019-10-30 14:31:47

Vue 3.0數組響應

2022-03-03 08:01:41

阻塞與非阻塞同步與異步Netty

2023-04-11 07:34:40

分布式系統算法

2021-03-18 09:01:53

軟件開發軟件選型

2022-03-04 08:10:35

NettyIO模型Reactor

2022-05-26 09:03:39

AOP編程

2017-10-17 18:06:08

2019-01-28 18:02:21

網絡安全網絡安全技術周刊

2021-06-09 13:28:40

密碼安全身份認證數據安全
點贊
收藏

51CTO技術棧公眾號

在线播放免费av| 国产精品日韩无码| 国内精品视频在线观看| 在线观看亚洲a| 黄色一级大片免费| 欧美777四色影视在线| 精品亚洲国产成人av制服丝袜| 欧美激情视频给我| 国产一二三四五区| 精品国产不卡一区二区| 黑人欧美xxxx| 成人在线免费观看网址| 激情小说 在线视频| 国产精品综合视频| 日本国产一区二区三区| 黄色一级视频在线观看| 日韩av在线播放网址| 精品国产免费一区二区三区香蕉 | 中文字幕无码人妻少妇免费| 免费在线观看一区| 亚洲精品菠萝久久久久久久| 青青成人在线| 色婷婷av一区二区三区之红樱桃 | caopo在线| 久久看人人爽人人| 国产精品av一区| 国产一区二区三区在线观看| 久久亚洲美女| 国产91精品久久久| 国产精品 欧美 日韩| 91一区二区| 影音先锋欧美精品| 黄色正能量网站| 999在线精品| 日韩一区二区三区视频在线观看| 黄色国产小视频| 国偷自产一区二区免费视频| 午夜精品福利久久久| 中国人体摄影一区二区三区| 国产视频二区在线观看| 久久综合久久综合久久| 99久久精品免费看国产四区 | 欧美黄色免费观看| 日韩系列欧美系列| 尤物tv国产一区| 国产手机在线观看| 亚洲视频分类| 日韩激情视频在线播放| 欧美一区二区三区成人精品| 精品按摩偷拍| 日韩第一页在线| 亚洲天堂2024| 色综合www| 亚洲免费一级电影| 黄色片网站免费| sdde在线播放一区二区| 亚洲网站视频福利| 97人妻人人揉人人躁人人| 欧美亚洲在线日韩| 中文字幕欧美日韩va免费视频| 国产aⅴ激情无码久久久无码| 精品久久久久久久久久久下田| 亚洲色图校园春色| 久久久久久国产免费a片| 成人嘿咻视频免费看| 宅男66日本亚洲欧美视频| 手机av在线不卡| 久久久久久久久久久妇女| 美女国内精品自产拍在线播放| 国产探花在线免费观看| 狠狠入ady亚洲精品| 91国内精品久久| 久久久久久不卡| 免费的国产精品| 亚洲一区中文字幕| 特黄视频在线观看| 国产欧美精品一区二区色综合朱莉| 亚洲巨乳在线观看| 国产传媒在线播放| 亚洲午夜久久久久久久久电影网 | 国产99久久久久| 精品国产一区二区三区四区vr| 六十路在线观看| 自拍偷自拍亚洲精品播放| 99久久99久久精品| 亚洲午夜天堂| 欧美精品亚洲一区二区在线播放| 久久久久国产免费| 婷婷亚洲精品| 久久精品免费播放| 免费观看一区二区三区毛片| 青青草成人在线观看| 亚洲一区二区三区久久| 五月婷婷免费视频| 国产精品免费视频一区| 青草青青在线视频| 99riav视频一区二区| 日韩欧美中文一区| 国产成人无码精品久久二区三| 亚洲不卡av不卡一区二区| 午夜免费日韩视频| 亚洲天堂手机在线| 91一区二区在线| 中文字幕中文字幕在线中心一区| 久久男人av资源站| 7777精品伊人久久久大香线蕉经典版下载 | xxxxx91麻豆| 免费看日韩毛片| 狠狠色伊人亚洲综合成人| 精品视频在线观看| 成人在线免费看片| 日本韩国欧美在线| 亚洲麻豆一区二区三区| 91蜜臀精品国产自偷在线| 91av在线看| 99在线观看免费| 欧美国产日韩在线观看| 亚洲中文字幕无码av永久| 热久久久久久| 国产香蕉97碰碰久久人人| 国产在线视频99| 精品一区二区三区欧美| 欧美极品色图| 亚洲啊v在线| 精品国产三级a在线观看| 亚洲综合图片一区| 三级一区在线视频先锋| 狠狠色综合色区| 日本精品600av| 4hu四虎永久在线影院成人| 欧美做受xxxxxⅹ性视频| 中文日韩欧美| 国产免费一区| 成人免费高清观看| 日韩欧美国产小视频| 激情高潮到大叫狂喷水| 日韩成人免费在线| 欧美一级二级三级九九九| 久久青草伊人| 亚洲精品美女视频| 青青草激情视频| 韩国v欧美v日本v亚洲v| 五月天男人天堂| 成人影院网站ww555久久精品| 日韩在线观看免费高清| 一二区在线观看| 国产精品视频yy9299一区| 国产免费视频传媒| 视频国产一区| 国产精品69久久久久| 男同在线观看| 欧美午夜精品久久久| 强伦人妻一区二区三区| 久久精品91| 欧美一区免费视频| 日本精品裸体写真集在线观看| 亚洲人成电影网站色www| wwwwww在线观看| 91视频一区二区三区| 国产91美女视频| 国产精品一区高清| 国产精品永久免费| 国内外激情在线| 日韩三级视频在线观看| 高清国产在线观看| 国内精品久久久久影院色| 亚洲三级色网| 91精品美女在线| 搞黄网站在线观看| 精品国产制服丝袜高跟| 久久精品欧美一区二区| 99视频一区二区| 一本久道中文无码字幕av| 日韩.com| www.久久爱.cn| 原纱央莉成人av片| 色偷偷9999www| 国产综合在线播放| 婷婷亚洲久悠悠色悠在线播放 | 国产乱叫456在线| 亚洲精品成人悠悠色影视| 国产a√精品区二区三区四区| 亚洲青涩在线| 亚洲国产日韩综合一区| 日本成人精品| 日韩美女在线播放| 超碰个人在线| 精品无人国产偷自产在线| 日本妇乱大交xxxxx| 亚洲精品视频在线观看网站| 久久久久9999| 久久99国内精品| 日本www在线视频| 全球成人免费直播| 国产精品sss| 国产一区精品福利| 久久久久久国产精品久久| porn亚洲| 亚洲黄色成人网| 一卡二卡在线视频| 欧美日韩国产综合新一区 | 亚洲欧美电影院| 日本黄色免费观看| 国产在线视视频有精品| 国产二级片在线观看| 天天色综合色| 欧美一区二区三区电影在线观看| 精品一区二区三区中文字幕| 清纯唯美亚洲综合| 日韩经典av| 色哟哟亚洲精品一区二区| 天天色天天操天天射| 欧美一区二区三区免费| 日韩中文字幕高清| 香蕉加勒比综合久久| 来吧亚洲综合网| 国产喂奶挤奶一区二区三区| 亚洲色偷偷色噜噜狠狠99网| 麻豆成人免费电影| 欧美激情精品久久久久久小说| 伊人激情综合| 久久观看最新视频| 久久福利综合| 色阁综合av| 九九久久婷婷| 蜜桃av色综合| 米奇精品关键词| 亚洲综合色av| 白嫩亚洲一区二区三区| 国产精品直播网红| 欧美日韩亚洲国产| 国产91露脸中文字幕在线| a天堂资源在线| 欧美精品videossex88| а天堂中文在线官网| 日韩中文在线观看| av在线资源网| 中文字幕精品av| 国产在线资源| 亚洲新中文字幕| 狠狠v欧美ⅴ日韩v亚洲v大胸| 亚洲精品一区久久久久久| 亚洲免费不卡视频| 精品少妇一区二区三区| 亚洲精品国产片| 精品国产青草久久久久福利| 成人小说亚洲一区二区三区 | 国产青青草在线| 亚洲免费av网址| 欧美日本韩国一区二区| 亚洲片av在线| av大片在线观看| 日韩最新中文字幕电影免费看| av网站无病毒在线| 视频在线观看一区二区| 免费观看久久久久| 成人97在线观看视频| 黄av在线免费观看| 久久99青青精品免费观看| 麻豆蜜桃在线| 91福利视频网| 超薄肉色丝袜脚交一区二区| 国产乱肥老妇国产一区二| 国产精品国产亚洲精品| 99re在线视频观看| 欧美成人基地| 欧美一区二区三区在线播放| 999国产精品视频| 日韩精品免费一区| 香蕉成人久久| 午夜免费看毛片| 国产成人高清视频| 少妇饥渴放荡91麻豆| 国产欧美精品一区二区色综合 | 蜜桃精品久久久久久久免费影院| 国产一区二区三区四区| 亚洲国产精品女人| 亚洲国内精品| 天堂在线资源视频| 国产麻豆91精品| 无套内谢大学处破女www小说| 国产喷白浆一区二区三区| 免费在线观看h片| 欧美日韩国产中字| 国产精品羞羞答答在线| 日韩一级黄色片| 美州a亚洲一视本频v色道| 中文字幕日韩精品有码视频| 色呦呦视频在线观看| 热99精品里视频精品| 韩国三级成人在线| 六月婷婷久久| 欧美一区高清| 美女网站免费观看视频| 丰满白嫩尤物一区二区| 国产一二三四五区| 亚洲高清不卡在线| 亚洲天堂avav| 亚洲男人天堂古典| 性欧美1819sex性高清大胸| 国产成人一区二区在线| 国产成人一二| 潘金莲一级淫片aaaaa免费看| 老司机久久99久久精品播放免费| 奇米777在线视频| 亚洲国产高清aⅴ视频| 日韩经典在线观看| 欧美精品日韩精品| 久久米奇亚洲| 午夜精品久久久久久99热| 精品国产乱码一区二区三区| 日本一区免费在线观看| 99国内精品| 国产成人av片| 中文字幕亚洲一区二区av在线| 二区视频在线观看| 精品国产一区二区亚洲人成毛片 | 精品国产精品| 欧美,日韩,国产在线| 国产精品影音先锋| 丁香六月激情综合| 91久久精品日日躁夜夜躁欧美| 黄色一级a毛片| 久久色在线播放| 欧美日韩破处视频| 日本一区二区在线视频观看| 亚洲人成免费| 91精品啪在线观看国产| 亚洲精品免费电影| 国产一区二区三区在线观看| 国产一区二区精品丝袜| 粉嫩一区二区| 免费在线一区二区| 国产一区二区三区久久| 中文字幕天堂网| 午夜久久久久久电影| 少妇精品高潮欲妇又嫩中文字幕 | 日韩精品成人免费观看视频| 亚洲激情视频在线观看| 91九色在线播放| 成人综合av网| 亚洲区欧美区| 丝袜美腿中文字幕| 色香蕉久久蜜桃| 国产理论电影在线观看| 日本成人免费在线| 国产日韩欧美一区二区三区| 91看片就是不一样| 国产欧美一区二区三区在线看蜜臀 | 亚洲国产一区二区三区在线播放| 福利片一区二区三区| 《视频一区视频二区| 国产有码在线观看| 不卡毛片在线看| 日韩中文字幕一区二区高清99| 中文精品无码中文字幕无码专区 | 69堂成人精品免费视频| а√天堂在线官网| 成人三级在线| 国产婷婷精品| 精品国产成人亚洲午夜福利| 欧美丝袜丝交足nylons图片| 麻豆tv在线| 成人免费看片网址| 国产欧美日本| 一级黄色片网址| 欧美一区国产二区| 激情网站在线| 欧美综合77777色婷婷| 免费观看在线色综合| 久热这里有精品| 亚洲精品国精品久久99热 | 在线观看免费一区| 久久久久久国产精品免费无遮挡| av免费观看久久| 久久av最新网址| frxxee中国xxx麻豆hd| 精品999在线播放| 三上悠亚激情av一区二区三区| 亚洲精品一区二区三区av| 国产精品一区二区免费不卡 | 欧美日韩国产精品一区二区三区| 亚洲精品suv精品一区二区| av有声小说一区二区三区| 国产免费xxx| 久久亚洲影视婷婷| 国产免费黄色大片| 欧美伊久线香蕉线新在线| 日韩av大片| 国产精品300页| 欧美精选在线播放| 国内在线免费视频| 亚洲精品美女久久7777777| 国产成人精品一区二区三区四区 | 日韩三级电影| 国产ts人妖一区二区| 男操女视频网站| 97色在线播放视频| 亚洲色图插插| 中文字幕欧美激情极品|