精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

反爬蟲策略淺析:識別,拒絕與防火墻范例

開發 前端
一些智能的搜索引擎爬蟲的爬取頻率比較合理,對網站資源消耗比較少,但是很多糟糕的網絡爬蟲,對中小型網站往往是毀滅性打擊。本文對幾種反爬蟲策略進行了學習分析。

因為搜索引擎的流行,網絡爬蟲已經成了很普及網絡技術,除了專門做搜索的Google,Yahoo,微軟,百度以外,幾乎每個大型門戶網站都有自己的搜索引擎,大大小小叫得出來名字得就幾十種,還有各種不知名的幾千幾萬種,對于一個內容型驅動的網站來說,受到網絡爬蟲的光顧是不可避免的。

一些智能的搜索引擎爬蟲的爬取頻率比較合理,對網站資源消耗比較少,但是很多糟糕的網絡爬蟲,對網頁爬取能力很差,經常并發幾十上百個請求循環重復抓取,這種爬蟲對中小型網站往往是毀滅性打擊,特別是一些缺乏爬蟲編寫經驗的程序員寫出來的爬蟲破壞力極強。曾經有一次我在JavaEye的日志里面發現一個User-Agent是Java的爬蟲一天之內爬取了將近100萬次動態請求。這是一個用JDK標準類庫編寫的簡單爬取網頁程序,由于JavaEye網站內部鏈接構成了回環導致程序陷入了死循環。對于JavaEye這種百萬PV級別的網站來說,這種爬蟲造成的訪問壓力會非常大,會導致網站訪問速度緩慢,甚至無法訪問。

此外,相當數量的的網頁爬蟲目的是盜取目標網站的內容。比方說JavaEye網站就曾經被兩個競爭對手網站爬取論壇帖子,然后在自己的論壇里面用機器人發帖,因此這種爬蟲不僅僅影響網站訪問速度,而且侵犯了網站的版權。

對于一個原創內容豐富,URL結構合理易于爬取的網站來說,簡直就是各種爬蟲的盤中大餐,很多網站的訪問流量構成當中,爬蟲帶來的流量要遠遠超過真實用戶訪問流量,甚至爬蟲流量要高出真實流量一個數量級。像JavaEye網站雖然設置了相當嚴格的反爬蟲策略,但是網站處理的動態請求數量仍然是真實用戶訪問流量的2倍。可以肯定的說,當今互聯網的網絡流量至少有2/3的流量爬蟲帶來的。因此反爬蟲是一個值得網站長期探索和解決的問題。

一、手工識別和拒絕爬蟲的訪問

有相當多的爬蟲對網站會造成非常高的負載,因此識別爬蟲的來源IP是很容易的事情。最簡單的辦法就是用netstat檢查80端口的連接:

  1. netstat -nt | grep youhostip:80 | awk '{print $5}' | awk -F":" '{print $1}'| sort | uniq -c | sort -r -n    

這行shell可以按照80端口連接數量對來源IP進行排序,這樣可以直觀的判斷出來網頁爬蟲。一般來說爬蟲的并發連接非常高。

如果使用lighttpd做Web Server,那么就更簡單了。lighttpd的mod_status提供了非常直觀的并發連接的信息,包括每個連接的來源IP,訪問的URL,連接狀態和連接時間等信息,只要檢查那些處于handle-request狀態的高并發IP就可以很快確定爬蟲的來源IP了。

拒絕爬蟲請求既可以通過內核防火墻來拒絕,也可以在web server拒絕,比方說用iptables拒絕:

  1. iptables -A INPUT -i eth0 -j DROP -p tcp --dport 80 -s 84.80.46.0/24     

直接封鎖爬蟲所在的C網段地址。這是因為一般爬蟲都是運行在托管機房里面,可能在一個C段里面的多臺服務器上面都有爬蟲,而這個C段不可能是用戶寬帶上網,封鎖C段可以很大程度上解決問題。

有些人提出一種腦殘的觀點,說我要懲罰這些爬蟲。我專門在網頁里面設計動態循環鏈接頁面,讓爬蟲掉進陷阱,死循環爬不出來,其實根本用不著設置陷阱,***爬蟲對正常網頁自己就爬不出來,這樣做多此一舉不說,而且會讓真正的搜索引擎降低你的網頁排名。而且運行一個爬蟲根本不消耗什么機器資源,相反,真正寶貴的是你的服務器CPU資源和服務器帶寬,簡單的拒絕掉爬蟲的請求是反爬蟲最有效的策略。

二、通過識別爬蟲的User-Agent信息來拒絕爬蟲

有很多爬蟲并不會以很高的并發連接爬取,一般不容易暴露自己;有些爬蟲的來源IP分布很廣,很難簡單的通過封鎖IP段地址來解決問題;另外還有很多各種各樣的小爬蟲,它們在嘗試Google以外創新的搜索方式,每個爬蟲每天爬取幾萬的網頁,幾十個爬蟲加起來每天就能消耗掉上百萬動態請求的資源,由于每個小爬蟲單獨的爬取量都很低,所以你很難把它從每天海量的訪問IP地址當中把它準確的挖出來。

這種情況下我們可以通過爬蟲的User-Agent信息來識別。每個爬蟲在爬取網頁的時候,會聲明自己的User-Agent信息,因此我們就可以通過記錄和分析User-Agent信息來挖掘和封鎖爬蟲。我們需要記錄每個請求的User-Agent信息,對于Rails來說我們可以簡單的在app/controllers/application.rb里面添加一個全局的before_filter,來記錄每個請求的User-Agent信息:

  1. logger.info "HTTP_USER_AGENT #{request.env["HTTP_USER_AGENT"]}"     

然后統計每天的production.log,抽取User-Agent信息,找出訪問量***的那些User-Agent。要注意的是我們只關注那些爬蟲的User-Agent信息,而不是真正瀏覽器User-Agent,所以還要排除掉瀏覽器User-Agent,要做到這一點僅僅需要一行shell:

  1. grep HTTP_USER_AGENT production.log | grep -v -E 'MSIE|Firefox|Chrome|Opera|Safari|Gecko' | sort | uniq -c | sort -r -n | head -n 100 > bot.log     

統計結果類似這樣:

  1. 57335 HTTP_USER_AGENT Baiduspider+(+http://www.baidu.com/search/spider.htm)    
  2. 56639 HTTP_USER_AGENT Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)    
  3. 42610 HTTP_USER_AGENT Mediapartners-Google    
  4. 19131 HTTP_USER_AGENT msnbot/2.0b (+http://search.msn.com/msnbot.htm)   

從日志就可以直觀的看出每個爬蟲的請求次數。要根據User-Agent信息來封鎖爬蟲是件很容易的事情,lighttpd配置如下:

  1. $HTTP["useragent"] =~ "qihoobot|^Java|Commons-HttpClient|Wget|^PHP|Ruby|Python" {    
  2.   url.rewrite = ( "^/(.*)" => "/crawler.html" )    
  3. }   

使用這種方式來封鎖爬蟲雖然簡單但是非常有效,除了封鎖特定的爬蟲,還可以封鎖常用的編程語言和HTTP類庫的User-Agent信息,這樣就可以避免很多無謂的程序員用來練手的爬蟲程序對網站的騷擾。

還有一種比較常見的情況,就是某個搜索引擎的爬蟲對網站爬取頻率過高,但是搜索引擎給網站帶來了很多流量,我們并不希望簡單的封鎖爬蟲,僅僅是希望降低爬蟲的請求頻率,減輕爬蟲對網站造成的負載,那么我們可以這樣做:

  1. $HTTP["user-agent"] =~ "Baiduspider+" {    
  2.     connection.delay-seconds = 10    
  3. }   

對百度的爬蟲請求延遲10秒鐘再進行處理,這樣就可以有效降低爬蟲對網站的負載了。

三、通過網站流量統計系統和日志分析來識別爬蟲

有些爬蟲喜歡修改User-Agent信息來偽裝自己,把自己偽裝成一個真實瀏覽器的User-Agent信息,讓你無法有效的識別。這種情況下我們可以通過網站流量系統記錄的真實用戶訪問IP來進行識別。

主流的網站流量統計系統不外乎兩種實現策略:一種策略是在網頁里面嵌入一段js,這段js會向特定的統計服務器發送請求的方式記錄訪問量;另一種策略是直接分析服務器日志,來統計網站訪問量。在理想的情況下,嵌入js的方式統計的網站流量應該高于分析服務器日志,這是因為用戶瀏覽器會有緩存,不一定每次真實用戶訪問都會觸發服務器的處理。但實際情況是,分析服務器日志得到的網站訪問量遠遠高于嵌入js方式,極端情況下,甚至要高出10倍以上。

現在很多網站喜歡采用awstats來分析服務器日志,來計算網站的訪問量,但是當他們一旦采用Google Analytics來統計網站流量的時候,卻發現GA統計的流量遠遠低于awstats,為什么GA和awstats統計會有這么大差異呢?罪魁禍首就是把自己偽裝成瀏覽器的網絡爬蟲。這種情況下awstats無法有效的識別了,所以awstats的統計數據會虛高。

其實作為一個網站來說,如果希望了解自己的網站真實訪問量,希望精確了解網站每個頻道的訪問量和訪問用戶,應該用頁面里面嵌入js的方式來開發自己的網站流量統計系統。自己做一個網站流量統計系統是件很簡單的事情,寫段服務器程序響應客戶段js的請求,分析和識別請求然后寫日志的同時做后臺的異步統計就搞定了。

通過流量統計系統得到的用戶IP基本是真實的用戶訪問,因為一般情況下爬蟲是無法執行網頁里面的js代碼片段的。所以我們可以拿流量統計系統記錄的IP和服務器程序日志記錄的IP地址進行比較,如果服務器日志里面某個IP發起了大量的請求,在流量統計系統里面卻根本找不到,或者即使找得到,可訪問量卻只有寥寥幾個,那么無疑就是一個網絡爬蟲。

分析服務器日志統計訪問最多的IP地址段一行shell就可以了:

  1. grep Processing production.log | awk '{print $4}' | awk -F'.' '{print $1"."$2"."$3".0"}' | sort | uniq -c | sort -r -n | head -n 200 > stat_ip.log     

然后把統計結果和流量統計系統記錄的IP地址進行對比,排除真實用戶訪問IP,再排除我們希望放行的網頁爬蟲,比方Google,百度,微軟msn爬蟲等等。***的分析結果就就得到了爬蟲的IP地址了。以下代碼段是個簡單的實現示意:

  1. whitelist = []    
  2. IO.foreach("#{RAILS_ROOT}/lib/whitelist.txt") { |line| whitelist << line.split[0].strip if line }    
  3.     
  4. realiplist = []    
  5. IO.foreach("#{RAILS_ROOT}/log/visit_ip.log") { |line|  realiplist << line.strip if line }    
  6.     
  7. iplist = []    
  8. IO.foreach("#{RAILS_ROOT}/log/stat_ip.log"do |line|    
  9.   ip = line.split[1].strip    
  10.   iplist << ip if line.split[0].to_i > 3000 && !whitelist.include?(ip) && !realiplist.include?(ip)    
  11. end     
  12.     
  13. Report.deliver_crawler(iplist)    

分析服務器日志里面請求次數超過3000次的IP地址段,排除白名單地址和真實訪問IP地址,***得到的就是爬蟲IP了,然后可以發送郵件通知管理員進行相應的處理。

四、網站的實時反爬蟲防火墻實現策略

通過分析日志的方式來識別網頁爬蟲不是一個實時的反爬蟲策略。如果一個爬蟲非要針對你的網站進行處心積慮的爬取,那么他可能會采用分布式爬取策略,比方說尋找幾百上千個國外的代理服務器瘋狂的爬取你的網站,從而導致網站無法訪問,那么你再分析日志是不可能及時解決問題的。所以必須采取實時反爬蟲策略,要能夠動態的實時識別和封鎖爬蟲的訪問。

要自己編寫一個這樣的實時反爬蟲系統其實也很簡單。比方說我們可以用memcached來做訪問計數器,記錄每個IP的訪問頻度,在單位時間之內,如果訪問頻率超過一個閥值,我們就認為這個IP很可能有問題,那么我們就可以返回一個驗證碼頁面,要求用戶填寫驗證碼。如果是爬蟲的話,當然不可能填寫驗證碼,所以就被拒掉了,這樣很簡單就解決了爬蟲問題。

用memcache記錄每個IP訪問計數,單位時間內超過閥值就讓用戶填寫驗證碼,用Rails編寫的示例代碼如下:

  1. ip_counter = Rails.cache.increment(request.remote_ip)    
  2. if !ip_counter    
  3.   Rails.cache.write(request.remote_ip, 1, :expires_in => 30.minutes)    
  4. elsif ip_counter > 2000    
  5.   render :template => 'test':status => 401 and return false    
  6. end   

這段程序只是最簡單的示例,實際的代碼實現我們還會添加很多判斷,比方說我們可能要排除白名單IP地址段,要允許特定的User-Agent通過,要針對登錄用戶和非登錄用戶,針對有無referer地址采取不同的閥值和計數加速器等等。

此外如果分布式爬蟲爬取頻率過高的話,過期就允許爬蟲再次訪問還是會對服務器造成很大的壓力,因此我們可以添加一條策略:針對要求用戶填寫驗證碼的IP地址,如果該IP地址短時間內繼續不停的請求,則判斷為爬蟲,加入黑名單,后續請求全部拒絕掉。為此,示例代碼可以改進一下:

  1. before_filter :ip_firewall:except => :test    
  2. def ip_firewall    
  3.   render :file => "#{RAILS_ROOT}/public/403.html":status => 403 if BlackList.include?(ip_sec)    
  4. end   

我們可以定義一個全局的過濾器,對所有請求進行過濾,出現在黑名單的IP地址一律拒絕。對非黑名單的IP地址再進行計數和統計:

  1. ip_counter = Rails.cache.increment(request.remote_ip)    
  2. if !ip_counter    
  3.   Rails.cache.write(request.remote_ip, 1, :expires_in => 30.minutes)    
  4. elsif ip_counter > 2000    
  5.   crawler_counter = Rails.cache.increment("crawler/#{request.remote_ip}")    
  6.   if !crawler_counter    
  7.     Rails.cache.write("crawler/#{request.remote_ip}", 1, :expires_in => 10.minutes)    
  8.   elsif crawler_counter > 50    
  9.     BlackList.add(ip_sec)    
  10.     render :file => "#{RAILS_ROOT}/public/403.html":status => 403 and return false    
  11.   end    
  12.   render :template => 'test':status => 401 and return false    
  13. end   

如果某個IP地址單位時間內訪問頻率超過閥值,再增加一個計數器,跟蹤他會不會立刻填寫驗證碼,如果他不填寫驗證碼,在短時間內還是高頻率訪問,就把這個IP地址段加入黑名單,除非用戶填寫驗證碼激活,否則所有請求全部拒絕。這樣我們就可以通過在程序里面維護黑名單的方式來動態的跟蹤爬蟲的情況,甚至我們可以自己寫個后臺來手工管理黑名單列表,了解網站爬蟲的情況。

這個策略已經比較智能了,但是還不夠好!我們還可以繼續改進:

1、用網站流量統計系統來改進實時反爬蟲系統

還記得嗎?網站流量統計系統記錄的IP地址是真實用戶訪問IP,所以我們在網站流量統計系統里面也去操作memcached,但是這次不是增加計數值,而是減少計數值。在網站流量統計系統里面每接收到一個IP請求,就相應的cache.decrement(key)。所以對于真實用戶的IP來說,它的計數值總是加1然后就減1,不可能很高。這樣我們就可以大大降低判斷爬蟲的閥值,可以更加快速準確的識別和拒絕掉爬蟲。

2、用時間窗口來改進實時反爬蟲系統

爬蟲爬取網頁的頻率都是比較固定的,不像人去訪問網頁,中間的間隔時間比較無規則,所以我們可以給每個IP地址建立一個時間窗口,記錄IP地址最近12次訪問時間,每記錄一次就滑動一次窗口,比較最近訪問時間和當前時間,如果間隔時間很長判斷不是爬蟲,清除時間窗口,如果間隔不長,就回溯計算指定時間段的訪問頻率,如果訪問頻率超過閥值,就轉向驗證碼頁面讓用戶填寫驗證碼。

最終這個實時反爬蟲系統就相當完善了,它可以很快的識別并且自動封鎖爬蟲的訪問,保護網站的正常訪問。不過有些爬蟲可能相當狡猾,它也許會通過大量的爬蟲測試來試探出來你的訪問閥值,以低于閥值的爬取速度抓取你的網頁,因此我們還需要輔助第3種辦法,用日志來做后期的分析和識別,就算爬蟲爬的再慢,它累計一天的爬取量也會超過你的閥值被你日志分析程序識別出來。

總之我們綜合運用上面的四種反爬蟲策略,可以很大程度上緩解爬蟲對網站造成的負面影響,保證網站的正常訪問。

本文來自Robbin的博客:《互聯網網站的反爬蟲策略淺析》

【編輯推薦】

  1. C# Actor模型開發實例:網絡爬蟲
  2. 如何構造一個C#語言的爬蟲程序
  3. 壓縮網頁載入時間:Web頁面并行化的幾點考慮
  4. Web性能之戰打響 開發者面臨復雜度挑戰
  5. 緩存設計詳解:低成本的高性能Web應用解決方案
責任編輯:yangsai 來源: Robbin的博客
相關推薦

2010-09-30 16:47:21

2013-01-21 10:17:27

防火墻惡意IP

2010-10-08 11:17:12

2010-09-27 13:52:09

2010-09-14 12:19:02

2012-11-14 13:45:56

防火墻防火墻啟動

2009-12-04 15:18:18

軟路由防火墻

2012-07-13 14:43:20

防火墻防火墻策略管理

2011-03-25 11:18:51

2010-09-25 17:17:19

2010-09-14 09:04:10

2010-12-21 18:04:26

2009-12-25 12:21:56

2010-12-08 09:29:27

下一代防火墻

2010-09-14 13:08:52

2010-09-15 16:52:16

2009-02-16 09:49:00

軟件防火墻故障

2014-07-23 10:39:03

2010-01-12 11:58:14

Cisco防火墻拒絕服務漏洞

2010-05-24 17:49:56

點贊
收藏

51CTO技術棧公眾號

视频一区在线免费观看| 欧美成人国产va精品日本一级| 黄色av网址在线播放| 激情小视频在线观看| 久草中文综合在线| 欧美精品videossex88| 中文字幕人妻一区二区| 国产亚洲精彩久久| 亚洲成人av在线电影| 日本在线播放不卡| www.久久久久久久久久| 老妇喷水一区二区三区| 美女精品久久久| 精品无码在线视频| 外国成人毛片| 性欧美大战久久久久久久久| 亚洲mv在线看| 无套内谢的新婚少妇国语播放| 日本不卡一区二区| 国内久久久精品| 精品在线观看一区| 亚州av日韩av| 日韩女优制服丝袜电影| 黄色三级视频片| av资源在线播放| 18欧美乱大交hd1984| 欧美极品视频一区二区三区| 国产黄色片av| 美女视频第一区二区三区免费观看网站| 欧美激情二区三区| 日本黄色免费片| 免费一区二区| 日韩精品极品毛片系列视频| 欧美专区第二页| 国产精品99久久久久久董美香| 亚洲不卡av一区二区三区| av动漫免费观看| 大胆av不用播放器在线播放| 成人福利视频网站| av成人午夜| 国产精品久久久久久久久久久久久久久久久久 | 奇米一区二区| 欧美高清你懂得| 污污网站免费观看| 456成人影院在线观看| 精品国产1区2区| 日本手机在线视频| 白白色在线观看| 亚洲图片欧美色图| 草草草视频在线观看| av网址在线播放| 一区在线观看免费| 亚洲欧美一二三| 韩国av网站在线| 中文字幕一区二区三区四区不卡| 亚洲高清资源综合久久精品| 国产小视频免费在线网址| 国产婷婷精品av在线| 日本最新一区二区三区视频观看| 你懂的在线观看视频网站| 91污在线观看| 欧美尤物一区| aaa在线观看| 国产精品久线观看视频| 欧美少妇一级片| av中文字幕在线观看| 亚洲午夜精品网| 国产av天堂无码一区二区三区| 蜜桃视频m3u8在线观看| 一本色道亚洲精品aⅴ| 日本激情视频在线| 爱情电影网av一区二区| 日韩欧美激情四射| 白嫩情侣偷拍呻吟刺激| 香蕉久久精品| 中文字幕日韩免费视频| 老司机成人免费视频| 伊人久久大香线蕉综合四虎小说 | 香蕉视频一区二区| 亚洲美女91| 国产精品啪视频| 国产三级按摩推拿按摩| 国产69精品一区二区亚洲孕妇| 国产精品视频一区二区三区经| 亚洲av电影一区| 中文字幕乱码一区二区免费| 400部精品国偷自产在线观看| 2024最新电影在线免费观看| 亚洲va韩国va欧美va精品| 北条麻妃在线视频观看| 国产原创一区| 亚洲精品一区在线观看| 一级黄色片网址| 欧美日本免费| 国产精品精品一区二区三区午夜版 | 伊人影院综合网| 亚洲精品电影| 欧美一级淫片丝袜脚交| 一区二区三区免费观看视频| 成人污污视频在线观看| 亚洲7777| 在线观看爽视频| 69av一区二区三区| 中文字幕一区二区人妻在线不卡| 久久一区91| 91福利视频网| www.国产黄色| 亚洲国产高清在线观看视频| 精品少妇人妻av免费久久洗澡| 国产精品伊人| 亚洲毛片在线免费观看| 欧美精品一级片| 蜜臀精品一区二区三区在线观看| 国产精品乱码一区二区三区| 男女啪啪在线观看| 色国产精品一区在线观看| 国产成人av片| 国产精品国产一区| 国产精品美女免费视频| 亚洲aⅴ乱码精品成人区| 一区二区三区在线视频免费观看| 日韩av手机版| 亚洲精品亚洲人成在线| 欧美激情网站在线观看| 91无套直看片红桃| 欧美经典一区二区| 国产一区二区在线视频播放| 日韩精品视频中文字幕| 久久精品国产精品亚洲| 国产精品欧美综合| 91老司机福利 在线| 国内精品视频一区二区三区| 日韩中文字幕| 欧美成人免费播放| 国产剧情久久久| 国产精品国产三级国产普通话蜜臀| 欧美韩国日本在线| 秋霞影视一区二区三区| 国内自拍欧美激情| 国产综合无码一区二区色蜜蜜| 亚洲人成影院在线观看| 国产精品久久久久久久99| 999久久久免费精品国产| 国产精品美女久久久久久免费| 国产中文字幕在线| 在线精品国精品国产尤物884a| 欧美老熟妇乱大交xxxxx| 久久国产88| 日韩一本精品| 午夜精品成人av| 一区二区欧美亚洲| 中文字幕在线观看欧美| 中文字幕视频一区| 亚洲欧美日韩一二三区| 欧美精品国产| 国产精品一区二区三区精品| 97人人爽人人澡人人精品| 亚洲激情成人网| 国产精品21p| 国产欧美一区视频| 亚洲一区二区三区四区五区| 99热在线成人| 亚洲自拍偷拍色图| 丁香花视频在线观看| 亚洲国产欧美一区二区三区同亚洲 | 国产精品久久久久久久久久免费| 在线播放麻豆| 91精品国产综合久久久久久| 久久97人妻无码一区二区三区| 不卡一卡二卡三乱码免费网站| 国产h视频在线播放| 精品一区av| 91在线网站视频| 日韩av毛片| 亚洲精品自拍偷拍| 中文字幕在线观看精品| 一区二区激情小说| 精品人妻一区二区三区视频| 久久国产日韩欧美精品| 国产精品视频二| 亚欧洲精品视频在线观看| 国产精自产拍久久久久久| 欧美猛烈性xbxbxbxb| 精品久久久三级丝袜| 91精品国产乱码在线观看| 国产视频一区二区三区在线观看| 成年人三级黄色片| 亚洲毛片在线| 综合网五月天| 欧美网色网址| 91精品视频专区| 男人的天堂免费在线视频| 中文字幕在线精品| 天天操天天操天天干| 欧美午夜精品一区二区三区| 麻豆chinese极品少妇| 久久久久久久久久美女| 美女被艹视频网站| 天使萌一区二区三区免费观看| 中文字幕日韩一区二区三区| 欧美亚视频在线中文字幕免费| 成人久久一区二区| 偷拍自拍在线看| 九九热这里只有在线精品视| 国产区高清在线| 亚洲成人国产精品| 国产精品无码久久久久成人app| 天天亚洲美女在线视频| 欧美手机在线观看| 久久久久久久网| 日韩av无码一区二区三区不卡| 久久精品国产久精国产| 成年人观看网站| 合欧美一区二区三区| 亚洲欧洲精品在线观看| 免费看av成人| 精品不卡在线| 51亚洲精品| 成人在线精品视频| 主播大秀视频在线观看一区二区| 97在线视频国产| 日本性爱视频在线观看| 色狠狠av一区二区三区香蕉蜜桃| 四虎在线免费观看| 69p69国产精品| 一二三区中文字幕| 欧美最新大片在线看| 天天操夜夜操视频| 婷婷成人综合网| 久久午夜无码鲁丝片午夜精品| 亚洲色图欧洲色图| 天天爽天天爽天天爽| 中文字幕不卡的av| 免费看日本黄色片| 日本一区二区成人| 精品欧美一区二区久久久| 91女厕偷拍女厕偷拍高清| 青青草视频网站| 成人黄色在线视频| 在线免费看黄色片| 99re成人精品视频| 在线视频 日韩| 91在线云播放| 女同毛片一区二区三区| www激情久久| 亚洲激情视频小说| 久久久久国产一区二区三区四区| 搡老熟女老女人一区二区| 99视频国产精品| 女人被狂躁c到高潮| 91丨porny丨最新| 中文字幕在线免费看线人| 91丝袜高跟美女视频| 精品人妻无码一区二区三区| 久久精品视频免费| 国产18无套直看片| 中文字幕一区免费在线观看 | 日韩国产在线| 天天爱天天做天天操| 欧美日韩国产探花| 自拍日韩亚洲一区在线| 老鸭窝亚洲一区二区三区| 最近免费中文字幕中文高清百度| 爽爽淫人综合网网站| 狠狠躁狠狠躁视频专区| 精品一区二区三区在线播放| 日本网站在线看| a在线播放不卡| 久久精品无码一区| 亚洲欧洲精品成人久久奇米网| 国产精品丝袜一区二区| 亚洲va欧美va国产va天堂影院| 国产三级精品三级在线观看| 欧美色图片你懂的| 99在线观看免费| 日韩禁在线播放| 91在线看片| 欧美激情亚洲国产| 素人一区二区三区| 91超碰在线免费观看| 欧美美女在线直播| 亚洲 国产 欧美一区| 国产精品豆花视频| 妓院一钑片免看黄大片| 国产综合色产在线精品| 欧美深性狂猛ⅹxxx深喉| 国产清纯美女被跳蛋高潮一区二区久久w | a视频免费在线观看| 亚洲精品久久在线| 日本在线免费网| 亚洲**2019国产| 四虎精品在线观看| 免费看污久久久| 亚洲天堂免费| 中文字幕无码不卡免费视频| 国产精品一区专区| 中国毛片在线观看| 亚洲一区二区在线免费观看视频 | 久中文字幕一区| 亚洲mv大片欧洲mv大片| 国产精品欧美激情在线观看| 国产中文字幕精品| 在哪里可以看毛片| 亚洲成人1区2区| 国产精品久久久久精| 亚洲精品中文字幕女同| 亚洲综合伊人久久大杳蕉| 国产精品com| 精品伊人久久久| 激情视频小说图片| 免费观看久久久4p| 黄色a一级视频| 亚洲综合免费观看高清完整版在线| 中文在线a天堂| 亚洲精品久久久一区二区三区| 污污视频在线| 国产有码一区二区| 免费欧美一区| 无码人妻丰满熟妇区96| 成人毛片老司机大片| 欧洲猛交xxxx乱大交3| 欧美日韩在线电影| 国产经典自拍视频在线观看| 78色国产精品| 激情小说一区| 国产乱淫av片杨贵妃| 国产黄人亚洲片| 亚洲AV成人无码精电影在线| 欧美少妇bbb| 国产精品毛片一区二区三区四区| 热门国产精品亚洲第一区在线| 久久97久久97精品免视看秋霞| 91国在线高清视频| 国产成都精品91一区二区三| 欧美老熟妇一区二区三区| 欧美久久免费观看| www.国产精品.com| 国产精品 欧美在线| 国产一区二区三区天码| 免费日韩视频在线观看| 久久一日本道色综合| 狠狠人妻久久久久久综合| 精品亚洲一区二区三区在线播放| av福利导福航大全在线| 狠狠色狠狠色综合人人| 激情久久综合| av在线播放网址| 狠狠躁天天躁日日躁欧美| 日韩av视屏| 日韩免费观看av| 欧美视频网址| 中文字幕第17页| 综合色天天鬼久久鬼色| av免费观看网址| 久久99精品久久久久久噜噜| 中文在线免费一区三区| 成人免费观看cn| 久久综合色综合88| 少妇无套内谢久久久久| 久久精品国产久精国产思思| 久久天堂久久| 日本丰满少妇xxxx| 26uuu另类欧美| 国产天堂第一区| 久久久精品中文字幕| 亚洲精品午夜| 116极品美女午夜一级| 亚洲国产高清aⅴ视频| 国产人妖一区二区| 777777777亚洲妇女| 国内成人自拍| 超碰在线免费av| 亚洲超碰97人人做人人爱| 国产精品麻豆一区二区三区| 亚洲aa中文字幕| 亚洲黄色一区| 俄罗斯毛片基地| 日韩限制级电影在线观看| 超碰成人av| 亚洲精品影院| 成人精品免费网站| 中文字幕免费在线看| 欧美日韩成人在线视频| 先锋影音国产精品| 韩国一区二区在线播放| 亚洲h精品动漫在线观看| 草草影院在线观看| 国产91aaa| 美女网站一区二区| 日本免费在线播放| 在线成人激情视频| 久久1电影院| 伊人五月天婷婷| 在线区一区二视频| 欧美黑人xx片| 亚洲精品国产精品国自产观看| 成人午夜免费视频| 亚洲天堂中文字幕在线| 992tv在线成人免费观看| 99久久夜色精品国产亚洲96 |