精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

設(shè)計(jì)和實(shí)現(xiàn)一款輕量級(jí)的爬蟲框架

開發(fā)
說起爬蟲,大家能夠想起 Python 里赫赫有名的 Scrapy 框架, 在本文中我們參考這個(gè)設(shè)計(jì)思想使用 Java 語言來實(shí)現(xiàn)一款自己的爬蟲框(lun)架(zi)。 我們從起點(diǎn)一步一步分析爬蟲框架的誕生過程。

說起爬蟲,大家能夠想起 Python 里赫赫有名的 Scrapy 框架, 在本文中我們參考這個(gè)設(shè)計(jì)思想使用 Java 語言來實(shí)現(xiàn)一款自己的爬蟲框(lun)架(zi)。 我們從起點(diǎn)一步一步分析爬蟲框架的誕生過程。 

我把這個(gè)爬蟲框架的源碼放在 github 上,里面有幾個(gè)例子可以運(yùn)行。

 [[217425]]

關(guān)于爬蟲的一切 

下面我們來介紹什么是爬蟲?以及爬蟲框架的設(shè)計(jì)和遇到的問題。

什么是爬蟲? 

“爬蟲”不是一只生活在泥土里的小蟲子,網(wǎng)絡(luò)爬蟲(web crawler),也叫網(wǎng)絡(luò)蜘蛛(spider),是一種用來自動(dòng)瀏覽網(wǎng)絡(luò)上內(nèi)容的機(jī)器人。 爬蟲訪問網(wǎng)站的過程會(huì)消耗目標(biāo)系統(tǒng)資源,很多網(wǎng)站不允許被爬蟲抓取(這就是你遇到過的 robots.txt 文件, 這個(gè)文件可以要求機(jī)器人只對(duì)網(wǎng)站的一部分進(jìn)行索引,或完全不作處理)。 因此在訪問大量頁(yè)面時(shí),爬蟲需要考慮到規(guī)劃、負(fù)載,還需要講“禮貌”(大兄弟,慢點(diǎn))。 

互聯(lián)網(wǎng)上的頁(yè)面極多,即使是***的爬蟲系統(tǒng)也無法做出完整的索引。因此在公元2000年之前的萬維網(wǎng)出現(xiàn)初期,搜索引擎經(jīng)常找不到多少相關(guān)結(jié)果。 現(xiàn)在的搜索引擎在這方面已經(jīng)進(jìn)步很多,能夠即刻給出高質(zhì)量結(jié)果。

網(wǎng)絡(luò)爬蟲會(huì)遇到的問題 

既然有人想抓取,就會(huì)有人想防御。網(wǎng)絡(luò)爬蟲在運(yùn)行的過程中會(huì)遇到一些阻礙,在業(yè)內(nèi)稱之為 反爬蟲策略 我們來列出一些常見的。 

  • 訪問頻率限制
  • Header 頭信息校驗(yàn)
  • 動(dòng)態(tài)頁(yè)面生成
  • IP 地址限制
  • Cookie 限制(或稱為登錄限制)
  • 驗(yàn)證碼限制
  • 等等… 

這些是傳統(tǒng)的反爬蟲手段,當(dāng)然未來也會(huì)更加先進(jìn),技術(shù)的革新永遠(yuǎn)會(huì)帶動(dòng)多個(gè)行業(yè)的發(fā)展,畢竟 AI 的時(shí)代已經(jīng)到來, 爬蟲和反爬蟲的斗爭(zhēng)一直持續(xù)進(jìn)行。

爬蟲框架要考慮什么

設(shè)計(jì)我們的框架 

我們要設(shè)計(jì)一款爬蟲框架,是基于 Scrapy 的設(shè)計(jì)思路來完成的,先來看看在沒有爬蟲框架的時(shí)候我們是如何抓取頁(yè)面信息的。 一個(gè)常見的例子是使用 HttpClient 包或者 Jsoup 來處理,對(duì)于一個(gè)簡(jiǎn)單的小爬蟲而言這足夠了。 

下面來演示一段沒有爬蟲框架的時(shí)候抓取頁(yè)面的代碼,這是我在網(wǎng)絡(luò)上搜索的 

 

  1. public class Reptile {   
  2.    public static void main(String[] args) {  
  3.     //傳入你所要爬取的頁(yè)面地址  
  4.     String url1 = "";  
  5.     //創(chuàng)建輸入流用于讀取流  
  6.     InputStream is = null;  
  7.     //包裝流,加快讀取速度  
  8.     BufferedReader br = null;  
  9.     //用來保存讀取頁(yè)面的數(shù)據(jù).  
  10.     StringBuffer html = new StringBuffer();  
  11.     //創(chuàng)建臨時(shí)字符串用于保存每一次讀的一行數(shù)據(jù),然后html調(diào)用append方法寫入temp;  
  12.     String temp = "";  
  13.     try {  
  14.         //獲取URL;  
  15.         URL url2 = new URL(url1);  
  16.         //打開流,準(zhǔn)備開始讀取數(shù)據(jù);  
  17.         is = url2.openStream();  
  18.         //將流包裝成字符流,調(diào)用br.readLine()可以提高讀取效率,每次讀取一行;  
  19.         br= new BufferedReader(new InputStreamReader(is));  
  20.         //讀取數(shù)據(jù),調(diào)用br.readLine()方法每次讀取一行數(shù)據(jù),并賦值給temp,如果沒數(shù)據(jù)則值==null,跳出循環(huán); 
  21.         while ((temp = br.readLine()) != null) {  
  22.             //將temp的值追加給html,這里注意的時(shí)String跟StringBuffere的區(qū)別前者不是可變的后者是可變的;  
  23.             html.append(temp);  
  24.         }  
  25.         //接下來是關(guān)閉流,防止資源的浪費(fèi);  
  26.         if(is != null) {  
  27.             is.close();  
  28.             is = null;  
  29.         }  
  30.         //通過Jsoup解析頁(yè)面,生成一個(gè)document對(duì)象;  
  31.         Document doc = Jsoup.parse(html.toString());  
  32.         //通過class的名字得到(即XX),一個(gè)數(shù)組對(duì)象Elements里面有我們想要的數(shù)據(jù),至于這個(gè)div的值呢你打開瀏覽器按下F12就知道了;  
  33.         Elements elements = doc.getElementsByClass("XX");  
  34.         for (Element element : elements) {  
  35.         //打印出每一個(gè)節(jié)點(diǎn)的信息;你可以選擇性的保留你想要的數(shù)據(jù),一般都是獲取個(gè)固定的索引;  
  36.             System.out.println(element.text());  
  37.         }  
  38.     } catch (MalformedURLException e) {  
  39.         e.printStackTrace();  
  40.     } catch (IOException e) {  
  41.         e.printStackTrace();  
  42.     }     
  43. }  

從如此豐富的注釋中我感受到了作者的耐心,我們來分析一下這個(gè)爬蟲在干什么? 

  1. 輸入一個(gè)要爬取的URL地址
  2. 通過 JDK 原生 API 發(fā)送網(wǎng)絡(luò)請(qǐng)求獲取頁(yè)面信息(這里沒有使用 HttpClient)
  3. 使用 Jsoup 解析 DOM
  4. 處理自己需要的數(shù)據(jù)
  5. 將它們輸出在控制臺(tái) 

大概就是這樣的步驟,代碼也非常簡(jiǎn)潔,我們?cè)O(shè)計(jì)框架的目的是將這些流程統(tǒng)一化,把通用的功能進(jìn)行抽象,減少重復(fù)工作。 還有一些沒考慮到的因素添加進(jìn)去,那么設(shè)計(jì)爬蟲框架要有哪些組成呢? 

  1. URL管理
  2. 網(wǎng)頁(yè)下載器
  3. 爬蟲調(diào)度器
  4. 網(wǎng)頁(yè)解析器
  5. 數(shù)據(jù)處理器 

分別來解釋一下每個(gè)組成的作用是什么。 

URL管理器 

爬蟲框架要處理很多的URL,我們需要設(shè)計(jì)一個(gè)隊(duì)列存儲(chǔ)所有要處理的URL,這種先進(jìn)先出的數(shù)據(jù)結(jié)構(gòu)非常符合這個(gè)需求。 將所有要下載的URL存儲(chǔ)在待處理隊(duì)列中,每次下載會(huì)取出一個(gè),隊(duì)列中就會(huì)少一個(gè)。我們知道有些URL的下載會(huì)有反爬蟲策略, 所以針對(duì)這些請(qǐng)求需要做一些特殊的設(shè)置,進(jìn)而可以對(duì)URL進(jìn)行封裝抽出 Request。 

網(wǎng)頁(yè)下載器 

在前面的簡(jiǎn)單例子中可以看出,如果沒有網(wǎng)頁(yè)下載器,用戶就要編寫網(wǎng)絡(luò)請(qǐng)求的處理代碼,這無疑對(duì)每個(gè)URL都是相同的動(dòng)作。 所以在框架設(shè)計(jì)中我們直接加入它就好了,至于使用什么庫(kù)來進(jìn)行下載都是可以的,你可以用 httpclient 也可以用 okhttp, 在本文中我們使用一個(gè)超輕量級(jí)的網(wǎng)絡(luò)請(qǐng)求庫(kù) oh-my-request (沒錯(cuò),就是在下搞的)。 優(yōu)秀的框架設(shè)計(jì)會(huì)將這個(gè)下載組件置為可替換,提供默認(rèn)的即可。 

爬蟲調(diào)度器 

調(diào)度器和我們?cè)陂_發(fā) web 應(yīng)用中的控制器是一個(gè)類似的概念,它用于在下載器、解析器之間做流轉(zhuǎn)處理。 解析器可以解析到更多的URL發(fā)送給調(diào)度器,調(diào)度器再次的傳輸給下載器,這樣就會(huì)讓各個(gè)組件有條不紊的進(jìn)行工作。 

網(wǎng)頁(yè)解析器 

我們知道當(dāng)一個(gè)頁(yè)面下載完成后就是一段 HTML 的 DOM 字符串表示,但還需要提取出真正需要的數(shù)據(jù), 以前的做法是通過 String 的 API 或者正則表達(dá)式的方式在 DOM 中搜尋,這樣是很麻煩的,框架 應(yīng)該提供一種合理、常用、方便的方式來幫助用戶完成提取數(shù)據(jù)這件事兒。常用的手段是通過 xpath 或者 css 選擇器從 DOM 中進(jìn)行提取,而且學(xué)習(xí)這項(xiàng)技能在幾乎所有的爬蟲框架中都是適用的。 

數(shù)據(jù)處理器 

普通的爬蟲程序中是把 網(wǎng)頁(yè)解析器 和 數(shù)據(jù)處理器 合在一起的,解析到數(shù)據(jù)后馬上處理。 在一個(gè)標(biāo)準(zhǔn)化的爬蟲程序中,他們應(yīng)該是各司其職的,我們先通過解析器將需要的數(shù)據(jù)解析出來,可能是封裝成對(duì)象。 然后傳遞給數(shù)據(jù)處理器,處理器接收到數(shù)據(jù)后可能是存儲(chǔ)到數(shù)據(jù)庫(kù),也可能通過接口發(fā)送給老王。

基本特性 

上面說了這么多,我們?cè)O(shè)計(jì)的爬蟲框架有以下幾個(gè)特性,沒有做到大而全,可以稱得上輕量迷你挺好用。 

  • 易于定制: 很多站點(diǎn)的下載頻率、瀏覽器要求是不同的,爬蟲框架需要提供此處擴(kuò)展配置
  • 多線程下載: 當(dāng)CPU核數(shù)多的時(shí)候多線程下載可以更快完成任務(wù)
  • 支持 XPath 和 CSS 選擇器解析 

架構(gòu)圖

 

 

整個(gè)流程和 Scrapy 是一致的,但簡(jiǎn)化了一些操作 

  • 引擎(Engine): 用來處理整個(gè)系統(tǒng)的數(shù)據(jù)流處理, 觸發(fā)事務(wù)(框架核心)
  • 調(diào)度器(Scheduler): 用來接受引擎發(fā)過來的請(qǐng)求, 壓入隊(duì)列中, 并在引擎再次請(qǐng)求的時(shí)候返回. 可以想像成一個(gè)URL(抓取網(wǎng)頁(yè)的網(wǎng)址或者說是鏈接)的優(yōu)先隊(duì)列, 由它來決定下一個(gè)要抓取的網(wǎng)址是什么, 同時(shí)去除重復(fù)的網(wǎng)址
  • 下載器(Downloader): 用于下載網(wǎng)頁(yè)內(nèi)容, 并將網(wǎng)頁(yè)內(nèi)容返回給調(diào)度器
  • 爬蟲(Spiders): 爬蟲是主要干活的, 用于從特定的網(wǎng)頁(yè)中提取自己需要的信息, 即所謂的實(shí)體(Item)。 用戶也可以從中提取出鏈接,讓框架繼續(xù)抓取下一個(gè)頁(yè)面
  • 項(xiàng)目管道(Pipeline): 負(fù)責(zé)處理爬蟲從網(wǎng)頁(yè)中抽取的實(shí)體,主要的功能是持久化實(shí)體、驗(yàn)證實(shí)體的有效性、清除不需要的信息。 當(dāng)頁(yè)面被爬蟲解析后,將被發(fā)送到項(xiàng)目管道,并經(jīng)過幾個(gè)特定的次序處理數(shù)據(jù)。 

執(zhí)行流程圖

 

 

  • 首先,引擎從調(diào)度器中取出一個(gè)鏈接(URL)用于接下來的抓取
  • 引擎把URL封裝成一個(gè)請(qǐng)求(Request)傳給下載器,下載器把資源下載下來,并封裝成應(yīng)答包(Response)
  • 然后,爬蟲解析Response
  • 若是解析出實(shí)體(Item),則交給實(shí)體管道進(jìn)行進(jìn)一步的處理。
  • 若是解析出的是鏈接(URL),則把URL交給Scheduler等待抓取 

項(xiàng)目結(jié)構(gòu) 

該項(xiàng)目使用 Maven3、Java8 進(jìn)行構(gòu)建,代碼結(jié)構(gòu)如下:

 

  1.  
  2. └── elves 
  3.  
  4.     ├── Elves.java 
  5.  
  6.     ├── ElvesEngine.java 
  7.  
  8.     ├── config 
  9.  
  10.     ├── download 
  11.  
  12.     ├── event 
  13.  
  14.     ├── pipeline 
  15.  
  16.     ├── request 
  17.  
  18.     ├── response 
  19.  
  20.     ├── scheduler 
  21.  
  22.     ├── spider 
  23.  
  24.     └── utils  

 

編碼要點(diǎn) 

前面設(shè)計(jì)思路明白之后,編程不過是順手之作,至于寫的如何考量的是程序員對(duì)編程語言的使用熟練度以及架構(gòu)上的思考, 優(yōu)秀的代碼是經(jīng)驗(yàn)和優(yōu)化而來的,下面我們來看幾個(gè)框架中的代碼示例。 

使用觀察者模式的思想來實(shí)現(xiàn)基于事件驅(qū)動(dòng)的功能 

 

  1. public enum ElvesEvent {   
  2.     GLOBAL_STARTED,  
  3.     SPIDER_STARTED   
  4. }   
  5. public class EventManager {   
  6.     private static final Map<ElvesEvent, List<Consumer<Config>>> elvesEventConsumerMap = new HashMap<>(); 
  7.  
  8.     // 注冊(cè)事件  
  9.     public static void registerEvent(ElvesEvent elvesEvent, Consumer<Config> consumer) {  
  10.         List<Consumer<Config>> consumers = elvesEventConsumerMap.get(elvesEvent);  
  11.         if (null == consumers) {  
  12.             consumers = new ArrayList<>();  
  13.         }  
  14.         consumers.add(consumer);  
  15.         elvesEventConsumerMap.put(elvesEvent, consumers);  
  16.     }  
  17.     // 執(zhí)行事件  
  18.     public static void fireEvent(ElvesEvent elvesEvent, Config config) {  
  19.         Optional.ofNullable(elvesEventConsumerMap.get(elvesEvent)).ifPresent(consumers -> consumers.forEach(consumer -> consumer.accept(config)));  
  20.     }   
  21. }  

這段代碼中使用一個(gè) Map 來存儲(chǔ)所有事件,提供兩個(gè)方法:注冊(cè)一個(gè)事件、執(zhí)行某個(gè)事件。 

阻塞隊(duì)列存儲(chǔ)請(qǐng)求響應(yīng) 

  1. public class Scheduler {  
  2.  
  3.     private BlockingQueue<Request>  pending = new LinkedBlockingQueue<>();    
  4.  
  5.     private BlockingQueue<Response> result  = new LinkedBlockingQueue<>();  
  6.  
  7.     public void addRequest(Request request) { 
  8.  
  9.         try { 
  10.  
  11.             this.pending.put(request); 
  12.  
  13.         } catch (InterruptedException e) { 
  14.  
  15.             log.error("向調(diào)度器添加 Request 出錯(cuò)", e); 
  16.  
  17.         } 
  18.  
  19.     }  
  20.  
  21.     public void addResponse(Response response) { 
  22.  
  23.         try { 
  24.  
  25.             this.result.put(response); 
  26.  
  27.         } catch (InterruptedException e) { 
  28.  
  29.             log.error("向調(diào)度器添加 Response 出錯(cuò)", e); 
  30.  
  31.         } 
  32.  
  33.     }  
  34.  
  35.     public boolean hasRequest() { 
  36.  
  37.         return pending.size() > 0; 
  38.  
  39.     }  
  40.  
  41.     public Request nextRequest() { 
  42.  
  43.         try { 
  44.  
  45.             return pending.take(); 
  46.  
  47.         } catch (InterruptedException e) { 
  48.  
  49.             log.error("從調(diào)度器獲取 Request 出錯(cuò)", e); 
  50.  
  51.             return null
  52.  
  53.         } 
  54.  
  55.     }  
  56.  
  57.     public boolean hasResponse() { 
  58.  
  59.         return result.size() > 0; 
  60.  
  61.     }  
  62.  
  63.     public Response nextResponse() { 
  64.  
  65.         try { 
  66.  
  67.             return result.take(); 
  68.  
  69.         } catch (InterruptedException e) { 
  70.  
  71.             log.error("從調(diào)度器獲取 Response 出錯(cuò)", e); 
  72.  
  73.             return null
  74.  
  75.         } 
  76.  
  77.     }  
  78.  
  79.     public void addRequests(List<Request> requests) { 
  80.  
  81.         requests.forEach(this::addRequest); 
  82.  
  83.     }  
  84.  
  85. }  

pending 存儲(chǔ)等待處理的URL請(qǐng)求,result 存儲(chǔ)下載成功的響應(yīng),調(diào)度器負(fù)責(zé)請(qǐng)求和響應(yīng)的獲取和添加流轉(zhuǎn)。

舉個(gè)栗子 

設(shè)計(jì)好我們的爬蟲框架后來試一下吧,這個(gè)例子我們來爬取豆瓣電影的標(biāo)題。豆瓣電影中有很多分類,我們可以選擇幾個(gè)作為開始抓取的 URL。 

 

  1. public class DoubanSpider extends Spider {  
  2.     public DoubanSpider(String name) { 
  3.         super(name); 
  4.         this.startUrls( 
  5.             "https://movie.douban.com/tag/愛情"
  6.             "https://movie.douban.com/tag/喜劇"
  7.             "https://movie.douban.com/tag/動(dòng)畫"
  8.             "https://movie.douban.com/tag/動(dòng)作"
  9.             "https://movie.douban.com/tag/史詩(shī)"
  10.             "https://movie.douban.com/tag/犯罪"); 
  11.     } 
  12.     @Override 
  13.     public void onStart(Config config) { 
  14.         this.addPipeline((Pipeline<List<String>>) (item, request) -> log.info("保存到文件: {}", item)); 
  15.     } 
  16.     public Result parse(Response response) { 
  17.         Result<List<String>> result   = new Result<>(); 
  18.         Elements             elements = response.body().css("#content table .pl2 a");  
  19.         List<String> titles = elements.stream().map(Element::text).collect(Collectors.toList()); 
  20.         result.setItem(titles);  
  21.         // 獲取下一頁(yè) URL 
  22.         Elements nextEl = response.body().css("#content > div > div.article > div.paginator > span.next > a"); 
  23.         if (null != nextEl && nextEl.size() > 0) { 
  24.             String  nextPageUrl = nextEl.get(0).attr("href"); 
  25.             Request nextReq     = this.makeRequest(nextPageUrl, this::parse); 
  26.             result.addRequest(nextReq); 
  27.         } 
  28.         return result; 
  29.     } 
  30. public static void main(String[] args) { 
  31.     DoubanSpider doubanSpider = new DoubanSpider("豆瓣電影"); 
  32.     Elves.me(doubanSpider, Config.me()).start(); 
  33. }  

這段代碼中在 onStart 方法是爬蟲啟動(dòng)時(shí)的一個(gè)事件,會(huì)在啟動(dòng)該爬蟲的時(shí)候執(zhí)行,在這里我們?cè)O(shè)置了啟動(dòng)要抓取的URL列表。 然后添加了一個(gè)數(shù)據(jù)處理的 Pipeline,在這里處理管道中只進(jìn)行了輸出,你也可以存儲(chǔ)。 

在 parse 方法中做了兩件事,首先解析當(dāng)前抓取到的所有電影標(biāo)題,將標(biāo)題數(shù)據(jù)收集為 List 傳遞給 Pipeline; 其次根據(jù)當(dāng)前頁(yè)面繼續(xù)抓取下一頁(yè),將下一頁(yè)請(qǐng)求傳遞給調(diào)度器,由調(diào)度器轉(zhuǎn)發(fā)給下載器。這里我們使用一個(gè) Result 對(duì)象接收。

總結(jié) 

設(shè)計(jì)一款爬蟲框架的基本要點(diǎn)在文中已經(jīng)闡述,要做的更好還有很多細(xì)節(jié)需要打磨,比如分布式、容錯(cuò)恢復(fù)、動(dòng)態(tài)頁(yè)面抓取等問題。 歡迎在 elves 中提交你的意見。 

參考文獻(xiàn) 

責(zé)任編輯:龐桂玉 來源: blog.biezhi.me
相關(guān)推薦

2022-02-12 21:05:11

異步爬蟲框架

2021-05-18 13:25:28

feapder爬蟲Python

2013-11-28 15:02:34

Ubuntu技巧Geary

2023-12-12 13:50:00

代碼業(yè)務(wù)狀態(tài)

2022-07-14 11:31:04

SQLToolsVScode數(shù)據(jù)庫(kù)

2016-10-14 16:35:39

2021-02-21 17:35:31

Viper瀏覽器開源

2021-09-26 16:31:18

滑動(dòng)驗(yàn)證碼開發(fā)組件設(shè)計(jì)

2022-01-24 11:02:27

PySimpleGUPython計(jì)算器

2023-06-27 16:42:18

Tinygrad深度學(xué)習(xí)工具

2022-10-09 10:11:30

Python爬蟲神器

2021-07-23 16:50:19

httpJava框架

2020-11-11 12:13:59

JS

2022-08-10 12:21:07

PythonWebBottle

2024-12-23 06:10:00

RustRigAI Agent

2023-06-28 08:16:50

Autofac應(yīng)用程序

2021-10-27 11:29:32

框架Web開發(fā)

2019-02-25 10:18:43

工具代碼測(cè)試

2011-03-02 10:03:44

SaturnJSJS

2013-06-20 10:28:39

MVVM框架avalon架構(gòu)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

亚洲国产精品字幕| 一区二区三区在线免费视频| 国产精品成人av性教育| 特级西西人体高清大胆| 国产精品毛片无码| 一区二区三区免费| 清纯唯美一区二区三区| 国产又粗又黄又爽| 亚洲人体大胆视频| 在线成人中文字幕| 欧美激情一区二区三区p站| 天堂av在线| 一区在线观看免费| 免费h精品视频在线播放| 国产精品久久久久久久免费| 亚洲巨乳在线| 久久影视电视剧免费网站| 波多野结衣影院| 99国内精品久久久久| 午夜视频一区二区三区| 午夜在线视频免费观看| 头脑特工队2在线播放| 另类综合日韩欧美亚洲| 91精品国产沙发| 欧美一区免费观看| 欧美日韩精品一区二区视频| 精品国产乱码久久久久久蜜臀| 色国产在线视频| www.综合| 亚洲免费色视频| 亚洲精品中字| 国产高清视频在线观看| 99免费精品视频| 亚洲综合在线中文字幕| 中文字幕日日夜夜| 丝袜美腿一区二区三区| 91精品国产99| 日韩激情一区二区三区| 亚洲精品成人影院| 一个人www欧美| 中文字幕xxx| 欧美巨大xxxx| 亚洲精品999| 午夜免费福利影院| 国产人妖ts一区二区| 日韩午夜电影在线观看| 欧美日韩精品区别| 亚洲aⅴ网站| 欧美日韩国产综合久久| 日本xxxxxxx免费视频| av高清不卡| 欧美性20hd另类| 成人免费观看视频在线观看| 国产777精品精品热热热一区二区| 亚洲激情欧美激情| 最新不卡av| 麻豆tv在线| 亚洲女人****多毛耸耸8| 中国 免费 av| 久草在线新免费首页资源站| 亚洲综合视频网| 成人免费看片'免费看| 欧洲性视频在线播放| 亚洲资源在线观看| 欧美 日韩 亚洲 一区| 2020国产在线| 欧美日韩中文在线| 日本熟妇人妻中出| 四虎在线精品| 日韩午夜激情电影| 亚洲精品乱码久久| 九一国产精品| 中文字幕日韩av综合精品| 日本精品久久久久中文| 久久久久久久久99精品大| 免费不卡欧美自拍视频| 国产在线拍揄自揄拍无码视频| 亚洲视频二区| 国产精品欧美亚洲777777| 在线免费观看中文字幕| 国产乱码字幕精品高清av | 久久亚洲影视婷婷| 日韩欧美在线电影| 大片免费在线看视频| 亚洲成人免费av| 日韩精品一区二区三区色欲av| 久久91视频| 日韩精品一区二区三区中文精品| a天堂视频在线观看| 精品久久影视| 欧美日韩福利视频| 亚洲欧美偷拍视频| 国产一区二区剧情av在线| 国内一区二区三区在线视频| aaa在线观看| 亚洲妇女屁股眼交7| 99草草国产熟女视频在线| 国产精选久久| 亚洲日本欧美中文幕| 日日骚一区二区三区| 久久最新视频| 国产精品久久久久久免费观看| 北条麻妃在线| 亚洲第一激情av| 日本高清久久久| 美女久久久久| 欧美激情精品久久久久久蜜臀 | 久久久噜噜噜久久狠狠50岁| 国产综合香蕉五月婷在线| 四季av日韩精品一区| 国产精品伦一区| 亚欧无线一线二线三线区别| 亚洲精品777| 亚洲一级片在线看| 国产精品suv一区二区69| 久久精品国产一区二区三| 久久免费一区| 麻豆av在线免费观看| 欧美日韩国产三级| 久久美女免费视频| 国产亚洲精品久久久久婷婷瑜伽| 91亚洲精华国产精华| 国产私人尤物无码不卡| 精品久久久久久中文字幕| 亚洲制服在线观看| 成人午夜国产| 人人爽久久涩噜噜噜网站| 亚洲国产精品久久人人爱潘金莲| 国产日韩av一区二区| 国精产品一区一区三区视频| 精品久久国产一区| xxxxx成人.com| 中文字幕欧美在线观看| 国产欧美一区二区在线观看| 大j8黑人w巨大888a片| 超碰97成人| 欧美激情精品在线| 亚洲国产999| 亚洲精品va在线观看| 在线播放免费视频| 99久久www免费| 国产日韩换脸av一区在线观看| 国产日韩精品在线看| 色噜噜狠狠色综合欧洲selulu| 给我免费观看片在线电影的| 亚洲黄色一区| 国产一区二区三区高清| 超碰97免费在线| 精品国产sm最大网站免费看| 久久久久久蜜桃| 国产成人小视频| 日本久久久网站| 一区二区在线视频观看| 久久久久久久久久av| 免费av网站观看| 亚洲二区在线观看| 六十路息与子猛烈交尾| 国产日韩高清一区二区三区在线| 国产亚洲欧美另类一区二区三区| 麻豆视频在线看| 亚洲精品日韩丝袜精品| 男人天堂视频在线| 欧美激情一区二区三区全黄| gai在线观看免费高清| 久久久久久美女精品| 亚洲一区亚洲二区亚洲三区| 日韩精品亚洲人成在线观看| 亚洲黄色www| 中文字幕在线日本| 综合久久一区二区三区| caopor在线| 六月婷婷一区| 天天综合中文字幕| 99re8这里有精品热视频8在线| 久久人人看视频| 国内精品一区视频| 欧美老女人在线| 国产精品16p| 国产视频911| 污视频在线观看免费网站| 亚洲性人人天天夜夜摸| 欧美三级电影在线播放| 亚洲男女网站| 97国产精品久久| av成人手机在线| 日韩欧美国产系列| www.色国产| 亚洲欧美经典视频| 超碰97在线资源站| 久久国产精品区| 人人妻人人添人人爽欧美一区| 精品国产一区二区三区久久久蜜臀| 成人午夜在线视频一区| av在线最新| 日韩一二三在线视频播| 日本xxxxwww| 欧美放荡的少妇| 日本韩国欧美中文字幕| 亚洲欧美日韩国产中文在线| 亚洲黄色在线网站| 国产精品自在欧美一区| caopor在线视频| 亚洲午夜激情在线| 伊人狠狠色丁香综合尤物| 色综合www| 99久久伊人精品影院| **欧美日韩在线观看| 欧美高清激情视频| 一级毛片视频在线| 精品呦交小u女在线| 精品国产免费无码久久久| 欧美性生活久久| 久久久久久久久久免费视频| 亚洲日本电影在线| 国产探花视频在线播放| 91影院在线免费观看| 日韩精品xxx| 久久成人av少妇免费| 黄色片久久久久| 在线精品一区二区| a级网站在线观看| 日韩免费特黄一二三区| 免费日韩av电影| 里番精品3d一二三区| 99九九视频| 国产精区一区二区| 成人网在线观看| 亚洲老司机网| 91在线高清视频| 欧美一区二区三区婷婷| 国产精品国模在线| 色婷婷综合久久久中字幕精品久久| 国内精品美女av在线播放| av超碰免费在线| 久久亚洲私人国产精品va| 日本在线免费看| 色综合伊人色综合网| av色图一区| 中文字幕久精品免费视频| 国内精品一区视频| 一区二区三区精品99久久 | 成人性生交大片免费看96| 成人免费自拍视频| 成人免费91| 亚洲最大成人在线| 欧美黄色一级| 99高清视频有精品视频| 日韩中文在线| 国产精品成人一区二区三区| www国产精品| 国产欧美韩日| 欧美日韩一本| 蜜桃臀一区二区三区| 国产一区二区三区探花| 日韩欧美亚洲在线| 欧美韩日高清| www.黄色网址.com| 亚洲第一精品影视| 中国丰满人妻videoshd | 一区二区三区不卡在线观看| 国产精品免费人成网站酒店| 一区二区国产视频| 日产亚洲一区二区三区| 欧美日韩中文字幕在线视频| 超碰超碰超碰超碰| 欧美调教femdomvk| 精品国产黄色片| 亚洲国产精品成人av| 蜜芽tv福利在线视频| 中文字幕久久亚洲| 性欧美猛交videos| 18久久久久久| 日本肉肉一区| 99re6热在线精品视频播放速度| 国产精品中文字幕制服诱惑| 欧美一区二区三区精美影视| 欧美h版在线| 男人添女荫道口图片| 久久久久久久波多野高潮日日| 久久久久久蜜桃一区二区| 国产激情一区二区三区四区| 成年人的黄色片| 中文字幕高清一区| 国产乡下妇女做爰视频| 91国模大尺度私拍在线视频| 国产美女精品视频国产| 亚洲国产精品小视频| eeuss影院www在线观看| 欧美国产日韩中文字幕在线| 偷拍精品精品一区二区三区| 成人国内精品久久久久一区| 高清日韩中文字幕| 亚洲一区二区三区午夜| 亚洲欧洲一区| 欧美日韩精品区别| 久久久久久久久久美女| 欧美久久久久久久久久久久| 在线观看国产91| 刘亦菲毛片一区二区三区| 色久欧美在线视频观看| 黄色在线观看www| 91视频国产高清| 国产传媒欧美日韩成人精品大片| 四虎精品欧美一区二区免费| 老牛影视一区二区三区| 国产高潮失禁喷水爽到抽搐 | 国产一区二区三区av电影| 中出视频在线观看| 一区二区三区精品视频| 在线观看xxxx| 亚洲精品视频在线观看视频| 香蕉成人app免费看片| 国产精品黄色影片导航在线观看| 国内视频在线精品| 国产一二三四五| 蜜桃精品视频在线| 欧美一区二区三区成人精品| 一区二区视频在线看| 亚洲字幕av一区二区三区四区| 亚洲精品综合精品自拍| 金瓶狂野欧美性猛交xxxx| 91久久夜色精品国产网站| 成人免费在线观看av| 日韩中文字幕免费在线| 99re亚洲国产精品| 国产午夜小视频| 亚洲成人xxx| 在线观看操人| 亚洲精品免费网站| 久久在线视频| 污污网站免费观看| 国产欧美日韩一区二区三区在线观看| 久久久久久久极品| 亚洲国产成人精品女人久久久| 伊人手机在线| a级国产乱理论片在线观看99| 91精品天堂福利在线观看| 性生活免费在线观看| 国产精品国产三级国产普通话99| 亚洲 国产 日韩 欧美| 国产亚洲欧美日韩美女| 精品网站在线| 亚洲国产一区二区三区在线播| 日韩激情视频在线观看| 女女互磨互喷水高潮les呻吟 | 午夜精品久久17c| 久久精品福利| www.亚洲天堂网| 国产三级精品视频| 中文字幕在线视频免费| 日日骚av一区| 欧美日韩国产一区二区在线观看| 99亚洲精品视频| 国产精品一卡二卡| 亚洲精品午夜久久久久久久| 亚洲第一福利网| 综合另类专区| 日本在线观看一区二区三区| 蜜臀av一级做a爰片久久| 日韩在线视频免费看| 欧美一区二区三区四区久久| 羞羞视频在线观看不卡| 精品一卡二卡三卡四卡日本乱码 | 都市激情亚洲色图| 免费在线一级视频| 国产精品一区二区在线| 自拍日韩欧美| 国产一级二级视频| 欧美亚洲一区三区| 黄色网址在线免费播放| 国产精品久久久久久久久久久久冷| 亚洲精选久久| 天美传媒免费在线观看| 日韩欧美一区二区视频| 两个人看的在线视频www| 亚洲国产精品久久久久婷婷老年 | 97在线电影| 国产精品尤物| 黄色精品视频在线观看| 精品福利一区二区三区免费视频| 中文在线最新版地址| 亚洲伊人婷婷| bt欧美亚洲午夜电影天堂| 国产精品第6页| 欧美精品久久一区二区| 久久av资源| 欧美一级片在线免费观看| 欧美性猛交xxxx| bt在线麻豆视频| 欧美日韩三区四区| 国产精品自产自拍| 销魂美女一区二区| 欧美日本高清视频| 国产尤物久久久| 久久久无码人妻精品无码| 在线精品视频免费观看| 久久av色综合| 色乱码一区二区三区熟女| 久久一夜天堂av一区二区三区| 国产欧美日韩综合精品一区二区三区|