精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

詳解4種類型的爬蟲技術

開發 前端
網絡爬蟲是一種很好的自動采集數據的通用手段。本文將會對爬蟲的類型進行介紹。

[[388452]]

  •  聚焦網絡爬蟲是“面向特定主題需求”的一種爬蟲程序,而通用網絡爬蟲則是捜索引擎抓取系統(Baidu、Google、Yahoo等)的重要組成部分,主要目的是將互聯網上的網頁下載到本地,形成一個互聯網內容的鏡像備份。
  • 增量抓取意即針對某個站點的數據進行抓取,當網站的新增數據或者該站點的數據發生變化后,自動地抓取它新增的或者變化后的數據。
  • Web頁面按存在方式可以分為表層網頁(surface Web)和深層網頁(deep Web,也稱invisible Web pages或hidden Web)。
  • 表層網頁是指傳統搜索引擎可以索引的頁面,即以超鏈接可以到達的靜態網頁為主來構成的Web頁面。
  • 深層網頁是那些大部分內容不能通過靜態鏈接獲取的、隱藏在搜索表單后的,只有用戶提交一些關鍵詞才能獲得的Web頁面。

01 聚焦爬蟲技術

聚焦網絡爬蟲(focused crawler)也就是主題網絡爬蟲。聚焦爬蟲技術增加了鏈接評價和內容評價模塊,其爬行策略實現要點就是評價頁面內容以及鏈接的重要性。

基于鏈接評價的爬行策略,主要是以Web頁面作為半結構化文檔,其中擁有很多結構信息可用于評價鏈接重要性。還有一個是利用Web結構來評價鏈接價值的方法,也就是HITS法,其通過計算每個訪問頁面的Authority權重和Hub權重來決定鏈接訪問順序。

而基于內容評價的爬行策略,主要是將與文本相似的計算法加以應用,提出Fish-Search算法,把用戶輸入查詢詞當作主題,在算法的進一步改進下,通過Shark-Search算法就能利用空間向量模型來計算頁面和主題相關度大小。

面向主題爬蟲,面向需求爬蟲:會針對某種特定的內容去爬取信息,而且會保證信息和需求盡可能相關。一個簡單的聚焦爬蟲使用方法的示例如下所示。

  • 【例1】一個簡單的爬取圖片的聚焦爬蟲

 

  1. import urllib.request 
  2.     # 爬蟲專用的包urllib,不同版本的Python需要下載不同的爬蟲專用包 
  3. import re 
  4.     # 正則用來規律爬取 
  5. keyname="" 
  6.     # 想要爬取的內容 
  7. key=urllib.request.quote(keyname) 
  8.     # 需要將你輸入的keyname解碼,從而讓計算機讀懂 
  9. for i in range(0,5):   # (0,5)數字可以自己設置,是淘寶某產品的頁數 
  10.     url="https://s.taobao.com/search?q="+key+"&imgfile=&js=1&stats_click=search_radio_all%3A1&initiative_id=staobaoz_20180815&ie=utf8&bcoffset=0&ntoffset=6&p4ppushleft=1%2C48&s="+str(i*44) 
  11. # url后面加上你想爬取的網站名,然后你需要多開幾個類似的網站以找到其規則 
  12. # data是你爬取到的網站所有的內容要解碼要讀取內容 
  13.     pat='"pic_url":"//(.*?)"' 
  14. # pat使用正則表達式從網頁爬取圖片 
  15. # 將你爬取到的內容放在一個列表里面 
  16.     print(picturelist) 
  17.     # 可以不打印,也可以打印下來看看 
  18.     for j in range(0,len(picturelist)): 
  19.         picture=picturelist[j] 
  20.         pictureurl="http://"+picture 
  21.         # 將列表里的內容遍歷出來,并加上http://轉到高清圖片 
  22.         file="E:/pycharm/vscode文件/圖片/"+str(i)+str(j)+".jpg" 
  23.         # 再把圖片逐張編號,不然重復的名字將會被覆蓋掉 
  24.         urllib.request.urlretrieve(pictureurl,filename=file) 
  25.         # 最后保存到文件夾 

 

02 通用爬蟲技術

通用爬蟲技術(general purpose Web crawler)也就是全網爬蟲。其實現過程如下。

  • 第一,獲取初始URL。初始URL地址可以由用戶人為指定,也可以由用戶指定的某個或某幾個初始爬取網頁決定。
  • 第二,根據初始的URL爬取頁面并獲得新的URL。獲得初始的URL地址之后,需要先爬取對應URL地址中的網頁,接著將網頁存儲到原始數據庫中,并且在爬取網頁的同時,發現新的URL地址,并且將已爬取的URL地址存放到一個URL列表中,用于去重及判斷爬取的進程。
  • 第三,將新的URL放到URL隊列中,在于第二步內獲取下一個新的URL地址之后,會將新的URL地址放到URL隊列中。
  • 第四,從URL隊列中讀取新的URL,并依據新的URL爬取網頁,同時從新的網頁中獲取新的URL并重復上述的爬取過程。

第五,滿足爬蟲系統設置的停止條件時,停止爬取。在編寫爬蟲的時候,一般會設置相應的停止條件。如果沒有設置停止條件,爬蟲便會一直爬取下去,一直到無法獲取新的URL地址為止,若設置了停止條件,爬蟲則會在停止條件滿足時停止爬取。詳情請參見圖2-5中的右下子圖。

通用爬蟲技術的應用有著不同的爬取策略,其中的廣度優先策略以及深度優先策略都是比較關鍵的,如深度優先策略的實施是依照深度從低到高的順序來訪問下一級網頁鏈接。

關于通用爬蟲使用方法的示例如下。

  • 【例2】爬取京東商品信息

 

  1. ''
  2. 爬取京東商品信息: 
  3.     請求url:https://www.jd.com/ 
  4.     提取商品信息: 
  5.         1.商品詳情頁 
  6.         2.商品名稱 
  7.         3.商品價格 
  8.         4.評價人數 
  9.         5.商品商家 
  10. ''
  11. from selenium import webdriver    # 引入selenium中的webdriver 
  12. from selenium.webdriver.common.keys import Keys 
  13. import time 
  14.  
  15. def get_good(driver): 
  16.     try: 
  17.  
  18.         # 通過JS控制滾輪滑動獲取所有商品信息 
  19.         js_code = ''
  20.             window.scrollTo(0,5000); 
  21.         ''
  22.         driver.execute_script(js_code)  # 執行js代碼 
  23.  
  24.         # 等待數據加載 
  25.         time.sleep(2) 
  26.  
  27.         # 查找所有商品div 
  28.         # good_div = driver.find_element_by_id('J_goodsList'
  29.         good_list = driver.find_elements_by_class_name('gl-item'
  30.         n = 1 
  31.         for good in good_list: 
  32.             # 根據屬性選擇器查找 
  33.             # 商品鏈接 
  34.             good_url = good.find_element_by_css_selector( 
  35.                 '.p-img a').get_attribute('href'
  36.  
  37.             # 商品名稱 
  38.             good_name = good.find_element_by_css_selector( 
  39.                 '.p-name em').text.replace("\n""--"
  40.  
  41.             # 商品價格 
  42.             good_price = good.find_element_by_class_name( 
  43.                 'p-price').text.replace("\n"":"
  44.  
  45.             # 評價人數 
  46.             good_commit = good.find_element_by_class_name( 
  47.                 'p-commit').text.replace("\n"" "
  48.  
  49.             good_content = f''
  50.                         商品鏈接: {good_url} 
  51.                         商品名稱: {good_name} 
  52.                         商品價格: {good_price} 
  53.                         評價人數: {good_commit} 
  54.                         \n 
  55.                         ''
  56.             print(good_content) 
  57.             with open('jd.txt''a', encoding='utf-8'as f: 
  58.                 f.write(good_content) 
  59.  
  60.         next_tag = driver.find_element_by_class_name('pn-next'
  61.         next_tag.click() 
  62.  
  63.         time.sleep(2) 
  64.  
  65.         # 遞歸調用函數 
  66.         get_good(driver) 
  67.  
  68.         time.sleep(10) 
  69.  
  70.     finally: 
  71.         driver.close() 
  72.  
  73.  
  74. if __name__ == '__main__'
  75.  
  76.     good_name = input('請輸入爬取商品信息:').strip() 
  77.  
  78.     driver = webdriver.Chrome() 
  79.     driver.implicitly_wait(10) 
  80.     # 往京東主頁發送請求 
  81.     driver.get('https://www.jd.com/'
  82.  
  83.     # 輸入商品名稱,并回車搜索 
  84.     input_tag = driver.find_element_by_id('key'
  85.     input_tag.send_keys(good_name) 
  86.     input_tag.send_keys(Keys.ENTER) 
  87.     time.sleep(2) 
  88.  
  89.     get_good(driver) 

 

03 增量爬蟲技術

某些網站會定時在原有網頁數據的基礎上更新一批數據。例如某電影網站會實時更新一批最近熱門的電影,小說網站會根據作者創作的進度實時更新最新的章節數據等。在遇到類似的場景時,我們便可以采用增量式爬蟲。

增量爬蟲技術(incremental Web crawler)就是通過爬蟲程序監測某網站數據更新的情況,以便可以爬取到該網站更新后的新數據。

關于如何進行增量式的爬取工作,以下給出三種檢測重復數據的思路:

  1. 在發送請求之前判斷這個URL是否曾爬取過;
  2. 在解析內容后判斷這部分內容是否曾爬取過;
  3. 寫入存儲介質時判斷內容是否已存在于介質中。
  • 第一種思路適合不斷有新頁面出現的網站,比如小說的新章節、每天的實時新聞等;
  • 第二種思路則適合頁面內容會定時更新的網站;
  • 第三種思路則相當于最后一道防線。這樣做可以最大限度地達到去重的目的。

不難發現,實現增量爬取的核心是去重。目前存在兩種去重方法。

  • 第一,對爬取過程中產生的URL進行存儲,存儲在Redis的set中。當下次進行數據爬取時,首先在存儲URL的set中對即將發起的請求所對應的URL進行判斷,如果存在則不進行請求,否則才進行請求。
  • 第二,對爬取到的網頁內容進行唯一標識的制定(數據指紋),然后將該唯一標識存儲至Redis的set中。當下次爬取到網頁數據的時候,在進行持久化存儲之前,可以先判斷該數據的唯一標識在Redis的set中是否存在,從而決定是否進行持久化存儲。

關于增量爬蟲的使用方法示例如下所示。

  • 【例3】爬取4567tv網站中所有的電影詳情數據

 

  1. import scrapy 
  2. from scrapy.linkextractors import LinkExtractor 
  3. from scrapy.spiders import CrawlSpider, Rule 
  4. from redis import Redis 
  5. from incrementPro.items import IncrementproItem 
  6. class MovieSpider(CrawlSpider): 
  7.     name = 'movie' 
  8.     # allowed_domains = ['www.xxx.com'
  9.     start_urls = ['http://www.4567tv.tv/frim/index7-11.html'
  10.     rules = ( 
  11.         Rule(LinkExtractor(allow=r'/frim/index7-\d+\.html'), callback='parse_item', follow=True), 
  12.     ) 
  13.     # 創建Redis鏈接對象 
  14.     conn = Redis(host='127.0.0.1', port=6379) 
  15.     def parse_item(self, response): 
  16.         li_list = response.xpath('//li[@class="p1 m1"]'
  17.         for li in li_list: 
  18.             # 獲取詳情頁的url 
  19.             detail_url = 'http://www.4567tv.tv' + li.xpath('./a/@href').extract_first() 
  20.             # 將詳情頁的url存入Redis的set中 
  21.             ex = self.conn.sadd('urls', detail_url) 
  22.             if ex == 1: 
  23.                 print('該url沒有被爬取過,可以進行數據的爬取'
  24.                 yield scrapy.Request(url=detail_url, callback=self.parst_detail) 
  25.             else
  26.                 print('數據還沒有更新,暫無新數據可爬取!'
  27.  
  28.     # 解析詳情頁中的電影名稱和類型,進行持久化存儲 
  29.     def parst_detail(self, response): 
  30.         item = IncrementproItem() 
  31.         item['name'] = response.xpath('//dt[@class="name"]/text()').extract_first() 
  32.         item['kind'] = response.xpath('//div[@class="ct-c"]/dl/dt[4]//text()').extract() 
  33.         item['kind'] = ''.join(item['kind']) 
  34.         yield it 

 

管道文件:

 

  1. from redis import Redis 
  2. class IncrementproPipeline(object): 
  3.     conn = None 
  4.     def open_spider(self,spider): 
  5.         self.conn = Redis(host='127.0.0.1',port=6379) 
  6.     def process_item(self, item, spider): 
  7.         dic = { 
  8.             'name':item['name'], 
  9.             'kind':item['kind'
  10.             } 
  11.         print(dic) 
  12.         self.conn.push('movieData',dic)     
  13.         # 如果push不進去,那么dic變成str(dic)或者改變redis版本    
  14.         pip install -U redis==2.10.6 
  15.         return item 

 

04 深層網絡爬蟲技術

在互聯網中,網頁按存在方式可以分為表層網頁和深層網頁兩類。

所謂的表層網頁,指的是不需要提交表單,使用靜態的鏈接就能夠到達的靜態頁面;而深層網頁則隱藏在表單后面,不能通過靜態鏈接直接獲取,是需要提交一定的關鍵詞后才能夠獲取到的頁面,深層網絡爬蟲(deep Web crawler)最重要的部分即為表單填寫部分。

在互聯網中,深層網頁的數量往往要比表層網頁的數量多很多,故而,我們需要想辦法爬取深層網頁。

深層網絡爬蟲的基本構成:URL列表、LVS列表(LVS指的是標簽/數值集合,即填充表單的數據源)、爬行控制器、解析器、LVS控制器、表單分析器、表單處理器、響應分析器。

深層網絡爬蟲的表單填寫有兩種類型:

  • 基于領域知識的表單填寫(建立一個填寫表單的關鍵詞庫,在需要的時候,根據語義分析選擇對應的關鍵詞進行填寫);
  • 基于網頁結構分析的表單填寫(一般在領域知識有限的情況下使用,這種方式會根據網頁結構進行分析,并自動地進行表單填寫)。

 

責任編輯:華軒 來源: 今日頭條
相關推薦

2009-07-08 18:20:21

JDBC驅動

2024-05-21 14:04:16

2021-06-07 14:05:53

物聯網IOT物聯網技術

2009-11-13 09:39:48

2021-07-08 09:17:07

物聯網人工智能IoT

2019-09-16 13:51:34

物聯網平臺物聯網IOT

2009-06-15 14:15:07

Java設計模式Java

2020-10-12 13:37:19

安全黑客技術

2012-01-10 14:43:48

程序員

2011-04-15 10:03:57

2010-04-23 14:55:31

Oracle字符

2013-07-23 09:59:57

用戶體驗產品體驗產品

2011-05-19 15:57:15

測試專家

2013-06-28 10:17:04

2022-06-27 11:09:06

邊緣計算

2025-07-11 00:51:55

2017-08-01 23:44:25

數據分析數據科學數據

2010-05-11 14:08:50

MySQL數字類型

2009-06-29 18:21:29

Hibernate

2022-04-26 05:55:52

網絡網絡類型
點贊
收藏

51CTO技術棧公眾號

国精产品一区二区| 亚洲欧洲在线看| 日韩精品福利片午夜免费观看| 在线观看亚洲欧美| 九九视频免费观看视频精品 | 91精品福利在线一区二区三区 | 国产不卡一区二区视频| 空姐吹箫视频大全| 中文久久精品| 国产亚洲精品久久久久久| 538任你躁在线精品免费| 求av网址在线观看| 成人视屏免费看| 国产91色在线播放| 日韩一级片大全| 日韩美脚连裤袜丝袜在线| 欧美影视一区在线| 亚洲成成品网站| 国产中文字幕亚洲| 免费在线观看国产精品| 国产精品网在线观看| 色婷婷久久久久swag精品| 一区二区精品视频| 少妇高潮一区二区三区69| 日本亚洲视频在线| 色悠悠国产精品| 亚洲美女高潮久久久| 亚洲精品一级二级| 亚洲精品ww久久久久久p站 | 成人在线日韩| 一区二区三区国产精品| 欧美综合激情| 黄色片一区二区| 久久99精品久久久久久国产越南 | 久久夜色精品国产噜噜av小说| 日本道色综合久久| 国产精品www在线观看| 性高潮久久久久久久久久| 久久 天天综合| 91精品国产乱码久久久久久久久| 国产一区第一页| 校花撩起jk露出白色内裤国产精品| 欧美日韩一区二区在线视频| 精品无码一区二区三区爱欲| 色哟哟免费在线观看| 不卡视频在线观看| 成人网址在线观看| 国产特黄大片aaaa毛片| 欧美日韩在线二区| 日韩高清av在线| 日本一区二区三区在线免费观看| 亚洲精品久久在线| wwwxxx黄色片| 中文字幕+乱码+中文字幕明步| 精灵使的剑舞无删减版在线观看| 91麻豆国产福利精品| 国产伦精品一区二区三区视频免费 | 98在线视频| 欧美精彩视频一区二区三区| 欧美一级日本a级v片| 免费在线视频一级不卡| 久久久午夜电影| 欧美一卡2卡3卡4卡无卡免费观看水多多| 日本毛片在线观看| 99久久精品免费看国产免费软件| 国产成人精品福利一区二区三区| www.蜜臀av| 成人午夜碰碰视频| 久久精品国产精品国产精品污 | 免费av网站在线| 米奇777在线欧美播放| 日韩av免费在线观看| 乱子伦一区二区三区| 美女性感视频久久| 亚洲一区中文字幕在线观看| 好男人www在线视频| 99视频精品免费视频| 欧美日韩视频在线一区二区观看视频| 精品999视频| 国产精品传媒入口麻豆| 日韩中文在线字幕| 美女搞黄视频在线观看| 在线视频一区二区三| 中文字幕在线综合| 在线视频亚洲欧美中文| 日韩风俗一区 二区| 变态另类ts人妖一区二区| 国产国产精品| 992tv成人免费影院| 久久午夜鲁丝片| 黄网站免费久久| 精品乱码一区| 老司机激情视频| 污污网站在线看| 色综合天天做天天爱| 国产无色aaa| 日韩精品免费一区二区夜夜嗨 | 狠狠色噜噜狠狠色综合久 | 久久精品久久久久| 日本一区二区不卡在线| 蜜臀久久久久久久| 国产91免费视频| av免费在线一区二区三区| 亚洲一二三四在线| 久久人人爽av| 中国av一区| 欧美精品久久一区二区| 亚洲永久精品一区| 不卡的av中国片| 日本特级黄色大片| 最近在线中文字幕| 欧美成人video| 你懂得视频在线观看| 在线精品观看| 亚洲最大福利视频| 爱久久·www| 黄色成人在线播放| 日本中文字幕在线不卡| 欧美三级美国一级| 91福利视频在线观看| 国产乱淫av片免费| 欧美激情在线看| 日本在线视频www| 日本成人a网站| 欧美俄罗斯乱妇| 99热在线只有精品| 国产精品理伦片| 一区二区在线播放视频| 欧亚精品一区| 久久久久久网站| 国产av无码专区亚洲av| 国产精品久久久一区麻豆最新章节| 国产综合av在线| 成人精品毛片| 久久久久亚洲精品成人网小说| 一级黄色免费看| 日本一区二区三区国色天香 | 日韩精品视频免费| 精品少妇久久久久久888优播| 蜜臀av国产精品久久久久| 欧美12av| 性xxxxfreexxxxx欧美丶| 精品国产乱码久久久久久夜甘婷婷 | 国产精品视频看| 91色国产在线| 加勒比久久综合| 国产成人在线一区二区| 青春有你2免费观看完整版在线播放高清 | 亚洲精品1区2区3区| 国产乱国产乱300精品| 最新欧美日韩亚洲| 四虎在线精品| 久久久国产影院| 国产视频在线免费观看| 亚洲视频你懂的| 91蝌蚪视频在线| 欧美成人日韩| 国产精品视频500部| 999av小视频在线| 日韩av在线最新| 毛片视频网站在线观看| 2019国产精品| 黄色永久免费网站| 在线成人超碰| 国产精品久久波多野结衣| av免费在线视| 国产亚洲精品日韩| 国产麻豆精品一区| 亚洲综合一区在线| 国产人妻人伦精品1国产丝袜| 亚洲免费中文| 一本一生久久a久久精品综合蜜 | 蜜桃av一区二区| 日本丰满大乳奶| 美女一区2区| 国产精品高清在线观看| 五月天激情图片| 久久电影tv| 视频在线观看99| 午夜久久久久久久久久| 天天操天天色综合| 超碰人人干人人| 国产电影一区在线| 大陆极品少妇内射aaaaa| 国精一区二区| 91国产在线播放| 9i看片成人免费高清| 日韩小视频在线| 天堂在线资源网| 欧美三区在线观看| 久久久久久免费观看| 久久久久久免费毛片精品| 亚洲涩涩在线观看| 亚洲美女黄色| 亚洲精品9999| 欧美交a欧美精品喷水| 国产精品欧美风情| 91白丝在线| 精品久久久91| 激情小视频在线| 精品国产一区二区亚洲人成毛片| 亚洲国产成人精品女人久久| 亚洲精选免费视频| 色欲AV无码精品一区二区久久| 国产一区免费电影| 日韩精品一区中文字幕| 在线精品一区| 永久免费网站视频在线观看| 极品美女一区二区三区| 精品久久久久久一区二区里番| 精品福利在线| 日韩美女视频中文字幕| 色呦呦网站在线观看| 综合久久五月天| 三级理论午夜在线观看| 日韩久久久精品| 亚洲最大成人av| 91高清在线观看| 在线观看免费国产视频| 一区二区在线电影| av资源在线免费观看| 久久精品日产第一区二区三区高清版 | 奇米精品一区二区三区在线观看一| 成人免费视频91| 欧美伊人久久| 亚洲人一区二区| 国产欧美日韩影院| 久久久亚洲综合网站| 欧洲美一区二区三区亚洲| 国产成人精品综合在线观看| 欧美第一页浮力影院| 久久看片网站| 国产三区在线视频| 99国产精品私拍| 国产日韩av网站| 国产精品第十页| 少妇大叫太大太粗太爽了a片小说| 色97色成人| 亚洲欧洲精品一区二区| 国产一区二区在线| 日韩精品欧美专区| 精品国产一区二区三区四区| 欧美日韩一区二区视频在线观看 | 亚洲成人免费网站| 亚洲av无码乱码国产麻豆 | 日韩成人黄色| 精品丝袜一区二区三区| 亚洲 欧美 自拍偷拍| 亚洲精品成人网| 日韩精品视频无播放器在线看 | 波多野结依一区| 午夜精品蜜臀一区二区三区免费 | 日本人添下边视频免费| 国产成人在线免费观看| 亚洲乱妇老熟女爽到高潮的片| 粉嫩嫩av羞羞动漫久久久| 99免费观看视频| 成a人片国产精品| www.av天天| 国产精品卡一卡二| 91精品国产高清一区二区三蜜臀| 一区二区三区中文字幕在线观看| 国产一级二级三级视频| 亚洲电影第三页| 国产区一区二区三| 欧美性videosxxxxx| 国产精品福利电影| 精品国产乱码久久久久久图片| 天天射,天天干| 一区二区三区视频观看| 免费在线看a| 久久久久成人精品| 亚洲成人短视频| 91久久久久久久久久久| 57pao国产一区二区| 免费av一区二区三区| 日韩www.| 免费看国产曰批40分钟| 日本系列欧美系列| 男人女人拔萝卜视频| av成人免费在线| 久久久免费看片| 亚洲小说欧美激情另类| 波多野结衣在线电影| 日韩欧美中文一区| 欧洲一级在线观看| 久久艳片www.17c.com| 国产在线美女| 国产日韩综合一区二区性色av| 999久久久精品一区二区| 日韩午夜视频在线观看| 欧美日韩伊人| 亚洲精品怡红院| 99天天综合性| 欧美一区免费观看| 欧美性极品xxxx做受| 国产精品一区二区av白丝下载| 亚洲福利在线观看| 老司机福利在线视频| 欧美一级电影久久| 视频免费一区二区| 新呦u视频一区二区| 日韩一区二区久久| 五月六月丁香婷婷| 久久久久久黄色| 国产亚洲精品码| 欧美另类变人与禽xxxxx| 五月激情婷婷综合| 欧美乱大交xxxxx| 欧洲美女精品免费观看视频| 欧美极品jizzhd欧美| 欧美日本不卡高清| 思思久久精品视频| 欧美韩日一区二区三区四区| 91久久国产视频| 日韩欧美国产三级| 国产在线看片| 国产精品视频一| 国产99亚洲| 老太脱裤子让老头玩xxxxx| 国产在线精品不卡| 五月天精品在线| 色丁香久综合在线久综合在线观看| 亚洲国产欧美另类| 欧美成人精品激情在线观看| 欧美v亚洲v综合v国产v仙踪林| 鲁丝一区二区三区免费| 亚洲精品1区| 亚洲欧美日韩色| 亚洲综合视频在线| 精品人妻一区二区三区麻豆91| 久久精品国亚洲| 国产成人免费av一区二区午夜| 亚洲精品在线观看免费| 日韩二区三区在线观看| 国产熟妇久久777777| 欧美性猛交xxxx偷拍洗澡| 五月激情六月婷婷| 18久久久久久| 亚洲高清极品| 97xxxxx| 久久久久国产精品人| 亚洲影院在线播放| 亚洲人午夜精品| 姬川优奈av一区二区在线电影| 欧美日韩在线高清| 丝袜亚洲另类丝袜在线| 亚洲色成人网站www永久四虎| 91久久精品网| 午夜在线视频| 亚洲自拍偷拍色片视频| 欧美成人有码| 中国极品少妇videossexhd| 欧美日韩精品在线观看| 天天干天天爱天天操| 9.1国产丝袜在线观看| 亚洲丝袜美腿一区| 国产wwwxx| 中文字幕一区二区三中文字幕| 一区二区三区免费在线视频| 美日韩丰满少妇在线观看| 91夜夜蜜桃臀一区二区三区| 欧美久久久久久久久久久久久| 久久亚区不卡日本| 中文字幕视频在线播放| 久热99视频在线观看| 成人av资源网址| 国产在线青青草| 中文字幕av在线一区二区三区| 国产精品一区二区人人爽| 欧美乱妇高清无乱码| 美女午夜精品| 亚洲娇小娇小娇小| 一区二区免费看| 欧洲毛片在线| 成人黄色网免费| 99亚洲一区二区| 久久久精品成人| 欧美成人女星排行榜| 中文在线资源| 欧美三级午夜理伦三级老人| 成人av在线一区二区| 无码人妻丰满熟妇区bbbbxxxx| 色多多国产成人永久免费网站| 91精品国产自产在线丝袜啪| 蜜臀av午夜一区二区三区| 亚洲视频一区在线观看| 视频国产在线观看| 成人久久18免费网站图片| 亚洲久色影视| 26uuu成人网| 精品丝袜一区二区三区| 国产人与zoxxxx另类91| 黄色片视频在线免费观看| 成人免费小视频| 日本v片在线免费观看| 91久久精品视频| 日韩精品免费视频人成| 久久久全国免费视频| 一区二区三区视频免费|