精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

GitHub超級火!任意爬取,超全開源爬蟲工具箱

新聞 開發工具
最近國內一位開發者在 GitHub 上開源了個集眾多數據源于一身的爬蟲工具箱——InfoSpider,一不小心就火了!!!

 

最近國內一位開發者在 GitHub 上開源了個集眾多數據源于一身的爬蟲工具箱——InfoSpider,一不小心就火了!!!

現在一般網站都有反爬蟲機制,對于愛爬蟲的朋友來說,想爬蟲些數據,做下數據分析。是越來越難了。不過最近我們,發現一個超寶藏的爬蟲工具箱。

這個爬蟲工具箱有多火呢?

開源沒幾天就登上GitHub周榜第四,標星1.3K,累計分支 172 個。同時作者已經開源了所有的項目代碼及使用文檔,并且在B站上還有使用視頻講解。

項目代碼:

https://github.com/kangvcar/InfoSpider

項目使用文檔:

https://infospider.vercel.app

項目視頻演示:

https://www.bilibili.com/video/BV14f4y1R7oF/

在這樣一個信息爆炸的時代,每個人都有很多個賬號,賬號一多就會出現這么一個情況:個人數據分散在各種各樣的公司之間,就會形成數據孤島,多維數據無法融合,這個項目可以幫你將多維數據進行融合并對個人數據進行分析,這樣你就可以更直觀、深入了解自己的信息。

InfoSpider 是一個集眾多數據源于一身的爬蟲工具箱,旨在安全快捷的幫助用戶拿回自己的數據,工具代碼開源,流程透明,并提供數據分析功能,基于用戶數據生成圖表文件。

目前支持數據源包括GitHub、QQ郵箱、網易郵箱、阿里郵箱、新浪郵箱、Hotmail郵箱、Outlook郵箱、京東、淘寶、支付寶、中國移動、中國聯通、中國電信、知乎、嗶哩嗶哩、網易云音樂、QQ好友、QQ群、生成朋友圈相冊、瀏覽器瀏覽歷史、12306、博客園、CSDN博客、開源中國博客、簡書。

根據創建者介紹,InfoSpider 具有以下特性:

  • 安全可靠:本項目為開源項目,代碼簡潔,所有源碼可見,本地運行,安全可靠。
  • 使用簡單:提供 GUI 界面,只需點擊所需獲取的數據源并根據提示操作即可。
  • 結構清晰:本項目的所有數據源相互獨立,可移植性高,所有爬蟲腳本在項目的 Spiders 文件下。
  • 數據源豐富:本項目目前支持多達24+個數據源,持續更新。
  • 數據格式統一:爬取的所有數據都將存儲為json格式,方便后期數據分析。
  • 個人數據豐富:本項目將盡可能多地為你爬取個人數據,后期數據處理可根據需要刪減。
  • 數據分析:本項目提供個人數據的可視化分析,目前僅部分支持。

InfoSpider使用起來也非常簡單,你只需要安裝python3和Chrome瀏覽器,運行 python3 main.py,在打開的窗口點擊數據源按鈕, 根據提示選擇數據保存路徑,接著輸入賬號密碼,就會自動爬取數據,根據下載的目錄就可以查看爬下來的數據。

依賴安裝

  • 安裝python3和Chrome瀏覽器
  • 安裝與Chrome瀏覽器相同版本的驅動
  • 安裝依賴庫 ./install_deps.sh (Windows下只需pip install -r requirements.txt)

工具運行

  • 進入 tools 目錄
  • 運行 python3 main.py
  • 在打開的窗口點擊數據源按鈕, 根據提示選擇數據保存路徑
  • 彈出的瀏覽器輸入用戶密碼后會自動開始爬取數據, 爬取完成瀏覽器會自動關閉

在對應的目錄下可以查看下載下來的數據(xxx.json), 數據分析圖表(xxx.html)

作者認為該項目的最大潛力在于能把多維數據進行融合并對個人數據進行分析,是個人數據效益最大化。

當然如果你想自己去練習和學習爬蟲,作者也開源了所有的爬取代碼,非常適合實戰。

舉個例子,比如爬取taobao的:

  1. import json 
  2.  
  3. import random 
  4.  
  5. import time 
  6.  
  7. import sys 
  8.  
  9. import os 
  10.  
  11. import requests 
  12.  
  13. import numpy as np 
  14.  
  15. import math 
  16.  
  17. from lxml import etree 
  18.  
  19. from pyquery import PyQuery as pq 
  20.  
  21. from selenium import webdriver 
  22.  
  23. from selenium.webdriver import ChromeOptions 
  24.  
  25. from selenium.webdriver.common.by import By 
  26.  
  27. from selenium.webdriver.support import expected_conditions as EC 
  28.  
  29. from selenium.webdriver.support.wait import WebDriverWait 
  30.  
  31. from selenium.webdriver import ChromeOptions, ActionChains 
  32.  
  33. from tkinter.filedialog import askdirectory 
  34.  
  35. from tqdm import trange 
  36.  
  37.  
  38.  
  39. def ease_out_quad(x): 
  40.  
  41. return 1 - (1 - x) * (1 - x) 
  42.  
  43. def ease_out_quart(x): 
  44.  
  45. return 1 - pow(1 - x, 4
  46.  
  47. def ease_out_expo(x): 
  48.  
  49. if x == 1
  50.  
  51. return 1 
  52.  
  53. else
  54.  
  55. return 1 - pow(2, -10 * x) 
  56.  
  57. def get_tracks(distance, seconds, ease_func): 
  58.  
  59. tracks = [0
  60.  
  61. offsets = [0
  62.  
  63. for t in np.arange(0.0, seconds, 0.1): 
  64.  
  65. ease = globals()[ease_func] 
  66.  
  67. offset = round(ease(t / seconds) * distance) 
  68.  
  69. tracks.append(offset - offsets[-1]) 
  70.  
  71. offsets.append(offset) 
  72.  
  73. return offsets, tracks 
  74.  
  75. def drag_and_drop(browser, offset=26.5): 
  76.  
  77. knob = browser.find_element_by_id('nc_1_n1z'
  78.  
  79. offsets, tracks = get_tracks(offset, 12'ease_out_expo'
  80.  
  81. ActionChains(browser).click_and_hold(knob).perform() 
  82.  
  83. for x in tracks: 
  84.  
  85. ActionChains(browser).move_by_offset(x, 0).perform() 
  86.  
  87. ActionChains(browser).pause(0.5).release().perform() 
  88.  
  89. def gen_session(cookie): 
  90.  
  91. session = requests.session() 
  92.  
  93. cookie_dict = {} 
  94.  
  95. list = cookie.split(';'
  96.  
  97. for i in list: 
  98.  
  99. try
  100.  
  101. cookie_dict[i.split('=')[0]] = i.split('=')[1
  102.  
  103. except IndexError: 
  104.  
  105. cookie_dict[''] = i 
  106.  
  107. requests.utils.add_dict_to_cookiejar(session.cookies, cookie_dict) 
  108.  
  109. return session 
  110.  
  111. class TaobaoSpider(object): 
  112.  
  113. def __init__(self, cookies_list): 
  114.  
  115. self.path = askdirectory(title='選擇信息保存文件夾'
  116.  
  117. if str(self.path) == ""
  118.  
  119. sys.exit(1
  120.  
  121. self.headers = { 
  122.  
  123. 'User-Agent''Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'
  124.  
  125.  
  126. option = ChromeOptions() 
  127.  
  128. option.add_experimental_option('excludeSwitches', ['enable-automation']) 
  129.  
  130. option.add_experimental_option("prefs", {"profile.managed_default_content_settings.images"2}) # 不加載圖片,加快訪問速度 
  131.  
  132. option.add_argument('--headless'
  133.  
  134. self.driver = webdriver.Chrome(options=option) 
  135.  
  136. self.driver.get('https://i.taobao.com/my_taobao.htm'
  137.  
  138. for i in cookies_list: 
  139.  
  140. self.driver.add_cookie(cookie_dict=i) 
  141.  
  142. self.driver.get('https://i.taobao.com/my_taobao.htm'
  143.  
  144. self.wait = WebDriverWait(self.driver, 20) # 超時時長為10s 
  145.  
  146. # 模擬向下滑動瀏覽 
  147.  
  148. def swipe_down(self, second): 
  149.  
  150. for i in range(int(second / 0.1)): 
  151.  
  152. # 根據i的值,模擬上下滑動 
  153.  
  154. if (i % 2 == 0): 
  155.  
  156. js = "var q=document.documentElement.scrollTop=" + str(300 + 400 * i) 
  157.  
  158. else
  159.  
  160. js = "var q=document.documentElement.scrollTop=" + str(200 * i) 
  161.  
  162. self.driver.execute_script(js) 
  163.  
  164. time.sleep(0.1
  165.  
  166. js = "var q=document.documentElement.scrollTop=100000" 
  167.  
  168. self.driver.execute_script(js) 
  169.  
  170. time.sleep(0.1
  171.  
  172. # 爬取淘寶 我已買到的寶貝商品數據, pn 定義爬取多少頁數據 
  173.  
  174. def crawl_good_buy_data(self, pn=3): 
  175.  
  176. # 對我已買到的寶貝商品數據進行爬蟲 
  177.  
  178. self.driver.get("https://buyertrade.taobao.com/trade/itemlist/list_bought_items.htm"
  179.  
  180. # 遍歷所有頁數 
  181.  
  182.  
  183.  
  184. for page in trange(1, pn): 
  185.  
  186. data_list = [] 
  187.  
  188. # 等待該頁面全部已買到的寶貝商品數據加載完畢 
  189.  
  190. good_total = self.wait.until( 
  191.  
  192. EC.presence_of_element_located((By.CSS_SELECTOR, '#tp-bought-root > div.js-order-container'))) 
  193.  
  194. # 獲取本頁面源代碼 
  195.  
  196. html = self.driver.page_source 
  197.  
  198. # pq模塊解析網頁源代碼 
  199.  
  200. doc = pq(html) 
  201.  
  202. # # 存儲該頁已經買到的寶貝數據 
  203.  
  204. good_items = doc('#tp-bought-root .js-order-container').items() 
  205.  
  206. # 遍歷該頁的所有寶貝 
  207.  
  208. for item in good_items: 
  209.  
  210. # 商品購買時間、訂單號 
  211.  
  212. good_time_and_id = item.find('.bought-wrapper-mod__head-info-cell___29cDO').text().replace('\n'"").replace('\r'""
  213.  
  214. # 商家名稱 
  215.  
  216. # good_merchant = item.find('.seller-mod__container___1w0Cx').text().replace('\n'"").replace('\r'""
  217.  
  218. good_merchant = item.find('.bought-wrapper-mod__seller-container___3dAK3').text().replace('\n'"").replace('\r'""
  219.  
  220. # 商品名稱 
  221.  
  222. # good_name = item.find('.sol-mod__no-br___1PwLO').text().replace('\n'"").replace('\r'""
  223.  
  224. good_name = item.find('.sol-mod__no-br___3Ev-2').text().replace('\n'"").replace('\r'""
  225.  
  226. # 商品價格 
  227.  
  228. good_price = item.find('.price-mod__price___cYafX').text().replace('\n'"").replace('\r'""
  229.  
  230. # 只列出商品購買時間、訂單號、商家名稱、商品名稱 
  231.  
  232. # 其余的請自己實踐獲取 
  233.  
  234. data_list.append(good_time_and_id) 
  235.  
  236. data_list.append(good_merchant) 
  237.  
  238. data_list.append(good_name) 
  239.  
  240. data_list.append(good_price) 
  241.  
  242. #print(good_time_and_id, good_merchant, good_name) 
  243.  
  244. #file_path = os.path.join(os.path.dirname(__file__) + '/user_orders.json'
  245.  
  246. # file_path = "../Spiders/taobao/user_orders.json" 
  247.  
  248. json_str = json.dumps(data_list) 
  249.  
  250. with open(self.path + os.sep + 'user_orders.json''a') as f: 
  251.  
  252. f.write(json_str) 
  253.  
  254. # print('\n\n'
  255.  
  256. # 大部分人被檢測為機器人就是因為進一步模擬人工操作 
  257.  
  258. # 模擬人工向下瀏覽商品,即進行模擬下滑操作,防止被識別出是機器人 
  259.  
  260. # 隨機滑動延時時間 
  261.  
  262. swipe_time = random.randint(13
  263.  
  264. self.swipe_down(swipe_time) 
  265.  
  266. # 等待下一頁按鈕 出現 
  267.  
  268. good_total = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.pagination-next'))) 
  269.  
  270. good_total.click() 
  271.  
  272. time.sleep(2
  273.  
  274. while 1
  275.  
  276. # time.sleep(0.2
  277.  
  278. try
  279.  
  280. # good_total = self.driver.find_element_by_xpath('//li[@title="下一頁"]'
  281.  
  282. break 
  283.  
  284. # except: 
  285.  
  286. continue 
  287.  
  288. # # 點擊下一頁按鈕 
  289.  
  290. while 1
  291.  
  292. # time.sleep(2
  293.  
  294. try
  295.  
  296. # good_total.click() 
  297.  
  298. break 
  299.  
  300. # except Exception: 
  301.  
  302. # pass 
  303.  
  304. # 收藏寶貝 傳入爬幾頁 默認三頁 https://shoucang.taobao.com/nodejs/item_collect_chunk.htm?ifAllTag=0&tab=0&tagId=&categoryCount=0&type=0&tagName=&categoryName=&needNav=false&startRow=60 
  305.  
  306. def get_choucang_item(self, page=3): 
  307.  
  308. url = 'https://shoucang.taobao.com/nodejs/item_collect_chunk.htm?ifAllTag=0&tab=0&tagId=&categoryCount=0&type=0&tagName=&categoryName=&needNav=false&startRow={}' 
  309.  
  310. pn = 0 
  311.  
  312. json_list = [] 
  313.  
  314. for i in trange(page): 
  315.  
  316. self.driver.get(url.format(pn)) 
  317.  
  318. pn += 30 
  319.  
  320. html_str = self.driver.page_source 
  321.  
  322. if html_str == ''
  323.  
  324. break 
  325.  
  326. if '登錄' in html_str: 
  327.  
  328. raise Exception('登錄'
  329.  
  330. obj_list = etree.HTML(html_str).xpath('//li'
  331.  
  332. for obj in obj_list: 
  333.  
  334. item = {} 
  335.  
  336. item['title'] = ''.join([i.strip() for i in obj.xpath('./div[@class="img-item-title"]//text()')]) 
  337.  
  338. item['url'] = ''.join([i.strip() for i in obj.xpath('./div[@class="img-item-title"]/a/@href')]) 
  339.  
  340. item['price'] = ''.join([i.strip() for i in obj.xpath('./div[@class="price-container"]//text()')]) 
  341.  
  342. if item['price'] == ''
  343.  
  344. item['price'] = '失效' 
  345.  
  346. json_list.append(item) 
  347.  
  348. # file_path = os.path.join(os.path.dirname(__file__) + '/shoucang_item.json'
  349.  
  350. json_str = json.dumps(json_list) 
  351.  
  352. with open(self.path + os.sep + 'shoucang_item.json''w') as f: 
  353.  
  354. f.write(json_str) 
  355.  
  356. # 瀏覽足跡 傳入爬幾頁 默認三頁 https://shoucang.taobao.com/nodejs/item_collect_chunk.htm?ifAllTag=0&tab=0&tagId=&categoryCount=0&type=0&tagName=&categoryName=&needNav=false&startRow=60 
  357.  
  358. def get_footmark_item(self, page=3): 
  359.  
  360. url = 'https://www.taobao.com/markets/footmark/tbfoot' 
  361.  
  362. self.driver.get(url) 
  363.  
  364. pn = 0 
  365.  
  366. item_num = 0 
  367.  
  368. json_list = [] 
  369.  
  370. for i in trange(page): 
  371.  
  372. html_str = self.driver.page_source 
  373.  
  374. obj_list = etree.HTML(html_str).xpath('//div[@class="item-list J_redsList"]/div')[item_num:] 
  375.  
  376. for obj in obj_list: 
  377.  
  378. item_num += 1 
  379.  
  380. item = {} 
  381.  
  382. item['date'] = ''.join([i.strip() for i in obj.xpath('./@data-date')]) 
  383.  
  384. item['url'] = ''.join([i.strip() for i in obj.xpath('./a/@href')]) 
  385.  
  386. item['name'] = ''.join([i.strip() for i in obj.xpath('.//div[@class="title"]//text()')]) 
  387.  
  388. item['price'] = ''.join([i.strip() for i in obj.xpath('.//div[@class="price-box"]//text()')]) 
  389.  
  390. json_list.append(item) 
  391.  
  392. self.driver.execute_script('window.scrollTo(0,1000000)'
  393.  
  394. # file_path = os.path.join(os.path.dirname(__file__) + '/footmark_item.json'
  395.  
  396. json_str = json.dumps(json_list) 
  397.  
  398. with open(self.path + os.sep + 'footmark_item.json''w') as f: 
  399.  
  400. f.write(json_str) 
  401.  
  402. # 地址 
  403.  
  404. def get_addr(self): 
  405.  
  406. url = 'https://member1.taobao.com/member/fresh/deliver_address.htm' 
  407.  
  408. self.driver.get(url) 
  409.  
  410. html_str = self.driver.page_source 
  411.  
  412. obj_list = etree.HTML(html_str).xpath('//tbody[@class="next-table-body"]/tr'
  413.  
  414. data_list = [] 
  415.  
  416. for obj in obj_list: 
  417.  
  418. item = {} 
  419.  
  420. item['name'] = obj.xpath('.//td[1]//text()'
  421.  
  422. item['area'] = obj.xpath('.//td[2]//text()'
  423.  
  424. item['detail_area'] = obj.xpath('.//td[3]//text()'
  425.  
  426. item['youbian'] = obj.xpath('.//td[4]//text()'
  427.  
  428. item['mobile'] = obj.xpath('.//td[5]//text()'
  429.  
  430. data_list.append(item) 
  431.  
  432. # file_path = os.path.join(os.path.dirname(__file__) + '/addr.json'
  433.  
  434. json_str = json.dumps(data_list) 
  435.  
  436. with open(self.path + os.sep + 'address.json''w') as f: 
  437.  
  438. f.write(json_str) 
  439.  
  440.  
  441.  
  442. if __name__ == '__main__'
  443.  
  444. # pass 
  445.  
  446. cookie_list = json.loads(open('taobao_cookies.json''r').read()) 
  447.  
  448. t = TaobaoSpider(cookie_list) 
  449.  
  450. t.get_orders() 
  451.  
  452. # t.crawl_good_buy_data() 
  453.  
  454. # t.get_addr() 
  455.  
  456. # t.get_choucang_item() 
  457.  
  458. # t.get_footmark_item() 

這么優秀的倉庫,大家多多給倉庫創建者 star 支持呀!

 

責任編輯:張燕妮 來源: 新智元
相關推薦

2010-01-25 14:04:17

Android Wid

2009-12-14 14:00:39

VS 關系圖

2017-02-14 10:17:08

軟件咨詢師工具箱

2010-01-04 18:11:44

Silverlight

2021-01-18 08:10:35

安全工具病毒

2022-12-25 16:44:40

開源工具Github

2020-05-20 14:19:47

滴滴開源工具

2024-06-18 07:50:43

2013-01-28 10:47:14

Windows 8

2013-06-07 13:30:20

2010-07-23 08:48:21

PHP架構

2015-05-27 14:26:05

2009-10-10 13:09:45

2012-04-23 13:53:26

帶寬QoS

2009-12-18 09:27:04

VS 2008 工具箱

2016-06-08 14:45:59

應用程序創新工具開源

2021-04-06 11:41:31

前端工具Web

2017-05-24 15:07:19

Python爬蟲爬取

2016-12-07 11:18:58

Python爬蟲網站

2020-01-02 14:25:50

工具代碼開發
點贊
收藏

51CTO技術棧公眾號

av网页在线观看| 国产精品视频福利| 中文视频在线观看| 精精国产xxxx视频在线野外| av福利精品导航| 2021久久精品国产99国产精品| 给我看免费高清在线观看| 不卡亚洲精品| 亚洲在线中文字幕| 欧洲在线视频一区| 国产绳艺sm调教室论坛| 一区二区三区高清视频在线观看| 亚洲一级黄色片| 在线观看日本www| 久久电影tv| 中文字幕亚洲电影| 国产精品久久久久久久久久久久久久 | 欧美三级欧美一级| 欧美日韩视频免费| 成人免费在线电影| 不卡视频在线观看| 91免费人成网站在线观看18| 亚欧视频在线观看| 影音先锋成人在线电影| 亚洲欧美日韩精品久久| 国产毛片久久久久久| 日韩深夜视频| 亚洲欧洲av在线| 精品无人区一区二区三区竹菊 | 在线看三级电影| 久久久国产精品午夜一区ai换脸| 99re视频| 国产乱码精品一区二区| 日日夜夜精品视频免费| 97高清免费视频| 日本高清一二三区| 日韩极品一区| 亚洲性av在线| 精品久久久久久中文字幕人妻最新| 久久影院一区二区三区| 欧美性色综合网| www.亚洲天堂网| www.超碰在线| 亚洲成人你懂的| 激情五月婷婷六月| 哥也色在线视频| 国产精品久久午夜| 亚洲精品在线视频观看| 成人18在线| 久久久久国产精品厨房| 久久久99国产精品免费| 香蕉视频成人在线| 99久久婷婷国产| 精品久久久久亚洲| 亚欧洲精品视频| 91麻豆精品一区二区三区| 国内成+人亚洲| 欧美一区二区三区成人片在线| 国产成人在线免费观看| 147欧美人体大胆444| 国产乱淫a∨片免费视频| 蜜桃久久久久久| 国产日本欧美在线观看| 国产裸体无遮挡| 国内外成人在线| 97碰碰视频| 狠狠人妻久久久久久综合麻豆| 国产成人免费在线| 国产专区一区二区| 免费国产在线视频| 国产网站一区二区三区| 亚洲成色www久久网站| 亚洲精品承认| 亚洲日本va午夜在线影院| 免费在线精品视频| 91九色国产在线播放| 精品久久久久久久久久ntr影视| 久久久久久久久久久视频| 欧美日韩大片| 欧美三级韩国三级日本三斤| 精品国产鲁一鲁一区二区三区| 一区二区三区免费在线看| 亚洲国产精品va在线观看黑人| 黄色正能量网站| 国产麻豆精品久久| 久久五月天色综合| 国产一级视频在线播放| 久久视频一区| 91精品在线观看视频| 噜噜噜久久,亚洲精品国产品| 91在线国产福利| 无遮挡亚洲一区| 在线观看wwwxxxx| 福利精品视频在线| 中文字幕在线观看日| 超碰97成人| 一区二区三区国产视频| 久久精品www人人爽人人| 亚洲在线成人| 亚洲一区中文字幕在线观看| 无码国产精品一区二区免费16| 国产精品网站导航| 九色自拍视频在线观看| 国产精品久久久久久久久久齐齐 | 日本不卡高清| 欧美激情亚洲激情| 亚洲熟妇无码久久精品| 99re这里只有精品6| 欧美 另类 交| 三上悠亚亚洲一区| 日韩免费福利电影在线观看| 一区二区三区伦理片| 国内精品亚洲| 国产精品一区二区性色av| 日本高清视频网站| 亚洲视频一区在线观看| 六月激情综合网| 亚洲乱码一区| 色偷偷9999www| 中文字幕69页| av一区二区三区在线| 色哟哟免费网站| 成人做爰免费视频免费看| 亚洲国产精品人人爽夜夜爽| 久久成人小视频| 日韩av一区二区三区四区| 精品国产乱码久久久久久蜜柚| 黄色一级片在线观看| 一本大道av一区二区在线播放| 欧美xxxx日本和非洲| 色婷婷热久久| 国产精品久久久久久久久久久不卡| 午夜视频福利在线观看| 亚洲一本大道在线| 18深夜在线观看免费视频| 国产精品麻豆久久| 国产精品美女视频网站| 国产在线中文字幕| 欧美色播在线播放| 久久久久麻豆v国产精华液好用吗| 欧美全黄视频| av在线不卡观看| www国产在线观看| 这里只有精品电影| 人人干在线观看| 久久精品国产在热久久| 天天人人精品| 成人午夜sm精品久久久久久久| 亚洲欧美在线一区二区| 黄瓜视频在线免费观看| 久久久综合视频| 黄色片久久久久| 久久99国产精品视频| 欧美最顶级丰满的aⅴ艳星| 亚洲 欧美 激情 另类| 欧美日韩加勒比精品一区| 国产人妻人伦精品1国产丝袜| 精品91久久久久| 国产日韩二区| 女人让男人操自己视频在线观看| 717成人午夜免费福利电影| 国产真人做爰视频免费| 美女网站在线免费欧美精品| 亚洲一区二区三区涩| 亚洲一区导航| 久精品免费视频| 蜜臀久久99精品久久久| 欧美午夜久久久| 中文字幕av久久爽一区| 精品一区二区三区久久久| 一区二区三区四区免费观看| 在线精品视频一区| 欧美亚洲视频在线看网址| 国产小视频免费在线网址| 欧美日韩国产精选| 激情五月少妇a| 91丨porny丨首页| 色婷婷狠狠18| 欧美视频一区| 农村寡妇一区二区三区| 激情中国色综合| 欧美人交a欧美精品| 中文成人无字幕乱码精品区| 国产乱视频在线观看| 欧美三区免费完整视频在线观看| 青青青手机在线视频| 国产精品一区二区在线看| 婷婷无套内射影院| 成人免费av| 99九九电视剧免费观看| 少妇在线看www| 俺也去精品视频在线观看| 丰满人妻一区二区| 色视频成人在线观看免| 国产这里有精品| 久久久精品黄色| 伊人五月天婷婷| 久久亚洲风情| 亚洲精品少妇一区二区| 欧美女优在线视频| 99porn视频在线| 综合在线影院| 成人97在线观看视频| av女名字大全列表| 91麻豆精品91久久久久同性| 国产一级片毛片| 亚洲欧美乱综合| 亚洲精品国产91| 成人妖精视频yjsp地址| 国产视频1区2区3区| 99在线热播精品免费99热| 9999在线观看| 免费不卡中文字幕在线| 成人精品一二区| www.成人在线视频| 91超碰caoporn97人人| 黄色免费网站在线| 在线电影一区| 91精品国产777在线观看| 欧美jizzhd69巨大| 亚洲桃花岛网站| 少妇精品高潮欲妇又嫩中文字幕 | 国产人成亚洲第一网站在线播放 | 欧美国产精品专区| 亚洲天堂美女视频| 国产精品资源在线看| 15—17女人毛片| 久久午夜av| 鲁一鲁一鲁一鲁一色| 欧美视频二区| 中文字幕色呦呦| 久久久久国产精品| 水蜜桃一区二区| 国产videos久久| 久久精品一二三区| 久久电影在线| 国产乱码精品一区二区三区不卡| 国产欧美视频在线| 国产美女扒开尿口久久久| 三级成人在线| 国产成人精品国内自产拍免费看| 欧亚av在线| 91精品国产高清久久久久久| www中文字幕在线观看| 欧美精品做受xxx性少妇| 黄色网页在线看| 久久亚洲精品成人| 大片免费在线观看| 欧美精品生活片| 丝袜美腿av在线| 欧美风情在线观看| 动漫一区二区| 久久久最新网址| 精精国产xxxx视频在线野外| 97色在线视频观看| 男人久久天堂| 日本国产高清不卡| sis001欧美| 国产精品扒开腿爽爽爽视频| 四虎4545www国产精品| 国产成人免费av| 国产精品诱惑| 亚洲在线视频福利| 6080亚洲理论片在线观看| 国产精品视频在线免费观看 | 亚洲国产小视频在线观看| 婷婷丁香花五月天| 日韩福利视频在线观看| 久久米奇亚洲| www.欧美免费| 尤物yw193can在线观看| 97久久国产精品| 欧洲一区二区三区精品| 国产精品专区一| 亚洲成av人片在线观看www| 国产日韩欧美二区| 免费一区二区三区视频导航| 亚洲欧美一区二区原创| 欧美一区二区三区久久精品| 国产真实老熟女无套内射| 国产视频一区免费看| 97公开免费视频| 国产精品一二三在| 亚洲中文字幕一区| 中文字幕一区二区三区四区不卡| 在线免费观看亚洲视频| 欧美日韩色婷婷| 中文字幕永久在线观看| 精品精品欲导航| 国产小视频福利在线| 欧美精品一区在线播放| 欧美片第1页| 国产成人精品自拍| 国产最新精品| 欧美久久久久久久久久久久久久| 亚洲一区黄色| 男女视频在线观看网站| 99九九99九九九视频精品| jizz日本在线播放| 亚洲成人av资源| 亚洲视频在线免费播放| 亚洲精品久久久久久久久久久久| 91最新在线| 97av在线视频免费播放| 国模吧无码一区二区三区| 希岛爱理一区二区三区| 中文字幕无码精品亚洲35| 久久国产精品免费| 国产精品无码电影| 亚洲图片激情小说| 国产又粗又猛又爽又| 亚洲第一精品夜夜躁人人爽| 婷婷免费在线视频| 日韩av高清不卡| 96sao在线精品免费视频| 亚洲精品国产系列| 亚洲女同在线| 日本五十肥熟交尾| 综合分类小说区另类春色亚洲小说欧美| 在线观看亚洲欧美| 日韩美女在线视频| 免费黄色网页在线观看| 日韩av日韩在线观看| 国产一级成人av| 粉嫩av一区二区三区天美传媒| 秋霞电影网一区二区| 五月天激情小说| 亚洲麻豆国产自偷在线| 中文字幕日韩国产| 亚洲老板91色精品久久| 19禁羞羞电影院在线观看| 91手机在线观看| 国产精品国内免费一区二区三区| 女人扒开屁股爽桶30分钟| 成人午夜视频免费看| 精品欧美一区二区久久久久 | 久久精品国产综合| 成人深夜福利| 亚洲精品日韩精品| 日本欧美在线观看| 日本爱爱爱视频| 91福利在线播放| 国产资源在线播放| 国产成人97精品免费看片| 国产欧美日韩精品一区二区免费| www国产黄色| 91一区一区三区| 91美女免费看| 亚洲欧美三级在线| 欧美人体一区二区三区| 欧美日韩一区在线观看视频| 米奇777在线欧美播放| japanese中文字幕| 在线观看亚洲a| 91se在线| 亚洲一区二区免费| 国语对白精品一区二区| 国产大学生视频| 欧美日韩激情美女| 国产美女性感在线观看懂色av| 国产精品扒开腿做爽爽爽男男| jizzjizz欧美69巨大| 校园春色 亚洲色图| 中文字幕一区二区三区不卡| 国产精品视频第一页| 欧美另类在线播放| 国产人妖ts一区二区| 亚洲自偷自拍熟女另类| 国产色91在线| 亚洲一级在线播放| 欧美国产亚洲视频| 色婷婷久久久| av网站在线不卡| 亚洲精品乱码久久久久久日本蜜臀| 精品人妻无码一区二区色欲产成人| 欧美华人在线视频| 中日韩免视频上线全都免费| 污污网站免费观看| 亚洲激情综合网| 亚洲 欧美 激情 另类| 国产精品入口免费视频一| 91精品高清| 久久一区二区电影| 欧美视频一区在线| 免费不卡av| 日韩午夜视频在线观看| 国产揄拍国内精品对白| 日韩 国产 在线| 在线观看成人黄色| 2021年精品国产福利在线| 国产天堂在线播放| 夜夜爽夜夜爽精品视频| 国产在线91| 国产98在线|日韩| 免费一级片91| 久久精品视频国产| 色七七影院综合| 女仆av观看一区| 亚洲欧美手机在线| 黑人巨大精品欧美一区二区免费|