精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

我用Python爬了7W知乎用戶信息,終于捕獲了心儀小姐姐.....

開發 后端
本文主要講 scrapy 框架的原理和使用,建議至少在理解掌握 Python 爬蟲原理后再使用框架(不要問我為什么,我哭給你看)。

[[209456]]

雙十一就要來了,在舉國一片“買買買”的呼聲中,單身汪的咆哮聲也愈發凄厲了。

作為一個 Python 程序員,要如何找到小姐姐,避開暴擊傷害,在智中取勝呢?于是就有了以下的對話:

so~今天我們的目標是,爬社區的小姐姐~而且,我們又要用到新的姿勢(霧)了~scrapy 爬蟲框架~

本文主要講 scrapy 框架的原理和使用,建議至少在理解掌握 Python 爬蟲原理后再使用框架(不要問我為什么,我哭給你看)。

[[209457]]

scrapy 原理

在寫過幾個爬蟲程序之后,我們就會知道,利用爬蟲獲取數據大概的步驟:

  • 請求網頁。
  • 獲取網頁。
  • 匹配信息。
  • 下載數據。
  • 數據清洗。
  • 存入數據庫。

scrapy 是一個很有名的爬蟲框架,可以很方便的進行網頁信息爬取。那么 scrapy 到底是如何工作的呢?之前在網上看了不少 scrapy 入門的教程,大多數入門教程都配有這張圖。

也不知道是這張圖實在太經典了,還是程序員們都懶得畫圖,我第一次看到這個圖的時候,心情是這樣的。

經過了一番深入的理解,大概知道這幅圖的意思,讓我來舉個栗子(是的,我又要舉奇怪的栗子了):

scrapy 原理圖之我要吃好吃的

當我們想吃東西的時候,我們會出門,走到街上,尋找一家想吃的店,然后點餐,服務員再通知廚房去做,最后菜到餐桌上,或者被打包帶走。這就是爬蟲程序在做的事,它要將所有獲取數據需要進行的操作,都寫好。

而 scrapy 就像一個點餐 APP 一般的存在,在訂餐列表(spiders)選取自己目標餐廳里想吃的菜(items),在收貨(pipeline)處寫上自己的收貨地址(存儲方式)。

點餐系統(scrapy engine)會根據訂餐情況要求商鋪(Internet)的廚房(download)將菜做好,由于會產生多個外賣取貨訂單(request),系統會根據派單(schedule)分配外賣小哥從廚房取貨(request)和送貨(response)。說著說著我都餓了。。。。

什么意思呢?在使用 scrapy 時,我們只需要設置 spiders(想要爬取的內容),pipeline(數據的清洗,數據的存儲方式),還有一個 middlewares,是各功能間對接時的一些設置,就可以不用操心其他的過程,一切交給 scrapy模塊來完成。

創建 scrapy 工程

安裝 scrapy 之后,創建一個新項目:

  1. $ scrapy startproject zhihuxjj 

我用的是 pycharm 編譯器,在 spiders 文件下創建 zhihuxjj.py。

在 zhihuxjj.py 這個文件中,我們要編寫我們的爬取規則。

爬取規則制定(spider)

創建好了項目,讓我們來看一下我們要吃的店和菜…哦不,要爬的網站和數據。

我選用了知乎作為爬取平臺,知乎是沒有用戶從 1 到 n 的序列 id 的,每個人可以設置自己的個人主頁 id,且為唯一。

所以采選了一枚種子用戶,爬取他的關注者,也可以關注者和粉絲一起爬,考慮到粉絲中有些三無用戶,我僅選擇了爬取關注者列表,再通過關注者主頁爬取關注者的關注者,如此遞歸。

對于程序的設計,是這樣的。

之后就是種子用戶的個人主頁,知乎粉絲多的大 V 很多,但是關注多的人就比較難發現了,這里我選擇了知乎的黃繼新,聯合創始人,想必關注了不少優質用戶(???)?。

分析一下個人主頁可知,個人主頁由'https://www.zhihu.com/people/' + 用戶 id 組成。

我們要獲取的信息是用 callback 回調函數(敲黑板?。澲攸c??!)的方式設計,這里一共設計了倆個回調函數:用戶的關注列表和關注者的個人信息。

使用 chrome 瀏覽器查看上圖的頁面可知獲取關注列表的 url,以及關注者的用戶 id。

將鼠標放在用戶名上,如下圖:

可以獲得個人用戶信息的 url,分析 url 可知:

  1. 關注者列表鏈接構成:'https://www.zhihu.com/api/v4/members/' + '用戶id' + '/followees?include=data[*].answer_count,articles_count,gender,follower_count,is_followed,is_following,badge[?(type=best_answerer)].topics&offset=0&limit=20' 
  2. 個人信息鏈接構成:'https://www.zhihu.com/api/v4/members/' + '用戶id' + '?include=allow_message%2Cis_followed%2Cis_following%2Cis_org%2Cis_blocking%2Cemployments%2Canswer_count%2Cfollower_count%2Carticles_count%2Cgender%2Cbadge%5B%3F(type%3Dbest_answerer)%5D.topics' 

so,我們在上一節中創建的 zhihuxjj.py 文件中寫入以下代碼:

  1. import json 
  2. from zhihuxjj.items import ZhihuxjjItem 
  3. from scrapy import Spider,Request 
  4.  
  5. class ZhihuxjjSpider(Spider): 
  6.     name='zhihuxjj' #scrapy用于區別其他spider的名字,具有唯一性。 
  7.     allowed_domains = ["www.zhihu.com"] #爬取范圍 
  8.     start_urls = ["https://www.zhihu.com/"
  9.     start_user = "jixin" 
  10.     followees_url = 'https://www.zhihu.com/api/v4/members/{user}/followees?include=data[*].answer_count,articles_count,gender,follower_count,is_followed,is_following,badge[?(type=best_answerer)].topics&offset={offset}&limit=20' #關注列表網址 
  11.     user_url = 'https://www.zhihu.com/api/v4/members/{user}?include=locations,employments,gender,educations,business,voteup_count,thanked_Count,follower_count,following_count,cover_url,following_topic_count,following_question_count,following_favlists_count,following_columns_count,avatar_hue,answer_count,articles_count,pins_count,question_count,commercial_question_count,favorite_count,favorited_count,logs_count,marked_answers_count,marked_answers_text,message_thread_token,account_status,is_active,is_force_renamed,is_bind_sina,sina_weibo_url,sina_weibo_name,show_sina_weibo,is_blocking,is_blocked,is_following,is_followed,mutual_followees_count,vote_to_count,vote_from_count,thank_to_count,thank_from_count,thanked_count,description,hosted_live_count,participated_live_count,allow_message,industry_category,org_name,org_homepage,badge[?(type=best_answerer)].topics' #個人信息鏈接 
  12.     def start_requests(self): 
  13.         yield Request(self.followees_url.format(user=self.start_user,offset=0),callback=self.parse_fo) #回調種子用戶的關注列表 
  14.         yield Request(self.user_url.format(user=self.start_user,include = self.user_include),callback=self.parse_user) #回調種子用戶的個人信息 
  15.  
  16.     def parse_user(self, response): 
  17.         result = json.loads(response.text) 
  18.         print(result) 
  19.         item = ZhihuxjjItem() 
  20.         item['user_name'] = result['name'
  21.         item['sex'] = result['gender']  # gender為1是男,0是女,-1是未設置 
  22.         item['user_sign'] = result['headline'
  23.         item['user_avatar'] = result['avatar_url_template'].format(size='xl'
  24.         item['user_url'] = 'https://www.zhihu.com/people/' + result['url_token'
  25.         if len(result['locations']): 
  26.             item['user_add'] = result['locations'][0]['name'
  27.         else
  28.             item['user_add'] = '' 
  29.         yield item 
  30.  
  31.     def parse_fo(self, response): 
  32.         results = json.loads(response.text) 
  33.         for result in results['data']: 
  34.             yield Request(self.user_url.format(user=result['url_token'], include=self.user_include),callback=self.parse_user) 
  35.             yield Request(self.followees_url.format(user=result['url_token'], offset=0),callback=self.parse_fo)  # 對關注者的關注者進行遍歷,爬取深度depth+=1 
  36.         if results['paging']['is_end'is False: #關注列表頁是否為尾頁 
  37.             next_url = results['paging']['next'].replace('http','https'
  38.             yield Request(next_url,callback=self.parse_fo) 
  39.         else
  40.             pass  

這里需要劃重點的是 yield 的用法,以及 item['name'],將爬取結果賦值給 item,就是告訴系統,這是我們要選的菜…啊呸…要爬的目標數據。

設置其他信息

在 items.py 文件中,按照 spider 中設置的目標數據 item,添加對應的代碼。

  1. import scrapy 
  2.  
  3. class ZhihuxjjItem(scrapy.Item): 
  4.    # define the fields for your item here like
  5.    # name = scrapy.Field() 
  6.    user_name = scrapy.Field() 
  7.    sex  = scrapy.Field() 
  8.    user_sign = scrapy.Field() 
  9.    user_url = scrapy.Field() 
  10.    user_avatar = scrapy.Field() 
  11.    user_add = scrapy.Field() 
  12.    pass

在 pipeline.py 中添加存入數據庫的代碼:

  1. import pymysql 
  2.  
  3. def dbHandle(): 
  4.     conn = pymysql.connect
  5.         host='localhost'
  6.         user='root'
  7.         passwd='數據庫密碼'
  8.         charset='utf8'
  9.         use_unicode=False 
  10.     ) 
  11.     return conn 
  12.  
  13. class ZhihuxjjPipeline(object): 
  14.     def process_item(self, item, spider): 
  15.         dbObject = dbHandle()  # 寫入數據庫 
  16.         cursor = dbObject.cursor() 
  17.         sql = "insert into xiaojiejie.zhihu(user_name,sex,user_sign,user_avatar,user_url,user_add) values(%s,%s,%s,%s,%s,%s)" 
  18.         param = (item['user_name'],item['sex'],item['user_sign'],item['user_avatar'],item['user_url'],item['user_add']) 
  19.         try: 
  20.             cursor.execute(sql, param) 
  21.             dbObject.commit() 
  22.         except Exception as e: 
  23.             print(e) 
  24.             dbObject.rollback() 
  25.         return item  

因為使用了 pipeline.py,所以我們還需要在 setting.py 文件中,將 ITEM_PIPELINE 注釋解除,這里起到連接兩個文件的作用。

到這里,基本就都設置好了,程序基本上就可以跑了。

不過因為 scrapy 是遵循robots.txt法則的,所以讓我們來觀察一下知乎的法則:https://www.zhihu.com/robots.txt

emmmmmmm,看完法則了嗎,很好,然后我們在setting.py中,將ROBOTSTXT_OBEY 改成 False。

好像…還忘了點什么,對了,忘記設置 headers 了。

通用的設置 headers 的方法同樣是在 setting.py 文件中,將 DEFAULTREQUESTHEADERS 的代碼注釋狀態取消,并設置模擬瀏覽器頭。

知乎是要模擬登錄的,如果使用游客方式登錄,就需要添加 authorization,至于這個 authorization 是如何獲取的,我,就,不,告,訴,你......

  1. DEFAULT_REQUEST_HEADERS = { 
  2.     "User-Agent""Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36"
  3.     'authorization''oauth c3cef7c66a1843f8b3a9e6a1e3160e20' 

為了減少服務器壓力&防止被封,解除 DOWNLOAD_DELAY 注釋狀態,這時設置下載延遲,將下載延遲設為 3(robots 法則里要求是 10,但 10 實在太慢了_(:зゝ∠)知乎的程序員小哥哥看不見這句話看不見這句話…

寫到這里你會發現,很多我們需要進行的操作,scrapy 都已經寫好了,只需要將注釋去掉,再稍作修改,就可以實現功能了。scrapy 框架還有很多功能,可以閱讀官方文檔了解。

運行scrapy文件

寫好 scrapy 程序后,我們可以在終端輸入。

  1. $ scrapy crawl zhihuxjj 

運行文件,但也可以在文件夾中添加 main.py,并添加以下代碼。

然后直接用 pycharm 運行 main.py 文件即可,然后我們就可以愉快的爬知乎用戶啦~(小姐姐我來啦~)

查找小姐姐

經過了 X 天的運行,_(:зゝ∠)_爬到了 7w 條用戶數據,爬取深度 5。(這爬取速度讓我覺得有必要上分布式爬蟲了…這個改天再嘮)

有了數據我們就可以選擇,同城市的用戶進行研究了……先國際慣例的分析一下數據。

知乎用戶性別分布

在 7w 用戶中,明顯男性超過了半數,標明自己是女性的用戶只占了 30% 左右,還有一部分沒有注明性別,優質的小姐姐還是稀缺資源呀~

再來看看小姐姐們都在哪個城市。(從 7w 用戶中篩選出性別女且地址信息不為空的用戶)

知乎女性用戶位置分布

看來小姐姐們還是集中在北上廣深杭的,所以想發現優質小姐姐的男孩紙們還是要向一線看齊啊,當然也不排除在二三線的小姐姐們沒有標記出自己的地理位置。

emmmmm……這次的分析,就到此為止,你們可以去撩小姐姐們了。

研究小姐姐

意不意外?開不開心?這里還有一章。正所謂,授之以魚,不如授之以漁;撒了心靈雞湯,還得加一只心靈雞腿;找到了小姐姐,我們還要了解小姐姐…………

[[209462]]

讓我再舉個栗子~來研究一個小姐姐。(知乎名:動次,已獲取小姐姐授權作為示例。)

知乎用戶:動次

讓我們來爬一下她的動態,chrome 右鍵檢查翻 network 這些套路我就不說了,直接講研究目標。

[[209463]]

  • 贊同的答案和文章(了解小姐姐的興趣點) 
  • 發布的答案和文章(了解小姐姐的世界觀、人生觀、價值觀) 
  • 關注的問題和收藏夾(了解小姐姐需求) 
  • 提出的問題(了解小姐姐的疑惑)

代碼也不貼了,會放在 GitHub 的,來看一下輸出。

研究動次的結果輸出

因為你乎風格,所以對停用詞進行了一些加工,添加了“如何”、“看待”、“體驗”等詞語,得到了小姐姐回答問題的詞頻。小姐姐的回答里出現了喜歡、朋友、爺爺等詞語。

動次回答問題的詞頻

還有!!在關注、贊同和輸出中,都有的詞(?ω?)。(是不是可以靠美味捕獲小姐姐呢……

再來一張劉看山背景的,答題詞云。

動次的回答問題詞云

后記

本文涉及項目會持續更新,會將研究對象拓展至各平臺,并進行后續優化,有興趣的盆友可以關注 GitHub 項目。

結尾引用知乎用戶陳壯壯在《當你追求女生時,你們聊些什么?》的回答。(因為窮我就不申請轉載了你們自己點進去看吧(?﹏?),你們只要知道我有顆帶你們撩妹的心就行了)

安裝scrapy:

http://scrapy-chs.readthedocs.io/zh_CN/1.0/intro/install.html

pycharm編譯器:

http://www.jianshu.com/p/23e52f7b8ec7

回調函數:

https://www.zhihu.com/question/19801131

yield的用法:

https://www.ibm.com/developerworks/cn/opensource/os-cn-python-yield/

robots.txt法則:

https://baike.baidu.com/item/robots%E5%8D%8F%E8%AE%AE/2483797?fr=aladdin&fromid=9518761&fromtitle=robots.txt

scrapy官方文檔:

http://scrapy-chs.readthedocs.io/zh_CN/1.0/index.html

動次:https://www.zhihu.com/people/wang-dong-ci/activities

GitHub項目:

https://github.com/otakurice/danshengoustyle

當你追求女生時,你們聊些什么?

https://www.zhihu.com/question/25955712/answer/37668446

責任編輯:武曉燕 來源: 知乎專欄
相關推薦

2019-12-20 09:44:50

李子柒田園生活評論

2019-11-08 09:47:16

知乎Python數據

2019-12-19 14:29:51

Python數據分析可視化

2018-11-12 09:00:33

2021-10-25 20:02:00

gRPC訂閱模式超時控制

2019-10-21 10:01:58

Python素描技術

2022-08-30 08:23:52

Python房源數據

2017-05-24 15:07:19

Python爬蟲爬取

2023-12-05 13:49:00

AI模型

2022-02-23 14:21:20

Chrome插件瀏覽器

2023-07-07 08:24:53

Python爬蟲Flask

2020-08-06 16:55:37

虛擬化底層計算機

2016-12-22 17:01:11

2020-07-19 13:25:13

編程小程序開發

2022-08-17 11:20:23

Python微信

2017-08-30 12:17:02

Python王者榮耀套路

2017-11-27 09:06:16

程序員大數據多線程爬蟲

2018-03-07 09:35:08

Python淘寶數據

2017-07-17 09:27:09

Python 爬蟲編程
點贊
收藏

51CTO技術棧公眾號

成年人午夜剧场| 开心色怡人综合网站| 日韩av毛片在线观看| 999精品视频在线观看| 一级中文字幕一区二区| 欧美另类视频在线| 国产又粗又大又爽| 影音先锋日韩资源| 亚洲天堂2020| 丰满人妻一区二区三区大胸 | www.51色.com| 制服丝袜专区在线| 综合中文字幕亚洲| 美女精品国产| 亚洲风情第一页| 日本不卡视频在线| 97免费中文视频在线观看| 日本综合在线观看| 欧美日韩夜夜| 日韩一级免费一区| 国产免费999| 成人免费观看在线观看| 国产精品久久久久桃色tv| 国产亚洲第一区| 国产乱码精品一区二区| 日日夜夜一区二区| 91黑丝高跟在线| 在线免费观看亚洲视频| 成人影院在线| 亚洲欧美国内爽妇网| 久久久男人的天堂| 精品国产麻豆| 欧美另类一区二区三区| 国产成人综合一区| 午夜不卡影院| 午夜精品影院在线观看| 99视频精品全部免费看| 在线视频1区2区| 国产欧美一二三区| 欧美极品色图| 美女做暖暖视频免费在线观看全部网址91 | 欧美日韩亚洲综合在线| 成人在线免费观看av| av丝袜在线| 亚洲一二三区视频在线观看| 国产美女视频免费| 久久久久久久久免费视频| 中文在线免费一区三区高中清不卡| 亚洲.国产.中文慕字在线| 欧洲在线视频一区| 少妇精品视频一区二区| 成人美女在线观看| av电影成人| 丁香六月天婷婷| 国产成人精品亚洲777人妖| 91久久国产婷婷一区二区| 亚洲永久精品视频| 极品少妇xxxx精品少妇偷拍| 国产美女高潮久久白浆| 一区二区三区免费观看视频| 麻豆国产一区二区| 国产精品视频精品| 亚洲天堂视频在线| 国产美女在线观看一区| 99精品99久久久久久宅男| 亚洲爆乳无码一区二区三区| 高清国产一区二区| 国产精品一区二区免费| 污视频在线免费| 久久婷婷一区二区三区| 欧美中日韩一区二区三区| 国产精品一级伦理| 亚洲欧洲成人av每日更新| 色一情一乱一乱一区91| 爱情岛论坛亚洲品质自拍视频网站| 亚洲国产sm捆绑调教视频| 777久久久精品一区二区三区 | 人成在线免费视频| 久久精品视频一区二区三区| 亚洲精品国产精品国自产| 日本精品在线| 亚洲福利国产精品| 男女曰b免费视频| 欧美视频免费看| 91精品国产综合久久香蕉的特点| 免费黄色a级片| 影视先锋久久| 久热精品视频在线免费观看| 日本一区二区三区免费视频| 日韩国产精品久久| 99久久自偷自偷国产精品不卡| 人妻偷人精品一区二区三区| 久久久91精品国产一区二区三区| 中文精品一区二区三区 | 亚洲免费av观看| 999在线观看视频| a∨色狠狠一区二区三区| 欧美一二三在线| 小早川怜子久久精品中文字幕| 51精产品一区一区三区| 欧美亚洲国产视频| 国产强被迫伦姧在线观看无码| 99久久精品国产一区| 一道精品一区二区三区| japanese色国产在线看视频| 欧美视频中文一区二区三区在线观看| 极品白嫩少妇无套内谢| 成人av资源电影网站| 韩国精品美女www爽爽爽视频| 欧美一级做a爰片免费视频| 粉嫩嫩av羞羞动漫久久久 | 亚洲搞黄视频| 欧美日韩国产在线| 岛国大片在线免费观看| jlzzjlzz亚洲女人| 97国产精品人人爽人人做| 91av久久久| 久久久亚洲精品石原莉奈| 久久久99精品视频| 日本免费成人| 亚洲美女av在线| 久久精品人妻一区二区三区| 极品少妇xxxx精品少妇| 日本电影一区二区三区| www.超碰在线| 日韩欧美国产一区二区在线播放| 久久中文字幕精品| 性xx色xx综合久久久xx| 高清国产在线一区| 成a人片在线观看| 欧美精品aⅴ在线视频| 久久久视频6r| 免费亚洲一区| 久久久神马电影| 菠萝蜜视频在线观看www入口| 欧美一区二区高清| 四虎884aa成人精品| 日本91福利区| 日本免费一区二区三区| 偷拍视频一区二区三区| 亚洲精品一区中文| 五月婷婷亚洲综合| 91亚洲永久精品| 久久久久久久久久久99| 另类ts人妖一区二区三区| 欧美激情亚洲视频| 亚洲第一天堂在线观看| 一二三区精品视频| 91九色蝌蚪porny| 亚洲精品欧美| 久久人人九九| 美女一区网站| 永久555www成人免费| 国产亚洲欧美日韩高清| 国产亚洲精品福利| the porn av| 天天影视天天精品| 亚洲999一在线观看www| 午夜羞羞小视频在线观看| 欧美大片在线观看| 日韩欧美不卡视频| 久久久www成人免费无遮挡大片| 久久综合久久色| 日韩夫妻性生活xx| 成人做爽爽免费视频| 四虎av在线| 日韩不卡在线观看| 波多野结衣视频网址| 国产精品免费av| 国产精品中文久久久久久| 欧美体内she精视频在线观看| 国产日本一区二区三区| 精品国产一区二区三区久久久狼 | 天天做天天爱天天综合网| 91精品国产综合久久香蕉最新版| 精精国产xxxx视频在线| 精品乱码亚洲一区二区不卡| 一区二区三区视频免费看| 91麻豆视频网站| 中文字幕第38页| 海角社区69精品视频| 久久久久久99| 精品三级在线| 久久久久久com| 黄网站在线观看| 欧美一区二区三区四区五区| 日本一区二区不卡在线| 中文字幕欧美三区| 亚洲成a人无码| 日本女优在线视频一区二区 | 国产乱码精品| 中文字幕一区二区三区在线乱码 | 亚洲精品中文综合第一页| 韩国三级成人在线| 欧美性受xxxx黑人猛交| 欧美18hd| 日韩精品中文字幕在线播放| 一级黄在线观看| 性做久久久久久久免费看| 精品一区二区三区蜜桃在线| 国产一区二区免费看| 欧美 国产 综合| 香蕉视频官网在线观看日本一区二区| 国产精品一区视频| 日韩大陆av| 日韩免费av在线| 欧美黑人猛交的在线视频| 在线成人一区二区| av女名字大全列表| 日韩精品在线看片z| 国产黄色免费视频| 午夜伊人狠狠久久| 欧美美女性生活视频| 久久夜色精品一区| 99热超碰在线| 国产精品主播直播| 别急慢慢来1978如如2| 亚洲国产电影| 亚洲欧美日韩不卡| 精品福利久久久| 久久国产精品-国产精品| 免费一区二区三区在线视频| 国产精品视频在线播放| 久久爱91午夜羞羞| 97精品免费视频| 视频在线这里都是精品| 日韩在线观看免费高清完整版| 欧美老女人性开放| 亚洲精品福利在线| www.激情五月.com| 5858s免费视频成人| 国产无遮挡又黄又爽又色视频| 精品久久久久久久久久久久久久 | 亚洲性图久久| www.欧美黄色| 欧美福利一区| 老汉色影院首页| 91亚洲国产成人久久精品| 亚洲春色在线视频| av一区二区在线播放| 青娱乐一区二区| 久久综合影院| 欧美系列一区| 国产探花在线精品| 日本一区二区不卡高清更新| 精品中文字幕一区二区三区av| 久久久久九九九| 最新精品国偷自产在线| 欧美日韩在线精品一区二区三区| 四虎884aa成人精品最新| 久久精品99| 精品中文字幕一区二区三区av| 日本一区二区三区免费看| re久久精品视频| 一区二区视频在线观看| 香蕉久久网站| 男人添女荫道口喷水视频| 亚洲第一区色| 国产av无码专区亚洲精品| 老司机精品福利视频| 亚州精品一二三区| 激情综合色播五月| 久久aaaa片一区二区| 波多野结衣中文字幕一区二区三区| 给我免费观看片在线电影的| 久久久久久电影| 日本免费网站视频| 亚洲二区视频在线| 无码人妻精品一区二区三区不卡| 欧美三级日韩在线| 国产福利视频导航| 日韩大陆毛片av| 色影院视频在线| 欧美激情综合亚洲一二区| 亚洲天堂av在线| 国产日本欧美在线观看| 亚洲国产高清在线观看| 久久精品久久精品国产大片| 欧美系列电影免费观看| 国产在线无码精品| 乱人伦精品视频在线观看| 日本免费色视频| av综合在线播放| 国产精品视频在| 亚洲一区二区三区在线播放| youjizz在线视频| 在线观看91av| 视频二区在线| 久久福利视频网| 亚洲www.| 国产不卡一区二区在线观看| 精品国产精品| av在线观看地址| 奇米综合一区二区三区精品视频| aaaaaaaa毛片| 国产三级精品三级| 国产极品在线播放| 欧美日韩精品是欧美日韩精品| 高清乱码毛片入口| 深夜福利国产精品| 免费v片在线观看| 亚洲一区二区三区xxx视频| 九九免费精品视频在线观看| 久久久无码中文字幕久...| 国产亚洲一区在线| 欧美色图校园春色| 国产精品无码永久免费888| 日韩免费黄色片| 日韩欧美区一区二| 91在线品视觉盛宴免费| 欧美一区视频在线| 北条麻妃一区二区三区在线| 亚洲图色在线| 羞羞答答国产精品www一本| 日韩精品xxx| 国产精品传媒入口麻豆| 无码人妻丰满熟妇区bbbbxxxx | 俄罗斯黄色录像| 国产精品乱人伦中文| 国产精品人人人人| 精品99久久久久久| 在线中文字幕视频观看| 成人美女av在线直播| 日韩电影一区| 九九视频精品在线观看| 91影院在线观看| 在线观看亚洲欧美| 亚洲第一网站男人都懂| 日本大片在线播放| 亚洲伊人第一页| 亚洲成av人电影| 国产乱码一区二区三区四区| 中文字幕的久久| 在线观看免费视频a| 亚洲一区av在线播放| 国精产品一区二区三区有限公司| 久久久7777| 亚洲欧美卡通另类91av| 丰满少妇在线观看资源站| 五月激情六月综合| 五月婷婷六月丁香| 欧美亚洲视频一区二区| 香蕉视频一区二区三区| 日本三级免费观看| 久久先锋资源网| 天天操天天干天天摸| 国产亚洲视频在线观看| 欧美va视频| 在线观看欧美亚洲| 国产美女精品人人做人人爽| 多男操一女视频| 日韩亚洲欧美一区二区三区| 色在线视频网| 国产一区二区免费在线观看| 亚洲国产导航| 成人精品999| 欧美日韩综合在线| 2024最新电影在线免费观看| 亚洲tv在线观看| 黄色亚洲大片免费在线观看| 波多野结衣加勒比| 日韩欧美在线视频观看| 成人18在线| 亚洲一区久久久| 亚洲片区在线| 色欲AV无码精品一区二区久久 | 欧美孕妇性xx| 精品国产网站| 性久久久久久久久久久久久久| 玉足女爽爽91| 亚洲欧美综合在线观看| 国产不卡在线观看| 色综合蜜月久久综合网| 波多野结衣中文字幕在线播放| 一区av在线播放| 九一国产在线| 成人激情黄色网| 亚洲欧洲午夜| 91av手机在线| 欧美精品一区二区三区蜜桃| 性欧美1819sex性高清| 成人手机视频在线| 9人人澡人人爽人人精品| 国产黄网在线观看| 欧美成人性色生活仑片| 久久a爱视频| 久久黄色片网站| 福利一区福利二区微拍刺激| av在线电影观看| 国产麻豆日韩| 久久黄色级2电影| 日本在线观看视频网站| 伊人青青综合网站| 猫咪成人在线观看| 可以看污的网站| 精品成人久久av| 成人看av片| 日本一区二区三区视频免费看| 国产mv日韩mv欧美| 中文字幕 自拍偷拍|