精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

數據分析行業薪資的秘密,你想知道的都在這里(1)

大數據 數據分析
數據分析師的收入怎么樣?哪些因素對于數據分析的薪資影響最大?哪些行業對數據分析人才的需求量最高?我想跳槽,應該選擇大公司大平臺還是初創的小公司?按我目前的教育程度,工作經驗,和掌握的工具和技能,能獲得什么樣水平的薪資呢?

[[200047]]

***部分,數據分析職位信息抓取

數據分析師的收入怎么樣?哪些因素對于數據分析的薪資影響***?哪些行業對數據分析人才的需求量***?我想跳槽,應該選擇大公司大平臺還是初創的小公司?按我目前的教育程度,工作經驗,和掌握的工具和技能,能獲得什么樣水平的薪資呢?

我們使用python抓取了2017年6月26日拉鉤網站內搜索“數據分析”關鍵詞下的450條職位信息。通過對這些職位信息的分析和建模來給你答案。

 

[[200048]] 

本系列文章共分為五個部分,分別是數據分析職位信息抓取,數據清洗及預處理,數據分析職位需求分析,數據分析職位薪影響因素分析,以及數據分析職位薪資建模及預測。這是***篇:數據分析職位信息抓取。

數據抓取前的準備工作

首先我們需要獲取職位信息的數據,方法是使用python進行抓取。整個抓取過程分為兩部分,***部分是抓取拉鉤列表頁中包含的職位信息,例如職位名稱,薪資范圍,學歷要求,工作地點等。第二部分是抓取每個職位詳情頁中的任職資格和職位描述信息。然后我們將使用結巴分詞和nltk對職位描述中的文字信息進行處理和信息提取。下面我們開始介紹每一步的操作過程。

首先,導入抓取和數據處理所需的庫文件,這里不再贅述。

  1. #導入抓取所需庫文件 
  2. import requests 
  3. import numpy as np 
  4. import pandas as pd 
  5. import json 
  6. import time 
  7. from bs4 import BeautifulSoup  

然后設置頭部信息和Cookie信息。

  1. #設置頭部信息 
  2. headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11'
  3.     'Accept':'text/html;q=0.9,*/*;q=0.8'
  4.     'Accept-Charset':'ISO-8859-1,utf-8;q=0.7,*;q=0.3'
  5.     'Connection':'close'
  6.     'Referer':'https://www.baidu.com/' 
  7.     } 
  8.   
  9. #設置Cookie信息 
  10. cookie={'TrackID':'1_VWwvLYiy1FUr7wSr6HHmHhadG8d1-Qv-TVaw8JwcFG4EksqyLyx1SO7O06_Y_XUCyQMksp3RVb2ezA'
  11.     '__jda':'122270672.1507607632.1423495705.1479785414.1479794553.92'
  12.     '__jdb':'122270672.1.1507607632|92.1479794553'
  13.     '__jdc':'122270672'
  14.     '__jdu':'1507607632'
  15.     '__jdv':'122270672|direct|-|none|-|1478747025001'
  16.     'areaId':'1'
  17.     'cn':'0'
  18.     'ipLoc-djd':'1-72-2799-0'
  19.     'ipLocation':'%u5317%u4EAC'
  20.     'mx':'0_X'
  21.     'rkv':'V0800'
  22.     'user-key':'216123d5-4ed3-47b0-9289-12345'
  23.     'xtest':'4657.553.d9798cdf31c02d86b8b81cc119d94836.b7a782741f667201b54880c925faec4b' 

抓取職位列表信息

設置要抓取的頁面URL,拉鉤的職位信息列表是JS動態加載的,不在所顯示的頁面URL中。所以直接抓取列表頁并不能獲得職位信息。這里我們使用Chrome瀏覽器里的開發者工具進行查找。具體方法是在商品詳情頁點擊鼠標右鍵,選擇檢查,在彈出的開發者工具界面中選擇Network,設置為禁用緩存(Disable cache)和只查看XHR類型的請求。然后刷新頁面。一共有4個請求,選擇包含positionAjax關鍵字的鏈接就是我們要抓取的URL地址。具體過程如下面截圖所示。

 

這里有一個問題,要抓取的URL地址中只有***頁的15個職位信息,并且URL參數中也沒有包含頁碼。而我們要抓取的是全部30多頁的職位列表。如何翻頁呢?后面我們將解決這個問題。

  1. #設置抓取頁面的URL 
  2.  
  3. url='https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false'  

職位列表中包含了多個職位相關的信息,我們先建立一些空list用于存儲這些信息。

  1. #創建list用于存儲數據 
  2. positionName=[] 
  3. workYear=[] 
  4. education=[] 
  5. district=[] 
  6. jobNature=[] 
  7. salary=[] 
  8. city=[] 
  9. businessZones=[] 
  10. companyLabelList=[] 
  11. companySize=[] 
  12. financeStage=[] 
  13. industryField=[] 
  14. secondType=[] 
  15. positionId=[]  

開始抓取列表頁中的職位信息,建立一個30頁的循環然后將頁碼作為請求參數與頭部信息和Cookie一起傳給服務器。獲取返回的信息后對頁面內容進行解碼,然后從json數據中提取所需的職位信息,并保存在上一步創建的list中。用于后續的組表。這里的***一個信息是職位id,也就是拉鉤職位詳情頁URL中的一部分。通過這個id我們可以生成與列表頁職位相對應的詳情頁URL。并從中提取任職資格和職位描述信息。

  1. #循環抓取列表頁信息 
  2. for x in range(1,31): 
  3.         #設置查詢關鍵詞及當前頁碼 
  4.         para = {'first''true','pn': x, 'kd'"數據分析"
  5.         #抓取列表頁信息 
  6.         r=requests.get(url=url,headers=headers,cookies=cookie,params=para) 
  7.         #存儲bytes型頁面數據 
  8.         html=r.content 
  9.         #對頁面內容進行解碼 
  10.         html = html.decode() 
  11.         #將json串轉化為dict 
  12.         html_json=json.loads(html) 
  13.         #逐層獲取職位列表信息 
  14.         content=html_json.get('content'
  15.         positionResult=content.get('positionResult'
  16.         result=positionResult.get('result'
  17.         #循環提取職位列表中的關鍵信息 
  18.         for i in result: 
  19.             #獲取職位名稱,工作年限,教育程度,城市及薪資范圍等信息。 
  20.             positionName.append(i.get('positionName')) 
  21.             workYear.append(i.get('workYear')) 
  22.             education.append(i.get('education')) 
  23.             district.append(i.get('district')) 
  24.             jobNature.append(i.get('jobNature')) 
  25.             salary.append(i.get('salary')) 
  26.             city.append(i.get('city')) 
  27.             businessZones.append(i.get('businessZones')) 
  28.             companyLabelList.append(i.get('companyLabelList')) 
  29.             companySize.append(i.get('companySize')) 
  30.             financeStage.append(i.get('financeStage')) 
  31.             industryField.append(i.get('industryField')) 
  32.             secondType.append(i.get('secondType')) 
  33.             #獲取職位的Id編碼。 
  34.             positionId.append(i.get('positionId'))  

設置一個當前的日期字段,用于標記數據獲取的時間。

  1. #設置日期字段 
  2. date=time.strftime('%Y-%m-%d',time.localtime(time.time()))  

將前面抓取到的職位信息,以及當前的日期一起組成Dataframe。便于后續的處理和分析。

  1. #設置DataFrame表格順序 
  2. columns = ['date','positionName',  
  3.   
  4. 'workYear','education','jobNature','businessZones','salary','city','companyLabelList','companySize','financeStage','industryField','d 
  5.   
  6. istrict','secondType','positionId'] 
  7. #將獲取到的字段信息合并為DataFrame 
  8. table=pd.DataFrame({'date':date
  9.                     'positionName':positionName, 
  10.                     'workYear':workYear, 
  11.                     'education':education, 
  12.                     'jobNature':jobNature, 
  13.                     'businessZones':businessZones, 
  14.                     'salary':salary, 
  15.                     'city':city, 
  16.                     'companyLabelList':companyLabelList, 
  17.                     'companySize':companySize, 
  18.                     'financeStage':financeStage, 
  19.                     'industryField':industryField, 
  20.                     'district':district, 
  21.                     'secondType':secondType, 
  22.                     'positionId':positionId}, 
  23.                     columns=columns)  

查看生成的數據表,其中包含了我們在列表頁中抓取的信息,以及下一步要使用的職位id信息。

  1. #查看數據表 
  2.  
  3. table 

 

這里你可以保存一個版本,也可以忽略這一步,繼續后面的職位詳情頁信息抓取。

  1. #存儲數據表 
  2.  
  3. table.to_csv('lagou_' + date + '.csv' 

抓取職位詳情信息(職位描述)

抓取職位詳情頁的信息,首先需要通過拼接生成職位詳情頁的URL。我們預先寫好URL的開始和結束部分,這兩部分是固定的,抓取過程中不會發生變化 ,中間動態填充職位的id。

  1. #設置詳情頁的URL固定部分 
  2.  
  3. url1='https://www.lagou.com/jobs/' 
  4.  
  5. url2='.html'  

創建一個list用于存儲抓取到的職位描述信息。

  1. #創建job_detail用于存儲職位描述 
  2.  
  3. job_detail=[]  

從前面抓取的職位id(positionId)字段循環提取每一個id信息,與URL的另外兩部分組成要抓取的職位詳情頁URL。并從中提取職位描述信息。這里的職位信息不是js動態加載的,因此直接抓取頁面信息保存在之前創建的list中就可以了。

  1. #循環抓取詳情頁的職位描述 
  2. for d in positionId: 
  3.     #更改positionId格式 
  4.     d=str(d) 
  5.     #拼接詳情頁URL 
  6.     url3=(url1 + d + url2) 
  7.     #抓取詳情頁信息 
  8.     r=requests.get(url=url3,headers=headers,cookies=cookie) 
  9.     #存儲bytes型頁面數據yu 
  10.     detail=r.content 
  11.     #創建 beautifulsoup 對象 
  12.     lagou_detail=BeautifulSoup(detail) 
  13.     #提取職位描述信息 
  14.     gwzz=lagou_detail.find_all('dd',attrs={'class':'job_bt'})    
  15.     for j in gwzz: 
  16.         gwzz_text=j.get_text() 
  17.         job_detail.append(gwzz_text)  

查看并檢查一下提取到的職位描述信息。然后將職位描述信息拼接到之前創建的Dataframe中。

  1. #查看職位描述信息 
  2.  
  3. job_detail 

 

 

完整的職位抓取代碼

以下是完整的抓取代碼,步驟和前面介紹的略有不同,***生成一個包含所有職位信息和描述的完整數據表。用于下一步的數據清洗,預處理,分析和建模的工作。

  1. def lagou(p): 
  2.     import requests 
  3.     import numpy as np 
  4.     import pandas as pd 
  5.     import json 
  6.     import time 
  7.     from bs4 import BeautifulSoup 
  8.     import jieba as jb 
  9.     import jieba.analyse 
  10.     headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11'
  11.     'Accept':'text/html;q=0.9,*/*;q=0.8'
  12.     'Accept-Charset':'ISO-8859-1,utf-8;q=0.7,*;q=0.3'
  13.     'Connection':'close'
  14.     'Referer':'https://www.jd.com/' 
  15.     } 
  16.     cookie={'TrackID':'1_VWwvLYiy1FUr7wSr6HHmHhadG8d1-Qv-TVaw8JwcFG4EksqyLyx1SO7O06_Y_XUCyQMksp3RVb2ezA'
  17.     '__jda':'122270672.1507607632.1423495705.1479785414.1479794553.92'
  18.     '__jdb':'122270672.1.1507607632|92.1479794553'
  19.     '__jdc':'122270672'
  20.     '__jdu':'1507607632'
  21.     '__jdv':'122270672|direct|-|none|-|1478747025001'
  22.     'areaId':'1'
  23.     'cn':'0'
  24.     'ipLoc-djd':'1-72-2799-0'
  25.     'ipLocation':'%u5317%u4EAC'
  26.     'mx':'0_X'
  27.     'rkv':'V0800'
  28.     'user-key':'216123d5-4ed3-47b0-9289-12345'
  29.     'xtest':'4657.553.d9798cdf31c02d86b8b81cc119d94836.b7a782741f667201b54880c925faec4b'
  30.     url='https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false' 
  31.     positionName=[] 
  32.     workYear=[] 
  33.     education=[] 
  34.     district=[] 
  35.     jobNature=[] 
  36.     salary=[] 
  37.     city=[] 
  38.     businessZones=[] 
  39.     companyLabelList=[] 
  40.     companySize=[] 
  41.     financeStage=[] 
  42.     industryField=[] 
  43.     secondType=[] 
  44.     positionId=[] 
  45.     for x in range(1,31): 
  46.         para = {'first''true','pn': x, 'kd': p} 
  47.         r=requests.get(url=url,headers=headers,cookies=cookie,params=para) 
  48.         html=r.content 
  49.         html = html.decode() 
  50.         html_json=json.loads(html) 
  51.         content=html_json.get('content'
  52.         positionResult=content.get('positionResult'
  53.         result=positionResult.get('result'
  54.         for i in result: 
  55.             positionName.append(i.get('positionName')) 
  56.             workYear.append(i.get('workYear')) 
  57.             education.append(i.get('education')) 
  58.             district.append(i.get('district')) 
  59.             jobNature.append(i.get('jobNature')) 
  60.             salary.append(i.get('salary')) 
  61.             city.append(i.get('city')) 
  62.             businessZones.append(i.get('businessZones')) 
  63.             companyLabelList.append(i.get('companyLabelList')) 
  64.             companySize.append(i.get('companySize')) 
  65.             financeStage.append(i.get('financeStage')) 
  66.             industryField.append(i.get('industryField')) 
  67.             secondType.append(i.get('secondType')) 
  68.             positionId.append(i.get('positionId')) 
  69.     url1='https://www.lagou.com/jobs/' 
  70.     url2='.html' 
  71.     job_detail=[] 
  72.     for d in positionId: 
  73.         d=str(d) 
  74.         url3=(url1 + d + url2) 
  75.         r=requests.get(url=url3,headers=headers,cookies=cookie) 
  76.         detail=r.content 
  77.         lagou_detail=BeautifulSoup(detail) 
  78.         gwzz=lagou_detail.find_all('dd',attrs={'class':'job_bt'})    
  79.         for j in gwzz: 
  80.             gwzz_text=j.get_text() 
  81.             job_detail.append(gwzz_text) 
  82.     date=time.strftime('%Y-%m-%d',time.localtime(time.time())) 
  83.     columns = ['date','positionName''workYear','education','jobNature','businessZones','salary','city','companyLabelList','companySize','financeStage','industryField','district','secondType','positionId','job_detail'
  84.     table=pd.DataFrame({'date':date
  85.                         'positionName':positionName, 
  86.                         'workYear':workYear, 
  87.                         'education':education, 
  88.                         'jobNature':jobNature, 
  89.                         'businessZones':businessZones, 
  90.                         'salary':salary, 
  91.                         'city':city, 
  92.                         'companyLabelList':companyLabelList, 
  93.                         'companySize':companySize, 
  94.                         'financeStage':financeStage, 
  95.                         'industryField':industryField, 
  96.                         'district':district, 
  97.                         'secondType':secondType, 
  98.                         'positionId':positionId, 
  99.                         'job_detail':job_detail}, 
  100.                         columns=columns) 
  101.     table.to_csv('lagou_' + p + date + '.csv'
  102.   
  103. lagou("數據分析"

   

到這里我們已經獲取了拉鉤網的450個數據分析職位信息及職位描述。我們將在后面的文章中對這450個職位信息進行分析和建模。

責任編輯:龐桂玉 來源: 36大數據
相關推薦

2017-08-15 16:05:18

大數據數據分析薪資秘密

2023-09-11 08:51:23

LinkedList雙向鏈表線程

2021-06-17 13:40:47

區塊鏈比特幣公有鏈

2019-11-04 09:07:48

DevOps互聯網IT

2019-04-24 08:31:43

分布式限流kafka

2020-03-18 18:20:19

區塊鏈數字貨幣比特幣

2018-11-28 10:39:01

5G網絡運營商

2021-07-01 09:00:00

安全數字化轉型滲透

2018-03-31 08:45:52

iPhone交通卡iOS 11.3

2019-04-26 09:38:36

中臺平臺化轉型

2021-02-23 09:28:48

大數據數據分析

2022-11-08 15:55:34

鴻蒙開發套件

2017-01-11 08:37:07

Apache SparStreamingDataFrames

2021-07-02 14:09:36

開發技能代碼

2015-10-12 15:50:40

2017-12-13 14:24:08

Google 開發者瀏覽器

2018-05-10 08:50:31

AndroidGoogle 移動系統

2019-10-29 15:28:40

Refs組件前端

2018-08-23 11:58:53

區塊鏈數字貨幣比特幣

2022-09-15 14:22:19

協作規范前后端
點贊
收藏

51CTO技術棧公眾號

欧美在线观看在线观看| 亚洲精品一区二区三区av| 涩视频在线观看| 俺来也官网欧美久久精品| 91丨九色porny丨蝌蚪| 一本色道久久88亚洲综合88| 国产freexxxx性播放麻豆| 亚洲欧美日韩成人在线| 日本欧美在线观看| 久久久久久成人精品| 性猛交娇小69hd| 日韩精品美女| 国产精品久久看| 国产精品一区二区三区免费| 中文字幕人妻一区二区三区视频 | 久久精品91久久久久久再现| 菠萝菠萝蜜网站| 欧美a级大片在线| 色诱亚洲精品久久久久久| 日本精品福利视频| jizz在线免费观看| 91免费小视频| 成人资源视频网站免费| 国产精品久久久久久无人区| 男女精品视频| 欧美精品久久久久久久免费观看| 天堂资源在线视频| 亚洲制服欧美另类| 亚洲精品720p| 熟女人妻一区二区三区免费看| 精品成人av| 久久久久久久综合狠狠综合| 99精品国产高清一区二区| 亚洲熟女乱色一区二区三区久久久| 99精品久久久| 久久久久亚洲精品国产| 无码人妻精品一区二区三区夜夜嗨 | 日本韩国一区二区| 欧美伦理在线视频| 亚洲一区视频在线观看视频| 夜夜春亚洲嫩草影视日日摸夜夜添夜| 久久国产黄色片| 深夜视频一区二区| 黑人狂躁日本妞一区二区三区| 色哟哟一区二区三区| 永久免费精品视频网站| 国产精品视频一区二区久久| 99视频有精品| 含羞草久久爱69一区| 天天干天天爱天天操| 国产成人aaa| av色综合网| 亚洲第一免费视频| 成人一区在线观看| 国产一区喷水| 天天干天天爽天天操| 91在线小视频| 日本最新高清不卡中文字幕| www.国产高清| 亚洲在线日韩| 日本aⅴ大伊香蕉精品视频| 老熟妇仑乱一区二区av| 日韩成人一级片| 国产免费亚洲高清| 国产同性人妖ts口直男| 国产精品99久久久久久似苏梦涵| 91成人伦理在线电影| 毛片视频网站在线观看| 香蕉久久久久久久av网站| 秋霞午夜一区二区| 亚洲特级黄色片| 国产一二精品视频| 国产成人精品久久| 国产精品51麻豆cm传媒 | 日韩wuma| 亚洲精品网站在线| av中文字幕亚洲| 欧美中日韩免费视频| 天堂а√在线资源在线| 亚洲精品成a人| 日韩中字在线观看| 亚洲精品555| 日韩精品一区二区三区在线观看| 丝袜熟女一区二区三区| av一区二区在线播放| 欧美精品制服第一页| 国偷自拍第113页| 日韩福利视频导航| 99se婷婷在线视频观看| 欧美婷婷久久五月精品三区| 成人欧美一区二区三区1314| 欧美最大成人综合网| 日本美女在线中文版| 亚洲成人av资源| 中国老女人av| 阿v视频在线观看| 欧美三日本三级三级在线播放| 午夜影院免费观看视频| 日韩av网址大全| www.日韩免费| 国产手机在线视频| 久久精品久久精品| 国产一区二区三区四区五区在线| 99精品老司机免费视频| 婷婷综合在线观看| 午夜av中文字幕| 亚洲一区二区三区久久久| 亚洲韩国日本中文字幕| 亚洲欧美另类日本| 午夜在线观看免费一区| 99re6热在线精品视频播放速度| 免费在线国产| 午夜精品久久久久久久久久 | 久草视频这里只有精品| 91亚洲精品| 国产视频精品一区二区三区| 精品爆乳一区二区三区无码av| 日本网站在线观看一区二区三区| 精品国产一区二区三区四区精华| 黄色在线论坛| 欧美吞精做爰啪啪高潮| av在线网站观看| 一区免费在线| 成人高清在线观看| www.在线视频| 91精品国产欧美一区二区18| 亚洲精品国产熟女久久久| 亚洲人人精品| 国产精品免费看一区二区三区| 日本中文字幕在线视频| 色激情天天射综合网| 国产精品三级在线观看无码| 亚洲视频免费| 国产精品青青草| 欧美人与性动交α欧美精品图片| 91麻豆精品国产91久久久更新时间| 国产熟女高潮一区二区三区 | 精品无码久久久久| 国产一区二区三区免费观看| 视频在线99re| 忘忧草在线影院两性视频| 亚洲成年人在线| 国产无遮挡aaa片爽爽| 亚洲毛片在线| 国产在线精品日韩| 国产乱码精品一区二三赶尸艳谈| 精品福利二区三区| 日韩精品一区二区av| 成人深夜视频在线观看| 精品视频在线观看一区| 国产精品香蕉| 97视频免费看| 欧美男男激情freegay| 色综合久久中文综合久久牛| 欧美做受高潮6| 狂野欧美性猛交xxxx巴西| 日本精品一区二区三区高清 久久| 亚洲天堂一区二区| 在线性视频日韩欧美| 88av在线视频| 亚洲免费观看高清完整| 亚洲黄色小说在线观看| 99视频精品免费观看| 欧美精品一区二区三区在线看午夜| 在线视频超级| 中文字幕日韩有码| 国产手机视频在线| 亚洲成av人片一区二区三区| xxxxx在线观看| 久久国产精品露脸对白| 久久久久久久久久码影片| 校园春色亚洲| 色哟哟网站入口亚洲精品| 国产丰满美女做爰| 欧美激情综合五月色丁香| 三级a三级三级三级a十八发禁止| 美女午夜精品| 国产精品成人免费视频| av在线播放观看| 亚洲精品福利在线| 中文字幕福利视频| 亚洲蜜臀av乱码久久精品蜜桃| 中文字幕天堂网| 人妖欧美一区二区| 国产精品国三级国产av| 九九亚洲视频| 99re国产视频| 黄色精品视频| 欧美精品激情在线| 成年人视频在线观看免费| 制服丝袜亚洲色图| 中文字幕av影院| 亚洲欧洲国产日韩| 日韩片在线观看| 狠狠色狠狠色合久久伊人| 欧美亚洲精品一区二区| 99ri日韩精品视频| 国产精品精品视频一区二区三区| 色av手机在线| 在线播放日韩欧美| 国产91绿帽单男绿奴| 亚洲美女视频在线观看| 播金莲一级淫片aaaaaaa| 国产精品一品二品| 在线免费观看视频黄| 亚洲美女啪啪| 男同互操gay射视频在线看| 亚洲婷婷伊人| 国产日韩精品久久| 国产 日韩 欧美| 国产成人福利网站| 蜜桃视频在线观看播放| 欧美肥婆姓交大片| 日本不卡在线| 永久免费精品影视网站| 天堂а在线中文在线无限看推荐| 日韩午夜在线观看视频| 久久网免费视频| 国产精品久久久久永久免费观看| 菠萝菠萝蜜网站| 成人精品国产免费网站| 一级日本黄色片| 美国av一区二区| 日日噜噜噜噜久久久精品毛片| 国产精品免费看| 可以看毛片的网址| 欧美精品观看| 2021狠狠干| 久久久久电影| 一区在线电影| 99久久精品费精品国产| 亚洲视频小说| 久久国产亚洲| 一本一本a久久| 91综合网人人| 欧美亚洲视频一区| 四虎8848精品成人免费网站| 性欧美.com| 日韩精品久久久久久久电影99爱| 神马影院午夜我不卡| 精品亚洲成人| 日韩一区二区电影在线观看| 欧美老女人另类| 午夜精品视频在线观看一区二区| 国产探花在线精品| 三区精品视频| 欧美电影《轻佻寡妇》| 中文字幕在线亚洲三区| 性欧美69xoxoxoxo| 国产香蕉一区二区三区| 午夜欧美视频| 国产无限制自拍| 亚洲综合欧美| 一区二区三区入口| 久草中文综合在线| 国产成人精品综合久久久久99 | 久久精品aaaaaa毛片| 亚洲高清极品| 台湾成人av| 91精品国产视频| 成人在线免费观看视频网站| 亚洲高清免费| 女人另类性混交zo| 麻豆精品国产传媒mv男同| 婷婷激情5月天| 国产成人av影院| 亚洲调教欧美在线| 欧美高清在线精品一区| 国产免费一区二区三区四区| 一区二区成人在线| 好看的av在线| 欧美日本精品一区二区三区| 亚洲国产成人在线观看| 亚洲欧美日韩国产成人| 伊人在线视频| 久久久伊人欧美| 日韩漫画puputoon| y111111国产精品久久婷婷| 亚洲另类春色校园小说| 最近看过的日韩成人| 亚洲国产影院| 色婷婷.com| 99精品视频一区二区| 亚洲激情图片网| 亚洲午夜免费福利视频| 中文字幕欧美人妻精品| 亚洲成av人片在线观看香蕉| 91视频在线观看| 久久噜噜噜精品国产亚洲综合 | 91香蕉视频污在线观看| 午夜视频一区在线观看| 一区二区www| 日韩电影免费在线观看中文字幕| 五月天婷婷在线视频| 91国产美女视频| www一区二区三区| 欧美日韩高清在线一区| 午夜久久黄色| 日本人视频jizz页码69| 99免费精品视频| 紧身裙女教师波多野结衣| 日韩欧美高清在线视频| 性欧美8khd高清极品| 少妇高潮久久77777| 麻豆网站免费在线观看| 91久久久一线二线三线品牌| 欧美日中文字幕| 5月婷婷6月丁香| 国产精品中文有码| 精品伦精品一区二区三区视频密桃| 亚洲成人在线网站| av一区二区三| 日韩一区二区欧美| 欧美黑人疯狂性受xxxxx野外| 国产超碰91| 亚洲人成免费网站| 日韩一区二区三区不卡视频| 久久女同互慰一区二区三区| 黄色激情视频在线观看| 日韩视频中午一区| 免费看a在线观看| 国产精品入口尤物| 欧美日韩激情| 最近免费中文字幕中文高清百度| 99精品一区二区| 国产精品视频久久久久久久| 亚洲第一色中文字幕| 欧美女同一区| 91免费版网站在线观看| 久久久9色精品国产一区二区三区| 亚洲欧美国产日韩综合| 欧美激情一区二区三区不卡| 欧美一区二区三区久久久| 日韩精品极品视频免费观看| 成人爽a毛片免费啪啪动漫| 99国产超薄肉色丝袜交足的后果 | 欧美激情一区二区三区高清视频| 99久久这里有精品| 美女黄色片网站| 国产一区二三区| 91在线播放观看| 日韩一区二区免费在线电影 | 亚洲国产精品一区二区尤物区| 亚洲av色香蕉一区二区三区| 欧美日产国产成人免费图片| 一区二区精彩视频| 黄色特一级视频| 成人h动漫精品| 久草视频在线观| 亚洲一区二区精品| 免费一级欧美在线观看视频| 免费观看黄色的网站| 国产精品一区二区不卡| 国产无套在线观看| 亚洲欧美制服第一页| 69堂精品视频在线播放| 亚洲欧美国产不卡| 国产精品系列在线播放| 国产亚洲小视频| 日韩精品在线免费观看视频| 你懂得影院夜精品a| 水蜜桃亚洲一二三四在线| 精品一区二区日韩| 久久伊人成人网| 亚洲精品一区二三区不卡| 欧美成人app| 日本道在线视频| 92精品国产成人观看免费| 亚洲午夜无码久久久久| 久久亚洲精品一区二区| 粉嫩的18在线观看极品精品| 免费av网址在线| 亚洲欧美在线aaa| 天堂av资源在线| 国产精品69久久久久| 68国产成人综合久久精品| 污污污www精品国产网站| 欧美在线视频全部完| 午夜成年人在线免费视频| 久久国产精品久久| 国产一区欧美日韩| 五月天激情国产综合婷婷婷| 综合网日日天干夜夜久久| av不卡一区二区| 九色porny91| 亚洲永久精品国产| 成人好色电影| 国产一区二区三区奇米久涩| 久久超碰97人人做人人爱| 日韩高清精品免费观看| 最近中文字幕mv在线一区二区三区四区 | 欧美日韩亚洲综合一区二区三区| 日韩影视在线| 视频一区亚洲| 91在线你懂得| 国产黄a三级三级看三级| 国产高清在线不卡| 亚洲激情在线| 久久久久久久久久久久久女过产乱| 国产视频在线一区二区|