精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

適合新手小白的幾個練習(xí)Python爬蟲的實戰(zhàn)

開發(fā) 項目管理
下面我們介紹幾個非常簡單入門的爬蟲項目,相信不會再出現(xiàn)那種直接勸退的現(xiàn)象啦!

經(jīng)常有新手小白在學(xué)習(xí)完 Python 的基礎(chǔ)知識之后,不知道該如何進(jìn)一步提升編碼水平,那么此時找一些友好的網(wǎng)站來練習(xí)爬蟲可能是一個比較好的方法,因為高級爬蟲本身就需要掌握很多知識點,以爬蟲作為切入點,既可以掌握鞏固 Python 知識,也可能在未來學(xué)習(xí)接觸到更多其他方面的知識,比如分布式,多線程等等,何樂而不為呢!

下面我們介紹幾個非常簡單入門的爬蟲項目,相信不會再出現(xiàn)那種直接勸退的現(xiàn)象啦!

豆瓣

豆瓣作為國民級網(wǎng)站,在爬蟲方面也非常友好,幾乎沒有設(shè)置任何反爬措施,以此網(wǎng)站來練手實在是在適合不過了。

評論爬取

我們以如下地址為例子

https://movie.douban.com/subject/3878007/

可以看到這里需要進(jìn)行翻頁處理,通過觀察發(fā)現(xiàn),評論的URL如下:

https://movie.douban.com/subject/3878007/comments?start=0&limit=20&sort=new_score&status=P&percent_type=l

每次翻一頁,start都會增長20,由此可以寫代碼如下

def get_praise():
praise_list = []
for i in range(0, 2000, 20):
url = 'https://movie.douban.com/subject/3878007/comments?start=%s&limit=20&sort=new_score&status=P&percent_type=h' % str(i)
req = requests.get(url).text
content = BeautifulSoup(req, "html.parser")
check_point = content.title.string
if check_point != r"沒有訪問權(quán)限":
comment = content.find_all("span", attrs={"class": "short"})
for k in comment:
praise_list.append(k.string)
else:
break
return

使用range函數(shù),步長設(shè)置為20,同時通過title等于“沒有訪問權(quán)限”來作為翻頁的終點。

下面繼續(xù)分析評論等級。

豆瓣的評論是分為三個等級的,這里分別獲取,方便后面的繼續(xù)分析

def get_ordinary():
ordinary_list = []
for i in range(0, 2000, 20):
url = 'https://movie.douban.com/subject/3878007/comments?start=%s&limit=20&sort=new_score&status=P&percent_type=m' % str(i)
req = requests.get(url).text
content = BeautifulSoup(req, "html.parser")
check_point = content.title.string
if check_point != r"沒有訪問權(quán)限":
comment = content.find_all("span", attrs={"class": "short"})
for k in comment:
ordinary_list.append(k.string)
else:
break
return

def get_lowest():
lowest_list = []
for i in range(0, 2000, 20):
url = 'https://movie.douban.com/subject/3878007/comments?start=%s&limit=20&sort=new_score&status=P&percent_type=l' % str(i)
req = requests.get(url).text
content = BeautifulSoup(req, "html.parser")
check_point = content.title.string
if check_point != r"沒有訪問權(quán)限":
comment = content.find_all("span", attrs={"class": "short"})
for k in comment:
lowest_list.append(k.string)
else:
break
return

其實可以看到,這里的三段區(qū)別主要在請求URL那里,分別對應(yīng)豆瓣的好評,一般和差評。

最后把得到的數(shù)據(jù)保存到文件里。

if __name__ == "__main__":
print("Get Praise Comment")
praise_data = get_praise()
print("Get Ordinary Comment")
ordinary_data = get_ordinary()
print("Get Lowest Comment")
lowest_data = get_lowest()
print("Save Praise Comment")
praise_pd = pd.DataFrame(columns=['praise_comment'], data=praise_data)
praise_pd.to_csv('praise.csv', encoding='utf-8')
print("Save Ordinary Comment")
ordinary_pd = pd.DataFrame(columns=['ordinary_comment'], data=ordinary_data)
ordinary_pd.to_csv('ordinary.csv', encoding='utf-8')
print("Save Lowest Comment")
lowest_pd = pd.DataFrame(columns=['lowest_comment'], data=lowest_data)
lowest_pd.to_csv('lowest.csv', encoding='utf-8')
print("THE END!!!")

制作詞云

這里使用jieba來分詞,使用wordcloud庫制作詞云,還是分成三類,同時去掉了一些干擾詞,比如“一部”、“一個”、“故事”和一些其他名詞,操作都不是很難,直接上代碼。

import jieba
import pandas as pd
from wordcloud import WordCloud
import numpy as np
from PIL import Image

font = r'C:\Windows\Fonts\FZSTK.TTF'
STOPWORDS = set(map(str.strip, open('stopwords.txt').readlines()))


def wordcloud_praise():
df = pd.read_csv('praise.csv', usecols=[1])
df_list = df.values.tolist()
comment_after = jieba.cut(str(df_list), cut_all=False)
words = ' '.join(comment_after)
img = Image.open('haiwang8.jpg')
img_array = np.array(img)
wc = WordCloud(width=2000, height=1800, background_color='white', font_path=font, mask=img_array, stopwords=STOPWORDS)
wc.generate(words)
wc.to_file('praise.png')


def wordcloud_ordinary():
df = pd.read_csv('ordinary.csv', usecols=[1])
df_list = df.values.tolist()
comment_after = jieba.cut(str(df_list), cut_all=False)
words = ' '.join(comment_after)
img = Image.open('haiwang8.jpg')
img_array = np.array(img)
wc = WordCloud(width=2000, height=1800, background_color='white', font_path=font, mask=img_array, stopwords=STOPWORDS)
wc.generate(words)
wc.to_file('ordinary.png')


def wordcloud_lowest():
df = pd.read_csv('lowest.csv', usecols=[1])
df_list = df.values.tolist()
comment_after = jieba.cut(str(df_list), cut_all=False)
words = ' '.join(comment_after)
img = Image.open('haiwang7.jpg')
img_array = np.array(img)
wc = WordCloud(width=2000, height=1800, background_color='white', font_path=font, mask=img_array, stopwords=STOPWORDS)
wc.generate(words)
wc.to_file('lowest.png')


if __name__ == "__main__":
print("Save praise wordcloud")
wordcloud_praise()
print("Save ordinary wordcloud")
wordcloud_ordinary()
print("Save lowest wordcloud")
wordcloud_lowest()
print("THE END!!!")

圖片

海報爬取

對于海報的爬取,其實也十分類似,直接給出代碼

import requests
import json


def deal_pic(url, name):
pic = requests.get(url)
with open(name + '.jpg', 'wb') as f:
f.write(pic.content)


def get_poster():
for i in range(0, 10000, 20):
url = 'https://movie.douban.com/j/new_search_subjects?sort=U&range=0,10&tags=電影&start=%s&genres=愛情' % i
req = requests.get(url).text
req_dict = json.loads(req)
for j in req_dict['data']:
name = j['title']
poster_url = j['cover']
print(name, poster_url)
deal_pic(poster_url, name)


if __name__ == "__main__":
get_poster()

爛番茄網(wǎng)站

這是一個國外的電影影評網(wǎng)站,也比較適合新手練習(xí),網(wǎng)址如下

https://www.rottentomatoes.com/tv/game_of_thrones

圖片

我們就以權(quán)力的游戲作為爬取例子。

import requests
from bs4 import BeautifulSoup
from pyecharts.charts import Line
import pyecharts.options as opts
from wordcloud import WordCloud
import jieba


baseurl = 'https://www.rottentomatoes.com'


def get_total_season_content():
url = 'https://www.rottentomatoes.com/tv/game_of_thrones'
response = requests.get(url).text
content = BeautifulSoup(response, "html.parser")
season_list = []
div_list = content.find_all('div', attrs={'class': 'bottom_divider media seasonItem '})
for i in div_list:
suburl = i.find('a')['href']
season = i.find('a').text
rotten = i.find('span', attrs={'class': 'meter-value'}).text
consensus = i.find('div', attrs={'class': 'consensus'}).text.strip()
season_list.append([season, suburl, rotten, consensus])
return season_list


def get_season_content(url):
# url = 'https://www.rottentomatoes.com/tv/game_of_thrones/s08#audience_reviews'
response = requests.get(url).text
content = BeautifulSoup(response, "html.parser")
episode_list = []
div_list = content.find_all('div', attrs={'class': 'bottom_divider'})
for i in div_list:
suburl = i.find('a')['href']
fresh = i.find('span', attrs={'class': 'tMeterScore'}).text.strip()
episode_list.append([suburl, fresh])
return episode_list[:5]


mylist = [['/tv/game_of_thrones/s08/e01', '92%'],
['/tv/game_of_thrones/s08/e02', '88%'],
['/tv/game_of_thrones/s08/e03', '74%'],
['/tv/game_of_thrones/s08/e04', '58%'],
['/tv/game_of_thrones/s08/e05', '48%'],
['/tv/game_of_thrones/s08/e06', '49%']]


def get_episode_detail(episode):
# episode = mylist
e_list = []
for i in episode:
url = baseurl + i[0]
# print(url)
response = requests.get(url).text
content = BeautifulSoup(response, "html.parser")
critic_consensus = content.find('p', attrs={'class': 'critic_consensus superPageFontColor'}).text.strip().replace(' ', '').replace('\n', '')
review_list_left = content.find_all('div', attrs={'class': 'quote_bubble top_critic pull-left cl '})
review_list_right = content.find_all('div', attrs={'class': 'quote_bubble top_critic pull-right '})
review_list = []
for i_left in review_list_left:
left_review = i_left.find('div', attrs={'class': 'media-body'}).find('p').text.strip()
review_list.append(left_review)
for i_right in review_list_right:
right_review = i_right.find('div', attrs={'class': 'media-body'}).find('p').text.strip()
review_list.append(right_review)
e_list.append([critic_consensus, review_list])
print(e_list)


if __name__ == '__main__':
total_season_content = get_total_season_content()

王者英雄網(wǎng)站

我這里選取的是如下網(wǎng)站

http://db.18183.com/

圖片

import requests
from bs4 import BeautifulSoup


def get_hero_url():
print('start to get hero urls')
url = 'http://db.18183.com/'
url_list = []
res = requests.get(url + 'wzry').text
content = BeautifulSoup(res, "html.parser")
ul = content.find('ul', attrs={'class': "mod-iconlist"})
hero_url = ul.find_all('a')
for i in hero_url:
url_list.append(i['href'])
print('finish get hero urls')
return url_list


def get_details(url):
print('start to get details')
base_url = 'http://db.18183.com/'
detail_list = []
for i in url:
# print(i)
res = requests.get(base_url + i).text
content = BeautifulSoup(res, "html.parser")
name_box = content.find('div', attrs={'class': 'name-box'})
name = name_box.h1.text
hero_attr = content.find('div', attrs={'class': 'attr-list'})
attr_star = hero_attr.find_all('span')
survivability = attr_star[0]['class'][1].split('-')[1]
attack_damage = attr_star[1]['class'][1].split('-')[1]
skill_effect = attr_star[2]['class'][1].split('-')[1]
getting_started = attr_star[3]['class'][1].split('-')[1]
details = content.find('div', attrs={'class': 'otherinfo-datapanel'})
# print(details)
attrs = details.find_all('p')
attr_list = []
for attr in attrs:
attr_list.append(attr.text.split(':')[1].strip())
detail_list.append([name, survivability, attack_damage,
skill_effect, getting_started, attr_list])
print('finish get details')
return detail_list


def save_tocsv(details):
print('start save to csv')
with open('all_hero_init_attr_new.csv', 'w', encoding='gb18030') as f:
f.write('英雄名字,生存能力,攻擊傷害,技能效果,上手難度,最大生命,最大法力,物理攻擊,'
'法術(shù)攻擊,物理防御,物理減傷率,法術(shù)防御,法術(shù)減傷率,移速,物理護(hù)甲穿透,法術(shù)護(hù)甲穿透,攻速加成,暴擊幾率,'
'暴擊效果,物理吸血,法術(shù)吸血,冷卻縮減,攻擊范圍,韌性,生命回復(fù),法力回復(fù)\n')
for i in details:
try:
rowcsv = '{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{}'.format(
i[0], i[1], i[2], i[3], i[4], i[5][0], i[5][1], i[5][2], i[5][3], i[5][4], i[5][5],
i[5][6], i[5][7], i[5][8], i[5][9], i[5][10], i[5][11], i[5][12], i[5][13], i[5][14], i[5][15],
i[5][16], i[5][17], i[5][18], i[5][19], i[5][20]
)
f.write(rowcsv)
f.write('\n')
except:
continue
print('finish save to csv')


if __name__ == "__main__":
get_hero_url()
hero_url = get_hero_url()
details = get_details(hero_url)
save_tocsv(details)

好了,今天先分享這三個網(wǎng)站,咱們后面再慢慢分享更多好的練手網(wǎng)站與實戰(zhàn)代碼!

責(zé)任編輯:武曉燕 來源: 蘿卜大雜燴
相關(guān)推薦

2021-04-16 15:11:50

工具軟件網(wǎng)站

2020-11-09 14:26:30

GitHub 技術(shù)開源

2020-03-17 15:55:12

Redis數(shù)據(jù)庫命令

2011-01-11 09:03:24

2016-11-15 09:10:58

2021-06-03 18:42:26

Redis集群故障

2024-06-27 08:09:40

2020-12-29 14:47:01

人工智能機器學(xué)習(xí)交通

2010-04-13 14:10:58

寬帶無線貓快速配置

2021-05-28 11:47:43

Linux運維Linux系統(tǒng)

2010-06-14 19:13:28

網(wǎng)絡(luò)通信協(xié)議

2011-03-03 10:20:06

bash系統(tǒng)管理

2020-11-26 10:04:04

Java 編程開發(fā)

2017-08-22 17:30:14

Python爬蟲

2022-06-02 15:31:26

深度學(xué)習(xí)AI

2019-10-09 08:24:33

爬蟲框架Python

2016-01-18 13:30:17

LinuxLinux發(fā)行版新手

2023-10-11 11:24:08

SQL和PythonPython

2024-08-30 15:03:43

2019-08-20 15:01:05

Chrome 瀏覽器 插件
點贊
收藏

51CTO技術(shù)棧公眾號

精品久久97| 国产经典三级在线| 日本不卡高清视频| 久久精彩免费视频| 亚洲精品乱码久久久久久9色| 好看的中文字幕在线播放| 95精品视频在线| 国产精品欧美一区二区| 麻豆亚洲av熟女国产一区二| 亚洲区小说区| 91精品国产综合久久精品图片 | 在线看黄色av| 成人一区二区三区中文字幕| 青青草原成人在线视频| 成年人二级毛片| 日韩有码一区| 日韩一区二区高清| www.涩涩涩| 青青青免费在线视频| 亚洲色图清纯唯美| 日本精品一区二区三区视频| 国内精品偷拍视频| 日本不卡视频一二三区| 97在线免费观看视频| 麻豆明星ai换脸视频| 在线成人动漫av| 欧美精品一区视频| 色婷婷激情视频| 欧美日韩国产网站| 欧美日韩一区二区三区| 成人污网站在线观看| 福利在线午夜| 久久伊99综合婷婷久久伊| 99re视频| 国产乱码久久久| 麻豆国产精品一区二区三区| 日本精品视频在线播放| 国产在线观看成人| 亚洲精品中文字幕乱码| 一区二区国产精品视频| 黄色在线观看av| 卡通动漫国产精品| 欧美精品一区二区高清在线观看| 亚洲精品成人在线播放| 色猫猫成人app| 色噜噜久久综合| 国产精品va无码一区二区| 成人免费高清观看| 亚洲专区一二三| 2022中文字幕| 日本高清成人vr专区| 亚洲人成网站精品片在线观看| 五月婷婷综合色| 好男人免费精品视频| 91麻豆免费看| 久久亚洲高清| 三级理论午夜在线观看| www国产亚洲精品久久麻豆| 精品一区二区三区视频日产| 天堂av中文字幕| 波多野结衣精品在线| 国产精品日韩欧美一区二区| 丰满少妇一级片| 成人精品国产福利| 国产中文一区二区| 欧美色综合一区二区三区| 91免费精品国自产拍在线不卡| 久久久com| 可以免费看污视频的网站在线| 久久综合成人精品亚洲另类欧美 | 91av网站在线播放| 亚洲精品男人天堂| 肉丝袜脚交视频一区二区| 国产精品美女呻吟| 国产女人18毛片水18精| 国产成人av影院| 精品久久久久久乱码天堂| 人成在线免费视频| 欧美国产日韩亚洲一区| 夜夜春亚洲嫩草影视日日摸夜夜添夜| 五月婷婷在线视频| 亚洲最新在线观看| 青青草原av在线播放| 中文.日本.精品| 欧美精品乱码久久久久久| 国产成人精品一区二区三区在线观看| 国产精品对白久久久久粗| 精品亚洲一区二区三区在线播放 | 国内自拍视频一区| 日本午夜精品久久久久| 精品美女在线播放| 公侵犯人妻一区二区三区| 91欧美在线| 欧美激情第6页| 久久夜色精品国产噜噜亚洲av| 免费高清视频精品| 国产美女在线精品免费观看| 国产大片在线免费观看| 亚洲最大成人网4388xx| 成年人视频在线免费| 精品国产乱码一区二区三区| 亚洲精品久久久久久久久| 中文字幕伦理片| 欧美涩涩视频| 国产精品大陆在线观看| www国产在线| 久久久久成人黄色影片| 成人黄色片免费| gogo亚洲高清大胆美女人体| 欧美一区二区三区四区视频| 大黑人交xxx极品hd| 久久久久亚洲| 日本精品va在线观看| 国产欧美一级片| 久久噜噜亚洲综合| 无码 制服 丝袜 国产 另类| jvid一区二区三区| 亚洲精品久久久久中文字幕二区 | 性xxxx视频播放免费| 中文字幕欧美一| 97成人在线观看视频| 日韩激情综合| 中文字幕亚洲色图| 可以免费在线观看的av| 国产成人h网站| 久久免费看毛片| av在线一区不卡| 亚洲精品一区二区久| 国产一级av毛片| 国产一区在线观看麻豆| 亚洲人成影视在线观看| 外国电影一区二区| 亚洲视频欧洲视频| 久久艹免费视频| www.日韩av| 久久在线中文字幕| 一区二区三区在线免费看 | 欧美一区二区人人喊爽| 毛片视频免费播放| 日韩高清中文字幕一区| 久久青青草原| 麻豆免费在线| 亚洲国产日韩欧美在线99| 久久久久97国产| 国产精品乡下勾搭老头1| 致1999电视剧免费观看策驰影院| 精品日韩视频| 在线电影中文日韩| 亚洲午夜无码久久久久| 国产亚洲成年网址在线观看| 99热成人精品热久久66| 免费黄色成人| 日韩av理论片| 成年人视频免费在线观看| 欧美亚洲一区三区| 九九热久久免费视频| 美女视频免费一区| 影音先锋男人的网站| 久久久91麻豆精品国产一区| 久久国产精品电影| 亚洲经典一区二区三区| 亚洲综合在线免费观看| 国模私拍在线观看| 欧美亚洲三区| 日本免费高清不卡| 欧美日韩破处视频| 欧美精品在线播放| 蜜臀av免费在线观看| 午夜精品久久久久久久99水蜜桃| 人妻体内射精一区二区三区| 国产精品毛片| 水蜜桃一区二区三区| 亚洲精品tv| 欧美激情欧美激情在线五月| 欧美视频一二区| 日韩欧美中文在线| 成人信息集中地| 国产精品一区二区久激情瑜伽 | 911精品国产一区二区在线| 我要看黄色一级片| 成人h动漫精品一区二区| 国产91美女视频| 日韩综合在线| 国产精品嫩草在线观看| 色婷婷综合久久久中字幕精品久久 | 奇门遁甲1982国语版免费观看高清 | 99久久综合国产精品二区| 色偷偷av亚洲男人的天堂| www.av黄色| 一本色道久久综合精品竹菊| 久久久久久久麻豆| 99国产精品久久久久久久久久久| 性刺激的欧美三级视频| 悠悠资源网久久精品| 欧美一区三区二区在线观看| 国产95亚洲| 51午夜精品视频| 黄色一级大片在线免费看产| 亚洲国产精品久久久久| 伊人成人在线观看| 亚洲国产裸拍裸体视频在线观看乱了| 欧美黑人欧美精品刺激| 国内精品国产成人| 黄色一级一级片| 影音先锋成人在线电影| 日本一区二区在线视频| 我要色综合中文字幕| 国产成人av网| 好看的中文字幕在线播放| 中文字幕日韩电影| 亚洲欧美自偷自拍| 日韩美女视频一区二区在线观看| 国产真人无遮挡作爱免费视频| 亚洲综合一区二区精品导航| 中文字幕网站在线观看| 成人一二三区视频| 午夜xxxxx| 日本不卡的三区四区五区| 怡红院av亚洲一区二区三区h| 外国成人免费视频| 日韩和欧美的一区二区| 伊人精品综合| 成人网欧美在线视频| 成人网ww555视频免费看| 91av视频在线| 9999精品成人免费毛片在线看| 久久精彩免费视频| 亚洲成人影院麻豆| 国产一区二区三区精品久久久 | 国产sm精品调教视频网站| 五月婷婷六月丁香激情| 爽好久久久欧美精品| 日本福利视频在线| 亚洲精品男同| 欧美视频免费看欧美视频| 欧美日韩三区| 成年人视频网站免费| 欧美成人69av| 日韩不卡视频一区二区| 国产精品国内免费一区二区三区| 婷婷四房综合激情五月| 国产欧美日韩| 日本公妇乱淫免费视频一区三区| 林ゆな中文字幕一区二区| 成人看片视频| 中文字幕一区二区三区日韩精品| 亚洲综合在线播放| 日韩在线亚洲| 波多野结衣一区二区三区在线观看 | 欧美日韩一区二区在线| 国产成人无码精品亚洲| 精品国产91乱高清在线观看| 日韩xxxxxxxxx| 香蕉久久一区二区不卡无毒影院| 不卡的免费av| 精品美女国产在线| 国产三级av片| 日本道精品一区二区三区| 波多野结衣一区二区三区四区| 色香色香欲天天天影视综合网| 三级网站在线播放 | 国产视频一区二区三| 欧美一区二区视频网站| 亚洲成人一级片| 亚洲国产精品久久| 日韩精品视频在线观看一区二区三区| 日韩精品视频在线观看免费| 你懂的在线看| 中文字幕亚洲在线| 黄色网址在线免费| 久久久久久国产三级电影| 伊人网在线播放| 国产精自产拍久久久久久| 午夜电影一区| 久久久久高清| 日韩极品一区| 大西瓜av在线| 日韩在线一区二区三区| 国产永久免费网站| 成人av午夜电影| 国内精品卡一卡二卡三| 中文字幕佐山爱一区二区免费| 欧美精品99久久久| 色美美综合视频| 国产丰满美女做爰| 日韩精品一二三四区| 日本免费中文字幕在线| 久久久久久久激情视频| 日韩欧美另类一区二区| 91久久精品日日躁夜夜躁国产| 国产色噜噜噜91在线精品| 日本一区二区三区四区在线观看 | 久久中文娱乐网| 国产三级精品三级观看| 亚洲国产日产av| 日韩久久久久久久久久| 日韩女优av电影| 精品一二三区视频| 久久久久久久网站| 国产精品99| 国内一区在线| 国产精品久久天天影视| 91好吊色国产欧美日韩在线| 久久精品国产精品亚洲红杏| 久久人妻少妇嫩草av无码专区| 国产精品视频在线看| 日本免费观看视| 欧美高清视频在线高清观看mv色露露十八 | 91麻豆精品国产综合久久久久久| 午夜成人免费影院| 欧美xxxx综合视频| 免费在线观看一区| 蜜桃网站成人| 欧美精品一线| 欧美大片久久久| 久久久久高清精品| 国产成人无码精品| 欧美成人性福生活免费看| 91网在线播放| 日韩美女视频在线观看| 国产精品17p| 2021国产视频| 极品销魂美女一区二区三区| 久久国产柳州莫菁门| 精品久久久精品| 亚洲国产精品suv| 久久综合色88| 色综合久久久| 色播亚洲婷婷| 天堂av在线一区| wwwwww日本| 黑人极品videos精品欧美裸| 黄色av免费观看| 欧美成人午夜激情视频| 高清久久精品| 丰满女人性猛交| 久久国产成人午夜av影院| 国产探花视频在线播放| 91高清视频免费看| 邻家有女韩剧在线观看国语| 78色国产精品| 欧美日韩破处| 久久久久久久久久久视频| 99久久婷婷国产| 日本系列第一页| 亚洲精品美女在线观看| 牛牛精品视频在线| 国产精品v欧美精品∨日韩| 雨宫琴音一区二区三区| 午夜影院免费版| 亚洲伊人伊色伊影伊综合网| www.成人精品| 欧美激情视频在线观看| 大奶一区二区三区| 国产欧美日韩网站| 91免费国产在线观看| www.com亚洲| 中文字幕在线亚洲| 少妇精品视频在线观看| 国产人妻互换一区二区| 国产高清在线精品| 国产无遮挡又黄又爽又色| 日韩电影大片中文字幕| 日韩性xxx| 一区二区三区视频在线播放| 国产乱人伦精品一区二区在线观看| 永久久久久久久| 精品第一国产综合精品aⅴ| 爱啪啪综合导航| 日本在线高清视频一区| 久久国产三级精品| 国产无遮挡裸体免费视频| 亚洲美女www午夜| 欧洲精品久久久久毛片完整版| 欧美一级黄色录像片| 成人视屏免费看| av一级在线观看| www.久久色.com| 国产精品久久久久久久久久白浆| www黄色av| 一区在线观看免费| 俄罗斯嫩小性bbwbbw| 日本成人精品在线| 欧美一区二区| 欧美多人猛交狂配| 欧美福利视频导航| 漫画在线观看av| 男女啪啪的视频| 91免费看`日韩一区二区| 一区二区三区亚洲视频| 久久久久久久av| 日韩电影免费网站| 性色av蜜臀av浪潮av老女人| 欧美影院一区二区| 电影k8一区二区三区久久| 日韩免费三级| 成人免费视频app| 一级做a爱片久久毛片| 91国内产香蕉| 99久久亚洲精品蜜臀|