精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

如何分析博客中最流行的編程語言

大數據 數據分析 后端
我一直在想,各種各樣的博客每天到底都有多少頁面瀏覽量,以及在博客閱讀受眾中最受歡迎的是什么編程語言。我也很感興趣的是,它們在谷歌的網站排名是否與它們的受歡迎程度直接相關。為了回答這些問題,我決定做一個 Scrapy 項目,它將收集一些數據,然后對所獲得的信息執行特定的數據分析和數據可視化。

摘要:這篇文章我們將對一些各種各樣的博客的流行度相對于他們在谷歌上的排名進行一個分析。所有代碼可以在 github 上找到。

想法來源

我一直在想,各種各樣的博客每天到底都有多少頁面瀏覽量,以及在博客閱讀受眾中***的是什么編程語言。我也很感興趣的是,它們在谷歌的網站排名是否與它們的受歡迎程度直接相關。

為了回答這些問題,我決定做一個 Scrapy 項目,它將收集一些數據,然后對所獲得的信息執行特定的數據分析和數據可視化。

***部分:Scrapy

我們將使用 Scrapy 為我們的工作,因為它為抓取和對該請求處理后的反饋進行管理提供了干凈和健壯的框架。我們還將使用 Splash 來解析需要處理的 Javascript 頁面。Splash 使用自己的 Web 服務器充當代理,并處理 Javascript 響應,然后再將其重定向到我們的爬蟲進程。

  • 我這里沒有描述 Scrapy 的設置,也沒有描述 Splash 的集成。你可以在這里找到 Scrapy 的示例,而這里還有 Scrapy+Splash 指南。

獲得相關的博客

***步顯然是獲取數據。我們需要關于編程博客的谷歌搜索結果。你看,如果我們開始僅僅用谷歌自己來搜索,比如說查詢 “Python”,除了博客,我們還會得到很多其它的東西。我們需要的是做一些過濾,只留下特定的博客。幸運的是,有一種叫做 Google 自定義搜索引擎(CSE)的東西,它能做到這一點。還有一個網站 www.blogsearchengine.org,它正好可以滿足我們需要,它會將用戶請求委托給 CSE,這樣我們就可以查看它的查詢并重復利用它們。

所以,我們要做的是到 www.blogsearchengine.org 網站,搜索 “python”,并在一側打開 Chrome 開發者工具中的網絡標簽頁。這截圖是我們將要看到的:

如何分析博客中***的編程語言

突出顯示的是 blogsearchengine 向谷歌委派的一個搜索請求,所以我們將復制它,并在我們的 scraper 中使用。

這個博客抓取爬行器類會是如下這樣的:

  1. class BlogsSpider(scrapy.Spider): 
  2.     name = 'blogs' 
  3.     allowed_domains = ['cse.google.com'
  4.     def __init__(self, queries): 
  5.         super(BlogsSpider, self).__init__() 
  6.         self.queries = queries 

與典型的 Scrapy 爬蟲不同,我們的方法覆蓋了 __init__ 方法,它接受額外的參數 queries,它指定了我們想要執行的查詢列表。

現在,最重要的部分是構建和執行這個實際的查詢。這個過程放在 start_requests 爬蟲的方法里面執行,我們愉快地覆蓋它:

  1. def start_requests(self): 
  2.     params_dict = { 
  3.         'cx': ['partner-pub-9634067433254658:5laonibews6'], 
  4.         'cof': ['FORID:10'], 
  5.         'ie': ['ISO-8859-1'], 
  6.         'q': ['query'], 
  7.         'sa.x': ['0'], 
  8.         'sa.y': ['0'], 
  9.         'sa': ['Search'], 
  10.         'ad': ['n9'], 
  11.         'num': ['10'], 
  12.         'rurl': [ 
  13.             'http://www.blogsearchengine.org/search.html?cx=partner-pub' 
  14.             '-9634067433254658%3A5laonibews6&cof=FORID%3A10&ie=ISO-8859-1&' 
  15.             'q=query&sa.x=0&sa.y=0&sa=Search' 
  16.         ], 
  17.         'siteurl': ['http://www.blogsearchengine.org/'
  18.     } 
  19.     params = urllib.parse.urlencode(params_dict, doseq=True
  20.     url_template = urllib.parse.urlunparse( 
  21.         ['https', self.allowed_domains[0], '/cse'
  22.          '', params, 'gsc.tab=0&gsc.q=query&gsc.page=page_num']) 
  23.     for query in self.queries: 
  24.         for page_num in range(1, 11): 
  25.             url = url_template.replace('query', urllib.parse.quote(query)) 
  26.             url = url.replace('page_num', str(page_num)) 
  27.             yield SplashRequest(url, self.parse, endpoint='render.html'
  28.                                 args={'wait': 0.5}) 

在這里你可以看到相當復雜的 params_dict 字典,它控制所有我們之前找到的 Google CSE URL 的參數。然后我們準備好 url_template 里的一切,除了已經填好的查詢和頁碼。我們對每種編程語言請求 10 頁,每一頁包含 10 個鏈接,所以是每種語言有 100 個不同的博客用來分析。

在 42-43 行,我使用一個特殊的類 SplashRequest 來代替 Scrapy 自帶的 Request 類。它封裝了 Splash 庫內部的重定向邏輯,所以我們無需為此擔心。十分整潔。

***,這是解析程序:

  1. def parse(self, response): 
  2.     urls = response.css('div.gs-title.gsc-table-cell-thumbnail') \ 
  3.         .xpath('./a/@href').extract() 
  4.     gsc_fragment = urllib.parse.urlparse(response.url).fragment 
  5.     fragment_dict = urllib.parse.parse_qs(gsc_fragment) 
  6.     page_num = int(fragment_dict['gsc.page'][0]) 
  7.     query = fragment_dict['gsc.q'][0] 
  8.     page_size = len(urls) 
  9.     for i, url in enumerate(urls): 
  10.         parsed_url = urllib.parse.urlparse(url) 
  11.         rank = (page_num - 1) * page_size + i 
  12.         yield { 
  13.             'rank': rank, 
  14.             'url': parsed_url.netloc, 
  15.             'query': query 
  16.         } 

所有 Scraper 的核心和靈魂就是解析器邏輯。可以有多種方法來理解響應頁面的結構并構建 XPath 查詢字符串。您可以使用 Scrapy shell 嘗試并隨時調整你的 XPath 查詢,而不用運行爬蟲。不過我更喜歡可視化的方法。它需要再次用到谷歌 Chrome 開發人員控制臺。只需右鍵單擊你想要用在你的爬蟲里的元素,然后按下 Inspect。它將打開控制臺,并定位到你指定位置的 HTML 源代碼。在本例中,我們想要得到實際的搜索結果鏈接。他們的源代碼定位是這樣的:

如何分析博客中***的編程語言

在查看這個元素的描述后我們看到所找的

有一個 .gsc-table-cell-thumbnail CSS 類,它是 .gs-title
的子元素,所以我們把它放到響應對象的 css 方法(46 行)。然后,我們只需要得到博客文章的 URL。它很容易通過'./a/@href' XPath 字符串來獲得,它能從我們的
直接子元素的 href 屬性找到。(LCTT 譯注:此處圖文對不上)

尋找流量數據

下一個任務是估測每個博客每天得到的頁面瀏覽量。得到這樣的數據有各種方式,有免費的,也有付費的。在快速搜索之后,我決定基于簡單且免費的原因使用網站 www.statshow.com 來做。爬蟲將抓取這個網站,我們在前一步獲得的博客的 URL 將作為這個網站的輸入參數,獲得它們的流量信息。爬蟲的初始化是這樣的:

  1. class TrafficSpider(scrapy.Spider): 
  2.     name = 'traffic' 
  3.     allowed_domains = ['www.statshow.com'
  4.     def __init__(self, blogs_data): 
  5.         super(TrafficSpider, self).__init__() 
  6.         self.blogs_data = blogs_data 

blogs_data 應該是以下格式的詞典列表:{"rank": 70, "url": "www.stat.washington.edu", "query": "Python"}。

請求構建函數如下:

  1. def start_requests(self): 
  2.     url_template = urllib.parse.urlunparse( 
  3.         ['http', self.allowed_domains[0], '/www/{path}''''''']) 
  4.     for blog in self.blogs_data: 
  5.         url = url_template.format(path=blog['url']) 
  6.         request = SplashRequest(url, endpoint='render.html'
  7.                                 args={'wait': 0.5}, meta={'blog': blog}) 
  8.         yield request 

它相當的簡單,我們只是把字符串 /www/web-site-url/ 添加到 'www.statshow.com' URL 中。

現在讓我們看一下語法解析器是什么樣子的:

  1. def parse(self, response): 
  2.     site_data = response.xpath('//div[@id="box_1"]/span/text()').extract() 
  3.     views_data = list(filter(lambda r: '$' not in r, site_data)) 
  4.     if views_data: 
  5.         blog_data = response.meta.get('blog'
  6.         traffic_data = { 
  7.             'daily_page_views'int(views_data[0].translate({ord(','): None})), 
  8.             'daily_visitors'int(views_data[1].translate({ord(','): None})) 
  9.         } 
  10.         blog_data.update(traffic_data) 
  11.         yield blog_data 

與博客解析程序類似,我們只是通過 StatShow 示例的返回頁面,然后找到包含每日頁面瀏覽量和每日訪問者的元素。這兩個參數都確定了網站的受歡迎程度,對于我們的分析只需要使用頁面瀏覽量即可 。

第二部分:分析

這部分是分析我們搜集到的所有數據。然后,我們用名為 Bokeh 的庫來可視化準備好的數據集。我在這里沒有給出運行器和可視化的代碼,但是它可以在 GitHub repo 中找到,包括你在這篇文章中看到的和其他一切東西。

  • 最初的結果集含有少許偏離過大的數據,(如 google.com、linkedin.com、Oracle.com 等)。它們顯然不應該被考慮。即使其中有些有博客,它們也不是針對特定語言的。這就是為什么我們基于這個 StackOverflow 回答 中所建議的方法來過濾異常值。

語言流行度比較

首先,讓我們對所有的語言進行直接的比較,看看哪一種語言在前 100 個博客中有最多的瀏覽量。

這是能進行這個任務的函數:

  1. def get_languages_popularity(data): 
  2.     query_sorted_data = sorted(data, key=itemgetter('query')) 
  3.     result = {'languages': [], 'views': []} 
  4.     popularity = [] 
  5.     for k, group in groupby(query_sorted_data, key=itemgetter('query')): 
  6.         group = list(group
  7.         daily_page_views = map(lambda r: int(r['daily_page_views']), group
  8.         total_page_views = sum(daily_page_views) 
  9.         popularity.append((group[0]['query'], total_page_views)) 
  10.     sorted_popularity = sorted(popularity, key=itemgetter(1), reverse=True
  11.     languages, views = zip(*sorted_popularity) 
  12.     result['languages'] = languages 
  13.     result['views'] = views 
  14.     return result 

在這里,我們首先按語言(詞典中的關鍵字“query”)來分組我們的數據,然后使用 python 的 groupby 函數,這是一個從 SQL 中借來的奇妙函數,從我們的數據列表中生成一組條目,每個條目都表示一些編程語言。然后,在第 14 行我們計算每一種語言的總頁面瀏覽量,然后添加 ('Language', rank) 形式的元組到 popularity 列表中。在循環之后,我們根據總瀏覽量對流行度數據進行排序,并將這些元組展開到兩個單獨的列表中,然后在 result 變量中返回它們。

  • 最初的數據集有很大的偏差。我檢查了到底發生了什么,并意識到如果我在 blogsearchengine.org 上查詢“C”,我就會得到很多無關的鏈接,其中包含了 “C” 的字母。因此,我必須將 C 排除在分析之外。這種情況幾乎不會在 “R” 和其他類似 C 的名稱中出現:“C++”、“C”。

因此,如果我們將 C 從考慮中移除并查看其他語言,我們可以看到如下圖:

如何分析博客中***的編程語言

評估結論:Java 每天有超過 400 萬的瀏覽量,PHP 和 Go 有超過 200 萬,R 和 JavaScript 也突破了百萬大關。

每日網頁瀏覽量與谷歌排名

現在讓我們來看看每日訪問量和谷歌的博客排名之間的聯系。從邏輯上來說,不那么受歡迎的博客應該排名靠后,但這并沒那么簡單,因為其他因素也會影響排名,例如,如果在人氣較低的博客上的文章更新一些,那么它很可能會首先出現。

數據準備工作以下列方式進行:

  1. def get_languages_popularity(data): 
  2.     query_sorted_data = sorted(data, key=itemgetter('query')) 
  3.     result = {'languages': [], 'views': []} 
  4.     popularity = [] 
  5.     for k, group in groupby(query_sorted_data, key=itemgetter('query')): 
  6.         group = list(group
  7.         daily_page_views = map(lambda r: int(r['daily_page_views']), group
  8.         total_page_views = sum(daily_page_views) 
  9.         popularity.append((group[0]['query'], total_page_views)) 
  10.     sorted_popularity = sorted(popularity, key=itemgetter(1), reverse=True
  11.     languages, views = zip(*sorted_popularity) 
  12.     result['languages'] = languages 
  13.     result['views'] = views 
  14.     return result 

該函數接受爬取到的數據和需要考慮的語言列表。我們對這些數據以語言的流行程度進行排序。后來,在類似的語言分組循環中,我們構建了 (rank, views_number) 元組(從 1 開始的排名)被轉換為 2 個單獨的列表。然后將這一對列表寫入到生成的字典中。

前 8 位 GitHub 語言(除了 C)是如下這些:

如何分析博客中***的編程語言

如何分析博客中***的編程語言

評估結論:我們看到,所有圖的 PCC (皮爾遜相關系數)都遠離 1/-1,這表示每日瀏覽量與排名之間缺乏相關性。值得注意的是,在大多數圖表(8 個中的 7 個)中,相關性是負的,這意味著排名的降低會導致瀏覽量的減少。

結論

因此,根據我們的分析,Java 是目前***的編程語言,其次是 PHP、Go、R 和 JavaScript。在日常瀏覽量和谷歌排名上,排名前 8 的語言都沒有很強的相關性,所以即使你剛剛開始寫博客,你也可以在搜索結果中獲得很高的評價。不過,成為熱門博客究竟需要什么,可以留待下次討論。

這些結果是相當有偏差的,如果沒有更多的分析,就不能過分的考慮這些結果。首先,在較長的一段時間內收集更多的流量信息,然后分析每日瀏覽量和排名的平均值(中值)值是一個好主意。也許我以后還會再回來討論這個。

責任編輯:未麗燕 來源: Linux中國
相關推薦

2011-04-27 09:12:14

PHPjavascriptjava

2014-02-04 19:44:23

編程語言開發

2012-02-13 10:03:31

編程開發

2022-12-09 00:09:10

編程語言開發人員通信

2018-03-13 09:34:30

人工智能編程語言Python

2015-06-10 10:08:55

編程如何命名

2019-01-30 12:38:41

JavaScript前端編程語言

2021-01-07 15:01:09

編程語言JavaPython

2017-12-12 23:22:52

2015-05-04 10:05:11

編程語言GitHub流行語言

2019-05-30 14:19:58

區塊鏈加密貨幣編程語言

2019-04-03 15:46:55

中國編程語言

2023-08-28 09:05:46

LinuxJVM開源

2015-05-07 10:10:29

GitHub編程語言

2019-12-06 17:40:39

程序員編程語言JavaScript

2013-07-10 11:32:57

編碼風格

2020-09-22 07:45:14

編碼語言網站博客

2014-12-23 09:34:47

動態語言

2021-01-24 09:11:29

編程語言PythonJava

2018-09-11 15:18:41

編程語言TJavaScriptJava
點贊
收藏

51CTO技術棧公眾號

abab456成人免费网址| 国产福利片在线| 亚洲精品看片| 在线日韩欧美视频| 国产成人av免费观看| 国产高清视频色在线www| 国产农村妇女毛片精品久久麻豆| 亚洲一区二区自拍| 草久视频在线观看| 一区二区三区四区在线观看国产日韩 | 亚洲国产欧美一区| 日韩一区二区三区不卡视频| 四虎亚洲成人| 中文av一区二区| 精品国产日本| a天堂视频在线| 日韩一区欧美二区| 欧美精品激情在线观看| 日本午夜精品视频| 欧美黑人巨大videos精品| 欧美日韩大陆一区二区| 国产精品沙发午睡系列| 国产在线观看av| 国产性色一区二区| 精品91免费| 国产高清视频免费| 久久精品国产999大香线蕉| 国产91精品不卡视频| 亚洲成人生活片| 99久久精品国产亚洲精品| 亚洲免费电影一区| 91视频在线免费| 精品一区二区三区亚洲| 欧美性一二三区| 无码人妻丰满熟妇区五十路百度| 欧美黑人xx片| 亚洲精品久久久蜜桃| 亚洲欧美日韩精品久久久| 深夜福利视频一区| av高清久久久| 国产亚洲福利社区| 可以免费观看的毛片| 国产久卡久卡久卡久卡视频精品| 国产中文欧美精品| 在线视频播放大全| 日本网站在线观看一区二区三区 | 日韩精品久久久久久久玫瑰园 | 91小视频在线| 国产一区二区三区四区五区加勒比| 国产毛片一区二区三区va在线| 免费在线看一区| 国产精品视频1区| 中日精品一色哟哟| 日韩福利电影在线观看| 国产精品精品视频一区二区三区| 欧美男人亚洲天堂| 日本免费在线视频不卡一不卡二| 国产精品吊钟奶在线| 天天综合久久综合| 蜜臀av一区二区在线免费观看| 国产精品久久久久久久av大片| 欧美性受xxx黑人xyx性爽| 日本不卡中文字幕| 成人久久久久久久| 国产特级黄色片| 国产成人午夜视频| 精品国产_亚洲人成在线| 天堂在线资源网| 久久久蜜臀国产一区二区| 日韩精品不卡| 免费观看成人高潮| 一卡二卡三卡日韩欧美| 欧美国产日韩激情| 在线观看涩涩| 欧美日韩在线三区| 日本成人xxx| 极品束缚调教一区二区网站 | 色呦呦视频在线观看| 一卡二卡欧美日韩| 国产高清精品在线观看| 日韩一区精品| 日韩你懂的在线播放| 国产精品成人无码专区| 欧美极品在线观看| 久久久精品999| 日韩毛片在线播放| 日本中文字幕一区二区有限公司| 91色琪琪电影亚洲精品久久| 亚洲精品国偷拍自产在线观看蜜桃| 91小视频免费看| 一区二区精品免费视频| 国产盗摄一区二区| 欧美在线free| 久久久久亚洲AV成人网人人小说| 九九综合在线| 欧美另类高清videos| 国产精品一区二区三区四| 蜜臀av国产精品久久久久| 春色成人在线视频| 午夜在线视频播放| 欧美视频免费在线| 交换做爰国语对白| 国产乱码精品一区二区三区四区| 久久综合伊人77777尤物| 日本一区二区免费电影| 国产福利一区二区三区视频在线| 日本福利一区二区三区| 污污的网站在线免费观看| 在线日韩av片| 国产伦精品一区二区免费| 成人久久综合| 欧美一级片久久久久久久| 国产精品视频无码| 国产三级三级三级精品8ⅰ区| 欧美 日韩 国产精品| 电影在线观看一区二区| 日韩成人av一区| 青青草偷拍视频| 奇米影视一区二区三区| 久久精品人成| 国产美女福利在线观看| 欧美电影一区二区| 久久久精品成人| 久久婷婷麻豆| 久久久99爱| 男插女视频久久久| 欧美一区二区三区视频免费| 东京热无码av男人的天堂| 欧美亚洲一区| 久草精品电影| а√天堂8资源中文在线| 欧美一级一级性生活免费录像| 手机看片福利视频| 久久不射2019中文字幕| 国产一区二区三区黄| 丁香高清在线观看完整电影视频| 911精品国产一区二区在线| 美女100%露胸无遮挡| 天堂久久久久va久久久久| 久久av一区二区三区亚洲| 国产精品蜜芽在线观看| 亚洲第一二三四五区| 久久97人妻无码一区二区三区| 国内精品伊人久久久久av影院| 亚洲第一在线综合在线| 亚洲成av在线| 色多多国产成人永久免费网站| av首页在线观看| 国产精品国产三级国产aⅴ无密码| 欧美精品成人网| 蜜桃国内精品久久久久软件9| 2023亚洲男人天堂| 青青视频在线观| 91国产免费看| 国产亚洲精品精品精品| 美腿丝袜亚洲综合| 日韩视频在线免费播放| 99久久999| 久久久久久成人精品| 亚洲精品国偷拍自产在线观看蜜桃| 一区二区三区国产| 日本一卡二卡在线| 天堂va蜜桃一区二区三区漫画版| 日本精品一区| 欧美亚洲综合视频| 欧美人在线观看| 五月天激情婷婷| 欧美又粗又大又爽| 国产极品美女在线| 丁香六月久久综合狠狠色| 久久综合九色综合88i| 要久久电视剧全集免费| 国产精品一区二区久久久| 在线观看免费黄色| 欧美mv和日韩mv国产网站| 国产精品自拍99| 亚洲国产精品成人综合| 久久婷婷中文字幕| aa国产精品| 午夜久久资源| 高清日韩欧美| 国产精品网红福利| 免费男女羞羞的视频网站在线观看| 亚洲国产天堂久久国产91| 天天操天天干天天摸| 亚洲天堂2014| 精品人妻少妇嫩草av无码| 久久成人久久鬼色| 日韩中文字幕在线免费| 欧美自拍偷拍| 国产呦系列欧美呦日韩呦| 外国电影一区二区| 午夜免费日韩视频| 69xxxx欧美| 亚洲成色999久久网站| 中文字幕+乱码+中文乱码91| 色www亚洲国产阿娇yao| a在线欧美一区| 日本三级黄色网址| 夜夜精品视频| 国产卡一卡二在线| 亚洲精品国模| 福利视频一区二区三区| 成人亚洲综合| 欧美一级视频免费在线观看| 黄色在线免费网站| 亚洲夜晚福利在线观看| 亚洲国产一二三区| 欧美男人的天堂一二区| 欧美日韩一级黄色片| 亚洲第一av色| 欧美成人三级视频| 国产精品免费久久| 变态另类ts人妖一区二区| 91在线视频免费91| 91精品人妻一区二区三区四区| 日韩精品一级中文字幕精品视频免费观看 | 日本大胆在线观看| 少妇精69xxtheporn| 天堂中文字幕在线| 亚洲成av人片在线观看香蕉| 一区二区日韩在线观看| 在线免费精品视频| 最新中文字幕一区| 午夜精品免费在线| 久久综合成人网| 免费观看久久av| 国产精品综合一区二区三区| 国产精品免费人成网站| 免费观看美女裸体网站| 亚洲深深色噜噜狠狠爱网站| 亚洲福利av| 国内亚洲精品| 免费在线成人av| 亚洲8888| 欧美午夜精品久久久久久蜜| 欧美黑人做爰爽爽爽| 国产精品裸体一区二区三区| 日韩一区网站| 成人久久18免费网站漫画| av日韩在线免费观看| 成人黄色生活片| 精品一区二区三区中文字幕在线| 91免费欧美精品| 亚洲精品大全| 91久久精品国产91久久性色| 日韩城人网站| 3d精品h动漫啪啪一区二区| 国产一区二区久久久久| 91久久久久久久| 国产一区二区| 国产伦精品一区二区三区视频孕妇| 亚洲精选av| 国产一区二区三区免费不卡| 日本成人中文| 日本欧美色综合网站免费| 激情五月色综合国产精品| 欧洲精品码一区二区三区免费看| 国产毛片一区二区三区 | 99久久国产免费| 日韩欧美国产高清| 天堂中文在线资源| 国产亚洲人成a一在线v站| aaa在线免费观看| 久久伊人91精品综合网站| 日本大胆在线观看| 秋霞av国产精品一区| 日韩免费小视频| 成人有码在线播放| 97精品久久| 欧美午夜精品久久久久免费视| 色婷婷亚洲mv天堂mv在影片| 麻豆一区二区三区在线观看| 亚洲一级特黄| 黄色三级视频片| 国产黄色91视频| 无码人妻精品一区二区三区温州| 中文字幕不卡一区| 欧美成人精品激情在线视频| 婷婷综合久久一区二区三区| 欧美一区免费看| 91精品蜜臀在线一区尤物| 色一情一乱一区二区三区| 亚洲天天在线日亚洲洲精| 国产网友自拍视频导航网站在线观看| 欧美美最猛性xxxxxx| 亚洲欧洲美洲av| 91日韩久久| 欧美精选一区二区三区| 嫩草影院中文字幕| 日韩专区在线视频| zjzjzjzjzj亚洲女人| 国产欧美日产一区| 国产精品.www| 欧美日韩不卡视频| 性xxxx视频播放免费| 成人97在线观看视频| 黑人巨大精品| 丁香婷婷久久久综合精品国产| 色综合综合网| 国产中文字幕二区| 国产精品一区二区久久精品爱涩| 少妇按摩一区二区三区| 亚洲精品你懂的| 欧美videossex极品| 欧美一区二区二区| 成人免费在线电影| 91国产视频在线| 9l亚洲国产成人精品一区二三 | 午夜激情一区| 超碰在线97免费| 91在线你懂得| 欧美日韩中文视频| 7777精品伊人久久久大香线蕉超级流畅 | 在线看无码的免费网站| 久久精品免费| 69亚洲乱人伦| 一区二区高清免费观看影视大全| 91在线精品入口| 一区二区日韩精品| 天天免费亚洲黑人免费| 九色综合婷婷综合| 最新国产乱人伦偷精品免费网站| 黄色a级三级三级三级| 中文字幕av免费专区久久| 黄色污污网站在线观看| 日韩二区三区在线| 9999在线视频| 成人三级视频在线观看一区二区| 欧美大黑bbbbbbbbb在线| 校园春色 亚洲色图| 国产亚洲午夜高清国产拍精品| 国产成人免费观看视频 | 成人欧美亚洲| 国产精品网红福利| 三区四区不卡| 国产美女18xxxx免费视频| 中文字幕免费不卡| 中文字幕91爱爱| 日韩中文有码在线视频| 久久夜夜久久| 一本久道久久综合| 国产一区二区在线电影| 一区二区三区四区五区| 欧美一区二区三区成人| 18在线观看的| 成人国产一区二区| 欧美二区视频| 特级特黄刘亦菲aaa级| 亚洲午夜久久久| 无码精品一区二区三区在线 | 国内精品福利视频| 日韩精品在线免费播放| 欧美日韩大片| 亚洲人成网站在线观看播放| 久久国产婷婷国产香蕉| 久久久精品少妇| 精品国产sm最大网站| 交100部在线观看| 日韩欧美99| 国产资源精品在线观看| 久久久国产成人| 日韩精品视频免费| 亚洲成人不卡| 亚洲美女自拍偷拍| 国产成人免费xxxxxxxx| 日韩欧美成人一区二区三区| 亚洲新中文字幕| 精品中文字幕一区二区三区四区| 欧美做暖暖视频| 2020日本不卡一区二区视频| 中文av免费观看| 九九热精品视频在线播放| 老司机在线精品视频| 日本成人在线免费视频| 中文字幕一区二区三区不卡在线| av网站在线免费看| 18一19gay欧美视频网站| 国产日产精品一区二区三区四区的观看方式| 国产精品入口免费软件| 亚洲欧美一区二区三区极速播放 | a美女胸又www黄视频久久| 久久夜色精品国产噜噜亚洲av| 日韩有码在线电影| 欧美黑人巨大videos精品| 怡红院亚洲色图| 亚洲电影激情视频网站| jizzjizz在线观看| 国产精品久久精品视| 视频在线在亚洲| 免费看一级一片| 亚洲偷熟乱区亚洲香蕉av| 日韩在线精品强乱中文字幕| 激情网站五月天| 一区二区三区不卡在线观看| 免费动漫网站在线观看| 91亚色免费| 日韩av网站免费在线| 精品在线免费观看视频| 色哟哟网站入口亚洲精品|