精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

pyspark訪問hive數(shù)據(jù)實(shí)戰(zhàn)

大數(shù)據(jù) Spark
直接進(jìn)行spark開發(fā)需要去學(xué)習(xí)scala,為了降低數(shù)據(jù)分析師的學(xué)習(xí)成本,決定前期先試用sparkSQL,能夠讓計(jì)算引擎無縫從MR切換到spark,現(xiàn)在主要使用pyspark訪問hive數(shù)據(jù)。

數(shù)據(jù)分析都是直接使用hive腳本進(jìn)行調(diào)用,隨著APP用戶行為和日志數(shù)據(jù)量的逐漸累積,跑每天的腳本運(yùn)行需要花的時(shí)間越來越長,雖然進(jìn)行了sql優(yōu)化,但是上spark已經(jīng)提上日程。

直接進(jìn)行spark開發(fā)需要去學(xué)習(xí)scala,為了降低數(shù)據(jù)分析師的學(xué)習(xí)成本,決定前期先試用sparkSQL,能夠讓計(jì)算引擎無縫從MR切換到spark,現(xiàn)在主要使用pyspark訪問hive數(shù)據(jù)。

以下是安裝配置過程中的詳細(xì)步驟:

1.安裝spark

需要先安裝JDK和scala,這不必多說,由于現(xiàn)有hadoop集群版本是采用的2.6.3,所以spark版本是下載的穩(wěn)定版本spark-1.4.0-bin-hadoop2.6.tgz

我是先在一臺(tái)機(jī)器上完成了Spark的部署,Master和Slave都在一臺(tái)機(jī)器上。注意要配置免秘鑰ssh登陸。

1.1 環(huán)境變量配置

  1. export JAVA_HOME=/usr/jdk1.8.0_73 
  2. export HADOOP_HOME=/usr/hadoop 
  3. export HADOOP_CONF_DIR=/usr/hadoop/etc/hadoop 
  4. export SCALA_HOME=/usr/local/scala-2.11.7 
  5. export SPARK_HOME=/home/hadoop/spark_folder/spark-1.4.0-bin-hadoop2.6 
  6. export SPARK_MASTER_IP=127.0.0.1 
  7. export SPARK_MASTER_PORT=7077 
  8. export SPARK_MASTER_WEBUI_PORT=8099 
  9.   
  10. export SPARK_WORKER_CORES=3     //每個(gè)Worker使用的CPU核數(shù) 
  11. export SPARK_WORKER_INSTANCES=1   //每個(gè)Slave中啟動(dòng)幾個(gè)Worker實(shí)例 
  12. export SPARK_WORKER_MEMORY=10G    //每個(gè)Worker使用多大的內(nèi)存 
  13. export SPARK_WORKER_WEBUI_PORT=8081 //Worker的WebUI端口號(hào) 
  14. export SPARK_EXECUTOR_CORES=1       //每個(gè)Executor使用使用的核數(shù) 
  15. export SPARK_EXECUTOR_MEMORY=1G     //每個(gè)Executor使用的內(nèi)存 
  16.  
  17. export HIVE_HOME=/home/hadoop/hive 
  18. export SPARK_CLASSPATH=$HIVE_HOME/lib/mysql-connector-java-5.1.31-bin.jar:$SPARK_CLASSPATH 
  19. export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$HADOOP_HOME/lib/native 

1.2 配置slaves

  1. cp slaves.template slaves 
  2. vi slaves 添加以下內(nèi)容:localhost 

1.3 啟動(dòng)master和slave

  1. cd $SPARK_HOME/sbin/ 
  2. ./start-master.sh 
  3.  
  4. 啟動(dòng)日志位于 $SPARK_HOME/logs/目錄,訪問 http://localhost:8099,即可看到Spark的WebUI界面 
  5.  
  6. 執(zhí)行 ./bin/spark-shell,打開Scala到Spark的連接窗口    

2.SparkSQL與Hive的整合

  1. 拷貝$HIVE_HOME/conf/hive-site.xml和hive-log4j.properties到 $SPARK_HOME/conf/  
  2. 在$SPARK_HOME/conf/目錄中,修改spark-env.sh,添加  
  3. export HIVE_HOME=/home/hadoop/hive 
  4. export SPARK_CLASSPATH=$HIVE_HOME/lib/mysql-connector-java-5.1.31-bin.jar:$SPARK_CLASSPATH 
  5. 另外也可以設(shè)置一下Spark的log4j配置文件,使得屏幕中不打印額外的INFO信息(如果不想受干擾可設(shè)置為更高):  
  6. log4j.rootCategory=WARN, console  
  7. 進(jìn)入$SPARK_HOME/bin,執(zhí)行 ./spark-sql –master spark://127.0.0.1:7077 進(jìn)入spark-sql CLI: 
  8. [hadoop@hadoop spark]$ bin/spark-sql --help   
  9. Usage: ./bin/spark-sql [options] [cli option]   
  10. CLI options:   
  11.  -d,--define <keykey=value>          Variable subsitution to apply to hive   
  12.                                   commands. e.g. -d A=B or --define A=B   
  13.     --database <databasename>     Specify the database to use   
  14.  -e <quoted-query-string>         SQL from command line   
  15.  -f <filename>                    SQL from files   
  16.  -h <hostname>                    connecting to Hive Server on remote host   
  17.     --hiveconf <propertyproperty=value>   Use value for given property   
  18.     --hivevar <keykey=value>         Variable subsitution to apply to hive   
  19.                                   commands. e.g. --hivevar A=B   
  20.  -i <filename>                    Initialization SQL file   
  21.  -p <port>                        connecting to Hive Server on port number   
  22.  -S,--silent                      Silent mode in interactive shell   
  23.  -v,--verbose                     Verbose mode (echo executed SQL to the   
  24.                                   console)   

需要注意的是CLI不是使用JDBC連接,所以不能連接到ThriftServer;但可以配置conf/hive-site.xml連接到hive的metastore,然后對(duì)hive數(shù)據(jù)進(jìn)行查詢。下面我們接著說如何在python中連接hive數(shù)據(jù)表查詢。

3.配置pyspark和示例代碼

3.1 配置pyspark

  1. 打開/etc/profile: 
  2.         #PythonPath 將Spark中的pySpark模塊增加的Python環(huán)境中 
  3.          export PYTHONPATH=/opt/spark-hadoop/python 
  4.         source /etc/profile   

執(zhí)行./bin/pyspark ,打開Python到Spark的連接窗口,確認(rèn)沒有報(bào)錯(cuò)。

打開命令行窗口,輸入python,Python版本為2.7.6,如圖所示,注意Spark暫時(shí)不支持Python3。輸入import pyspark不報(bào)錯(cuò),證明開發(fā)前工作已經(jīng)完成。

3.2 啟動(dòng)ThriftServer

啟動(dòng)ThriftServer,使之運(yùn)行在spark集群中:

sbin/start-thriftserver.sh --master spark://localhost:7077 --executor-memory 5g

ThriftServer可以連接多個(gè)JDBC/ODBC客戶端,并相互之間可以共享數(shù)據(jù)。

3.3 請(qǐng)求示例

查看spark官方文檔說明,spark1.4和2.0對(duì)于sparksql調(diào)用hive數(shù)據(jù)的API變化并不大。都是用sparkContext 。

  1. from pyspark import SparkConf, SparkContext 
  2. from pyspark.sql import HiveContext 
  3.  
  4. conf = (SparkConf() 
  5.          .setMaster("spark://127.0.0.1:7077"
  6.          .setAppName("My app"
  7.          .set("spark.executor.memory""1g")) 
  8. sc = SparkContext(conf = conf) 
  9. sqlContext = HiveContext(sc) 
  10. my_dataframe = sqlContext.sql("Select count(1) from logs.fmnews_dim_where"
  11. my_dataframe.show() 

返回結(jié)果:

運(yùn)行以后在webUI界面看到j(luò)ob運(yùn)行詳情。

4.性能比較

截取了接近一個(gè)月的用戶行為數(shù)據(jù),數(shù)據(jù)大小為2G,總共接近1600w條記錄。

為了測(cè)試不同sql需求情況下的結(jié)果,我們選取了日常運(yùn)行的2類sql:

1.統(tǒng)計(jì)數(shù)據(jù)條數(shù):

  1. select count(1) from fmnews_user_log2; 

2.統(tǒng)計(jì)用戶行為:

  1. SELECT device_id, min_time FROM 
  2.         (SELECT device_id,min(import_time) min_time FROM fmnews_user_log2 
  3.             GROUP BY device_id)a 
  4.         WHERE from_unixtime(int(substr(min_time,0,10)),'yyyy-MM-dd') = '2017-03-02'

3. 用戶行為分析:

  1. select case when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '06:00' and '07:59' then 1 
  2.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '08:00' and '09:59' then 2 
  3.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '10:00' and '11:59' then 3 
  4.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '12:00' and '13:59' then 4 
  5.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '14:00' and '15:59' then 5 
  6.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '16:00' and '17:59' then 6 
  7.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '18:00' and '19:59' then 7 
  8.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '20:00' and '21:59' then 8 
  9.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '22:00' and '23:59' then 9 
  10.             else 0 end fmnews_time_type, count(distinct device_id) device_count,count(1) click_count 
  11.        from fmcm.fmnews_user_log2 
  12.      where from_unixtime(int(substr(import_time,0,10)),'yyyy-MM-dd') = '2017-03-02' 
  13.     group by case when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '06:00' and '07:59' then 1 
  14.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '08:00' and '09:59' then 2 
  15.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '10:00' and '11:59' then 3 
  16.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '12:00' and '13:59' then 4 
  17.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '14:00' and '15:59' then 5 
  18.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '16:00' and '17:59' then 6 
  19.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '18:00' and '19:59' then 7 
  20.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '20:00' and '21:59' then 8 
  21.             when from_unixtime(int(substr(fmnews_time,0,10)),'HH:mm'between '22:00' and '23:59' then 9 
  22.             else 0 end

第一條sql的執(zhí)行結(jié)果對(duì)比:hive 35.013 seconds

第一條sql的執(zhí)行結(jié)果對(duì)比:sparksql 1.218 seconds

第二條sql的執(zhí)行結(jié)果對(duì)比:hive 78.101 seconds

第二條sql的執(zhí)行結(jié)果對(duì)比:sparksql 8.669 seconds

第三條sql的執(zhí)行結(jié)果對(duì)比:hive 101.228 seconds

第三條sql的執(zhí)行結(jié)果對(duì)比:sparksql 14.221 seconds

可以看到,雖然沒有官網(wǎng)吹破天的100倍性能提升,但是根據(jù)sql的復(fù)雜度來看10~30倍的效率還是可以達(dá)到的。

不過這里要注意到2個(gè)影響因子:

1. 我們數(shù)據(jù)集并沒有采取全量,在數(shù)據(jù)量達(dá)到TB級(jí)別兩者的差距應(yīng)該會(huì)有所減小。同時(shí)sql也沒有針對(duì)hive做優(yōu)化。

2. spark暫時(shí)是單機(jī)(內(nèi)存足夠)并沒有搭建集群,hive使用的hadoop集群有4臺(tái)datanode。

責(zé)任編輯:武曉燕 來源: oschina博客
相關(guān)推薦

2016-05-09 10:16:14

MapReduce數(shù)據(jù)分析明星微博

2010-05-27 18:30:56

MySQL 命令行導(dǎo)入

2010-07-22 16:21:33

SQL Server使

2025-11-03 07:47:12

2013-07-04 11:14:44

2015-11-28 10:15:36

WOT2015大數(shù)據(jù)互聯(lián)網(wǎng)+

2021-02-09 09:51:58

異步傳遞數(shù)據(jù)

2023-11-30 11:45:07

大數(shù)據(jù)ODPS

2017-11-22 09:20:41

數(shù)據(jù)庫在線數(shù)據(jù)遷移Subscriptio

2025-10-31 07:37:48

2023-07-10 18:48:29

PySpark數(shù)據(jù)結(jié)構(gòu)

2013-04-23 14:36:54

2013-10-18 15:49:15

微軟大數(shù)據(jù)微軟

2010-04-16 15:24:00

Oracle數(shù)據(jù)

2014-08-20 09:40:56

大數(shù)據(jù)實(shí)踐項(xiàng)目

2023-01-31 08:34:19

2015-05-05 09:50:45

大數(shù)據(jù)實(shí)現(xiàn)塊數(shù)據(jù)

2022-11-17 11:52:35

pandasPySpark大數(shù)據(jù)

2021-02-26 05:21:56

MySQL數(shù)據(jù)設(shè)計(jì)

2009-03-10 08:54:19

RMANEXP、IMP數(shù)據(jù)轉(zhuǎn)移
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

日韩欧美高清视频| 高清不卡一二三区| 中文字幕国产日韩| 久久精品一区二区三区四区| 国产精品嫩草影院久久久| 国精产品一区一区| 超碰在线资源站| 国产又粗又猛又爽又黄视频| 欧美特黄一区| 亚洲欧洲午夜一线一品| 毛毛毛毛毛毛毛片123| 黄色激情在线播放| 中文字幕一区二区5566日韩| 国产美女在线精品免费观看| 中文无码av一区二区三区| 黄色成人在线网址| 日韩在线免费观看视频| 亚洲精品乱码久久久久久蜜桃图片| 欧美色999| 亚洲国产成人精品视频| 亚洲午夜精品久久| 少妇性bbb搡bbb爽爽爽欧美| 激情六月婷婷综合| 欧美在线激情视频| 国产va在线播放| 第一sis亚洲原创| 亚洲电影中文字幕| 91香蕉国产线在线观看| 精品亚洲美女网站| 激情成人中文字幕| 成人午夜免费剧场| 一级毛片视频在线| 久久综合九色综合久久久精品综合| 91九色蝌蚪嫩草| 在线免费观看中文字幕| 五月天婷婷激情网| 亚洲精品一区二区在线看| 亚洲免费视频网站| 艳妇乳肉豪妇荡乳xxx| 2020国产精品小视频| 色欧美日韩亚洲| 五月丁香综合缴情六月小说| 成人免费观看视频大全| 中文字幕 久热精品 视频在线| 九九九九精品| 欧美一级片免费| 国产黄人亚洲片| 成人黄在线观看| 欧美日韩a v| 羞羞视频在线观看欧美| 2018中文字幕一区二区三区| 日韩激情一区二区三区| 欧美日韩综合| 欧美激情综合色综合啪啪五月| 国产美女久久久久久| 日韩欧美高清在线播放| 中文字幕自拍vr一区二区三区| b站大片免费直播| 亚洲尤物av| 亚洲欧美精品在线| 在线免费观看麻豆| 猛男gaygay欧美视频| 亚洲欧洲高清在线| 摸摸摸bbb毛毛毛片| 精品日韩毛片| 中文字幕精品久久久久| 999精品在线视频| 国产精品久久久久久影院8一贰佰| 中文字幕成人在线| 51精品免费网站| 欧美久久综合| 97视频在线观看播放| 久草国产精品视频| 久久中文在线| 国产一区二区在线免费| 国产裸体无遮挡| 粉嫩一区二区三区性色av| 国产伦精品一区二区三区照片91| 人妻一区二区三区| 久久久美女毛片| 亚洲视频在线二区| 色呦呦网站在线观看| 天天操天天干天天综合网| av免费在线播放网站| 精品女同一区二区三区在线观看| 717成人午夜免费福利电影| 美女被爆操网站| 欧美日韩一区二区三区不卡视频| 亚洲人高潮女人毛茸茸| 性欧美疯狂猛交69hd| 国户精品久久久久久久久久久不卡| 久久久欧美一区二区| 中文字幕在线看人| 美女视频黄久久| 国产传媒一区| caoporn国产精品免费视频| 亚洲免费在线视频一区 二区| 亚洲色成人www永久在线观看| 春暖花开亚洲一区二区三区| 欧美乱熟臀69xxxxxx| 国产精品成人无码专区| 日韩欧美中字| 97在线视频免费播放| 在线观看免费高清视频| 成人动漫一区二区在线| 水蜜桃亚洲精品| av影视在线看| 91超碰这里只有精品国产| 黄色录像a级片| 99久久激情| 国产91露脸中文字幕在线| 国产欧美一级片| 久久精品这里都是精品| 日韩一二区视频| 成人av色网站| 日韩精品免费在线视频| 精品97人妻无码中文永久在线| 欧美资源在线| 国产精品.com| 精品国产丝袜高跟鞋| 欧美性xxxxhd| 亚洲自拍偷拍精品| 中文字幕一区二区av| 国产精品久久久久久久久久久新郎 | 国产成人在线中文字幕| 久久精品国产成人精品| 五月婷婷丁香在线| 久久午夜色播影院免费高清| 国产精品国产三级国产普通话三级 | 欧美性久久久久| 国产精品一区免费在线| 中文字幕精品一区久久久久| 成人毛片在线播放| 成人av电影在线| 国产乱子伦精品视频| 精品久久久网| 色哟哟亚洲精品一区二区| 美日韩一二三区| av在线不卡免费看| 隔壁人妻偷人bd中字| 狂野欧美xxxx韩国少妇| 久久精品99久久香蕉国产色戒| 亚洲av无码精品一区二区| 91久色porny| 每日在线更新av| 精品亚洲免a| 97国产精品人人爽人人做| 亚洲av综合色区无码一二三区| 亚洲视频免费在线观看| 国产3p在线播放| 国产精品91一区二区三区| 国产精品在线看| 日本最黄一级片免费在线| 欧美亚洲国产一卡| 久久久久亚洲av无码a片| 日韩高清一区在线| 亚洲 国产 日韩 综合一区| 成人日韩在线观看| 最近2019年好看中文字幕视频| 中日韩av在线| 国产精品成人一区二区艾草| 欧美特黄aaa| 在线成人激情| 99国产在线视频| 成年人在线网站| 亚洲欧洲第一视频| 91国内精品视频| 一区二区三区中文在线| 中国黄色片视频| 99国产精品私拍| 欧美在线视频二区| 日韩在线激情| 久久久久国产精品免费| 黄色aaa毛片| 色婷婷一区二区| 国产福利在线导航| 国产麻豆精品一区二区| 97免费视频观看| 久久av超碰| 国产日韩欧美综合| bl视频在线免费观看| 国产午夜精品美女视频明星a级| 中文字幕人妻精品一区| 亚洲精品国产a| 鲁大师私人影院在线观看| 蜜乳av一区二区| 日韩xxxx视频| 国产成人精品999在线观看| 成人亚洲欧美一区二区三区| 色www永久免费视频首页在线| 亚洲精品国产综合久久| 中文字幕黄色av| 亚洲午夜日本在线观看| 国内精品卡一卡二卡三| 国产成人激情av| 男人舔女人下面高潮视频| 一区二区电影在线观看| 欧美日韩精品免费观看视一区二区| 国产欧美在线观看免费| 欧美日产国产成人免费图片| 精品电影在线| 日韩欧美www| 免费av中文字幕| 亚洲一区二区在线免费看| 国产精品成人在线视频| 成人性色生活片| 怡红院亚洲色图| 亚洲美女毛片| 免费观看国产视频在线| 国产精品一在线观看| 国产精品久久国产精品| 日本午夜精品久久久久| 538国产精品视频一区二区| 国产精品一卡二卡三卡| 亚洲网在线观看| 少妇人妻一区二区| 欧美一区二区三区思思人| 波多野结衣不卡| 精品久久久久久亚洲国产300| 久久精品一区二区三区四区五区| 久久天天做天天爱综合色| 日本人dh亚洲人ⅹxx| 久久成人精品无人区| 又色又爽又高潮免费视频国产| 欧美日韩爆操| 天天爱天天做天天操| 欧美在线电影| 欧美一区免费视频| 亚洲三级精品| 好看的日韩精品| 综合中文字幕| 亚洲一区二区中文字幕| 欧美日韩卡一| 国产精品一二三视频| 浪潮色综合久久天堂| 91av国产在线| 国产理论在线| 韩国福利视频一区| 超碰在线最新网址| 欧美激情国产精品| 蜜臀av在线播放| 欧美激情二区三区| 国精一区二区三区| 欧美激情视频免费观看| 久久www人成免费看片中文| 久久久国产视频| 大地资源网3页在线观看| 久久精品久久久久久| 免费黄色电影在线观看| 视频直播国产精品| а√天堂8资源在线官网| 久久精品国产欧美激情| 久做在线视频免费观看| 乱亲女秽乱长久久久| 成人video亚洲精品| 欧美高清不卡在线| 黄色羞羞视频在线观看| 国内精品伊人久久| 神马久久午夜| 国产成人久久久精品一区| 国产精品亚洲一区二区三区在线观看 | 成人做爰视频网站| 亚洲三级小视频| 欧美精品一级片| 香蕉久久一区二区不卡无毒影院 | 久久bbxx| 色综合视频一区中文字幕| xxxx视频在线| 清纯唯美日韩制服另类| 自拍一区在线观看| 国产精品偷伦视频免费观看国产 | 国产精品日韩欧美一区二区三区| 国内精品免费| 日韩av影视| 亚洲香蕉av| 免费看国产一级片| 日韩黄色免费网站| 手机在线国产视频| 波多野结衣在线一区| 在线免费观看麻豆| ...xxx性欧美| 日本一区二区不卡在线| 91国产免费观看| 精品人妻aV中文字幕乱码色欲| 精品久久久久久无| 国产福利在线| 欧美乱大交xxxxx| 人在线成免费视频| 成人免费视频网址| 色天下一区二区三区| 亚洲一区二区免费视频软件合集| 欧美视频网站| 日韩欧美黄色大片| 国产a级毛片一区| 9.1成人看片免费版| 亚洲欧美日韩国产手机在线| 久久久午夜影院| 欧美日韩精品欧美日韩精品| 韩国av电影在线观看| 中文在线不卡视频| 福利在线免费视频| 91欧美视频网站| 西瓜成人精品人成网站| 国风产精品一区二区| 久久九九电影| 亚洲v在线观看| 国产精品白丝在线| 天天综合天天干| 日韩欧美久久一区| h视频网站在线观看| 88xx成人精品| 综合激情五月婷婷| 亚洲在线视频一区二区| 性欧美videos另类喷潮| 18深夜在线观看免费视频| 国产精品理论片在线观看| 西西44rtwww国产精品| 日韩欧美一级二级三级| 成年人在线观看| 国产91精品不卡视频| 日韩三级久久| 一本一道久久a久久精品综合| 国产精品久久久久久久免费软件 | 中文字幕视频一区二区| 亚洲国产精品久久久久| www.欧美日本韩国| 国产精品久久久久aaaa九色| 免费看成人人体视频| 99视频精品全部免费看| 九一久久久久久| 老司机精品免费视频| 色综合视频在线观看| 天天插天天干天天操| 久久久久久久久亚洲| 日韩黄色av| 成人在线观看毛片| 国产盗摄一区二区三区| 国产精品视频一区二区三| 欧美日韩精品一区二区在线播放| 男操女在线观看| 欧美孕妇与黑人孕交| 欧美丝袜美腿| 国产免费观看高清视频| 成人av一区二区三区| 国产精品成人免费一区二区视频| 欧美一级免费观看| 成人影院在线观看| 91久久大香伊蕉在人线| 在线中文字幕第一区| 色偷偷中文字幕| 18涩涩午夜精品.www| 国产一区二区三区在线观看 | 欧美日韩电影一区二区三区| 99xxxx成人网| 黄色aaa视频| 欧美午夜激情视频| 国产三级视频在线| 国产精品网站视频| 99久久久久| 99久久99精品| 亚洲夂夂婷婷色拍ww47| 蜜桃久久一区二区三区| 午夜精品美女自拍福到在线| 欧美大胆视频| 久久久久狠狠高潮亚洲精品| 国产香蕉久久精品综合网| 中文字幕无码乱码人妻日韩精品| 色阁综合伊人av| 日韩视频一二区| 日本午夜激情视频| 国产欧美日韩一区二区三区在线观看| 国产美女www| 久久精品亚洲一区| 果冻天美麻豆一区二区国产| 欧美日韩在线不卡视频| 国产精品欧美一区喷水| 国产激情无套内精对白视频| 韩国精品久久久999| 成人在线免费观看网站| 波多野结衣免费观看| 精品久久中文字幕久久av| 国产精品一级伦理| 91丝袜美腿美女视频网站| 99精品免费| 国产传媒视频在线| 精品盗摄一区二区三区| 国产精品伊人| 男女视频网站在线观看| 国产精品免费久久久久| 后进极品白嫩翘臀在线视频| 国产精品久久999| 欧美日韩国产免费观看 | 国产一区二区区别| 国产xxxxhd| 欧美性大战久久久| 国产盗摄在线视频网站| 亚洲天堂电影网| 久久久综合激的五月天| va视频在线观看| 国产精品久久久久不卡|