精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

從MySQL到Hive,數據遷移就這么簡單

譯文
大數據
從存儲基礎設施的一個位置移動數據到另一個位置是個艱難的過程。至少,過去是這樣。而現在,在合適的工具和基礎設施條件下,傳統的數據遷移過程中涉及到的許多困難點都可以消除。使用Sqoop能夠極大簡化MySQL數據遷移至Hive之流程,并降低Hadoop處理分析任務時的難度。

使用Sqoop能夠極大簡化MySQL數據遷移至Hive之流程,并降低Hadoop處理分析任務時的難度。

 

[[166114]]

先決條件:安裝并運行有Sqoop與Hive的Hadoop環境。為了加快處理速度,我們還將使用Cloudera Quickstart VM(要求至少4 GB內存),不過大家也可以使用Hortonworks Data Platform(至少要求8 GB內存)。由于我的筆記本電腦只有8 GB內存,因此我在這里使用CLoudera VM鏡像。

如果大家需要使用Virtualbox運行Cloudera/HDP VM,則可以輕松使用其它多種Hadoop生態系統預裝軟件包(包括MySQL、Oozie、Hadoop、Hive、Zookeeper、Storm、Kafka以及Spark等等)。

在MySQL中創建表

在Cloudera VM中,打開命令界面并確保MySQL已經安裝完畢。

  1. shell> mysql --version 
  2. mysql  Ver 14.14 Distrib 5.1.66, for redhat-linux-gnu (x86_64) using readline 5. 

示例當中自然要使用自己的數據庫,因此使用以下命令在MySQL中創建一套數據庫:

  1. mysql> create database sqoop; 

接下來:

  1. mysql> use sqoop; 
  2. mysql> create table customer(id varchar(3), name varchar(20), age varchar(3), salary integer(10)); 
  3. Query OK, 0 rows affected (0.09 sec) 
  4. mysql> desc customer; 
  5. +--------+-------------+------+-----+---------+-------+ 
  6. | Field  | Type        | Null | Key | Default | Extra | 
  7. +--------+-------------+------+-----+---------+-------+ 
  8. | id     | varchar(3)  | YES  |     | NULL    |       | 
  9. | name   | varchar(20) | YES  |     | NULL    |       | 
  10. | age    | varchar(3)  | YES  |     | NULL    |       | 
  11. | salary | int(10)     | YES  |     | NULL    |       | 
  12. +--------+-------------+------+-----+---------+-------+
  1. mysql> select * from customer; 
  2. +------+--------+------+--------+ 
  3. | id   | name   | age  | salary | 
  4. +------+--------+------+--------+ 
  5. | 1    | John   | 30   |  80000 | 
  6. | 2    | Kevin  | 33   |  84000 | 
  7. | 3    | Mark   | 28   |  90000 | 
  8. | 4    | Jenna  | 34   |  93000 | 
  9. | 5    | Robert | 32   | 100000 | 
  10. | 6    | Zoya   | 40   |  60000 | 
  11. | 7    | Sam    | 37   |  75000 | 
  12. | 8    | George | 31   |  67000 | 
  13. | 9    | Peter  | 23   |  70000 | 
  14. | 19   | Alex   | 26   |  74000 | 
  15. +------+--------+------+----- 

開始Sqoop之旅

如大家所見,其中customer表中并不包含主鍵。我在該表中并未添加多少記錄。默認情況下,Sqoop能夠識別出表中的主鍵列(如果有的話),并將其作為劃分列。該劃分列的低值與高值檢索自該數據庫,而映射任務則指向符合區間要求的均勻部分。

如果主鍵并未均勻分布在該區間當中,那么任務將出現不平衡狀況。這時,大家應當明確選定一個與--split-by參數不同的列,例如--split-by id。

由于我們希望將此表直接導入至Hive中,因此需要在Sqoop命令中添加–hive-import:

  1. sqoop import --connect jdbc:mysql://localhost:3306/sqoop  
  2. --username root  
  3. -P  
  4. --split-by id  
  5. --columns id,name  
  6. --table customer   
  7. --target-dir /user/cloudera/ingest/raw/customers  
  8. --fields-terminated-by ","  
  9. --hive-import  
  10. --create-hive-table  
  11. --hive-table sqoop_workspace.customers 

下面來看Sqoop命令各選項的具體作用:

connect – 提供jdbc字符串

username – 數據庫用戶名

-P – 將在控制臺中詢問密碼。大家也可以使用-passwaord,但并不推薦這種作法,因為其會顯示在任務執行日志中并可能導致問題。解決辦法之一在于將數據庫密碼存儲在HDFS中的文件內,并將其向運行時交付。

  • table – 告知計算機我們希望導入哪個MySQL表。在這里,表名稱為customer。
  • split-by – 指定劃分列。在這里我們指定id列。
  • target-dir – HDFS目標目錄。
  • fields-terminated-by – 我已經指定了逗號作為分隔值(默認情況下,導入HDFS的數據以逗號作為分隔值)。
  • hive-import – 將表導入Hive(如果不加設置,則使用Hive的默認分隔符)。
  • create-hive-table – 檢查如果已經存在一個Hive表,任務設置是否會因此失敗。
  • hive-table – 指定.。本示例中為sqoop_workspace.customers,其中sqoop_workspace為數據庫名稱,而customers則為表名稱。

如下所示,Sqoop為一項map-reduce任務。請注意,這里我使用-P作為密碼選項。除了這種方式,我們也可以使用-password實現參數化,并從文件中讀取密碼內容。

  1. sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username root -P --split-by id --columns id,name --table customer  --target-dir /user/cloudera/ingest/raw/customers --fields-terminated-by "," --hive-import --create-hive-table --hive-table sqoop_workspace.customers 
  2. Warning: /usr/lib/sqoop/../accumulo does not exist! Accumulo imports will fail. 
  3. Please set $ACCUMULO_HOME to the root of your Accumulo installation. 
  4. 16/03/01 12:59:44 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6-cdh5.5.0 
  5. Enter password: 
  6. 16/03/01 12:59:54 INFO manager.MySQLManager: Preparing to use a MySQL streaming resultset. 
  7. 16/03/01 12:59:54 INFO tool.CodeGenTool: Beginning code generation 
  8. 16/03/01 12:59:55 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `customer` AS t LIMIT 1 
  9. 16/03/01 12:59:56 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `customer` AS t LIMIT 1 
  10. 16/03/01 12:59:56 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /usr/lib/hadoop-mapreduce 
  11. Note: /tmp/sqoop-cloudera/compile/6471c43b5c867834458d3bf5a67eade2/customer.java uses or overrides a deprecated API. 
  12. Note: Recompile with -Xlint:deprecation for details. 
  13. 16/03/01 13:00:01 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-cloudera/compile/6471c43b5c867834458d3bf5a67eade2/customer.jar 
  14. 16/03/01 13:00:01 WARN manager.MySQLManager: It looks like you are importing from mysql. 
  15. 16/03/01 13:00:01 WARN manager.MySQLManager: This transfer can be faster! Use the --direct 
  16. 16/03/01 13:00:01 WARN manager.MySQLManager: option to exercise a MySQL-specific fast path. 
  17. 16/03/01 13:00:01 INFO manager.MySQLManager: Setting zero DATETIME behavior to convertToNull (mysql) 
  18. 16/03/01 13:00:01 INFO mapreduce.ImportJobBase: Beginning import of customer 
  19. 16/03/01 13:00:01 INFO Configuration.deprecation: mapred.job.tracker is deprecated. Instead, use mapreduce.jobtracker.address 
  20. 16/03/01 13:00:02 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar 
  21. 16/03/01 13:00:04 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps 
  22. 16/03/01 13:00:05 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032 
  23. 16/03/01 13:00:11 INFO db.DBInputFormat: Using read commited transaction isolation 
  24. 16/03/01 13:00:11 INFO db.DataDrivenDBInputFormat: BoundingValsQuery: SELECT MIN(`id`), MAX(`id`) FROM `customer` 
  25. 16/03/01 13:00:11 WARN db.TextSplitter: Generating splits for a textual index column. 
  26. 16/03/01 13:00:11 WARN db.TextSplitter: If your database sorts in a case-insensitive order, this may result in a partial import or duplicate records. 
  27. 16/03/01 13:00:11 WARN db.TextSplitter: You are strongly encouraged to choose an integral split column. 
  28. 16/03/01 13:00:11 INFO mapreduce.JobSubmitter: number of splits:4 
  29. 16/03/01 13:00:12 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1456782715090_0004 
  30. 16/03/01 13:00:13 INFO impl.YarnClientImpl: Submitted application application_1456782715090_0004 
  31. 16/03/01 13:00:13 INFO mapreduce.Job: The url to track the job: http://quickstart.cloudera:8088/proxy/application_1456782715090_0004/ 
  32. 16/03/01 13:00:13 INFO mapreduce.Job: Running job: job_1456782715090_0004 
  33. 16/03/01 13:00:47 INFO mapreduce.Job: Job job_1456782715090_0004 running in uber mode : false 
  34. 16/03/01 13:00:48 INFO mapreduce.Job:  map 0% reduce 0% 
  35. 16/03/01 13:01:43 INFO mapreduce.Job:  map 25% reduce 0% 
  36. 16/03/01 13:01:46 INFO mapreduce.Job:  map 50% reduce 0% 
  37. 16/03/01 13:01:48 INFO mapreduce.Job:  map 100% reduce 0% 
  38. 16/03/01 13:01:48 INFO mapreduce.Job: Job job_1456782715090_0004 completed successfully 
  39. 16/03/01 13:01:48 INFO mapreduce.Job: Counters: 30 
  40.     File System Counters 
  41.         FILE: Number of bytes read=0 
  42.         FILE: Number of bytes written=548096 
  43.         FILE: Number of read operations=0 
  44.         FILE: Number of large read operations=0 
  45.         FILE: Number of write operations=0 
  46.         HDFS: Number of bytes read=409 
  47.         HDFS: Number of bytes written=77 
  48.         HDFS: Number of read operations=16 
  49.         HDFS: Number of large read operations=0 
  50.         HDFS: Number of write operations=8 
  51.     Job Counters  
  52.         Launched map tasks=4 
  53.         Other local map tasks=5 
  54.         Total time spent by all maps in occupied slots (ms)=216810 
  55.         Total time spent by all reduces in occupied slots (ms)=0 
  56.         Total time spent by all map tasks (ms)=216810 
  57.         Total vcore-seconds taken by all map tasks=216810 
  58.         Total megabyte-seconds taken by all map tasks=222013440 
  59.     Map-Reduce Framework 
  60.         Map input records=10 
  61.         Map output records=10 
  62.         Input split bytes=409 
  63.         Spilled Records=0 
  64.         Failed Shuffles=0 
  65.         Merged Map outputs=0 
  66.         GC time elapsed (ms)=2400 
  67.         CPU time spent (ms)=5200 
  68.         Physical memory (bytes) snapshot=418557952 
  69.         Virtual memory (bytes) snapshot=6027804672 
  70.         Total committed heap usage (bytes)=243007488 
  71.     File Input Format Counters  
  72.         Bytes Read=0 
  73.     File Output Format Counters  
  74.         Bytes Written=77 
  75. 16/03/01 13:01:48 INFO mapreduce.ImportJobBase: Transferred 77 bytes in 104.1093 seconds (0.7396 bytes/sec) 
  76. 16/03/01 13:01:48 INFO mapreduce.ImportJobBase: Retrieved 10 records. 
  77. 16/03/01 13:01:49 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `customer` AS t LIMIT 1 
  78. 16/03/01 13:01:49 INFO hive.HiveImport: Loading uploaded data into Hive 
  79. Logging initialized using configuration in jar:file:/usr/jars/hive-common-1.1.0-cdh5.5.0.jar!/hive-log4j.properties 
  80. OK 
  81. Time taken: 2.163 seconds 
  82. Loading data to table sqoop_workspace.customers 
  83. chgrp: changing ownership of 'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers/part-m-00000': User does not belong to supergroup 
  84. chgrp: changing ownership of 'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers/part-m-00001': User does not belong to supergroup 
  85. chgrp: changing ownership of 'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers/part-m-00002': User does not belong to supergroup 
  86. chgrp: changing ownership of 'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers/part-m-00003': User does not belong to supergroup 
  87. Table sqoop_workspace.customers stats: [numFiles=4, totalSize=77] 
  88. OK 
  89. Time taken: 1.399 seconds 

***,讓我們驗證Hive中的輸出結果:

  1. hive> show databases; 
  2. OK 
  3. default 
  4. sqoop_workspace 
  5. Time taken: 0.034 seconds, Fetched: 2 row(s) 
  6. hive> use sqoop_workspace; 
  7. OK 
  8. Time taken: 0.063 seconds 
  9. hive> show tables; 
  10. OK 
  11. customers 
  12. Time taken: 0.036 seconds, Fetched: 1 row(s) 
  13. hive> show create table customers; 
  14. OK 
  15. CREATE TABLE `customers`( 
  16.   `id` string,  
  17.   `name` string) 
  18. COMMENT 'Imported by sqoop on 2016/03/01 13:01:49' 
  19. ROW FORMAT DELIMITED  
  20.   FIELDS TERMINATED BY ','  
  21.   LINES TERMINATED BY '\n'  
  22. STORED AS INPUTFORMAT  
  23.   'org.apache.hadoop.mapred.TextInputFormat'  
  24. OUTPUTFORMAT  
  25.   'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat' 
  26. LOCATION 
  27.   'hdfs://quickstart.cloudera:8020/user/hive/warehouse/sqoop_workspace.db/customers' 
  28. TBLPROPERTIES ( 
  29.   'COLUMN_STATS_ACCURATE'='true',  
  30.   'numFiles'='4',  
  31.   'totalSize'='77',  
  32.   'transient_lastDdlTime'='1456866115'
  33. Time taken: 0.26 seconds, Fetched: 18 row(s) 

hive> select * from customers;

OK

1 John

2 Kevin

19 Alex

3 Mark

4 Jenna

5 Robert

6 Zoya

7 Sam

8 George

9 Peter

Time taken: 1.123 seconds, Fetched: 10 row(s).

到此完成!從MySQL到Hive,數據遷移工作就是這么簡單。

責任編輯:Ophira 來源: 51CTO.com
相關推薦

2015-06-30 12:53:40

秒殺應用MySQL數據庫優化

2025-02-12 08:21:55

OllamaChatboxDeepSeek

2021-11-19 11:16:29

Git命令Linux

2020-11-27 10:34:01

HTTPHTTPS模型

2014-04-02 10:20:20

銳捷網絡云課堂

2010-04-22 14:38:24

培訓

2015-05-07 10:10:06

云應用開發開發者云平臺

2015-12-15 16:54:00

戴爾云計算

2014-12-16 10:55:06

硅谷

2017-07-13 13:13:49

AndroidAPK反編譯

2012-11-14 16:57:37

手機刷機

2019-04-23 10:06:16

微軟Windows 10系統更新

2022-02-10 14:24:28

LinuxWindows文件

2014-03-29 22:42:00

微信公眾平臺開發C#

2015-08-27 09:00:41

產品用戶體驗設計設計

2016-03-03 11:36:09

浪潮

2019-12-17 16:04:25

微軟

2022-10-21 08:17:13

MongoDB查詢Document

2015-01-05 09:35:54

云計算應用程序開發

2015-07-06 14:59:49

技術周刊
點贊
收藏

51CTO技術棧公眾號

亚洲色图27p| 亚洲第一狼人区| 亚洲欧洲国产综合| 日日摸夜夜添夜夜添国产精品| 一区国产精品视频| 亚洲精品成人在线播放| 国产极品人妖在线观看| 久久噜噜亚洲综合| 亚洲精品欧美极品| 97久久久久久久| 久久香蕉国产| 亚洲黄色免费三级| 玖玖爱视频在线| free性欧美16hd| 国产精品久久久久精k8| 国产一区二区三区四区五区加勒比 | 成人免费视频国产在线观看| 日韩av电影在线播放| 成人免费视频国产免费观看| 国产91精品对白在线播放| 欧美一级高清大全免费观看| 国产成人av影视| 午夜在线激情影院| 欧美极品少妇xxxxⅹ高跟鞋| 欧美一区二区三区日韩| 国产原创中文在线观看| 欧美性videos| 久久久美女毛片| 午夜精品久久久久久99热软件| 免费视频91蜜桃| 国产成人福利av| 欧美午夜片在线观看| 国产欧美日韩网站| 性欧美1819sex性高清大胸| 国产精品久久久久久福利一牛影视 | 国产毛片视频网站| jizz性欧美10| 1区2区3区国产精品| 亚州欧美一区三区三区在线| 天堂av网在线| 99久久精品免费看国产免费软件| 亚洲影院色无极综合| 中文字幕在线观看国产| 丝袜美腿亚洲色图| 欧美在线一级va免费观看| 18精品爽视频在线观看| 天堂av一区| 欧美精品1区2区| 亚洲欧美自拍另类日韩| 久久77777| 国产欧美久久久精品影院| 久久久久久九九| 天天干天天做天天操| 成人黄色综合网站| 国产精品麻豆免费版| 性生活黄色大片| 成人性生交大片免费看中文 | 天天干天天插天天操| 成人av手机在线观看| 国内精品久久久久久久果冻传媒| 天天操天天射天天舔| 91一区二区在线| 久久伊人一区二区| 久久久久久女乱国产| 久久久99久久精品欧美| 无码免费一区二区三区免费播放 | 中文字幕一区二区日韩精品绯色| 亚洲欧美国产一区二区| 香蕉视频在线看| 中文字幕一区二区三区色视频| 男女啪啪的视频| 污污视频在线| 欧美视频二区36p| 男女无套免费视频网站动漫| 欧美黄页免费| 日韩天堂在线观看| 国模私拍在线观看| 伊人成综合网yiren22| 一区二区成人精品| 91免费公开视频| 亚洲一级特黄| 国产+成+人+亚洲欧洲| 色网站在线播放| 日韩和欧美一区二区三区| 国产精品尤物福利片在线观看| 国产永久免费视频| 成人午夜大片免费观看| 欧美日产一区二区三区在线观看| 亚洲麻豆精品| 亚洲一区二区不卡免费| 97视频在线免费播放| 美女视频一区| 亚洲国产成人一区| 一级特黄曰皮片视频| 欧美激情综合| 国产97免费视| 亚洲第一色视频| 久久久精品天堂| 黄色www在线观看| 高潮在线视频| 欧美日韩大陆一区二区| 在线中文字日产幕| 国产在线日韩精品| 美女啪啪无遮挡免费久久网站| 国产性xxxx高清| 精品在线亚洲视频| 国严精品久久久久久亚洲影视 | 欧美激情一区二区三区蜜桃视频| 天天综合五月天| 成人动漫一区| 精品国产三级电影在线观看| 任你操精品视频| 宅男噜噜噜66国产日韩在线观看| 91精品久久久久久久久久久| 青青久在线视频| 亚洲精品水蜜桃| 九热视频在线观看| 欧美电影在线观看完整版| 日韩中文字幕在线精品| 亚洲精品男人的天堂| 国产老肥熟一区二区三区| 欧美综合激情| 不卡视频观看| 日韩精品一区在线观看| 欧美老女人性生活视频| 一区二区91| www久久99| 精品麻豆一区二区三区| 91国产福利在线| 国产福利短视频| 国产成人亚洲一区二区三区 | 青青青免费视频在线2| 樱桃视频在线观看一区| 亚洲精品www.| av中文字幕一区二区| 欧美亚洲国产日本| 天堂中文在线观看视频| 亚洲自拍与偷拍| 在线免费看v片| 日韩在线观看电影完整版高清免费悬疑悬疑| 国自产精品手机在线观看视频| 精品人妻一区二区三区蜜桃| 日韩美女视频19| 色婷婷成人在线| 欧美日韩中文字幕一区二区三区| 欧美在线视频在线播放完整版免费观看| 亚洲精品久久久久久久久久久久久久 | 在线不卡免费av| 国产jizz18女人高潮| 日韩vs国产vs欧美| 色综合久久久久久久久五月| 欧美性suv| 亚洲色图校园春色| 国产精品免费无遮挡无码永久视频| 久久综合久久综合久久| 国模吧无码一区二区三区 | 亚洲欧美日韩国产成人综合一二三区| 亚洲美女炮图| 日韩精品免费在线播放| www.国产高清| www日韩大片| 可以免费观看av毛片| 红桃视频在线观看一区二区| 国产精品电影久久久久电影网| 成人在线高清视频| 欧美男人的天堂一二区| 五月天av网站| 国产69精品久久99不卡| 少妇无码av无码专区在线观看 | 亚洲欧美综合一区| 四虎影视成人精品国库在线观看| 日韩有码在线视频| 国产高清第一页| 性欧美疯狂xxxxbbbb| 亚洲精品女人久久久| 一本色道久久| 亚洲春色在线| 日日夜夜精品视频| 97视频在线观看网址| 美女欧美视频在线观看免费 | 欧美涩涩视频| 久久久久久久久四区三区| 成人看片网页| 精品中文字幕在线观看| 天天av天天翘| 欧美日韩一区不卡| 久久视频免费在线观看| 欧美激情综合在线| japan高清日本乱xxxxx| 香蕉视频成人在线观看| 亚洲第一页在线视频| 国产精品45p| 国产精品日本精品| 日日夜夜天天综合入口| 亚洲人成电影网| 国产免费av电影| 欧美性xxxx极品高清hd直播 | 亚洲一级淫片| 久久国产精品一区二区三区| 色诱色偷偷久久综合| 性日韩欧美在线视频| 日本三级在线视频| 精品亚洲永久免费精品 | 日韩高清中文字幕一区二区| 久久综合88中文色鬼| 五月天婷婷视频| 69p69国产精品| 五月天婷婷激情| 伊人婷婷欧美激情| 卡一卡二卡三在线观看| 处破女av一区二区| 男女视频在线看| 99国产成+人+综合+亚洲欧美| 亚洲自拍偷拍一区二区三区| 极品美女一区二区三区| 国产精品一区二区免费看| 欧洲午夜精品| 热99在线视频| 国产白丝在线观看| 久久手机免费视频| 国产色在线 com| 日韩av网站大全| 亚洲a视频在线观看| 欧美日韩www| 亚洲国产精品无码久久久| 亚洲一区二区三区爽爽爽爽爽| 国产91在线播放九色| 久久综合狠狠综合| 亚洲天堂av网站| 国产精品自拍一区| www.超碰97.com| 男人的天堂久久精品| 国产91对白刺激露脸在线观看| 欧美婷婷在线| 肉大捧一出免费观看网站在线播放| 清纯唯美综合亚洲| 日韩精品极品视频在线观看免费| 网曝91综合精品门事件在线| 国产精品一区视频网站| 在线视频亚洲欧美中文| 91人人爽人人爽人人精88v| 欧洲精品久久久久毛片完整版| 国产精品69久久| 偷拍精品精品一区二区三区| 国产91成人video| 美女av在线免费看| 国外成人在线直播| 涩涩视频在线| 欧美专区在线视频| 亚洲优女在线| 国产va免费精品高清在线观看| 欧洲一级精品| 国产精品青草久久久久福利99| av成人在线观看| 国产欧美一区二区三区在线看| 久久天堂av| 国产精品普通话| 天堂综合在线播放| 亚洲在线视频福利| 91精品入口| 国产高清在线一区| 日韩精品导航| 欧美日韩一区二区三区免费| 国产探花在线精品| 先锋影音网一区| 天天综合亚洲| 青青草综合视频| 99在线热播精品免费99热| 欧美日韩亚洲第一| 麻豆成人综合网| 国产精欧美一区二区三区白种人| 国产高清精品网站| 久久久久久久久久久久国产精品| 99视频有精品| 超薄肉色丝袜一二三| 亚洲日本青草视频在线怡红院| 免费人成年激情视频在线观看| 亚洲一本大道在线| 男人天堂av在线播放| 欧美日韩在线精品一区二区三区激情| 国产女主播福利| 亚洲国产精品大全| 国产www.大片在线| 欧美xxxx14xxxxx性爽| 免费成人在线电影| 国产美女精彩久久| 成人线上播放| 日韩av不卡在线播放| 99精品电影| 久久精品国产sm调教网站演员| 免费看日韩精品| 91亚洲一线产区二线产区| 久久午夜老司机| 国产三级国产精品国产国在线观看| 亚洲成人一二三| 中文字幕免费高清在线观看| 日韩美女主播在线视频一区二区三区| 色在线免费视频| 欧美成人激情在线| 免费日韩电影| 亚洲综合成人婷婷小说| 亚洲最好看的视频| 国产又粗又长又爽视频| 性色av一区二区怡红| 色姑娘综合天天| 国产精品日本欧美一区二区三区| xxww在线观看| 91日韩一区二区三区| 九九热精彩视频| 欧美午夜精品久久久久久孕妇| 日本国产在线观看| www.国产一区| 亚洲淫成人影院| 国产精品福利视频| 日韩电影在线视频| 免费在线观看的av网站| 成人免费观看av| 日韩a级片在线观看| 91传媒视频在线播放| 天天干天天摸天天操| 美女国内精品自产拍在线播放| 另类中文字幕国产精品| 久久久久欧美| 亚洲一级电影| 师生出轨h灌满了1v1| 国产精品高潮久久久久无| 香蕉影院在线观看| 亚洲高清免费观看高清完整版| 伊人电影在线观看| 成人免费观看a| 日韩欧美网站| 亚洲福利精品视频| 国产人久久人人人人爽| 国产成人无码一区二区在线播放| 亚洲国产日韩欧美综合久久| 国产盗摄一区二区| 国产精品手机视频| 国产一区二区中文| 激情成人在线观看| 亚洲视频每日更新| 国产精品久久影视| 久久激情视频免费观看| 四虎精品一区二区免费| 在线国产精品网| 久久66热偷产精品| 手机av在线看| 欧美一级在线免费| 91精品国产91久久久久久青草| 亚洲综合日韩在线| 欧美在线资源| 黄色av电影网站| 午夜国产精品一区| 香蕉久久国产av一区二区| 91国产精品视频在线| 亚洲国产合集| jizz欧美激情18| 国产精品毛片久久久久久| 又骚又黄的视频| 久久久国产视频91| 日韩一二三区| 福利视频一二区| 99v久久综合狠狠综合久久| 国产精品500部| 亚洲欧美日韩久久久久久 | 欧美视频成人| aaaa黄色片| 91国偷自产一区二区开放时间 | 欧美韩国理论所午夜片917电影| 日本一区二区三区播放| 91免费黄视频| 久久亚洲私人国产精品va媚药| 久久久久亚洲视频| 日韩在线欧美在线| 精品精品视频| www..com日韩| 国产亚洲精品福利| 亚洲天堂中文字幕在线| 欧美高跟鞋交xxxxxhd| 啪啪国产精品| 午夜久久久精品| 亚洲欧美另类久久久精品2019| 亚洲a视频在线| 国产成人精品电影| 久久久久国产精品| 奇米777第四色| 欧美性色aⅴ视频一区日韩精品| 18+视频在线观看| 久久国产精品高清| 男女性色大片免费观看一区二区| 欧美黄色一级网站| 亚洲精品永久免费| 99视频这里有精品| 无码播放一区二区三区| 中文字幕在线一区免费| 人妻精品一区二区三区| 国产精品亚洲自拍| 亚洲精品男同| 永久免费看片视频教学| 日韩av中文字幕在线播放| 色8久久久久|