精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Hive支持的文件格式與壓縮算法

大數(shù)據(jù) 算法
只要是配置了正確的文件類型和壓縮類型(比如Textfile+Gzip、SequenceFile+Snappy等),Hive都可以按預(yù)期讀取并解析數(shù)據(jù),提供SQL功能。

[[194194]]

概述

只要是配置了正確的文件類型和壓縮類型(比如Textfile+Gzip、SequenceFile+Snappy等),Hive都可以按預(yù)期讀取并解析數(shù)據(jù),提供SQL功能。

SequenceFile本身的結(jié)構(gòu)已經(jīng)設(shè)計(jì)了內(nèi)容進(jìn)行壓縮。所以對于SequenceFile文件的壓縮,并不是先生成SequenceFile文件,再對文件進(jìn)行壓縮。而是生成SequenceFile文件時(shí),對其中的內(nèi)容字段進(jìn)行壓縮。最終壓縮后,對外仍體現(xiàn)為一個(gè)SequenceFile。

RCFile、ORCFile、Parquet、Avro對于壓縮的處理方式與SequenceFile相同。

文件格式

  1. Textfile
  2. SequenceFile
  3. RCFile
  4. ORCFile
  5. Parquet
  6. Avro

壓縮算法的編解碼器

TEXTFILE

  1. --創(chuàng)建一個(gè)表,格式為文本文件: 
  2. CREATE EXTERNAL TABLE student_text (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED  
  4.     FIELDS TERMINATED BY ','  
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --導(dǎo)入數(shù)據(jù)到此表中,將啟動MR任務(wù) 
  8. INSERT OVERWRITE TABLE student_text SELECT * FROM student; 

可查看到生成的數(shù)據(jù)文件的格式為非壓縮的文本文件:

  1. hdfs dfs -cat /user/hive/warehouse/student_text/000000_0 
  2.  
  3. 1001810081,cheyo 
  4. 1001810082,pku 
  5. 1001810083,rocky 
  6. 1001810084,stephen 
  7. 2002820081,sql 
  8. 2002820082,hello 
  9. 2002820083,hijj 
  10. 3001810081,hhhhhhh 
  11. 3001810082,abbbbbb 

文本文件,DEFLATE壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_text_def (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec;  
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_text_def SELECT * FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_text_def; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).deflate文件。

  1. hdfs dfs -ls /user/hive/warehouse/student_text_def/ 
  2. -rw-r--r--   2015-09-16 12:48 /user/hive/warehouse/student_text_def/000000_0.deflate 
  3. -rw-r--r--   2015-09-16 12:48 /user/hive/warehouse/student_text_def/000001_0.deflate 
  4. -rw-r--r--   2015-09-16 12:48 /user/hive/warehouse/student_text_def/000002_0.deflate 

文本文件,Gzip壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_text_gzip (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec; 
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_text_gzip SELECT * FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_text_gzip; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).gz文件。解開.gz文件,可以看到明文文本:

  1. hdfs dfs -ls /user/hive/warehouse/student_text_gzip/ 
  2. -rw-r--r--  2015-09-15 10:03 /user/hive/warehouse/student_text_gzip/000000_0.gz 
  3. -rw-r--r--  2015-09-15 10:03 /user/hive/warehouse/student_text_gzip/000001_0.gz 
  4. -rw-r--r--  2015-09-15 10:03 /user/hive/warehouse/student_text_gzip/000002_0.gz 

文本文件,Bzip2壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_text_bzip2 (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置壓縮類型為Bzip2壓縮: 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.BZip2Codec; 
  11. --導(dǎo)入數(shù)據(jù) 
  12. INSERT OVERWRITE TABLE student_text_bzip2 SELECT * FROM student; 
  13. --查看數(shù)據(jù): 
  14. SELECT * FROM student_text_bzip2; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).bz2文件。解開.bz2文件,可以看到明文文本:

  1. hdfs dfs -ls /user/hive/warehouse/student_text_bzip2 
  2. -rw-r--r--  2015-09-15 10:09 /user/hive/warehouse/student_text_bzip2/000000_0.bz2 
  3. -rw-r--r--  2015-09-15 10:09 /user/hive/warehouse/student_text_bzip2/000001_0.bz2 
  4. -rw-r--r--  2015-09-15 10:09 /user/hive/warehouse/student_text_bzip2/000002_0.bz2 

文本文件,lzo壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_text_lzo (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置為LZO壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=com.hadoop.compression.lzo.LzopCodec; 
  11. --導(dǎo)入數(shù)據(jù) 
  12. INSERT OVERWRITE TABLE student_text_lzo SELECT * FROM student; 
  13. --查詢數(shù)據(jù) 
  14. SELECT * FROM student_text_lzo; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).lzo壓縮。解開.lzo文件,可以看到明文文本。

未實(shí)測,需要安裝lzop庫

文本文件,lz4壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_text_lz4 (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置為LZ4壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.Lz4Codec; 
  11. --導(dǎo)入數(shù)據(jù) 
  12. INSERT OVERWRITE TABLE student_text_lz4 SELECT * FROM student; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).lz4壓縮。使用cat查看.lz4文件,可以看到是壓縮后的文本。

  1. hdfs dfs -ls /user/hive/warehouse/student_text_lz4 
  2. -rw-r--r-- 2015-09-16 12:06 /user/hive/warehouse/student_text_lz4/000000_0.lz4 
  3. -rw-r--r-- 2015-09-16 12:06 /user/hive/warehouse/student_text_lz4/000001_0.lz4 
  4. -rw-r--r-- 2015-09-16 12:06 /user/hive/warehouse/student_text_lz4/000002_0.lz4 

文本文件,Snappy壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_text_snappy (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS TEXTFILE; 
  7. --設(shè)置壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.compress.map.output=true
  10. SET mapred.output.compress=true
  11. SET mapred.output.compression=org.apache.hadoop.io.compress.SnappyCodec; 
  12. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec; 
  13. SET io.compression.codecs=org.apache.hadoop.io.compress.SnappyCodec; 
  14. --導(dǎo)入數(shù)據(jù) 
  15. INSERT OVERWRITE TABLE student_text_snappy SELECT * FROM student; 
  16. --查詢數(shù)據(jù) 
  17. SELECT * FROM student_text_snappy; 

查看數(shù)據(jù)文件,可看到數(shù)據(jù)文件為多個(gè).snappy壓縮文件。使用cat查看.snappy文件,可以看到是壓縮后的文本:

  1. hdfs dfs -ls /user/hive/warehouse/student_text_snappy 
  2. Found 3 items 
  3. -rw-r--r--   2015-09-15 16:42 /user/hive/warehouse/student_text_snappy/000000_0.snappy 
  4. -rw-r--r--   2015-09-15 16:42 /user/hive/warehouse/student_text_snappy/000001_0.snappy 
  5. -rw-r--r--   2015-09-15 16:42 /user/hive/warehouse/student_text_snappy/000002_0.snappy 

SEQUENCEFILE

Sequence文件,DEFLATE壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_seq_def (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS SEQUENCEFILE; 
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec;  
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_seq_def SELECT * FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_seq_def; 

查看數(shù)據(jù)文件,是一個(gè)密文的文件.

  1. hdfs dfs -ls /user/hive/warehouse/student_seq_def/ 
  2. -rw-r--r--  /user/hive/warehouse/student_seq_def/000000_0 

Sequence文件,Gzip壓縮

  1. --創(chuàng)建一個(gè)表,格式為文件文件: 
  2. CREATE TABLE student_seq_gzip (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS SEQUENCEFILE; 
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec; 
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_seq_gzip SELECT * FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_seq_gzip; 

查看數(shù)據(jù)文件,是一個(gè)密文的文件,無法通過gzip解壓:

  1. hdfs dfs -ls /user/hive/warehouse/student_seq_gzip/ 
  2. -rw-r--r--  /user/hive/warehouse/student_seq_gzip/000000_0 

RCFILE

RCFILE,Gzip壓縮

  1. CREATE TABLE student_rcfile_gzip (id STRING, name STRING) 
  2. ROW FORMAT DELIMITED 
  3.     FIELDS TERMINATED BY ',' 
  4.     LINES TERMINATED BY '\n' 
  5. STORED AS RCFILE; 
  6.  
  7. --設(shè)置壓縮類型為Gzip壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.output.compress=true
  10. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec; 
  11. --導(dǎo)入數(shù)據(jù): 
  12. INSERT OVERWRITE TABLE student_rcfile_gzip SELECT id,name FROM student; 
  13. --查看數(shù)據(jù) 
  14. SELECT * FROM student_rcfile_gzip; 

ORCFile

ORCFile有自己的參數(shù)設(shè)置壓縮格式,一般不使用上述Hive參數(shù)設(shè)置壓縮參數(shù)。

ORCFile,ZLIB壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_orcfile_zlib (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS ORCFILE TBLPROPERTIES ("orc.compress"="ZLIB"); 
  7.  
  8. --導(dǎo)入數(shù)據(jù) 
  9. INSERT OVERWRITE TABLE student_orcfile_zlib SELECT id,name FROM student; 
  10. --查詢數(shù)據(jù) 
  11. SELECT * FROM student_orcfile_zlib; 

ORCFILE,Snappy壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_orcfile_snappy2 (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS ORCFILE TBLPROPERTIES ("orc.compress"="SNAPPY"); 
  7.  
  8. --導(dǎo)入數(shù)據(jù) 
  9. INSERT OVERWRITE TABLE student_orcfile_snappy2 SELECT id,name FROM student; 
  10. --查詢數(shù)據(jù) 
  11. SELECT * FROM student_orcfile_snappy2; 

一般不使用下述方式。下述方式壓縮后,結(jié)果與上述同類型壓縮(SNAPPY)不同。具體原因待進(jìn)一步研究。

  1. --創(chuàng)建表 
  2. CREATE TABLE student_orcfile_snappy (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS ORCFILE; 
  7. --設(shè)置壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.compress.map.output=true
  10. SET mapred.output.compress=true
  11. SET mapred.output.compression=org.apache.hadoop.io.compress.SnappyCodec; 
  12. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec; 
  13. SET io.compression.codecs=org.apache.hadoop.io.compress.SnappyCodec; 
  14. --導(dǎo)入數(shù)據(jù) 
  15. INSERT OVERWRITE TABLE student_orcfile_snappy SELECT id,name FROM student; 
  16. --查詢數(shù)據(jù) 
  17. SELECT * FROM student_orcfile_snappy; 

Parquet

Parquet,Snappy壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_parquet_snappy (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS PARQUET; 
  7. --設(shè)置壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.compress.map.output=true
  10. SET mapred.output.compress=true
  11. SET mapred.output.compression=org.apache.hadoop.io.compress.SnappyCodec; 
  12. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec; 
  13. SET io.compression.codecs=org.apache.hadoop.io.compress.SnappyCodec; 
  14. --導(dǎo)入數(shù)據(jù) 
  15. INSERT OVERWRITE TABLE student_parquet_snappy SELECT id,name FROM student; 
  16. --查詢數(shù)據(jù) 
  17. SELECT * FROM student_parquet_snappy; 

Avro

Avro,Snappy壓縮

  1. --創(chuàng)建表 
  2. CREATE TABLE student_avro_snappy (id STRING, name STRING) 
  3. ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     LINES TERMINATED BY '\n' 
  6. STORED AS AVRO; 
  7. --設(shè)置壓縮 
  8. SET hive.exec.compress.output=true
  9. SET mapred.compress.map.output=true
  10. SET mapred.output.compress=true
  11. SET mapred.output.compression=org.apache.hadoop.io.compress.SnappyCodec; 
  12. SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec; 
  13. SET io.compression.codecs=org.apache.hadoop.io.compress.SnappyCodec; 
  14. --導(dǎo)入數(shù)據(jù) 
  15. INSERT OVERWRITE TABLE student_avro_snappy SELECT id,name FROM student; 
  16. --查詢數(shù)據(jù) 
  17. SELECT * FROM student_avro_snappy; 
責(zé)任編輯:武曉燕 來源: oschina博客
相關(guān)推薦

2010-08-02 14:19:28

DB2數(shù)據(jù)庫

2010-08-02 14:14:13

DB2數(shù)據(jù)庫

2012-05-29 09:06:32

Hadoop文件格式

2012-05-29 09:48:21

Hadoop

2016-12-01 14:47:20

2017-08-25 17:41:17

Paradox數(shù)據(jù)文件格式

2010-08-03 15:40:30

NFS文件格式

2011-03-03 10:48:36

DB2數(shù)據(jù)庫外部文件

2023-11-02 09:54:21

ODT文件

2021-09-29 15:52:26

計(jì)算機(jī)配置文件語言

2010-07-28 14:26:37

DB2支持

2010-09-06 12:44:24

DB2數(shù)據(jù)庫

2010-07-27 13:34:08

DB2數(shù)據(jù)庫

2011-05-26 10:52:41

DB2數(shù)據(jù)庫

2010-08-02 14:09:57

DB2數(shù)據(jù)庫

2010-08-26 16:26:19

DB2數(shù)據(jù)庫外部文件

2010-07-27 15:20:01

DB2數(shù)據(jù)庫

2022-04-22 17:07:21

MIDI傳輸協(xié)議音樂技術(shù)

2010-05-07 11:38:55

Oracle DB2

2009-07-20 09:44:31

DB2外部文件格式
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

国产精品免费人成网站| 你懂的亚洲视频| 一本大道久久a久久综合| 精品综合在线| 日本成人一级片| 欧美mv日韩| 亚洲电影第1页| 国产性生交xxxxx免费| 黄色网页网址在线免费| 风间由美性色一区二区三区| 欧美在线视频播放| а天堂中文在线资源| 亚洲国产一区二区三区网站| 色综合久久综合网欧美综合网 | 亚洲中文字幕无码专区| 福利片在线看| av激情综合网| 国产中文欧美精品| 亚洲区中文字幕| 婷婷四月色综合| 黄色av小说在线观看| 日韩激情视频在线观看| 久久久亚洲成人| 成人精品一二三区| 嫩草影视亚洲| 欧美精品一区二区三区高清aⅴ| 在线观看的毛片| 九色porny丨入口在线| 亚洲丝袜另类动漫二区| 日本一区二区三区视频在线观看| 午夜精品在线播放| 久久国产精品一区二区| 日韩美女视频免费看| 国产大片aaa| 亚洲一区二区三区| 在线看片第一页欧美| 激情综合丁香五月| 99ri日韩精品视频| 日韩女优av电影| 日韩在线一区视频| 国产精品99精品一区二区三区∴| 色婷婷久久99综合精品jk白丝| 18黄暴禁片在线观看| 亚洲区欧洲区| 亚洲欧美另类小说| 黄色a级在线观看| 永久av在线| 国产精品三级av在线播放| 欧美日产一区二区三区在线观看| 亚洲人在线观看视频| 成人丝袜视频网| 国产一级精品aaaaa看| 亚洲国产日韩在线观看| 国v精品久久久网| 国产高清在线精品一区二区三区| av无码精品一区二区三区宅噜噜| 紧缚捆绑精品一区二区| 久久你懂得1024| 欧美成人sm免费视频| 永久免费未视频| 91精品久久久久久久蜜月| 色噜噜久久综合伊人一本| 一级特黄曰皮片视频| 日韩成人影院| 按摩亚洲人久久| 天天看片中文字幕| 亚洲午夜一区| 欧美做受高潮电影o| 日韩人妻精品中文字幕| 日本欧美在线观看| 91精品久久久久久久久久久| 国产又粗又猛又爽又黄视频| 国产一区二区免费视频| 国产成人免费观看| 五月婷婷激情在线| 国产欧美日韩不卡| 裸体大乳女做爰69| 9999热视频在线观看| 欧美视频在线看| 国产高清视频网站| 久久国产精品免费一区二区三区| 精品久久国产字幕高潮| 精品人妻一区二区三区日产乱码卜| 中国av一区| 色综合伊人色综合网站| 青娱乐在线视频免费观看| 亚洲精选91| 国产精品亚洲网站| 亚洲国产精品久久人人爱潘金莲| 国产一级精品视频| 91亚洲自偷观看高清| 色综合久久久888| 国产精品乱子伦| 久草热8精品视频在线观看| 国产成人成网站在线播放青青 | 成人国产激情| 日韩欧美亚洲国产精品字幕久久久| 国产人妻黑人一区二区三区| 精品成人影院| 欧美激情女人20p| 免费在线不卡av| 丁香六月久久综合狠狠色| 日韩av电影免费在线| 天堂av在线电影| 欧美中文字幕不卡| 中国xxxx性xxxx产国| 久久精品不卡| 97超级碰碰碰久久久| 一本色道久久综合熟妇| 91女神在线视频| 国产91porn| 精品欧美日韩精品| 亚洲福利小视频| 国产高潮国产高潮久久久91| 久久久久久久欧美精品| 岛国视频一区免费观看| av在线电影播放| 欧美日韩亚洲视频| 日韩av成人网| 午夜免费一区| 国产精品视频久久久| 天堂在线观看免费视频| 亚洲欧美aⅴ...| 天天操天天爱天天爽| 午夜欧洲一区| 国内精品一区二区三区四区| 国产毛片毛片毛片毛片| 日本一区二区三区dvd视频在线 | 精品一区二区三区在线视频| 精品久久久久久综合日本| www国产在线观看| 欧美理论片在线| 男人的天堂官网| 国产免费成人| 国产尤物99| 黄页在线观看免费| 欧美成人三级在线| 久久久久亚洲av片无码| 美女www一区二区| 五月天色一区| 超碰这里只有精品| 国产一区二区日韩精品欧美精品| 91av在线免费视频| 成人高清伦理免费影院在线观看| 青青视频免费在线| 日韩三级不卡| 欧美日韩aaaa| 懂色av蜜臀av粉嫩av分享吧| 一区二区三区影院| 成人啪啪18免费游戏链接| 欧美激情性爽国产精品17p| 91性高湖久久久久久久久_久久99| 999国产在线视频| 欧美日韩中字一区| 国产精品麻豆一区| 韩国女主播成人在线| 在线成人av电影| 国产日韩欧美中文在线| 欧美美女18p| 亚洲h视频在线观看| 亚洲五月六月丁香激情| 国产视频精品视频| 国产日韩免费| 日本在线观看不卡| 日韩一区二区三区四区五区| 精品国产一区久久久| 国产成人精品a视频| 一个色妞综合视频在线观看| 中文字幕第3页| 老鸭窝91久久精品色噜噜导演| 色综合电影网| 欧美日韩一区二区在线播放| 热这里只有精品| 9999在线精品视频| 欧美精品一区二区三区国产精品| 精品人妻一区二区三区麻豆91| 亚洲自拍偷拍图区| 精品人妻少妇嫩草av无码| 玖玖在线精品| 裸体大乳女做爰69| 欧美理伦片在线播放| 国产精品video| 免费在线看黄| 亚洲国产成人91精品| 天天操天天干天天摸| 中文字幕一区免费在线观看| 免费看91视频| 视频在线在亚洲| www.69av| 欧美一二区在线观看| 亚洲自拍偷拍色片视频| 亚洲欧洲日本韩国| 精品国产区一区二区三区在线观看| а√天堂资源在线| 色欧美乱欧美15图片| 美国黄色小视频| 久久嫩草精品久久久精品一| 午夜影院免费版| 三级精品在线观看| a级免费在线观看| 久久中文字幕av一区二区不卡| 国产精品国模大尺度私拍| 视频在线日韩| 欧美激情精品久久久久久| 黄色在线小视频| 欧美成人午夜电影| 在线中文字幕网站| 懂色aⅴ精品一区二区三区蜜月 | 亚洲精品国产高清久久伦理二区| 人妻少妇精品视频一区二区三区| 久久99精品国产91久久来源| ww国产内射精品后入国产| 亚洲综合色网| 午夜精品一区二区在线观看 | 少妇免费毛片久久久久久久久| 韩国三级成人在线| 国产精品久久久久久久久久久不卡 | 久久蜜桃av一区二区天堂| 五月天六月丁香| 久久99国内精品| 日本成人中文字幕在线| 欧美午夜不卡影院在线观看完整版免费| 区一区二区三区中文字幕| youjizz亚洲| 亚洲a级在线播放观看| 国产欧美自拍| 国产99视频在线观看| 不卡视频观看| 久久久久久69| 日本在线观看高清完整版| 日韩中文字在线| 成人性爱视频在线观看| 亚洲美女福利视频网站| 狠狠综合久久av一区二区| 欧美一区二区精美| 国产免费黄色录像| 欧美精选在线播放| 在线视频1卡二卡三卡| 欧美亚洲国产bt| 黄色网址中文字幕| 欧美综合视频在线观看| 久操视频在线免费观看| 色综合久久久久综合99| 精品免费囯产一区二区三区 | 国产v片免费观看| 精品91视频| 99久久国产综合精品五月天喷水| 欧美精品观看| www.好吊操| 亚洲视频播放| 久久久久免费精品| 日本不卡123| 成年人三级黄色片| 国产一区不卡精品| 秋霞午夜鲁丝一区二区 | 人妻体内射精一区二区| 久久色视频免费观看| 88久久精品无码一区二区毛片| 成人美女视频在线观看18| 97超碰人人看| 岛国精品在线播放| 小毛片在线观看| 91浏览器在线视频| 免费视频91蜜桃| 中文字幕五月欧美| 欧美黄色免费看| 五月天一区二区| 一区二区三区入口| 午夜免费福利在线观看| 在线色欧美三级视频| 日本www在线观看视频| 久久国产色av| 多野结衣av一区| 国产国语刺激对白av不卡| 欧美日韩免费电影| av一区和二区| 视频一区中文| 26uuu成人| 国产欧美一区二区色老头| 香蕉视频网站入口| 国产二区国产一区在线观看| 亚洲精品中文字幕在线播放| 中文在线一区二区| 久热精品在线观看| 色老头久久综合| a级片免费视频| 亚洲欧美精品伊人久久| 欧美日韩在线看片| 97婷婷大伊香蕉精品视频| 777午夜精品电影免费看| 91偷拍精品一区二区三区| 麻豆成人入口| 三级网在线观看| 国产一区二区三区的电影 | 佐佐木明希av| 亚洲一区二区成人| 手机免费看av网站| 91碰在线视频| 免费视频一二三区| 91官网在线观看| 成人乱码一区二区三区| 在线电影av不卡网址| 丁香花在线观看完整版电影| 国产精品老女人精品视频| 日韩激情精品| 亚洲视频欧美在线| 亚洲一区欧美激情| 亚洲成a人无码| 成人免费在线视频观看| 日本视频在线观看免费| 精品美女被调教视频大全网站| h视频在线免费| 欧洲成人在线观看| 一区二区三区在线免费看 | 亚洲人体偷拍| 亚洲一区二区图片| 国产精品免费视频一区| 日韩人妻精品中文字幕| 亚洲精品一区二区三区香蕉| 欧美a在线看| 国产精品久久久久久久av电影| 久久激情av| 毛片av在线播放| 国产一区二区在线观看视频| 亚洲黄色免费视频| 岛国av一区二区三区| 好吊视频一二三区| 久久久久久成人精品| 精品国产一区二| 亚洲最新在线| 美日韩一区二区| 日本少妇毛茸茸| 五月天一区二区三区| 动漫av一区二区三区| 久久久国产精品亚洲一区| 不卡亚洲精品| 亚洲欧美电影在线观看| 日本中文字幕不卡| 亚洲成人黄色av| 色老综合老女人久久久| 国产日韩精品在线看| 国产97色在线|日韩| 国产欧美高清视频在线| 91av在线免费播放| 国产日产亚洲精品系列| 无码免费一区二区三区| 亚洲美女精品成人在线视频| 在线能看的av网址| 久久av一区二区三区漫画| 日韩一级精品| 人妻精品久久久久中文字幕| 婷婷成人激情在线网| 青青草手机在线| 日本在线精品视频| 精品日韩免费| 中文字幕 日韩 欧美| 亚洲女厕所小便bbb| 亚洲精品18在线观看| 久久琪琪电影院| 亚洲a级精品| 丰满少妇在线观看| 中文字幕一区二区三区四区| 国产精品无码久久久久成人app| 欧美成人午夜激情在线| 成功精品影院| 蜜臀久久99精品久久久酒店新书| 欧美国产日韩亚洲一区| 97超碰中文字幕| 久久久久久久久久久91| 午夜欧洲一区| 亚洲色图偷拍视频| 亚洲国产精品久久久男人的天堂| 香港三日本三级少妇66| 国产成人涩涩涩视频在线观看 | 僵尸世界大战2 在线播放| 99re成人在线| 亚洲天堂免费av| 欧美精品激情在线| 欧美极品中文字幕| 亚洲一级片av| 精品日本高清在线播放| 成人精品一区二区三区免费| 92国产精品视频| 国产乱码精品| 日本一级二级视频| 亚洲美女性生活视频| 99视频这里有精品| 国产精品宾馆在线精品酒店| 国产精品久久久久久久蜜臀| 亚洲黄色片视频| 国产精品免费一区| 亚洲精品四区| 国产麻豆视频在线观看| 亚洲娇小xxxx欧美娇小| 日本精品久久| 麻豆av免费在线| 亚洲在线视频一区| 自拍视频在线免费观看| 激情视频一区二区| 激情都市一区二区|