精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大數據Hadoop之EFAK和Confluent KSQL簡單使用

大數據 Hadoop
kafka 0.9.x以后的版本新增了advertised.listeners?配置,kafka 0.9.x以后的版本不要使用 advertised.host.name 和 advertised.host.port 已經deprecatedhost.name 和 port 為 deprecated,使用?listeners代替。

一、EFAK概述和安裝

關于EFAK的概述和安裝,可以參考我這篇文章:大數據Hadoop之——Kafka 圖形化工具 EFAK(EFAK環境部署)在講EFAK使用之前,這里先講一下listeners 和 advertised.listeners的用法,其實企業里還是會配置著兩個參數的。

二、listeners和advertised.listeners配置詳解

kafka 0.9.x以后的版本新增了advertised.listeners配置,kafka 0.9.x以后的版本不要使用 advertised.host.name 和 advertised.host.port 已經deprecatedhost.name 和 port 為 deprecated,使用listeners代替。

  • listeners:就是主要用來定義Kafka Broker的Listener的配置項,listeners是kafka真正bind的地址。
  • advertised.listeners:參數的作用就是將Broker的Listener信息發布到Zookeeper中,是暴露給外部的listeners,如果沒有設置,會用listeners。
  • listener.security.protocol.map:配置監聽者的安全協議的,主要有以下幾種協議:
  1. PLAINTEXT => PLAINTEXT 不需要授權,非加密通道
  2. SSL => SSL 使用SSL加密通道
  3. SASL_PLAINTEXT => SASL_PLAINTEXT 使用SASL認證非加密通道
  4. SASL_SSL => SASL_SSL 使用SASL認證并且SSL加密通道
  • inter.broker.listener.name:專門用于Kafka集群中Broker之間的通信。
listener.security.protocol.map=EXTERNAL:PLAINTEXT,INTERNAL:PLAINTEXT
# 外網訪問192.168.0.113:19092,內網訪問:192.168.0.113:19093,當kafka部署在k8s時候就很有用
listeners=EXTERNAL://192.168.0.113:19092,INTERNAL://192.168.0.113:19093
inter.broker.listener.name=INTERNAL
# 如果advertised.listeners沒配置就使用listeners的配置
#advertised.listeners=EXTERNAL://192.168.0.113:19092,INTERNAL://192.168.0.113:19093

使用場景

  • 只有內網:比如在公司搭建的 kafka 集群,只有內網中的服務可以用,這種情況下,只需要用 listeners 就行。示例如下:
# listeners=<協議名稱>://<內網ip>:<端口>
listeners=EXTERNAL://192.168.0.113:19092
  • 內外網:在 k8s 中或者 在類似阿里云主機上部署 kafka 集群,這種情況下是 需要用到 advertised_listeners。示例如下:
listeners=INSIDE://0.0.0.0:9092,OUTSIDE://<公網 ip>:端口(或者 0.0.0.0:端口)
advertised.listeners=INSIDE://localhost:9092,OUTSIDE://<宿主機ip>:<宿主機暴露的端口>
listener.security.protocol.map=INSIDE:SASL_PLAINTEXT,OUTSIDE:SASL_PLAINTEXT
kafka_inter_broker_listener_name:inter.broker.listener.name=INSIDE

三、KSQL使用

KSQL是一個用于Apache kafka的流式SQL引擎,KSQL在內部使用Kafka的Streams API,KSQL降低了進入流處理的門檻,提供了一個簡單的、完全交互式的SQL接口,用于處理Kafka的數據,可以讓我們在流數據上持續執行 SQL 查詢,KSQL支持廣泛的強大的流處理操作,包括聚合、連接、窗口、會話等等。官方文檔:https://www.rittmanmead.com/blog/2017/10/ksql-streaming-sql-for-apache-kafka/

1)KSQL架構

GitHub地址:https://github.com/confluentinc/ksql

圖片

圖片

2)Confluent安裝(ZK/KAFKA/KSQL)

ksql支持kafka0.11之后的版本,在confluent的V3和V4版本中默認并沒有加入ksql server程序,當然V3和V4是支持ksql的,在V5版本之后已經默認加入ksql了,這里選擇最新版本7.1。其實Confluent 就是kafka的增加版,包含了kafka和zk。

下載地址:https://packages.confluent.io/archive/

1、下載confluent

$ cd /opt/bigdata/hadoop/software
$ wget https://packages.confluent.io/archive/7.1/confluent-7.1.1.tar.gz
$ tar -xf confluent-7.1.1.tar.gz -C /opt/bigdata/hadoop/server/

2、配置環境變量

$ vi /etc/profile
export CONFLUENT_HOME=/opt/bigdata/hadoop/server/confluent-7.1.1
export PATH=$CONFLUENT_HOME/bin:$PATH

$ source /etc/profile

3、創建log和data目錄

$ mkdir $CONFLUENT_HOME/etc/kafka/zookeeper_data $CONFLUENT_HOME/etc/kafka/zookeeper_logs $CONFLUENT_HOME/etc/kafka/logs

4、配置zk和kafka

  • 配置zk
$ cat > $CONFLUENT_HOME/etc/kafka/zookeeper.properties <<-EOF
# 配置主要修改如下:
#數據目錄
dataDir=/opt/bigdata/hadoop/server/confluent-7.1.1/etc/kafka/zookeeper_data
#日志目錄
# dataLogDir=/opt/bigdata/hadoop/server/confluent-7.1.1/etc/kafka/zookeeper_logs
#心跳間隔時間,zookeeper中使用的基本時間單位,毫秒值。每隔2秒發送一個心跳
tickTime=2000
#leader與客戶端連接超時時間。表示5個心跳間隔
initLimit=5
#Leader與Follower之間的超時時間,表示2個心跳間隔
syncLimit=2
#客戶端連接端口,默認端口2181
clientPort=12181
admin.enableServer=false
# admin.serverPort=8080
# zookeeper集群配置項,server.1,server.2,server.3是zk集群節點;hadoop-node1,hadoop-node2,hadoop-node3是主機名稱;2888是主從通信端口;3888用來選舉leader
server.1=hadoop-node1:2888:3888
server.2=hadoop-node2:2888:3888
server.3=hadoop-node3:2888:3888
EOF
  • 配置kafka
$ cat > $CONFLUENT_HOME/etc/kafka/server.properties <<-EOF
#broker的全局唯一編號,不能重復
broker.id=0

listener.security.protocol.map=EXTERNAL:PLAINTEXT,INTERNAL:PLAINTEXT
# broker 服務器要監聽的地址及端口 . 默認是 localhost:9092 ,0.0.0.0的話 ,表示監聽本機的所有ip地址.本機配置:
# localhost : 只監聽本機的地址請求, 客戶端也只能用 localhost 來請求
# 127.0.0.1 : 同localhost, 在請求上可能有與區分 , 看client的請求吧 . 客戶端也只能用127.0.0.1來請求
# 192.168.0.1 : 你的局域網不一定是 192.168 段的.所以一般不選這個
# 0.0.0.0 : 本機的所有地址都監聽 , 包含 localhost , 127.0.0.1, 及不同網卡的所有ip地址 , 都監聽 .
listeners=EXTERNAL://0.0.0.0:19092,INTERNAL://0.0.0.0:19093

# 是暴露給外部的listeners,如果沒有設置,會用listeners,參數的作用就是將Broker的Listener信息發布到Zookeeper中,注意其它節點得修改成本身的hostnaem或者ip,不支持0.0.0.0
advertised.listeners=EXTERNAL://hadoop-node1:19092,INTERNAL://hadoop-node1:19093

inter.broker.listener.name=INTERNAL

#刪除topic功能使能
delete.topic.enable=true
#處理網絡請求的線程數量
num.network.threads=3
#用來處理磁盤IO的現成數量
num.io.threads=8
#發送套接字的緩沖區大小
socket.send.buffer.bytes=102400
#接收套接字的緩沖區大小
socket.receive.buffer.bytes=102400
#請求套接字的緩沖區大小
socket.request.max.bytes=104857600
#kafka數據的存儲位置
log.dirs=/opt/bigdata/hadoop/server/confluent-7.1.1/etc/kafka/logs
#topic在當前broker上的分區個數
num.partitinotallow=1
#用來恢復和清理data下數據的線程數量
num.recovery.threads.per.data.dir=1
#segment文件保留的最長時間,超時將被刪除
log.retention.hours=168
#配置連接Zookeeper集群地址
zookeeper.cnotallow=hadoop-node1:12181,hadoop-node2:12181,hadoop-node3:12181
#zookeeper連接超時時間
zookeeper.connection.timeout.ms=60000

EOF

3、把confluent copy到其它節點

$ scp -r $CONFLUENT_HOME hadoop-node2:/opt/bigdata/hadoop/server/
$ scp -r $CONFLUENT_HOME hadoop-node2:/opt/bigdata/hadoop/server/

【溫馨提示】其它幾點修改以下三點:

  • 記得要修改broker.id,把hadoop-node2上的broker.id設置1,把hadoop-node2上的broker.id設置2;
  • 設置環境變量
$ vi /etc/profile
export CONFLUENT_HOME=/opt/bigdata/hadoop/server/confluent-7.1.1
export PATH=$CONFLUENT_HOME/bin:$PATH

$ source /etc/profile
  • advertised.listeners地址修改成本機地址

4、設置zk myid

# 在hadoop-node1配置如下:
$ echo 1 > $CONFLUENT_HOME/etc/kafka/zookeeper_data/myid
# 在hadoop-node2配置如下:
$ echo 2 > $CONFLUENT_HOME/etc/kafka/zookeeper_data/myid
# 在hadoop-node3配置如下:
$ echo 3 > $CONFLUENT_HOME/etc/kafka/zookeeper_data/myid

5、修改ksql-server.properties文件

$ vi $CONFLUENT_HOME/etc/ksqldb/ksql-server.properties
#修改對應的kafka的bootstrap server
bootstrap.servers=hadoop-node1:19092,hadoop-node2:19092,hadoop-node3:19092

6、開啟Kafka JMX監控

# 在kafka-server-start文件中添加export JMX_PORT="9988",端口自定義就行
$ vi $CONFLUENT_HOME/bin/kafka-server-start

7、啟動服務(zk,kafka,ksql)

先停掉之前的kafka和zk

$ $KAFKA_HOME/bin/zookeeper-server-stop.sh
$ $KAFKA_HOME/bin/kafka-server-stop.sh

啟動zk(必須先啟動zk再啟動kafka)

$ cd $CONFLUENT_HOME
$ bin/zookeeper-server-start -daemon etc/kafka/zookeeper.properties

啟動kafka

$ cd $CONFLUENT_HOME
$ bin/kafka-server-start -daemon etc/kafka/server.properties

啟動KSQL server

# 默認端口8088,可以修改listeners字段來修改port
$ cd $CONFLUENT_HOME
$ ./bin/ksql-server-start ./etc/ksqldb/ksql-server.properties
# 后臺啟動
$ ./bin/ksql-server-start -daemon ./etc/ksqldb/ksql-server.properties

圖片

啟動ksql cli端

$ cd $CONFLUENT_HOME
$ ./bin/ksql http://0.0.0.0:8088

圖片

【溫習提示】其實也可以使用外部的zk和kafka

3)KSQL簡單使用

1、table和stream概述

  • stream:stream是一個無序的數據結構,stream中發生的事件是不可改變的,已經被認定為事實,新的事件加入到這個stream中,現有的事實都不會改變。Streams可以從Kafka的topic創建出來,也可以從現有streams中派生出來。streams的基礎數據在Kafka的broker里的topic持久保存(持久化)。
  • table:table是stream的一個視圖,表示不斷變化的事實的集合。 它相當于傳統的數據庫表,但通過流式語義(如窗口)進行了豐富。 table中的事實是可變的,這意味著可以將新事實插入表中,同時可以更新或刪除現有事實。 可以從Kafka主題創建table,也可以從現有streams和tables中派生。 在這兩種情況下,table的基礎數據都在Kafka的broker里的topic中持久存儲(持久化)。

2、通過ksql-datagen工具創建topic和data

confluent自帶了一個ksql-datagen工具,可以創建和產生相關的topic和數據,ksql-datagen可以指定的參數如下:

$ ksql-datagen

圖片

$ cd $CONFLUENT_HOME
$ ./bin/ksql-datagen quickstart=pageviews format=delimited topic=pageviews maxInterval=500 bootstrap-server=hadoop-node1:19092

ps:以上命令會源源不斷在stdin上輸出數據,就是工具自己產生的數據,如下樣例

[1653124249561L] --> ([ 1653124249561L | 'User_3' | 'Page_82' ]) ts:1653124249561
[1653124249561L] --> ([ 1653124249561L | 'User_9' | 'Page_24' ]) ts:1653124249561
[1653124249561L] --> ([ 1653124249561L | 'User_9' | 'Page_91' ]) ts:1653124249561
[1653124249561L] --> ([ 1653124249561L | 'User_2' | 'Page_61' ]) ts:1653124249561

ps:不過使用consumer消費出來的數據是如下樣式:

1653124249561L,User_3,Page_82
1653124249561L,User_9,Page_24
1653124249561L,User_9,Page_91
1653124249561L,User_2,Page_61

創建users,數據格式為json

$ cd $CONFLUENT_HOME
$ ./bin/ksql-datagen quickstart=users format=json topic=users maxInterval=100 bootstrap-server=hadoop-node1:19092

ps:以上命令會源源不斷在stdin上輸出數據,就是工具自己產生的數據,如下樣例:

['User_6'] --> ([ 1495933043739L | 'User_6' | 'Region_8' | 'OTHER' ]) ts:1653124467578
['User_3'] --> ([ 1489611795658L | 'User_3' | 'Region_7' | 'MALE' ]) ts:1653124467578
['User_5'] --> ([ 1496009798562L | 'User_5' | 'Region_2' | 'MALE' ]) ts:1653124467578

不過使用consumer消費出來的數據是如下樣式:

{"registertime":1495933043739L,"userid":"User_6","regionid":"Region_8","gender":"OTHER"}
{"registertime":1489611795658L,"userid":"User_3","regionid":"Region_7","gender":"MALE"}
{"registertime":1496009798562L,"userid":"User_5","regionid":"Region_2","gender":"MALE"}

3、創建stream和table

  • 創建stream

根據topic pageviews創建一個stream pageviews_original,value_format為DELIMITED

$ cd $CONFLUENT_HOME
$ ./bin/ksql http://0.0.0.0:8088

# 【溫馨提示】value_format 有三種格式 JSON(json格式)、DELIMITED(原生格式)、AVRO(Avro 格式是 Hadoop 的一種基于行的存儲格式)
CREATE STREAM pageviews_original (viewtime bigint, userid varchar, pageid varchar) WITH (kafka_topic='pageviews', value_format='DELIMITED');

# 查看表詳情
DESCRIBE pageviews_original;
# 刪表
DROP STREAM pageviews_original;
# 查看topic
SHOW topics;
# 查看STREAMS
SHOW STREAMS;
  • 創建table

根據topic users創建一個table users_original,value_format為json,必須設置一個為主鍵,也可以指定副本很分區數,默認都是1,, PARTITIONS=1, REPLICAS=1

CREATE TABLE users_original (registertime BIGINT, gender VARCHAR, regionid VARCHAR, userid VARCHAR PRIMARY KEY) WITH (kafka_topic='users', value_format='JSON')

圖片

  • 創建持久查詢
# 上面創建的表時不能直接查詢數據的
SELECT * FROM USERS_ORIGINAL LIMIT 3;
CREATE TABLE QUERYABLE_USERS_ORIGINAL AS SELECT * FROM USERS_ORIGINAL;

# 查詢數據
SELECT * FROM QUERYABLE_USERS_ORIGINAL LIMIT 5;

圖片

  • Kafka Connect 接收器
CREATE SINK CONNECTOR es_sink WITH (
'connector.class' = 'io.confluent.connect.elasticsearch.ElasticsearchSinkConnector',
'key.converter' = 'org.apache.kafka.connect.storage.StringConverter',
'topics' = 'clicks_transformed',
'key.ignore' = 'true',
'schema.ignore' = 'true',
'type.name' = '',
'connection.url' = 'http://hadoop-node1:9200');

4、持久化查詢

持久化查詢可以源源不斷的把查詢出的數據發送到你指定的topic中去,查詢的時候在select前面添加create stream關鍵字即可創建持久化查詢。

# 生成數據
$ cd $CONFLUENT_HOME
$ ./bin/ksql-datagen quickstart=pageviews format=delimited topic=pageviews maxInterval=500 bootstrap-server=hadoop-node1:19092

# 先刪除
DROP STREAM pageviews_original;
# 創建查詢
CREATE STREAM pageviews_original (viewtime bigint, userid varchar, pageid varchar) WITH (kafka_topic='pageviews', value_format='DELIMITED');

# 直接查
select * from pageviews_original limit 10;

# 持久化查詢,PO會對應一個topic
CREATE STREAM PO AS SELECT userid FROM pageviews_original EMIT CHANGES;
# 查詢新stream
SHOW STREAMS;
# 查詢執行任務
SHOW QUERIES;

圖片

消費新數據

$ kafka-console-consumer --bootstrap-server 192.168.0.113:19092 --from-beginning --topic PO

終止查詢任務

SHOW QUERIES;
TERMINATE CSAS_PV_15;

四、Mock(生產者)

這個就是模擬測試的功能,就是推送數據到kafka topic,其實就是生產者。一般作為測試用。

圖片

消費數據

$ kafka-console-consumer.sh --bootstrap-server hadoop-node1:19092 --topic test001 --from-beginning

圖片

五、Manager

添加、查看、刪除topic配置等功能,操作也很簡單

圖片

六、Hub

topic數據遷移或是數據平衡

圖片

責任編輯:武曉燕 來源: 大數據與云原生技術分享
相關推薦

2018-07-11 13:33:43

大數據人工智能Hadoop

2015-05-05 11:18:18

大數據Hadoop技術處理

2013-05-06 10:22:28

大數據Hadoop

2014-11-11 10:47:19

hadoop數據流

2012-12-03 23:19:12

Etu 知意圖大數據一體機

2022-10-24 00:26:51

大數據Hadoop存儲層

2016-12-20 18:21:29

Hadoop大數據面試

2014-07-29 10:38:25

大數據Hadoop

2021-12-14 09:56:51

HadoopSparkKafka

2011-10-09 13:37:25

大數據BigDataHadoop

2021-06-21 17:04:55

大數據Hadoop

2017-10-25 14:15:55

大數據Hadoop維度建模

2012-05-31 15:56:23

Hadoop大數據

2022-07-20 15:10:38

Docker大數據平臺

2015-07-23 14:29:28

大數據sparkhadoop

2015-08-10 09:23:05

2012-08-08 09:53:23

HadoopMapReduce

2017-10-26 09:31:14

Hadoop維度建模Kimball

2020-04-22 14:34:42

大數據Hadoop技術

2017-02-14 13:11:23

HadoopStormSamza
點贊
收藏

51CTO技術棧公眾號

日韩视频在线免费看| 99高清视频有精品视频| 亚洲一区二区自偷自拍| 日韩欧美精品一区二区综合视频| 国产欧美日韩在线| 91色精品视频在线| 国产乡下妇女做爰毛片| 久久最新网址| 欧美一区二区三区四区高清| 成人免费在线网| 国产永久免费高清在线观看| 麻豆成人综合网| 欧美激情视频在线| 三级男人添奶爽爽爽视频 | 欧美风情在线观看| 亚洲一区二区观看| 亚洲电影一区| 色又黄又爽网站www久久| 青少年xxxxx性开放hg| 神宫寺奈绪一区二区三区| 日韩电影在线免费看| 欧美人与性动交a欧美精品| 亚欧洲乱码视频| 国产精品毛片aⅴ一区二区三区| 天天综合色天天| 亚洲一区二区三区免费观看| 手机在线观看免费av| 极品少妇xxxx精品少妇| 国产97色在线|日韩| 久久网中文字幕| 99国内精品久久久久久久| 日韩精品在线免费观看| 国产人妖在线观看| а天堂中文最新一区二区三区| 欧美日韩性视频| 久草视频这里只有精品| 麻豆av在线免费看| 国产日产精品1区| 国产私拍一区| 99热精品在线播放| 精品综合久久久久久8888| 国产成人免费91av在线| 日本中文字幕免费观看| 一区二区国产在线| 日韩在线视频一区| av免费播放网站| 国内精品视频在线观看| 亚洲精品自产拍| 亚洲精品乱码久久久久久9色| 欧美jizz18| 欧美中文字幕一区二区三区亚洲 | 最新日本在线观看| 国产精品毛片久久久久久久| 日本成人黄色免费看| 欧美在线观看在线观看| www.66久久| 国产在线精品一区二区中文| 欧美熟妇交换久久久久久分类| 国产精品自拍毛片| 2019国产精品视频| 精品人妻伦一二三区久久| 黑人巨大精品欧美一区| 91精品久久久久久久久久久久久久| 男人天堂视频网| 天堂在线一区二区| 国产精品av网站| 天天干天天插天天射| 丝袜亚洲另类丝袜在线| 国产成人精品日本亚洲专区61| 久久国产视频一区| 日韩精品免费专区| 日本精品免费观看| 69国产精品视频免费观看| 美日韩精品视频| 国产成人高清激情视频在线观看| 亚洲自拍一区在线观看| 免费在线观看成人| 91久久综合亚洲鲁鲁五月天| 国产色视频在线| 成人午夜大片免费观看| 精品一区久久久久久| 日韩有码电影| 国产精品午夜春色av| 日韩视频在线观看视频| 久久五月精品中文字幕| 欧美日韩另类在线| 91激情视频在线| 996久久国产精品线观看| 91精品国产aⅴ一区二区| 被黑人猛躁10次高潮视频| 精品福利一区| 伊人久久男人天堂| 国产少妇在线观看| 亚洲主播在线| 国产一区视频在线播放| 亚洲男人第一天堂| 久久亚洲免费视频| 亚洲欧洲精品在线| 草草在线视频| 欧美日韩1234| 理论片大全免费理伦片| 国产a久久精品一区二区三区| 久久久国产视频| 一级片中文字幕| 久草在线在线精品观看| 狠狠色伊人亚洲综合网站色| 色哟哟免费在线观看| 亚洲国产三级在线| 中文字幕av专区| 精品免费久久久| 亚洲成av在线| 精品国产乱码久久久久久久| 国产高潮呻吟久久| 国产综合网站| 国产美女精彩久久| 天天综合网天天综合| 国产精品不卡一区二区三区| 91好吊色国产欧美日韩在线| 成人在线视频国产| 亚洲欧洲第一视频| 国产在线视频第一页| 久久99精品久久久久| 久久久精品国产一区二区三区| 国产在线高潮| 欧美亚洲国产bt| 蜜桃精品成人影片| 黄色日韩在线| 亚洲a中文字幕| av大片在线播放| 色天使久久综合网天天| 久久久久久久人妻无码中文字幕爆| 日韩啪啪电影网| 日本免费在线精品| 午夜性色福利视频| 亚洲午夜在线电影| 色欲无码人妻久久精品| 久久国产电影| 国产精品自在线| 国产中文字幕在线观看| 欧美午夜女人视频在线| 亚洲色偷偷色噜噜狠狠99网| 欧美特黄a级高清免费大片a级| 成人在线激情视频| 午夜视频在线看| 欧美日韩精品一区二区三区| 极品人妻videosss人妻| 久久九九电影| 欧美一区1区三区3区公司 | 精品av在线播放| 黄色av电影网站| 好看不卡的中文字幕| 99一区二区三区| 日韩影视在线| 精品久久国产字幕高潮| 麻豆亚洲av成人无码久久精品| 国产在线观看免费一区| 超碰在线免费观看97| 精品国产三级| 欧美激情欧美狂野欧美精品 | 久久久加勒比| 色婷婷久久一区二区| 一级久久久久久久| 亚洲天堂2014| 日韩成人av影院| 亚洲激情网站| 欧美日韩在线播放一区二区| 亚州一区二区三区| 日韩视频一区在线| 国产高中女学生第一次| 亚洲一区二区三区四区在线免费观看| 麻豆短视频在线观看| 99热精品在线| 日韩伦理一区二区三区av在线| 主播大秀视频在线观看一区二区| 一区二区福利视频| 国产美女三级无套内谢| 亚洲激情综合网| 中文字幕av观看| 日本在线不卡一区| 国产成年人在线观看| 亚洲一区二区三区中文字幕在线观看 | 永久免费未满蜜桃| 久久久久久婷| 综合久久国产| 国产精品毛片av| 欧亚精品中文字幕| 日韩av中文| 欧美精品一区二区高清在线观看| 黄色片视频免费| 国产精品美女一区二区三区| 乳色吐息在线观看| 欧美精品激情| 日韩免费电影一区二区三区| 天堂精品久久久久| 欧美又大又粗又长| 免费a级人成a大片在线观看| 亚洲成人a级网| 中文字幕日韩第一页| 亚洲综合精品自拍| 永久免费毛片在线观看| 粉嫩嫩av羞羞动漫久久久 | 久久国产三级| 欧美精品久久久久久久| 国产精品99999| 精品乱人伦小说| 亚洲香蕉在线视频| 欧美日韩国产精品专区| 日韩在线观看免| 久久美女艺术照精彩视频福利播放| 午夜久久福利视频| 国产欧美亚洲一区| 99热都是精品| 欧美日韩国产传媒| 精品蜜桃传媒| 天堂av一区| 成人av色在线观看| 午夜日韩成人影院| 久久久久久久91| 日本三级在线播放完整版| 日韩av资源在线播放| 国产精品视频第一页| 色av成人天堂桃色av| 国产在线视频第一页| 亚洲视频免费观看| 免费网站在线高清观看| av激情亚洲男人天堂| 先锋资源在线视频| 久久国产生活片100| 免费日韩视频在线观看| 激情欧美一区| 日韩视频 中文字幕| 91影院成人| 五月婷婷综合色| 国产精品一区二区99| 精品亚洲欧美日韩| www.久久东京| 国产91一区二区三区| 成人激情久久| 91免费观看网站| 欧美综合社区国产| 国产精品久久久久久久久久久不卡| segui88久久综合9999| 久久99久国产精品黄毛片入口| 黄色在线论坛| 久热精品视频在线观看| 毛片在线视频| 久久精品男人天堂| jizz在线观看| 色偷偷88888欧美精品久久久 | 国产精品自在线拍| 国产精品免费看一区二区三区| 亚洲精品一区二区三区在线| 成人午夜在线影院| 久久国际精品| 99热99热| 果冻天美麻豆一区二区国产| 国产乱码精品一区二区三区日韩精品| av成人资源网| 久久99精品久久久久久水蜜桃| 开心激情综合| 欧美日韩精品一区| 精品久久久中文字幕| 日本一区视频在线播放| 精品香蕉视频| 欧美日韩视频免费在线观看| 永久亚洲成a人片777777| 影音先锋成人资源网站| 国产精品第十页| 免费成人午夜视频| 日韩中文字幕av电影| 亚洲天堂2018av| 国产精品亚洲综合一区在线观看| 香蕉久久久久久av成人| 91丨九色丨国产丨porny| 少妇特黄一区二区三区| 亚洲国产精品v| 国产suv一区二区三区| 亚洲国产色一区| 国产伦精品一区二区三区视频我| 欧美亚洲高清一区| 精品久久久久成人码免费动漫| 亚洲国产精品久久久久秋霞蜜臀 | 久久亚洲综合av| 中文国语毛片高清视频| 亚洲一区视频在线观看视频| 91精品国产综合久久久蜜臀九色| 欧美亚一区二区| 亚洲国产www| 亚洲欧美日韩国产成人| 久久精品视频免费看| 97av在线影院| 四虎国产精品免费久久5151| 国产精品久久久久久久免费大片| 一本色道久久综合亚洲精品酒店| 一本一生久久a久久精品综合蜜| 狠狠综合久久| 污污动漫在线观看| 成人免费毛片高清视频| 神马久久久久久久久久久| 一区二区三区日本| 极品国产91在线网站| 日韩小视频在线观看专区| 欧美xxx.com| 欧美日本精品在线| 婷婷综合六月| 国外成人免费视频| 一区二区三区午夜探花| 一本大道熟女人妻中文字幕在线| 精品一区二区三区视频在线观看 | 中文字幕在线观看不卡| 免费观看成人毛片| 欧美一区二区国产| 都市激情在线视频| 97视频免费在线看| 久久在线观看| 亚洲一卡二卡| 久久一区二区三区超碰国产精品| 亚洲午夜激情影院| 久久久国际精品| 久久免费精彩视频| 51精品久久久久久久蜜臀| 美丽的姑娘在线观看免费动漫| 欧美日韩爱爱视频| 亚洲男人在线| 日韩欧美在线观看强乱免费| 国产欧美一级| 久草视频福利在线| 夜夜亚洲天天久久| 国产精品女同一区二区| 最近2019年好看中文字幕视频| 深夜福利视频一区二区| 国产精品久久一区二区三区| 伊人久久大香线| 亚洲精品第三页| 国产精品萝li| 最新中文字幕第一页| 亚洲欧美日韩网| 韩国成人动漫| 欧美lavv| 午夜在线播放视频欧美| 亚洲激情 欧美| 亚洲h在线观看| 免费看黄网站在线观看| 欧美高清视频一区二区| 麻豆精品在线| 色哟哟免费网站| 国内精品在线播放| 婷婷伊人五月天| 欧美一区二区三区四区在线观看| 超鹏97在线| 99re国产| 伊人天天综合| jizz日本免费| 欧洲亚洲国产日韩| 中文字幕日本在线| 亚洲自拍偷拍福利| 黄色av成人| 日本黄色特级片| 91官网在线观看| 免费人成在线观看播放视频 | 妞干网在线免费视频| 久久久久久久综合日本| 国产成人av免费| 久久韩剧网电视剧| 91亚洲精品视频在线观看| 欧美激情 国产精品| 国产亚洲一二三区| 91国偷自产中文字幕久久| 欧美精品在线网站| 日韩中出av| 少妇一级淫免费放| 亚洲男人天堂av网| 人人妻人人澡人人爽精品日本| 欧美在线视频在线播放完整版免费观看| 伊人春色精品| 做a视频在线观看| 亚洲国产精品一区二区久久恐怖片| 午夜av免费在线观看| 国产成人一区二区三区电影| 99视频精品全国免费| 污污污www精品国产网站| 色噜噜狠狠一区二区三区果冻| 麻豆传媒在线免费看| 精品视频在线观看| 美女国产一区二区| 国产成年人免费视频| 亚洲欧洲日产国产网站| 综合久久伊人| 国产精品沙发午睡系列| 国产精品毛片无遮挡高清| 成人久久久精品国产乱码一区二区 | 国产成人精品av在线观| 7777精品视频| 欧美美女一区| 亚洲一级av无码毛片精品| 色网综合在线观看| 最新超碰在线| 欧美人xxxxx| 久色婷婷小香蕉久久| 精品视频一区二区在线观看|