精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

實時數倉 | 三分鐘搞定Flink Cdc

大數據
Flink CDC Connector 是ApacheFlink的一組數據源連接器,使用變化數據捕獲change data capture (CDC)從不同的數據庫中提取變更數據。Flink CDC連接器將Debezium集成為引擎來捕獲數據變更。

簡介

Flink CDC Connector 是ApacheFlink的一組數據源連接器,使用變化數據捕獲change data capture (CDC)從不同的數據庫中提取變更數據。Flink CDC連接器將Debezium集成為引擎來捕獲數據變更。因此,它可以充分利用Debezium的功能。

特點

  • 支持讀取數據庫快照,并且能夠持續讀取數據庫的變更日志,即使發生故障,也支持exactly-once 的處理語義
  • 對于DataStream API的CDC connector,用戶無需部署Debezium和Kafka,即可在單個作業中使用多個數據庫和表上的變更數據。
  • 對于Table/SQL API 的CDC connector,用戶可以使用SQL DDL創建CDC數據源,來監視單個表上的數據變更。

使用場景

  • 數據庫之間的增量數據同步
  • 審計日志
  • 數據庫之上的實時物化視圖
  • 基于CDC的維表join

Flink提供的 table format

Flink提供了一系列可以用于table connector的table format,具體如下:

Formats Supported Connectors
CSV Apache Kafka, Filesystem
JSON Apache Kafka, Filesystem, Elasticsearch
Apache Avro Apache Kafka, Filesystem
Debezium CDC Apache Kafka
Canal CDC Apache Kafka
Apache Parquet Filesystem
Apache ORC Filesystem

使用過程中的注意點

使用MySQL CDC的注意點

如果要使用MySQL CDC connector,對于程序而言,需要添加如下依賴:

  1. <dependency> 
  2.   <groupId>com.alibaba.ververica</groupId> 
  3.   <artifactId>flink-connector-mysql-cdc</artifactId> 
  4.   <version>1.0.0</version> 
  5. </dependency> 

如果要使用Flink SQL Client,需要添加如下jar包:flink-sql-connector-mysql-cdc-1.0.0.jar,將該jar包放在Flink安裝目錄的lib文件夾下即可。

使用canal-json的注意點

如果要使用Kafka的canal-json,對于程序而言,需要添加如下依賴:

  1. <!-- universal --> 
  2. <dependency> 
  3.     <groupId>org.apache.flink</groupId> 
  4.     <artifactId>flink-connector-kafka_2.11</artifactId> 
  5.     <version>1.11.0</version> 
  6. </dependency> 

如果要使用Flink SQL Client,需要添加如下jar包:flink-sql-connector-kafka_2.11-1.11.0.jar,將該jar包放在Flink安裝目錄的lib文件夾下即可。由于Flink1.11的安裝包 的lib目錄下并沒有提供該jar包,所以必須要手動添加依賴包,否則會報如下錯誤:

  1. [ERROR] Could not execute SQL statement. Reason: 
  2. org.apache.flink.table.api.ValidationException: Could not find any factory for identifier 'kafka' that implements 'org.apache.flink.table.factories.DynamicTableSourceFactory' in the classpath. 
  3.  
  4. Available factory identifiers are: 
  5.  
  6. datagen 
  7. mysql-cdc 

使用changelog-json的注意點

如果要使用Kafka的changelog-json Format,對于程序而言,需要添加如下依賴:

  1. <dependency> 
  2.   <groupId>com.alibaba.ververica</groupId> 
  3.   <artifactId>flink-format-changelog-json</artifactId> 
  4.   <version>1.0.0</version> 
  5. </dependency> 

如果要使用Flink SQL Client,需要添加如下jar包:flink-format-changelog-json-1.0.0.jar,將該jar包放在Flink安裝目錄的lib文件夾下即可。

mysql-cdc的操作實踐

創建MySQL數據源表

在創建MySQL CDC表之前,需要先創建MySQL的數據表,如下:

  1. -- MySQL 
  2. /*Table structure for table `order_info` */ 
  3. DROP TABLE IF EXISTS `order_info`; 
  4. CREATE TABLE `order_info` ( 
  5.   `id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT '編號'
  6.   `consignee` varchar(100) DEFAULT NULL COMMENT '收貨人'
  7.   `consignee_tel` varchar(20) DEFAULT NULL COMMENT '收件人電話'
  8.   `total_amount` decimal(10,2) DEFAULT NULL COMMENT '總金額'
  9.   `order_status` varchar(20) DEFAULT NULL COMMENT '訂單狀態,1表示下單,2表示支付'
  10.   `user_id` bigint(20) DEFAULT NULL COMMENT '用戶id'
  11.   `payment_way` varchar(20) DEFAULT NULL COMMENT '付款方式'
  12.   `delivery_address` varchar(1000) DEFAULT NULL COMMENT '送貨地址'
  13.   `order_comment` varchar(200) DEFAULT NULL COMMENT '訂單備注'
  14.   `out_trade_no` varchar(50) DEFAULT NULL COMMENT '訂單交易編號(第三方支付用)'
  15.   `trade_body` varchar(200) DEFAULT NULL COMMENT '訂單描述(第三方支付用)'
  16.   `create_time` datetime DEFAULT NULL COMMENT '創建時間'
  17.   `operate_time` datetime DEFAULT NULL COMMENT '操作時間'
  18.   `expire_time` datetime DEFAULT NULL COMMENT '失效時間'
  19.   `tracking_no` varchar(100) DEFAULT NULL COMMENT '物流單編號'
  20.   `parent_order_id` bigint(20) DEFAULT NULL COMMENT '父訂單編號'
  21.   `img_url` varchar(200) DEFAULT NULL COMMENT '圖片路徑'
  22.   `province_id` int(20) DEFAULT NULL COMMENT '地區'
  23.   PRIMARY KEY (`id`) 
  24. ) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8 COMMENT='訂單表'
  25. -- ---------------------------- 
  26. -- Records of order_info 
  27. -- ---------------------------- 
  28. INSERT INTO `order_info`  
  29. VALUES (476, 'lAXjcL''13408115089', 433.00, '2', 10, '2''OYyAdSdLxedceqovndCD''ihjAYsSjrgJMQVdFQnSy''8728720206''''2020-06-18 02:21:38'NULLNULLNULLNULLNULL, 9); 
  30. INSERT INTO `order_info` 
  31. VALUES (477, 'QLiFDb''13415139984', 772.00, '1', 90, '2''OizYrQbKuWvrvdfpkeSZ''wiBhhqhMndCCgXwmWVQq''1679381473''''2020-06-18 09:12:25'NULLNULLNULLNULLNULL, 3); 
  32. INSERT INTO `order_info` 
  33. VALUES (478, 'iwKjQD''13320383859', 88.00, '1', 107, '1''cbXLKtNHWOcWzJVBWdAs''njjsnknHxsxhuCCeNDDi''0937074290''''2020-06-18 15:56:34'NULLNULLNULLNULLNULL, 7); 
  34.  
  35. /*Table structure for table `order_detail` */ 
  36. CREATE TABLE `order_detail` ( 
  37.   `id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT '編號'
  38.   `order_id` bigint(20) DEFAULT NULL COMMENT '訂單編號'
  39.   `sku_id` bigint(20) DEFAULT NULL COMMENT 'sku_id'
  40.   `sku_name` varchar(200) DEFAULT NULL COMMENT 'sku名稱(冗余)'
  41.   `img_url` varchar(200) DEFAULT NULL COMMENT '圖片名稱(冗余)'
  42.   `order_price` decimal(10,2) DEFAULT NULL COMMENT '購買價格(下單時sku價格)'
  43.   `sku_num` varchar(200) DEFAULT NULL COMMENT '購買個數'
  44.   `create_time` datetime DEFAULT NULL COMMENT '創建時間'
  45.   PRIMARY KEY (`id`) 
  46. ) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8 COMMENT='訂單明細表'
  47.  
  48. -- ---------------------------- 
  49. -- Records of order_detail 
  50. -- ---------------------------- 
  51. INSERT INTO `order_detail`  
  52. VALUES (1329, 476, 8, 'Apple iPhone XS Max (A2104) 256GB 深空灰色 移動聯通電信4G手機 雙卡雙待''http://XLMByOyZDTJQYxphQHNTgYAFzJJCKTmCbzvEJIpz', 8900.00, '3''2020-06-18 02:21:38'); 
  53. INSERT INTO `order_detail`  
  54. VALUES (1330, 477, 9, '榮耀10 GT游戲加速 AIS手持夜景 6GB+64GB 幻影藍全網通 移動聯通電信''http://ixOCtlYmlxEEgUfPLiLdjMftzrleOEIBKSjrhMne', 2452.00, '4''2020-06-18 09:12:25'); 
  55. INSERT INTO `order_detail` 
  56. VALUES (1331, 478, 4, '小米Play 流光漸變AI雙攝 4GB+64GB 夢幻藍 全網通4G 雙卡雙待 小水滴全面屏拍照游戲智能手機''http://RqfEFnAOqnqRnNZLFRvBuwXxwNBtptYJCILDKQYv', 1442.00, '1''2020-06-18 15:56:34'); 
  57. INSERT INTO `order_detail`  
  58. VALUES (1332, 478, 8, 'Apple iPhone XS Max (A2104) 256GB 深空灰色 移動聯通電信4G手機 雙卡雙待''http://IwhuCDlsiLenfKjPzbJrIoxswdfofKhJLMzlJAKV', 8900.00, '3''2020-06-18 15:56:34'); 
  59. INSERT INTO `order_detail`  
  60. VALUES (1333, 478, 8, 'Apple iPhone XS Max (A2104) 256GB 深空灰色 移動聯通電信4G手機 雙卡雙待''http://bbfwTbAzTWapywODzOtDJMJUEqNTeRTUQuCDkqXP', 8900.00, '1''2020-06-18 15:56:34'); 

Flink SQL Cli創建CDC數據源

啟動 Flink 集群,再啟動 SQL CLI,執行下面命令:

  1. -- 創建訂單信息表 
  2. CREATE TABLE order_info( 
  3.     id BIGINT
  4.     user_id BIGINT
  5.     create_time TIMESTAMP(0), 
  6.     operate_time TIMESTAMP(0), 
  7.     province_id INT
  8.     order_status STRING, 
  9.     total_amount DECIMAL(10, 5) 
  10.   ) WITH ( 
  11.     'connector' = 'mysql-cdc'
  12.     'hostname' = 'kms-1'
  13.     'port' = '3306'
  14.     'username' = 'root'
  15.     'password' = '123qwe'
  16.     'database-name' = 'mydw'
  17.     'table-name' = 'order_info' 
  18. ); 

在Flink SQL Cli中查詢該表的數據:result-mode: tableau,+表示數據的insert。

在SQL CLI中創建訂單詳情表:

  1. CREATE TABLE order_detail( 
  2.     id BIGINT
  3.     order_id BIGINT
  4.     sku_id BIGINT
  5.     sku_name STRING, 
  6.     sku_num BIGINT
  7.     order_price DECIMAL(10, 5), 
  8.  create_time TIMESTAMP(0) 
  9.  ) WITH ( 
  10.     'connector' = 'mysql-cdc'
  11.     'hostname' = 'kms-1'
  12.     'port' = '3306'
  13.     'username' = 'root'
  14.     'password' = '123qwe'
  15.     'database-name' = 'mydw'
  16.     'table-name' = 'order_detail' 
  17. ); 

查詢結果如下:

執行JOIN操作:

  1. SELECT 
  2.     od.id, 
  3.     oi.id order_id, 
  4.     oi.user_id, 
  5.     oi.province_id, 
  6.     od.sku_id, 
  7.     od.sku_name, 
  8.     od.sku_num, 
  9.     od.order_price, 
  10.     oi.create_time, 
  11.     oi.operate_time 
  12. FROM 
  13.    ( 
  14.     SELECT *  
  15.     FROM order_info 
  16.     WHERE  
  17.       order_status = '2'-- 已支付 
  18.    ) oi 
  19.    JOIN 
  20.   ( 
  21.     SELECT * 
  22.     FROM order_detail 
  23.   ) od  
  24.   ON oi.id = od.order_id; 

canal-json的操作實踐

關于cannal的使用方式,可以參考我的另一篇文章:基于Canal與Flink實現數據實時增量同步(一)。我已經將下面的表通過canal同步到了kafka,具體格式為:

  1.     "data":[ 
  2.         { 
  3.             "id":"1"
  4.             "region_name":"華北" 
  5.         }, 
  6.         { 
  7.             "id":"2"
  8.             "region_name":"華東" 
  9.         }, 
  10.         { 
  11.             "id":"3"
  12.             "region_name":"東北" 
  13.         }, 
  14.         { 
  15.             "id":"4"
  16.             "region_name":"華中" 
  17.         }, 
  18.         { 
  19.             "id":"5"
  20.             "region_name":"華南" 
  21.         }, 
  22.         { 
  23.             "id":"6"
  24.             "region_name":"西南" 
  25.         }, 
  26.         { 
  27.             "id":"7"
  28.             "region_name":"西北" 
  29.         } 
  30.     ], 
  31.     "database":"mydw"
  32.     "es":1597128441000, 
  33.     "id":102, 
  34.     "isDdl":false
  35.     "mysqlType":{ 
  36.         "id":"varchar(20)"
  37.         "region_name":"varchar(20)" 
  38.     }, 
  39.     "old":null
  40.     "pkNames":null
  41.     "sql":""
  42.     "sqlType":{ 
  43.         "id":12, 
  44.         "region_name":12 
  45.     }, 
  46.     "table":"base_region"
  47.     "ts":1597128441424, 
  48.     "type":"INSERT" 

在SQL CLI中創建該canal-json格式的表:

  1. CREATE TABLE region ( 
  2.   id BIGINT
  3.   region_name STRING 
  4. WITH ( 
  5.  'connector' = 'kafka'
  6.  'topic' = 'mydw.base_region'
  7.  'properties.bootstrap.servers' = 'kms-3:9092'
  8.  'properties.group.id' = 'testGroup'
  9.  'format' = 'canal-json' , 
  10.  'scan.startup.mode' = 'earliest-offset'  
  11. ); 

查詢結果如下:

changelog-json的操作實踐

創建MySQL數據源

參見上面的order_info

Flink SQL Cli創建changelog-json表

  1. CREATE TABLE order_gmv2kafka ( 
  2.   day_str STRING, 
  3.   gmv DECIMAL(10, 5) 
  4. WITH ( 
  5.     'connector' = 'kafka'
  6.     'topic' = 'order_gmv_kafka'
  7.     'scan.startup.mode' = 'earliest-offset'
  8.     'properties.bootstrap.servers' = 'kms-3:9092'
  9.     'format' = 'changelog-json' 
  10. ); 
  11.  
  12. INSERT INTO order_gmv2kafka 
  13. SELECT DATE_FORMAT(create_time, 'yyyy-MM-dd'as day_str, SUM(total_amount) as gmv 
  14. FROM order_info 
  15. WHERE order_status = '2' -- 訂單已支付 
  16. GROUP BY DATE_FORMAT(create_time, 'yyyy-MM-dd');  

查詢表看一下結果:

再查一下kafka的數據:

  1. {"data":{"day_str":"2020-06-18","gmv":433},"op":"+I"

當將另外兩個訂單的狀態order_status更新為2時,總金額=443+772+88=1293再觀察數據:

再看kafka中的數據:

 

責任編輯:武曉燕 來源: 大數據技術與數倉
相關推薦

2009-11-05 16:04:19

Oracle用戶表

2020-11-20 08:36:59

Jpa數據代碼

2024-05-16 11:13:16

Helm工具release

2022-02-16 19:42:25

Spring配置開發

2024-12-18 10:24:59

代理技術JDK動態代理

2009-11-09 12:55:43

WCF事務

2009-11-12 09:16:15

ADO.NET數據庫連

2021-04-20 13:59:37

云計算

2022-02-17 09:24:11

TypeScript編程語言javaScrip

2023-12-27 08:15:47

Java虛擬線程

2024-01-16 07:46:14

FutureTask接口用法

2024-08-30 08:50:00

2020-06-30 10:45:28

Web開發工具

2013-06-28 14:30:26

棱鏡計劃棱鏡棱鏡監控項目

2025-10-27 01:35:00

2021-12-17 07:47:37

IT風險框架

2025-02-24 10:40:55

2024-10-15 09:18:30

2020-06-29 07:42:20

邊緣計算云計算技術

2024-01-12 07:38:38

AQS原理JUC
點贊
收藏

51CTO技術棧公眾號

成人精品久久一区二区三区| 亚洲国产天堂久久综合网| 日韩电影天堂视频一区二区| 亚洲天堂手机版| 综合亚洲视频| 精品一区二区三区电影| 久久久精品麻豆| 欧美xxxx做受欧美88bbw| 99麻豆久久久国产精品免费| 国产精品久久久久久久久久东京| 动漫性做爰视频| 同性恋视频一区| 欧美一区二区三区在| 99精品在线免费视频| 亚洲1卡2卡3卡4卡乱码精品| av电影天堂一区二区在线观看| 国产精品视频地址| 国产精品成人av久久| 日韩欧美综合| 亚洲精品第一页| 午夜不卡福利视频| 亚洲精品在线影院| 亚洲一级不卡视频| 亚洲三区四区| 免费在线性爱视频| 东方欧美亚洲色图在线| 国产男人精品视频| 圆产精品久久久久久久久久久| 91成人影院| 中文字幕国产精品久久| 性色av蜜臀av浪潮av老女人| 精品亚洲a∨一区二区三区18| 日韩欧美高清在线视频| 亚洲成人动漫在线| 中文字幕日本在线| 久久精品夜夜夜夜久久| 久久99精品久久久久久水蜜桃 | 日本大胆欧美| 精品无人区乱码1区2区3区在线| 精品久久久久久无码人妻| 婷婷久久综合九色综合99蜜桃| 色婷婷亚洲综合| 自慰无码一区二区三区| www.51av欧美视频| 亚洲国产一区视频| 免费特级黄色片| 四季久久免费一区二区三区四区| 亚洲天堂网中文字| 亚洲欧美日韩国产yyy| 国产福利第一视频在线播放| 国产亚洲欧洲997久久综合| 久久精品国产一区二区三区日韩 | 韩国女主播一区二区| 狠狠色狠色综合曰曰| 日本韩国欧美在线观看| 国产精品25p| 黑人精品xxx一区一二区| 免费一级特黄特色毛片久久看| 青草在线视频| 亚洲成人激情av| 成人毛片一区二区| 中文字幕 在线观看| 午夜电影久久久| 噜噜噜久久亚洲精品国产品麻豆 | 日产精品久久久一区二区福利| 好吊妞视频一区二区三区| 一区二区国产精品| 国产成人精品午夜| 亚洲一区二区人妻| 狠狠色狠狠色综合| 99国产在线观看| 免费a级片在线观看| 91亚洲精品乱码久久久久久蜜桃| 免费一区二区三区| h视频网站在线观看| 国产精品黄色在线观看| 日本美女爱爱视频| 国产精品一区hongkong| 欧美日韩在线另类| 538任你躁在线精品免费| 91九色成人| 欧美精品一区二区三区在线| 欧美激情aaa| 婷婷亚洲五月| 久久久久国色av免费观看性色 | 在线亚洲精品| 国产精品久久久久久久久| 国产美女三级无套内谢| 成人网页在线观看| 日韩三级电影免费观看| 18网站在线观看| 欧美性极品xxxx娇小| 91制片厂毛片| 国产成人高清精品免费5388| 亚洲欧美中文日韩在线v日本| 日本视频在线免费| 伊人久久大香线蕉综合热线| 国产精品久久久久国产a级| 99在线小视频| 久久精品人人做| 九九久久九九久久| 日本成人片在线| 精品国产欧美一区二区| 成人免费视频入口| 亚洲理伦在线| 91视频国产一区| 日本大片在线观看| 亚洲精品菠萝久久久久久久| 欧美精品一区二区三区免费播放| 久久久久久久久久久久电影| 精品视频久久久| 九九热精彩视频| 免费高清在线视频一区·| 国产精华一区| 午夜在线播放| 日韩欧美999| 性猛交╳xxx乱大交| 日韩高清欧美| 欧美在线视频a| 成人av一区二区三区在线观看| 国产欧美一区二区三区沐欲| 国产精品成人久久电影| 精品久久国产一区| 中文字幕日韩av| 欧美一区二区三区四| 国产精品一区二区久久不卡| 色一情一乱一伦一区二区三欧美 | 国产精品入口福利| 视频在线不卡| 亚洲成人高清在线| 日本泡妞xxxx免费视频软件| 婷婷综合在线| 国产欧美va欧美va香蕉在| 日本成人一区二区三区| 五月开心婷婷久久| 少妇熟女视频一区二区三区 | 91啦中文在线观看| 久久久久久久久久伊人| 国产精品亚洲欧美一级在线| 主播福利视频一区| 丰满熟女人妻一区二区三| 91毛片在线观看| 无码播放一区二区三区| 精品福利一区| 97色在线视频| 午夜成人鲁丝片午夜精品| 性久久久久久久久| 老司机免费视频| 亚洲欧洲一级| 国产日韩欧美一区二区三区四区| 男插女视频久久久| 亚洲电影在线看| 国产三级av片| 91美女精品福利| 国产情侣av自拍| 欧美日韩水蜜桃| 国产日本欧美一区二区三区在线 | 日韩在线第三页| 成人羞羞视频在线看网址| 国产精品视频网站| 日本激情在线观看| 欧美一区二区成人| 久久精品视频9| 99视频精品全部免费在线| 免费看日本毛片| 伊人春色之综合网| 国产精品日韩精品| 国产黄色在线网站| 欧美v日韩v国产v| 成人精品在线看| 久久精品视频免费| www.国产视频.com| 午夜日韩电影| 久久爱av电影| 成人精品高清在线视频| 超薄丝袜一区二区| 天天爱天天干天天操| 欧美特级www| 国产99在线 | 亚洲| 国产在线精品一区二区| 免费人成自慰网站| 亚洲伊人春色| 成人网在线观看| av免费不卡国产观看| 国产亚洲精品一区二555| 国产成人a人亚洲精品无码| 亚洲一区电影777| 午夜在线观看一区| 国产精品影视在线观看| 日韩精品 欧美| 日韩在线二区| 国产免费一区| 欧美系列精品| 97欧美精品一区二区三区| 在线视频自拍| 亚洲精品91美女久久久久久久| 国产在线观看第一页| 亚洲一区二区成人在线观看| 亚洲一区二区三区日韩| 大尺度一区二区| 少妇网站在线观看| 国产精品女主播一区二区三区| 亚洲国产午夜伦理片大全在线观看网站 | 日本熟妇人妻xxxxx| 欧美精品成人| 亚洲欧洲一区二区福利| 欧美在线导航| 91手机在线视频| 成人黄色免费网站| 国产91精品久久久久久久| 成人免费网址| 伊人亚洲福利一区二区三区| 蜜臀久久久久久999| 9191成人精品久久| 日韩一级片中文字幕| 亚洲成人精品在线观看| 免费看特级毛片| 国产三级欧美三级日产三级99| 69xxx免费视频| 久久精品国产在热久久| 免费大片在线观看| 亚洲毛片av| 大胆欧美熟妇xx| 久久久久久久久久久久久久久久久久| 欧美在线视频二区| 人人精品视频| 激情小说网站亚洲综合网| 美女日韩一区| 91久久久亚洲精品| 久久久久久久性潮| 国产精品久久久av| 欧美18—19sex性hd| 国内偷自视频区视频综合| 深夜国产在线播放| 欧美久久精品一级黑人c片| 日本在线天堂| 日韩在线视频网站| 日本最黄一级片免费在线| 色av吧综合网| 69av亚洲| 日韩中文在线视频| 三级外国片在线观看视频| 中文字幕在线看视频国产欧美| www 日韩| 色爱精品视频一区| 在线免费看a| 日韩亚洲欧美中文在线| av电影在线播放高清免费观看| 亚洲图片欧美午夜| 黄色片在线免费观看| 国产一区二区三区视频免费| 久热av在线| 国产一区二区av| 2017亚洲天堂1024| 日韩在线观看免费av| 麻豆影视国产在线观看| 久久精品美女视频网站 | 亚洲欧洲在线观看av| 久久av红桃一区二区禁漫| 亚洲欧美日韩小说| 久久久久久久久久久97| 无码av免费一区二区三区试看 | 欧美一区二区三区免费在线看| 国产手机精品视频| 精品国产一区二区在线观看| 午夜性色福利视频| 亚洲图片欧美午夜| 久久精品视频观看| 欧美激情图片区| 日韩伦理福利| 国产精品日韩专区| 亚洲欧美日本国产| 久久久久久99| 欧美aaaa视频| 欧美这里只有精品| 久久久久久久高潮| 欧美xxxxxbbbbb| 白白色 亚洲乱淫| 女人十八毛片嫩草av| 亚洲美女一区二区三区| 欧美福利视频一区二区| 在线精品视频小说1| 99热这里只有精品5| 亚洲成人久久电影| av资源种子在线观看| 欧美放荡办公室videos4k| 中文字幕在线官网| 成人性教育视频在线观看| 国产伦精品一区二区三区在线播放| 久久久久一区二区三区| 国产精品麻豆久久| 国产 日韩 亚洲 欧美| 免费成人你懂的| 秘密基地免费观看完整版中文| 国产午夜精品久久久久久久| 国产这里有精品| 91搞黄在线观看| 国产 日韩 欧美 精品| 中文字幕精品在线视频| 91超碰国产在线| 成人美女免费网站视频| 日韩av午夜| 国产日产欧美一区二区| 老牛嫩草一区二区三区日本 | 一区中文字幕电影| 五月天婷亚洲天综合网鲁鲁鲁| 亚洲一本视频| 一级黄色在线播放| 国产亚洲一二三区| 国产一区二区三区影院| 91精品国产91久久久久久一区二区| 日韩精品系列| 久久久久久97| 激情视频亚洲| 正义之心1992免费观看全集完整版| 午夜亚洲一区| 少妇搡bbbb搡bbb搡打电话| 国产精品成人网| 成人免费一区二区三区| 日韩av在线高清| 另类视频在线| 亚洲影影院av| 999视频精品| 九色91popny| 久久久一区二区三区| 香蕉免费毛片视频| 日韩午夜av一区| 成人短视频在线| 国产欧亚日韩视频| 91综合视频| 亚洲免费999| 日本一区二区免费在线| 亚洲中文一区二区| 日韩精品在线观看视频| 97人人在线视频| 国产一区二区高清不卡| 亚洲啪啪91| 国产情侣久久久久aⅴ免费| 尤物在线观看一区| 国产黄色av网站| 久久6精品影院| 一区二区亚洲视频| 成人网站免费观看入口| 成人激情午夜影院| 天海翼一区二区| 亚洲精品久久视频| 天堂在线中文网官网| 精品亚洲第一| 亚洲欧美日本国产专区一区| 右手影院亚洲欧美| 日韩欧美在线免费| 国产最新视频在线| 国产欧美一区二区三区久久人妖| 久久精品国产www456c0m| 午夜剧场在线免费观看| 亚洲天天做日日做天天谢日日欢| 国产成人麻豆精品午夜在线| 欧美大片免费观看| 欧美18xxxx| 精品久久久久久久免费人妻| 日本一区二区三级电影在线观看| 亚洲综合免费视频| 久久精品一区中文字幕| 一本色道69色精品综合久久| 被灌满精子的波多野结衣| av在线不卡免费看| 青青草视频在线观看免费| 日韩在线中文字| 日韩成人视屏| 无码人妻丰满熟妇区96| 国产亚洲精品中文字幕| 91亚洲欧美激情| 欧美激情乱人伦一区| 天堂99x99es久久精品免费| 成人免费xxxxx在线视频| 中文字幕一区二区三区视频| 国产成人av免费看| 57pao成人永久免费视频| 成人写真视频| 一级少妇精品久久久久久久| 色诱亚洲精品久久久久久| 免费大片黄在线| 国产一级二级三级精品| 日韩精品亚洲一区二区三区免费| 无码黑人精品一区二区| 亚洲国产又黄又爽女人高潮的| а√天堂资源国产精品| 欧美日韩激情四射| 国产欧美一区二区精品仙草咪| 国产wwwwwww| 国产成人精品免高潮在线观看| 91tv精品福利国产在线观看| 无套内谢大学处破女www小说| 欧美日韩久久久一区| 国产污视频在线播放| 综合久久国产| xf在线a精品一区二区视频网站| 97超碰国产在线| 555www成人网| 国产在线欧美|