精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Flink實時計算Pv、Uv的幾種方法

開發 前端
KeyedStream可以轉換為WindowedStream,DataStream不能直接轉換為WindowedStream,WindowedStream可以直接轉換為DataStream。各種流之間雖然不能相互直接轉換,但是都可以通過先轉換為DataStream,再轉換為其它流的方法來實現。

[[403901]]

本文轉載自微信公眾號「Java大數據與數據倉庫」,作者柯少爺。轉載本文請聯系Java大數據與數據倉庫公眾號。

實時統計pv、uv是再常見不過的大數據統計需求了,前面出過一篇SparkStreaming實時統計pv,uv的案例,這里用Flink實時計算pv,uv。

我們需要統計不同數據類型每天的pv,uv情況,并且有如下要求.

  • 每秒鐘要輸出最新的統計結果;
  • 程序永遠跑著不會停,所以要定期清理內存里的過時數據;
  • 收到的消息里的時間字段并不是按照順序嚴格遞增的,所以要有一定的容錯機制;
  • 訪問uv并不一定每秒鐘都會變化,重復輸出對IO是巨大的浪費,所以要在uv變更時在一秒內輸出結果,未變更時不輸出;

Flink數據流上的類型和操作

DataStream是flink流處理最核心的數據結構,其它的各種流都可以直接或者間接通過DataStream來完成相互轉換,一些常用的流直接的轉換關系如圖:

可以看出,DataStream可以與KeyedStream相互轉換,KeyedStream可以轉換為WindowedStream,DataStream不能直接轉換為WindowedStream,WindowedStream可以直接轉換為DataStream。各種流之間雖然不能相互直接轉換,但是都可以通過先轉換為DataStream,再轉換為其它流的方法來實現。

在這個計算pv,uv的需求中就主要用到DataStream、KeyedStream以及WindowedStream這些數據結構。

這里需要用到window和watermark,使用窗口把數據按天分割,使用watermark可以通過“水位”來定期清理窗口外的遲到數據,起到清理內存的作用。

業務代碼

我們的數據是json類型的,含有date,version,guid這3個字段,在實時統計pv,uv這個功能中,其它字段可以直接丟掉,當然了在離線數據倉庫中,所有有含義的業務字段都是要保留到hive當中的。其它相關概念就不說了,會專門介紹,這里直接上代碼吧。

  1. <?xml version="1.0" encoding="UTF-8"?> 
  2. <project xmlns="http://maven.apache.org/POM/4.0.0" 
  3.          xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
  4.          xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"
  5.     <modelVersion>4.0.0</modelVersion> 
  6.  
  7.     <groupId>com.ddxygq</groupId> 
  8.     <artifactId>bigdata</artifactId> 
  9.     <version>1.0-SNAPSHOT</version> 
  10.  
  11.     <properties> 
  12.         <scala.version>2.11.8</scala.version> 
  13.         <flink.version>1.7.0</flink.version> 
  14.         <pkg.name>bigdata</pkg.name
  15.     </properties> 
  16.  
  17.     <dependencies> 
  18.         <dependency> 
  19.             <groupId>org.apache.flink</groupId> 
  20.             <artifactId>flink-scala_2.11</artifactId> 
  21.             <version>{flink.version}</version> 
  22.   </dependency> 
  23.         <dependency> 
  24.             <groupId>org.apache.flink</groupId> 
  25.             <artifactId>flink-streaming-scala_2.11</artifactId> 
  26.             <version>flink.version</version> 
  27.   </dependency> 
  28.    
  29.         <dependency> 
  30.             <groupId>org.apache.flink</groupId> 
  31.             <artifactId>flink-streaming-java_2.11</artifactId> 
  32.             <version>{flink.version}</version> 
  33.         </dependency> 
  34.         <!-- https://mvnrepository.com/artifact/org.apache.flink/flink-connector-kafka-0.8 --> 
  35.         <dependency> 
  36.             <groupId>org.apache.flink</groupId> 
  37.             <artifactId>flink-connector-kafka-0.10_2.11</artifactId> 
  38.             <version>flink.version</version> 
  39.   </dependency> 
  40.  
  41.     <build> 
  42.         <!--測試代碼和文件--> 
  43.         <!--<testSourceDirectory>{basedir}/src/test</testSourceDirectory>--> 
  44.         <finalName>basedir/src/test</testSourceDirectory>−−><finalName>{pkg.name}</finalName> 
  45.         <sourceDirectory>src/main/java</sourceDirectory> 
  46.         <resources> 
  47.             <resource> 
  48.                 <directory>src/main/resources</directory> 
  49.                 <includes> 
  50.                     <include>*.properties</include> 
  51.                     <include>*.xml</include> 
  52.                 </includes> 
  53.                 <filtering>false</filtering> 
  54.             </resource> 
  55.         </resources> 
  56.         <plugins> 
  57.             <!-- 跳過測試插件--> 
  58.             <plugin> 
  59.                 <groupId>org.apache.maven.plugins</groupId> 
  60.                 <artifactId>maven-surefire-plugin</artifactId> 
  61.                 <configuration> 
  62.                     <skip>true</skip> 
  63.                 </configuration> 
  64.             </plugin> 
  65.             <!--編譯scala插件--> 
  66.             <plugin> 
  67.                 <groupId>org.scala-tools</groupId> 
  68.                 <artifactId>maven-scala-plugin</artifactId> 
  69.                 <version>2.15.2</version> 
  70.                 <executions> 
  71.                     <execution> 
  72.                         <goals> 
  73.                             <goal>compile</goal> 
  74.                             <goal>testCompile</goal> 
  75.                         </goals> 
  76.                     </execution> 
  77.                 </executions> 
  78.             </plugin> 
  79.         </plugins> 
  80.     </build> 
  81. </project> 

主要代碼,主要使用scala開發:

  1. package com.ddxygq.bigdata.flink.streaming.pvuv 
  2.  
  3. import java.util.Properties 
  4.  
  5. import com.alibaba.fastjson.JSON 
  6. import org.apache.flink.runtime.state.filesystem.FsStateBackend 
  7. import org.apache.flink.streaming.api.CheckpointingMode 
  8. import org.apache.flink.streaming.api.functions.timestamps.BoundedOutOfOrdernessTimestampExtractor 
  9. import org.apache.flink.streaming.api.scala.{DataStream, StreamExecutionEnvironment} 
  10. import org.apache.flink.streaming.api.windowing.time.Time 
  11. import org.apache.flink.streaming.api.windowing.triggers.ContinuousProcessingTimeTrigger 
  12. import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer010 
  13. import org.apache.flink.streaming.util.serialization.SimpleStringSchema 
  14. import org.apache.flink.streaming.api.scala.extensions._ 
  15. import org.apache.flink.api.scala._ 
  16.  
  17. /** 
  18.   * @ Author: keguang 
  19.   * @ Date: 2019/3/18 17:34 
  20.   * @ version: v1.0.0 
  21.   * @ description:  
  22.   */ 
  23. object PvUvCount { 
  24.   def main(args: Array[String]): Unit = { 
  25.     val env = StreamExecutionEnvironment.getExecutionEnvironment 
  26.  
  27.     // 容錯 
  28.     env.enableCheckpointing(5000) 
  29.     env.getCheckpointConfig.setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE) 
  30.     env.setStateBackend(new FsStateBackend("file:///D:/space/IJ/bigdata/src/main/scala/com/ddxygq/bigdata/flink/checkpoint/flink/tagApp")) 
  31.  
  32.     // kafka 配置 
  33.     val ZOOKEEPER_HOST = "hadoop01:2181,hadoop02:2181,hadoop03:2181" 
  34.     val KAFKA_BROKERS = "hadoop01:9092,hadoop02:9092,hadoop03:9092" 
  35.     val TRANSACTION_GROUP = "flink-count" 
  36.     val TOPIC_NAME = "flink" 
  37.     val kafkaProps = new Properties() 
  38.     kafkaProps.setProperty("zookeeper.connect", ZOOKEEPER_HOST) 
  39.     kafkaProps.setProperty("bootstrap.servers", KAFKA_BROKERS) 
  40.     kafkaProps.setProperty("group.id", TRANSACTION_GROUP) 
  41.  
  42.     // watrmark 允許數據延遲時間 
  43.     val MaxOutOfOrderness = 86400 * 1000L 
  44.      
  45.     // 消費kafka數據 
  46.     val streamData: DataStream[(String, String, String)] = env.addSource( 
  47.       new FlinkKafkaConsumer010[String](TOPIC_NAME, new SimpleStringSchema(), kafkaProps) 
  48.     ).assignTimestampsAndWatermarks(new BoundedOutOfOrdernessTimestampExtractor[String](Time.milliseconds(MaxOutOfOrderness)) { 
  49.       override def extractTimestamp(element: String): Long = { 
  50.         val t = JSON.parseObject(element) 
  51.         val time = JSON.parseObject(JSON.parseObject(t.getString("message")).getString("decrypted_data")).getString("time"
  52.         time.toLong 
  53.       } 
  54.     }).map(x => { 
  55.       var date = "error" 
  56.       var guid = "error" 
  57.       var helperversion = "error" 
  58.       try { 
  59.         val messageJsonObject = JSON.parseObject(JSON.parseObject(x).getString("message")) 
  60.         val datetime = messageJsonObject.getString("time"
  61.         date = datetime.split(" ")(0) 
  62.         // hour = datetime.split(" ")(1).substring(0, 2) 
  63.         val decrypted_data_string = messageJsonObject.getString("decrypted_data"
  64.         if (!"".equals(decrypted_data_string)) { 
  65.           val decrypted_data = JSON.parseObject(decrypted_data_string) 
  66.           guid = decrypted_data.getString("guid").trim 
  67.           helperversion = decrypted_data.getString("helperversion"
  68.         } 
  69.       } catch { 
  70.         case e: Exception => { 
  71.           println(e) 
  72.         } 
  73.       } 
  74.       (date, helperversion, guid) 
  75.     }) 
  76.     // 這上面是設置watermark并解析json部分 
  77.     // 聚合窗口中的數據,可以研究下applyWith這個方法和OnWindowedStream這個類 
  78.     val resultStream = streamData.keyBy(x => { 
  79.       x._1 + x._2 
  80.     }).timeWindow(Time.days(1)) 
  81.       .trigger(ContinuousProcessingTimeTrigger.of(Time.seconds(1))) 
  82.       .applyWith(("", List.empty[Int], Set.empty[Int], 0L, 0L))( 
  83.         foldFunction = { 
  84.           case ((_, list, set, _, 0), item) => { 
  85.             val date = item._1 
  86.             val helperversion = item._2 
  87.             val guid = item._3 
  88.             (date + "_" + helperversion, guid.hashCode +: list, set + guid.hashCode, 0L, 0L) 
  89.           } 
  90.         } 
  91.         , windowFunction = { 
  92.           case (key, window, result) => { 
  93.             result.map { 
  94.               case (leixing, list, set, _, _) => { 
  95.                 (leixing, list.sizeset.size, window.getStart, window.getEnd) 
  96.               } 
  97.             } 
  98.           } 
  99.         } 
  100.       ).keyBy(0) 
  101.       .flatMapWithState[(String, IntInt, Long, Long),(IntInt)]{ 
  102.       case ((key, numpv, numuv, beginend), curr) => 
  103.  
  104.         curr match { 
  105.           case Some(numCurr) if numCurr == (numuv, numpv) => 
  106.             (Seq.empty, Some((numuv, numpv))) //如果之前已經有相同的數據,則返回空結果 
  107.           case _ => 
  108.             (Seq((key, numpv, numuv, beginend)), Some((numuv, numpv))) 
  109.         } 
  110.     } 
  111.  
  112.     // 最終結果 
  113.     val resultedStream = resultStream.map(x => { 
  114.       val keys = x._1.split("_"
  115.       val date = keys(0) 
  116.       val helperversion = keys(1) 
  117.       (date, helperversion, x._2, x._3) 
  118.     }) 
  119.  
  120.     resultedStream.print() 
  121.     env.execute("PvUvCount"
  122.  
  123.   } 

使用List集合的size保存pv,使用Set集合的size保存uv,從而達到實時統計pv,uv的目的。

這里用了幾個關鍵的函數:

applyWith:里面需要的參數,初始狀態變量,和foldFunction ,windowFunction ;

存在的問題

顯然,當數據量很大的時候,這個List集合和Set集合會很大,并且這里的pv是否可以不用List來存儲,而是通過一個狀態變量,不斷做累加,對應操作就是更新狀態來完成。

改進版

使用了一個計數器來存儲pv的值。

  1. packagecom.ddxygq.bigdata.flink.streaming.pvuv 
  2.  
  3. import java.util.Properties 
  4.  
  5. import com.alibaba.fastjson.JSON 
  6. import org.apache.flink.api.common.accumulators.IntCounter 
  7. import org.apache.flink.runtime.state.filesystem.FsStateBackend 
  8. import org.apache.flink.streaming.api.CheckpointingMode 
  9. import org.apache.flink.streaming.api.functions.timestamps.BoundedOutOfOrdernessTimestampExtractor 
  10. import org.apache.flink.streaming.api.scala.{DataStream, StreamExecutionEnvironment} 
  11. import org.apache.flink.streaming.api.windowing.time.Time 
  12. import org.apache.flink.streaming.api.windowing.triggers.ContinuousProcessingTimeTrigger 
  13. import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer010 
  14. import org.apache.flink.streaming.util.serialization.SimpleStringSchema 
  15. import org.apache.flink.streaming.api.scala.extensions._ 
  16. import org.apache.flink.api.scala._ 
  17. import org.apache.flink.core.fs.FileSystem 
  18.  
  19. object PvUv2 { 
  20.   def main(args: Array[String]): Unit = { 
  21.     val env = StreamExecutionEnvironment.getExecutionEnvironment 
  22.  
  23.     // 容錯 
  24.     env.enableCheckpointing(5000) 
  25.     env.getCheckpointConfig.setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE) 
  26.     env.setStateBackend(new FsStateBackend("file:///D:/space/IJ/bigdata/src/main/scala/com/ddxygq/bigdata/flink/checkpoint/streaming/counter")) 
  27.  
  28.     // kafka 配置 
  29.     val ZOOKEEPER_HOST = "hadoop01:2181,hadoop02:2181,hadoop03:2181" 
  30.     val KAFKA_BROKERS = "hadoop01:9092,hadoop02:9092,hadoop03:9092" 
  31.     val TRANSACTION_GROUP = "flink-count" 
  32.     val TOPIC_NAME = "flink" 
  33.     val kafkaProps = new Properties() 
  34.     kafkaProps.setProperty("zookeeper.connect", ZOOKEEPER_HOST) 
  35.     kafkaProps.setProperty("bootstrap.servers", KAFKA_BROKERS) 
  36.     kafkaProps.setProperty("group.id", TRANSACTION_GROUP) 
  37.  
  38.     // watrmark 允許數據延遲時間 
  39.     val MaxOutOfOrderness = 86400 * 1000L 
  40.  
  41.     val streamData: DataStream[(String, String, String)] = env.addSource( 
  42.       new FlinkKafkaConsumer010[String](TOPIC_NAME, new SimpleStringSchema(), kafkaProps) 
  43.     ).assignTimestampsAndWatermarks(new BoundedOutOfOrdernessTimestampExtractor[String](Time.milliseconds(MaxOutOfOrderness)) { 
  44.       override def extractTimestamp(element: String): Long = { 
  45.         val t = JSON.parseObject(element) 
  46.         val time = JSON.parseObject(JSON.parseObject(t.getString("message")).getString("decrypted_data")).getString("time"
  47.         time.toLong 
  48.       } 
  49.     }).map(x => { 
  50.       var date = "error" 
  51.       var guid = "error" 
  52.       var helperversion = "error" 
  53.       try { 
  54.         val messageJsonObject = JSON.parseObject(JSON.parseObject(x).getString("message")) 
  55.         val datetime = messageJsonObject.getString("time"
  56.         date = datetime.split(" ")(0) 
  57.         // hour = datetime.split(" ")(1).substring(0, 2) 
  58.         val decrypted_data_string = messageJsonObject.getString("decrypted_data"
  59.         if (!"".equals(decrypted_data_string)) { 
  60.           val decrypted_data = JSON.parseObject(decrypted_data_string) 
  61.           guid = decrypted_data.getString("guid").trim 
  62.           helperversion = decrypted_data.getString("helperversion"
  63.         } 
  64.       } catch { 
  65.         case e: Exception => { 
  66.           println(e) 
  67.         } 
  68.       } 
  69.       (date, helperversion, guid) 
  70.     }) 
  71.  
  72.     val resultStream = streamData.keyBy(x => { 
  73.       x._1 + x._2 
  74.     }).timeWindow(Time.days(1)) 
  75.       .trigger(ContinuousProcessingTimeTrigger.of(Time.seconds(1))) 
  76.       .applyWith(("", new IntCounter(), Set.empty[Int], 0L, 0L))( 
  77.         foldFunction = { 
  78.           case ((_, cou, set, _, 0), item) => { 
  79.             val date = item._1 
  80.             val helperversion = item._2 
  81.             val guid = item._3 
  82.             cou.add(1) 
  83.             (date + "_" + helperversion, cou, set + guid.hashCode, 0L, 0L) 
  84.           } 
  85.         } 
  86.         , windowFunction = { 
  87.           case (key, window, result) => { 
  88.             result.map { 
  89.               case (leixing, cou, set, _, _) => { 
  90.                 (leixing, cou.getLocalValue, set.size, window.getStart, window.getEnd) 
  91.               } 
  92.             } 
  93.           } 
  94.         } 
  95.       ).keyBy(0) 
  96.       .flatMapWithState[(String, IntInt, Long, Long),(IntInt)]{ 
  97.       case ((key, numpv, numuv, beginend), curr) => 
  98.  
  99.         curr match { 
  100.           case Some(numCurr) if numCurr == (numuv, numpv) => 
  101.             (Seq.empty, Some((numuv, numpv))) //如果之前已經有相同的數據,則返回空結果 
  102.           case _ => 
  103.             (Seq((key, numpv, numuv, beginend)), Some((numuv, numpv))) 
  104.         } 
  105.     } 
  106.  
  107.     // 最終結果 
  108.     val resultedStream = resultStream.map(x => { 
  109.       val keys = x._1.split("_"
  110.       val date = keys(0) 
  111.       val helperversion = keys(1) 
  112.       (date, helperversion, x._2, x._3) 
  113.     }) 
  114.  
  115.     val resultPath = "D:\\space\\IJ\\bigdata\\src\\main\\scala\\com\\ddxygq\\bigdata\\flink\\streaming\\pvuv\\result" 
  116.     resultedStream.writeAsText(resultPath, FileSystem.WriteMode.OVERWRITE) 
  117.     env.execute("PvUvCount"
  118.  
  119.   } 

改進

其實這里還是需要set保存uv,難免對內存有壓力,如果我們的集群不大,為了節省開支,我們可以使用外部媒介,如hbase的rowkey唯一性、redis的set數據結構,都是可以達到實時、快速去重的目的。

參考資料

https://flink.sojb.cn/dev/event_time.htm

lhttp://wuchong.me/blog/2016/05/20/flink-internals-streams-and-operations-on-streams

https://segmentfault.com/a/1190000006235690

 

責任編輯:武曉燕 來源: Java大數據與數據倉庫
相關推薦

2021-06-03 08:10:30

SparkStream項目Uv

2021-11-01 13:11:45

FlinkPvUv

2021-03-10 08:22:47

FlinktopN計算

2021-07-16 10:55:45

數倉一體Flink SQL

2015-08-31 14:27:52

2016-12-28 14:27:24

大數據Apache Flin搜索引擎

2015-07-31 10:35:18

實時計算

2022-12-29 09:13:02

實時計算平臺

2016-10-16 13:48:54

多維分析 UVPV

2019-06-27 09:12:43

FlinkStorm框架

2013-08-21 11:31:21

iPhone圖片方法

2010-06-03 08:55:43

LINQ

2009-09-18 12:29:55

2010-05-17 15:17:06

MySQL常用操作

2025-03-05 08:40:00

RedisJava開發

2017-09-26 09:35:22

2015-10-09 13:42:26

hbase實時計算

2019-11-21 09:49:29

架構運維技術

2021-03-10 14:04:10

大數據計算技術

2010-04-30 16:22:07

Unix終端
點贊
收藏

51CTO技術棧公眾號

欧美一区视频| 深夜成人影院| 91丨porny丨蝌蚪视频| 欧美在线一区二区视频| 国产欧美一区二区三区在线观看视频| 六九午夜精品视频| 亚洲成在线观看| 水蜜桃亚洲一二三四在线| 国产熟女一区二区丰满| 国产精品入口66mio| 搡老女人一区二区三区视频tv| 超碰在线超碰在线| 美女日韩欧美| 一区二区三区久久| 欧美在线激情| 亚洲精品久久久久久久久久 | 欧美性视频在线播放| 黄频网站在线观看| 卡一卡二国产精品| 欧美综合国产精品久久丁香| 91高清免费看| 久草在线成人| 亚洲国产精品高清久久久| 久热精品在线播放| 亚洲第一av| 亚洲一区二区av在线| 亚洲欧美日韩精品久久久| 日韩性xxxx| 国产一区二区电影| 国产精品视频公开费视频| 91视频免费网址| 午夜精品剧场| 另类视频在线观看| 日本综合在线观看| 亚洲第一福利社区| 亚洲爱爱爱爱爱| 91丝袜超薄交口足| 久久av日韩| 色综合天天综合网天天看片| 久操手机在线视频| wwwav在线| 国产精品久久久久影院| 欧洲一区二区在线| 在线观看xxx| 不卡视频一二三四| 99精品欧美一区二区三区| 国产毛片在线视频| 国内精品在线播放| 国产在线视频91| 中文字幕视频一区二区| 日韩av午夜在线观看| 欧美在线观看网址综合| 久久免费视频6| 国产精品大片| 欧美激情综合色| 久久久久亚洲AV| 欧美日韩亚洲三区| 久久人人爽人人爽人人片av高清| 九九热精彩视频| 欧美精品福利| 午夜精品久久久久久久99黑人| 精品少妇久久久| 一区福利视频| 欧美在线激情网| 国产一级免费视频| 蜜桃av一区二区三区电影| 国产精品久久久久影院日本| 亚洲中文字幕在线一区| 狠狠色丁香婷婷综合| 成人做爰www免费看视频网站| 97人妻一区二区精品免费视频| 久久精品国产久精国产| 91网站在线免费观看| 超碰福利在线观看| 成人动漫一区二区在线| 久草精品电影| 成年人视频免费在线观看| 中文乱码免费一区二区 | 国产精品jizz在线观看美国| 欧美日韩不卡合集视频| 国产精品.www| 蘑菇福利视频一区播放| 国产精品一区二区久久精品| 99热这里精品| 91丝袜国产在线播放| 日本不卡免费新一二三区| 欧美成人视屏| 夜夜嗨av一区二区三区| 97国产精东麻豆人妻电影| av成人免费| 日韩欧美你懂的| 国精品无码人妻一区二区三区| 欧美丝袜丝交足nylons172| 久久久精品美女| 黄色一级片免费看| 免费高清不卡av| 国产精品一区二| 粉嫩的18在线观看极品精品| 美女视频亚洲色图| 亚洲精品成a人在线观看| www色com| 亚洲视频精品| 国产精品a久久久久久| h片在线免费看| 国产亚洲美州欧州综合国| 国产对白在线播放| 综合在线影院| 亚洲成人亚洲激情| 日韩三级久久久| 午夜在线视频观看日韩17c| 91深夜福利视频| 精品av中文字幕在线毛片| 亚洲精品老司机| 亚洲欧美另类动漫| 久久资源综合| 久久国产精品视频| 高潮无码精品色欲av午夜福利| wwww在线观看免费视频| 亚洲国产精选| 精品少妇一区二区| 美女福利视频网| 午夜宅男久久久| 国产精品一区二区三区不卡| 黄色在线视频网站| 91福利在线观看| 538国产视频| 国产精品激情| 亚洲精品免费一区二区三区| 日韩在线免费电影| 色呦呦国产精品| wwwwww日本| 亚洲免费网址| 精品国产综合久久| www.九色在线| 亚洲国产99精品国自产| 国产一级大片在线观看| 国产精品99久| 欧美日韩一区二区三区电影| 少妇高潮一区二区三区99| 在线精品播放av| 日韩综合在线观看| 26uuu亚洲综合色欧美| 日本www在线视频| www.国产精品一区| 久久久久久亚洲精品| 亚洲AV无码一区二区三区少妇| 亚洲欧美偷拍卡通变态| 午夜天堂在线视频| 911久久香蕉国产线看观看| 国产在线精品播放| 欧美一区二区三区| 欧美日韩国产高清一区| 调教驯服丰满美艳麻麻在线视频| 免费日韩视频| 欧美一区视久久| 97人人做人人爽香蕉精品| 在线观看91久久久久久| 日批视频免费观看| 国产精品第五页| 午夜一级免费视频| 国产综合精品一区| 国产一区免费观看| 国产精品粉嫩| 亚洲亚裔videos黑人hd| 亚洲图片中文字幕| 亚洲欧美日韩系列| 男女性杂交内射妇女bbwxz| 亚洲清纯自拍| 日本视频一区在线观看| 久久女人天堂| 欧美黑人性视频| 水中色av综合| 欧美日韩免费一区二区三区 | 国产精品一区二区人人爽| 亚洲三级在线看| 国产一线在线观看| 久久国产毛片| 正在播放91九色| 大陆精大陆国产国语精品| 4p变态网欧美系列| 日本中文在线| 亚洲国产精品人久久电影| 免费无码国产精品| 亚洲美女偷拍久久| 国产精品伦子伦| 免费观看在线色综合| 欧美日韩dvd| 九色精品国产蝌蚪| 91九色视频导航| 中文字幕人成乱码在线观看| 爽爽爽爽爽爽爽成人免费观看| 好男人www在线视频| 在线国产电影不卡| 久久免费少妇高潮99精品| 久久免费看少妇高潮| 午夜不卡福利视频| 在线视频日韩| 国产成人免费在线观看不卡| yellow中文字幕久久| www.黄色国产| 在线视频你懂得一区| 麻豆明星ai换脸视频| 99国产精品国产精品久久| 视频在线观看免费高清| 亚洲第一区色| 一区二区精品在线| 牛牛精品成人免费视频| 国产在线久久久| 美女100%一区| 97视频色精品| 在线看三级电影| 国产亚洲人成a一在线v站| 亚洲精品视频网| 欧美日韩国产一级二级| 亚洲另类欧美日韩| 一区二区三区精品在线观看| 一本在线免费视频| 2021中文字幕一区亚洲| 在线观看免费视频国产| 久草在线在线精品观看| 成人中文字幕av| 一区二区黄色| 99久久99久久精品| 五月久久久综合一区二区小说| 欧美一区二区三区在线免费观看| 极品国产人妖chinesets亚洲人妖 激情亚洲另类图片区小说区 | 亚洲va久久久噜噜噜| 日韩一级二级| 欧美在线视频观看| 成人福利电影| 九九热精品在线| 麻豆影视在线观看_| 伊人青青综合网站| 三级理论午夜在线观看| 亚洲国产小视频| 亚洲第一天堂网| 欧美一区午夜视频在线观看| 中文字幕乱码人妻二区三区| 色婷婷一区二区三区四区| 欧美在线观看不卡| 欧美视频二区36p| 日本中文字幕在线免费观看| 亚洲午夜私人影院| 久久久久久国产精品视频| 亚洲三级免费观看| 亚洲一级生活片| 日韩美女精品在线| 国产成人av免费在线观看| 亚洲少妇最新在线视频| 欧美爱爱免费视频| 亚洲人成影院在线观看| 破处女黄色一级片| 一区二区三区不卡在线观看| 国产精品白嫩白嫩大学美女| 日韩美女啊v在线免费观看| 日本精品人妻无码77777| 一区在线播放视频| 婷婷色中文字幕| 亚洲日本护士毛茸茸| 朝桐光av在线| 亚洲成人精品在线观看| 国产成人无码精品久在线观看 | 2020最新国产精品| 国产在线一区二| 天天躁日日躁狠狠躁欧美巨大小说 | 老牛国内精品亚洲成av人片| 久久一区二区三区av| 精品国产一区二区三区久久久樱花 | 成人午夜免费福利| 精品亚洲va在线va天堂资源站| 欧洲伦理片一区 二区 三区| 在线中文字幕日韩| 国产写真视频在线观看| 欧美激情亚洲自拍| 成人爽a毛片免费啪啪| 国产精品久久一| 久久久精品区| 免费久久一级欧美特大黄| 欧美一二区在线观看| 潘金莲一级淫片aaaaa免费看| 好吊视频一区二区三区四区| 中文字幕无码精品亚洲35| 日本一不卡视频| 色诱av手机版| 久久久国产精华| 欧美黄色免费在线观看| 欧美性猛交xxxx偷拍洗澡| 91成品人影院| 日韩风俗一区 二区| 欧美日韩欧美| 91高清视频在线免费观看| 激情欧美一区二区三区黑长吊| 成人av男人的天堂| 国产亚洲一区二区三区啪| 黄色一级片av| 日韩国产在线观看一区| 亚洲丝袜在线观看| 久久精品水蜜桃av综合天堂| 久久精品视频免费在线观看| 色成人在线视频| 亚洲国产精品久久久久爰性色| 亚洲图片欧洲图片av| 欧美性video| 国产在线拍揄自揄视频不卡99| 开心激情综合| 五月天在线免费视频| 三级久久三级久久| 久久久老熟女一区二区三区91| 中文字幕二三区不卡| 亚洲伊人成人网| 日韩欧美成人一区二区| 99中文字幕一区| 国产97免费视| 精品女人视频| 国产免费内射又粗又爽密桃视频| 日韩极品在线观看| 最近日本中文字幕| 亚洲一区二区中文在线| 国产精品丝袜黑色高跟鞋| 国产亚洲精品一区二555| 色戒汤唯在线观看| 国产精品日韩一区二区| 亚洲乱码免费伦视频| 亚洲精品视频导航| 久久综合九色综合欧美亚洲| 日本免费在线播放| 欧美一区二区三区男人的天堂| 国产高清在线| 日韩免费高清在线观看| 欧美变态网站| 蜜臀av色欲a片无码精品一区| 国产精品一二三区| 人妻人人澡人人添人人爽| 欧美高清www午色夜在线视频| 91女主播在线观看| 国产精品扒开腿爽爽爽视频| 免费成人av| 国产l精品国产亚洲区久久| 不卡一区二区中文字幕| 国产精品6666| 亚洲成成品网站| 97在线超碰| 精品一区国产| 亚洲一卡久久| 亚洲激情视频小说| 在线免费不卡视频| 第一页在线观看| 国产精品黄视频| 91青青国产在线观看精品| 久久久久久久久久一区二区| 国产精品久久久久久久久久免费看| 在线观看你懂的网站| 一色桃子一区二区| julia一区二区三区中文字幕| 日韩视频专区| 捆绑调教美女网站视频一区| 欧美肥妇bbwbbw| 欧美一级理论片| 欧美videosex性欧美黑吊| 国产精品区一区二区三在线播放| 精品av久久久久电影| 草草地址线路①屁屁影院成人| 色屁屁一区二区| jzzjzzjzz亚洲成熟少妇| 国产视频999| 国产精品a级| 国产高清自拍视频| 欧美自拍偷拍一区| 精品视频在线一区二区| 99re视频在线| 亚洲深夜福利| 夫妇露脸对白88av| 欧美一二三在线| 国产一二三在线| 视频一区二区综合| 国产精品66部| 国产一级一级国产| 久久久精品久久久| 欧美福利在线播放网址导航| 波多野结衣天堂| 尤物视频一区二区| 亚洲三区在线观看无套内射| 国产精品久久中文| 欧美精品九九| 无码熟妇人妻av| 欧美一区二区在线播放| 国产精品高颜值在线观看| 色播五月综合| 成人黄色777网| 中文字幕免费在线看| 欧美激情一区二区久久久| 国产精选一区| 国产大学生av| 欧美亚洲综合网| 国产美女情趣调教h一区二区| 欧美日韩亚洲一区二区三区在线观看| 韩国av一区二区三区| 午夜婷婷在线观看| 久久6免费高清热精品| 精品国产一区一区二区三亚瑟 |