精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

FlinkSQL內置了這么多函數你都使用過嗎?

運維 數據庫運維
Flink Table 和 SQL 內置了很多 SQL 中支持的函數;如果有無法滿足的需要,則可以實現用戶自定義的函數(UDF)來解決。

[[361272]]

前言

Flink Table 和 SQL 內置了很多 SQL 中支持的函數;如果有無法滿足的需要,則可以實現用戶自定義的函數(UDF)來解決。

一、系統內置函數

Flink Table API 和 SQL 為用戶提供了一組用于數據轉換的內置函數。SQL 中支持的很多函數,Table API 和 SQL 都已經做了實現,其它還在快速開發擴展中。

以下是一些典型函數的舉例,全部的內置函數,可以參考官網介紹。

類型 TableApi SQLAPI
比較函數 ANY1 === ANY2 value1 = value2
比較函數 NY1 > ANY2 value1 > value2
邏輯函數 BOOLEAN1 || BOOLEAN2 boolean1 OR boolean2
邏輯函數 BOOLEAN.isFalse boolean IS FALSE
邏輯函數 !BOOLEAN NOT boolean
算術函數 NUMERIC1 + NUMERIC2 numeric1 + numeric2
算術函數 NUMERIC1.power(NUMERIC2) POWER(numeric1, numeric2)
字符串函數 STRING1 + STRING2 string1 || string2
字符串函數 STRING.upperCase() UPPER(string)
字符串函數 STRING.charLength() CHAR_LENGTH(string)
時間函數 STRING.toDate DATE string
時間函數 STRING.toTimestamp TIMESTAMP string
時間函數 currentTime() CURRENT_TIME
時間函數 NUMERIC.days INTERVAL string range
時間函數 NUMERIC.minutes  
聚合函數 FIELD.count COUNT(*)
聚合函數 FIELD.sum0 SUM([ ALL | DISTINCT ] expression)
聚合函數   RANK()
聚合函數   ROW_NUMBER()

二、Flink UDF

用戶定義函數(User-defined Functions,UDF)是一個重要的特性,因為它們顯著地擴展了查詢(Query)的表達能力。一些系統內置函數無法解決的需求,我們可以用 UDF 來自定義實現。

2.1 注冊用戶自定義函數 UDF

在大多數情況下,用戶定義的函數必須先注冊,然后才能在查詢中使用。不需要專門為Scala 的 Table API 注冊函數。

函數通過調用 registerFunction()方法在 TableEnvironment 中注冊。當用戶定義的函數被注冊時,它被插入到 TableEnvironment 的函數目錄中,這樣 Table API 或 SQL 解析器就可以識別并正確地解釋它。

2.2 標量函數(Scalar Functions)

用戶定義的標量函數,可以將 0、1 或多個標量值,映射到新的標量值。

為了定義標量函數,必須在 org.apache.flink.table.functions 中擴展基類 Scalar Function,并實現(一個或多個)求值(evaluation,eval)方法。標量函數的行為由求值方法決定,求值方法必須公開聲明并命名為 eval(直接 def 聲明,沒有 override)。求值方法的參數類型和返回類型,確定了標量函數的參數和返回類型。

在下面的代碼中,我們定義自己的 HashCode 函數,在 TableEnvironment 中注冊它,并在查詢中調用它。

準備數據

  1. sensor_1,1547718199,35.8 
  2. sensor_6,1547718201,15.4 
  3. sensor_7,1547718202,6.7 
  4. sensor_10,1547718205,38.1 
  5. sensor_1,1547718206,32 
  6. sensor_1,1547718208,36.2 
  7. sensor_1,1547718210,29.7 
  8. sensor_1,1547718213,30.9 

代碼如下

  1. package udf 
  2.  
  3. import org.apache.flink.streaming.api.scala._ 
  4. import org.apache.flink.table.api.DataTypes 
  5. import org.apache.flink.table.api.scala._ 
  6. import org.apache.flink.table.descriptors.{Csv, FileSystem, Schema
  7. import org.apache.flink.table.functions.ScalarFunction 
  8. import org.apache.flink.types.Row 
  9.  
  10. /** 
  11. * @Package udf 
  12. * @File :FlinkSqlUdfHashCode.java 
  13. * @author 大數據老哥 
  14. * @date 2020/12/29 21:58 
  15. * @version V1.0 
  16. */ 
  17. object FlinkSqlUdfHashCode { 
  18.  def main(args: Array[String]): Unit = { 
  19.    //1.構建運行環境 
  20.    val env = StreamExecutionEnvironment.getExecutionEnvironment 
  21.    env.setParallelism(1) // 設置并行度為1 
  22.    //2.構建TableEnv 
  23.    val tableEnv = StreamTableEnvironment.create(env) 
  24.    //3.構建數據源 
  25.    tableEnv.connect(new FileSystem().path("./data/sensor.txt")) 
  26.      .withFormat(new Csv()) 
  27.      .withSchema(new Schema() 
  28.        .field("id", DataTypes.STRING()) 
  29.        .field("timestamp", DataTypes.INT()) 
  30.        .field("temperature", DataTypes.DOUBLE()) 
  31.      ).createTemporaryTable("sensor"
  32.    // 轉為表 
  33.    val tableSensor = tableEnv.from("sensor"
  34.    // 床架轉換對象 
  35.    val code = new HashCode() 
  36.    //使用tableAPI 進行測試 
  37.    val tableRes = tableSensor.select('id, code('id)) 
  38.    tableEnv.registerFunction("code",code) // 注冊udf 
  39.    val tableSql = tableEnv.sqlQuery( 
  40.      ""
  41.        |select 
  42.        |id, 
  43.        |code(id) 
  44.        |from 
  45.        |sensor 
  46.        |""".stripMargin) 
  47.    // 輸出 
  48.    tableRes.toAppendStream[Row].print("tableAPI"
  49.    tableSql.toAppendStream[Row].print("tableSql"
  50.  
  51.    env.execute("FlinkSqlUdfHashCode"
  52.  } 
  53.  
  54.  class HashCode() extends ScalarFunction { 
  55.    def eval(s: String): String = { 
  56.      s.hashCode.toString 
  57.    } 
  58.  } 
  59. 運行結果 

2.3 表函數(Table Functions)

與用戶定義的標量函數類似,用戶定義的表函數,可以將 0、1 或多個標量值作為輸入參數;

與標量函數不同的是,它可以返回任意數量的行作為輸出,而不是單個值。為了定義一個表函數,必須擴展 org.apache.flink.table.functions 中的基類 TableFunction并實現(一個或多個)求值方法。表函數的行為由其求值方法決定,求值方法必須是 public的,并命名為 eval。求值方法的參數類型,決定表函數的所有有效參數。

返回表的類型由 TableFunction 的泛型類型確定。求值方法使用 protected collect(T)方法發出輸出行。

在 Table API 中,Table 函數需要與.joinLateral 或.leftOuterJoinLateral 一起使用。

joinLateral 算子,會將外部表中的每一行,與表函數(TableFunction,算子的參數是它的表達式)計算得到的所有行連接起來。

而 leftOuterJoinLateral 算子,則是左外連接,它同樣會將外部表中的每一行與表函數計算生成的所有行連接起來;并且,對于表函數返回的是空表的外部行,也要保留下來。

在 SQL 中,則需要使用 Lateral Table(),或者帶有 ON TRUE 條件的左連接。

下面的代碼中,我們將定義一個表函數,在表環境中注冊它,并在查詢中調用它。

數據準備

  1. hello|word,hello|spark 
  2. hello|Flink,hello|java,hello|大數據老哥 

編寫代碼

  1. package udf 
  2.  
  3. import org.apache.flink.streaming.api.scala._ 
  4. import org.apache.flink.table.api.scala._ 
  5. import org.apache.flink.table.functions.TableFunction 
  6. import org.apache.flink.types.Row 
  7.  
  8. /** 
  9.  * @Package udf 
  10.  * @File :FlinkSqlUDFTableFunction.java 
  11.  * @author 大數據老哥 
  12.  * @date 2020/12/29 23:10 
  13.  * @version V1.0 
  14.  */ 
  15. object FlinkSqlUDFTableFunction { 
  16.   def main(args: Array[String]): Unit = { 
  17.     //1.構建運行環境 
  18.     val env = StreamExecutionEnvironment.getExecutionEnvironment 
  19.     env.setParallelism(1) // 設置并行度為1 
  20.     //2.構建TableEnv 
  21.     val tableEnv = StreamTableEnvironment.create(env) 
  22.     //3.構建數據源 
  23.     val data = env.readTextFile("./data/words.txt"
  24.     // 解析數據 
  25.     val wordData: DataStream[String] = data.flatMap(_.split(",")) 
  26.     // 類型轉換 
  27.     val tableWord = tableEnv.fromDataStream(wordData,'id) 
  28.     // 調用TableFunction 
  29.     val split = new Split() 
  30.     // Table API 方式一 
  31.     val resTable1 = tableWord. 
  32.       joinLateral(split('id) as('word,'length)) 
  33.       .select('id,'word,'length ) 
  34.     //  Table API  方式二 
  35.     val resTable2 = tableWord. 
  36.       leftOuterJoinLateral(split('id) as('word,'length)) 
  37.       .select('id,'word,'length ) 
  38.     // 將數據注冊成表 
  39.      tableEnv.createTemporaryView("sensor",tableWord) 
  40.      tableEnv.registerFunction("split",split) 
  41.  
  42.     // SQL 方式一 
  43.     val tableSQL1 = tableEnv.sqlQuery( 
  44.       ""
  45.         |select 
  46.         |id, 
  47.         |word, 
  48.         |length 
  49.         |from 
  50.         |sensor ,LATERAL TABLE(split(id)) AS newsensor(word, length) 
  51.         |""".stripMargin) 
  52.     //  SQL 方式二 
  53.     val TableSQL2 = tableEnv.sqlQuery( 
  54.       ""
  55.         |select 
  56.         |id, 
  57.         |word, 
  58.         |length 
  59.         |from 
  60.         |sensor 
  61.         | LEFT JOIN LATERAL TABLE(split(id)) AS newsensor(word, length) ON TRUE 
  62.         |""".stripMargin) 
  63.     // 調用數據 
  64.     resTable1.toAppendStream[Row].print("resTable1"
  65.     resTable2.toAppendStream[Row].print("resTable2"
  66.     tableSQL1.toAppendStream[Row].print("tableSQL1"
  67.     TableSQL2.toAppendStream[Row].print("TableSQL2"
  68.  
  69.  
  70.     env.execute("FlinkSqlUDFTableFunction"
  71.   } 
  72.  
  73.   class Split() extends TableFunction[(String,Int)] { 
  74.     def eval(str: String): Unit = { 
  75.       str.split("\\|").foreach( 
  76.         word => collect((word, word.length)) 
  77.       ) 
  78.     } 
  79.   } 

2.4 聚合函數(Aggregate Functions)

用戶自定義聚合函數(User-Defined Aggregate Functions,UDAGGs)可以把一個表中的數據,聚合成一個標量值。用戶定義的聚合函數,是通過繼承 AggregateFunction 抽象類實現的。

上圖中顯示了一個聚合的例子。

假設現在有一張表,包含了各種飲料的數據。該表由三列(id、name 和 price)、五行組成數據。現在我們需要找到表中所有飲料的最高價格,即執行 max()聚合,結果將是一個數值。AggregateFunction 的工作原理如下:

  • 首先,它需要一個累加器,用來保存聚合中間結果的數據結構(狀態)。可以通過調用 AggregateFunction 的 createAccumulator()方法創建空累加器。
  • 隨后,對每個輸入行調用函數的 accumulate() 方法來更新累加器。
  • 處理完所有行后,將調用函數的 getValue() 方法來計算并返回最終結果。AggregationFunction 要求必須實現的方法:

除了上述方法之外,還有一些可選擇實現的方法。其中一些方法,可以讓系統執行查詢更有效率,而另一些方法,對于某些場景是必需的。例如,如果聚合函數應用在會話窗口(session group window)上下文中,則 merge()方法是必需的。

  • retract()
  • merge()
  • resetAccumulator()

接下來我們寫一個自定義AggregateFunction,計算一個每個price的平均值。

數據準備

  1. 1,Latte,6 
  2. 2,Milk,3 
  3. 3,Breve,5 
  4. 4,Mocha,8 
  5. 5,Tea,4 

代碼如下

  1. package udf 
  2.  
  3. import org.apache.calcite.rel.`type`.{RelDataType, RelDataTypeFactory} 
  4. import org.apache.flink.streaming.api.scala._ 
  5. import org.apache.flink.table.api.DataTypes 
  6. import org.apache.flink.table.api.scala._ 
  7. import org.apache.flink.table.descriptors.{Csv, FileSystem, Schema
  8. import org.apache.flink.table.functions.AggregateFunction 
  9. import org.apache.flink.types.Row 
  10.  
  11. import java.util 
  12.  
  13. /** 
  14.  * @Package udf 
  15.  * @File :FlinkSQUDFAggregateFunction.java 
  16.  * @author 大數據老哥 
  17.  * @date 2020/12/30 22:06 
  18.  * @version V1.0 
  19.  */ 
  20. object FlinkSQUDFAggregateFunction { 
  21.   def main(args: Array[String]): Unit = { 
  22.     //1.構建運行環境 
  23.     val env = StreamExecutionEnvironment.getExecutionEnvironment 
  24.     env.setParallelism(1) // 設置并行度為1 
  25.     //2.構建TableEnv 
  26.     val tableEnv = StreamTableEnvironment.create(env) 
  27.     //3.構建數據源 
  28.     tableEnv.connect(new FileSystem().path("./data/datas")) 
  29.       .withFormat(new Csv) 
  30.       .withSchema(new Schema() 
  31.         .field("id", DataTypes.STRING()) 
  32.         .field("name", DataTypes.STRING()) 
  33.         .field("price", DataTypes.DOUBLE()) 
  34.       ).createTemporaryTable("datas"
  35.     val AvgTemp = new AvgTemp() 
  36.     val table = tableEnv.from("datas"
  37.  
  38.     val resTableApi = table.groupBy('id) 
  39.       .aggregate(AvgTemp('price) as 'sumprice) 
  40.       .select('id, 'sumprice) 
  41.  
  42.     tableEnv.registerFunction("avgTemp",AvgTemp) 
  43.     val tablesql = tableEnv.sqlQuery( 
  44.       ""
  45.         |select 
  46.         |id ,avgTemp(price) 
  47.         |from datas group by id 
  48.         |""".stripMargin) 
  49.     resTableApi.toRetractStream[Row].print("resTableApi"
  50.     tablesql.toRetractStream[Row].print("tablesql"
  51.     env.execute("FlinkSQUDFAggregateFunction"
  52.   } 
  53.  
  54.   class AvgTempAcc { 
  55.     var sumDouble = 0.0 
  56.     var countInt = 0 
  57.   } 
  58.  
  59.   class AvgTemp extends AggregateFunction[Double, AvgTempAcc] { 
  60.     override def getValue(acc: AvgTempAcc): Double = { 
  61.       acc.sum / acc.count 
  62.     } 
  63.  
  64.     override def createAccumulator(): AvgTempAcc = new AvgTempAcc() 
  65.   } 
  66.  
  67.   def accumulate(accumulator: AvgTempAcc, price: Double): Unit = { 
  68.     accumulator.sum += price 
  69.  
  70.     accumulator.count += 1 
  71.   } 
  72.  

2.5表聚合函數(Table Aggregate Functions)

戶定義的表聚合函數(User-Defined Table Aggregate Functions,UDTAGGs),可以把一個表中數據,聚合為具有多行和多列的結果表。這跟 AggregateFunction 非常類似,只是之前聚合結果是一個標量值,現在變成了一張表。

比如現在我們需要找到表中所有飲料的前 2 個最高價格,即執行 top2()表聚合。我們需要檢查 5 行中的每一行,得到的結果將是一個具有排序后前 2 個值的表。用戶定義的表聚合函數,是通過繼承 TableAggregateFunction 抽象類來實現的。TableAggregateFunction 的工作原理如下:

  • 為首先,它同樣需要一個累加器(Accumulator),它是保存聚合中間結果的數據結構。通過調用 TableAggregateFunction 的 createAccumulator()方法可以創建空累加器。
  • 為隨后,對每個輸入行調用函數的 accumulate()方法來更新累加器。
  • 為處理完所有行后,將調用函數的 emitValue()方法來計算并返回最終結果。除了上述方法之外,還有一些可選擇實現的方法。
  • retract()
  • merge()
  • resetAccumulator()
  • emitValue()
  • emitUpdateWithRetract()

接下來我們寫一個自定義 TableAggregateFunction,用來提取每個 price 最高的兩個平均值。

數據準備

  1. 1,Latte,6 
  2. 2,Milk,3 
  3. 3,Breve,5 
  4. 4,Mocha,8 
  5. 5,Tea,4 

代碼如下

  1. package udf 
  2.  
  3. import org.apache.flink.streaming.api.scala._ 
  4. import org.apache.flink.table.api.DataTypes 
  5. import org.apache.flink.table.api.scala._ 
  6. import org.apache.flink.table.descriptors.{Csv, FileSystem, Schema
  7. import org.apache.flink.table.functions.TableAggregateFunction 
  8. import org.apache.flink.types.Row 
  9. import org.apache.flink.util.Collector 
  10. import udf.FlinkSQUDFAggregateFunction.AvgTemp 
  11.  
  12. /** 
  13.  * @Package udf 
  14.  * @File :FlinkSqlUDFTableAggregateFunction.java 
  15.  * @author 大數據老哥 
  16.  * @date 2020/12/30 22:53 
  17.  * @version V1.0 
  18.  */ 
  19. object FlinkSqlUDFTableAggregateFunction { 
  20.   def main(args: Array[String]): Unit = { 
  21.     //1.構建運行環境 
  22.     val env = StreamExecutionEnvironment.getExecutionEnvironment 
  23.     env.setParallelism(1) // 設置并行度為1 
  24.     //2.構建TableEnv 
  25.     val tableEnv = StreamTableEnvironment.create(env) 
  26.     //3.構建數據源 
  27.     tableEnv.connect(new FileSystem().path("./data/datas")) 
  28.       .withFormat(new Csv) 
  29.       .withSchema(new Schema() 
  30.         .field("id", DataTypes.STRING()) 
  31.         .field("name", DataTypes.STRING()) 
  32.         .field("price", DataTypes.DOUBLE()) 
  33.       ).createTemporaryTable("datas"
  34.     val table = tableEnv.from("datas"
  35.     val temp = new Top2Temp() 
  36.     val tableApi = table.groupBy('id) 
  37.       .flatAggregate(temp('price) as('tmpprice, 'rank)) 
  38.       .select('id, 'tmpprice, 'rank) 
  39.     tableEnv.registerFunction("temp",temp
  40.  
  41.  
  42.     tableApi.toRetractStream[Row].print() 
  43.  
  44.     env.execute("FlinkSqlUDFTableAggregateFunction"
  45.   } 
  46.  
  47.   class Top2TempAcc { 
  48.     var highestPrice: Double = Int.MinValue 
  49.     var secodeHighestPrice: Double = Int.MinValue 
  50.   } 
  51.  
  52.   class Top2Temp extends TableAggregateFunction[(DoubleInt), Top2TempAcc] { 
  53.     override def createAccumulator(): Top2TempAcc = new Top2TempAcc 
  54.  
  55.     def accumulate(acc: Top2TempAcc, tempDouble): Unit = { 
  56.       if (temp > acc.highestPrice) { 
  57.         acc.secodeHighestPrice = acc.highestPrice 
  58.         acc.highestPrice = temp 
  59.       } else if (temp > acc.secodeHighestPrice) { 
  60.         acc.highestPrice = temp 
  61.       } 
  62.     } 
  63.  
  64.     def emitValue(acc: Top2TempAcc, out: Collector[(DoubleInt)]): Unit = { 
  65.       out.collect(acc.highestPrice, 1) 
  66.       out.collect(acc.secodeHighestPrice, 2) 
  67.     } 
  68.   } 
  69.  

總結

好了今天的內容就分享到這里了。上述主要講解了一個系統自己帶的函數,但是往往企業中不光只需要這些函數,有好多需求是本身函數是無法完成的。這時候就要用到我們的自定義函數了。他可以根據我們自己的需要進行編寫代碼來實現我們想要的功能。

本文轉載自微信公眾號「大數據老哥」,可以通過以下二維碼關注。轉載本文請聯系大數據老哥公眾號。

 

責任編輯:武曉燕 來源: 大數據老哥
相關推薦

2019-05-21 15:06:53

微信長按功能分享

2021-06-14 07:23:42

Windows10操作系統微軟

2018-12-05 14:29:22

2021-05-21 05:24:03

Excel數據技巧

2017-11-10 07:08:24

前端優化策略

2023-11-13 08:49:54

2024-02-20 08:09:51

Java 8DateUtilsDate工具類

2021-03-24 08:44:11

代碼內存消耗語言

2021-09-08 22:38:56

區塊鏈公有鏈網絡

2021-06-09 10:10:20

代碼內存編程語言

2019-02-28 10:37:19

開源數據庫Oracle

2022-05-29 08:54:44

Edge瀏覽器

2016-12-01 13:40:37

2022-07-06 11:47:27

JAVAfor循環

2024-04-02 08:41:10

ArrayListSubList場景

2017-08-11 14:21:33

軟件開發前端框架

2023-07-17 08:21:52

漏洞版本項目

2021-08-09 11:32:30

左葉子節點二叉樹

2016-05-12 10:27:17

信銳Wi-Fi網絡

2018-10-06 21:51:37

代碼SOLID編程
點贊
收藏

51CTO技術棧公眾號

91在线色戒在线| 色婷婷综合久久久久中文字幕1| 久久在线中文字幕| 日本高清视频www| 久久精品毛片| 色哟哟入口国产精品| 爱爱爱爱免费视频| 污视频在线免费观看网站| 成人午夜免费av| 欧美在线国产精品| 美国一级黄色录像| 视频一区中文字幕精品| 欧美日韩精品在线观看| 国产精品麻豆免费版| 欧美日韩一二三四区| 日韩三级在线| 亚洲国产一区二区三区四区| 久久无码高潮喷水| 日本在线观看视频一区| 国产呦小j女精品视频| 另类激情视频| 亚洲精选在线视频| 欧美日韩中文国产一区发布| 国产精品一品二区三区的使用体验| 国产精品v亚洲精品v日韩精品| 日韩大片在线观看视频| 欧美三级理论片| 日本天码aⅴ片在线电影网站| www激情久久| 91在线观看网站| 成年人视频免费| 欧美三级视频| 最新国产精品拍自在线播放| v天堂中文在线| 成人免费91| 欧美亚洲综合久久| 黄色大片中文字幕| 黄色片网站在线| 久久久久青草大香线综合精品| 国产精品视频福利| www.久久久久久| 精品一区二区三区蜜桃| 欧美在线视频观看| 国产精品第108页| 欧美a级片一区| 色阁综合伊人av| 精品熟女一区二区三区| 国产精品日本一区二区不卡视频| 91久久久免费一区二区| 精品少妇人妻av免费久久洗澡| 午夜av在线播放| 中文字幕一区二区5566日韩| 你懂的视频在线一区二区| 粉嫩av一区二区夜夜嗨| 国产传媒欧美日韩成人| 91网站在线免费观看| 欧美在线视频精品| 日韩精品91亚洲二区在线观看| 欧美黄色片在线观看| 日韩av手机在线免费观看| 色综合久久网| 综合久久五月天| 精品国产无码在线观看| 岳的好大精品一区二区三区| 日韩欧美中文字幕精品| 91看片破解版| 91精品网站在线观看| 欧美日产在线观看| 久热精品在线观看视频| 国产精品久久久久久吹潮| 色天天综合久久久久综合片| 国产熟女高潮视频| 亚洲黄色中文字幕| 色综合久久天天综合网| 成人毛片视频网站| 欧美xx视频| 欧美日韩在线精品一区二区三区激情 | 在线播放一区二区精品视频| 91麻豆精品国产综合久久久久久| 911福利视频| 国产专区精品| 精品欧美乱码久久久久久 | 免费一区二区三区在线视频| 欧美一区二区视频在线观看2022 | 亚洲欧美成人精品| 亚洲日本精品视频| 四季av在线一区二区三区| 精品国内产的精品视频在线观看| 日本老熟俱乐部h0930| 天天综合久久| 欧美日韩国产999| 欧美三级韩国三级日本三斤在线观看 | 美国毛片一区二区三区| 亚洲一区二区三区毛片| 日韩一区二区三区不卡| 国产日韩高清在线| 自拍视频一区二区三区| 制服丝袜在线播放| 黄色一区二区在线| 超碰在线97免费| 日韩视频在线直播| 精品视频www| 国产av自拍一区| 91精品国产调教在线观看| 色偷偷88888欧美精品久久久| 欧美日韩在线观看成人| 欧美资源在线| 91丝袜美腿美女视频网站| 日本高清视频在线| 中文在线资源观看网站视频免费不卡 | 亚洲精品手机在线观看| 精品一区二区三区免费看| 亚洲国产精品嫩草影院久久| 国产123在线| 国内自拍一区| 国产精品国语对白| 日韩一级片免费观看| 国产精品国产自产拍高清av王其| 久久男人资源站| 电影在线观看一区二区| 日韩免费视频一区| 麻豆视频免费在线播放| 免费久久99精品国产自在现线| 91久久精品国产91久久性色| 国产综合在线观看| 午夜久久久久久电影| 少妇高潮一69aⅹ| 日韩精品免费| 超碰成人福利| 亚洲国产精品网站| 亚洲天堂2024| 中文字幕乱码亚洲无线精品一区| 青草热久免费精品视频| www.久久成人| 中文字幕日韩一区二区| 妓院一钑片免看黄大片| 99这里只有精品视频| 久久艹在线视频| 中文字字幕在线观看| 2020国产精品| 黄色免费视频大全| 成人av婷婷| 欧美麻豆久久久久久中文| 中文字幕一区二区三区人妻四季 | 国产欧美一级| 成人黄动漫网站免费| 欧美一区二区三区在线观看免费| 色欧美88888久久久久久影院| 人体私拍套图hdxxxx| 天天综合久久| 国产精品久久久久99| 免费一级在线观看播放网址| 一二三区精品视频| 一级 黄 色 片一| 日韩精品诱惑一区?区三区| 日本sm极度另类视频| 手机看片1024日韩| 亚洲免费在线电影| 黄色aaaaaa| 亚洲天天综合| 3d动漫精品啪啪一区二区三区免费| 在线观看av黄网站永久| 欧美三电影在线| 欧美午夜激情影院| 美腿丝袜亚洲一区| 永久域名在线精品| 精品视频在线一区| 欧美极品少妇与黑人| 亚洲精品久久久久久久久久| 亚洲国产综合色| 黑森林av导航| 日韩香蕉视频| 日本一区二区精品| 精品久久毛片| 欧美成人在线网站| 欧美一级做性受免费大片免费| 亚洲v精品v日韩v欧美v专区| 久久国产精品无码一级毛片| 久久亚洲视频| 9999在线观看| 91成人午夜| 欧美亚洲日本黄色| av在线三区| 欧美一区二区三区免费观看视频| 久久久久久久国产精品毛片| 99精品偷自拍| 天天操天天爱天天爽| 希岛爱理一区二区三区| 国产精品一区二区三区在线观| 大菠萝精品导航| 亚洲香蕉伊综合在人在线视看| 国产精品无码一区| 一区二区视频在线看| 大地资源二中文在线影视观看 | 日本一区二区免费在线| 欧美日韩精品区别| 18成人免费观看视频| 免费观看成人高| 天堂综合在线播放| 91av在线影院| 好操啊在线观看免费视频| 亚洲第一av网站| 最近中文字幕av| 亚洲自拍偷拍欧美| 国产真人做爰视频免费| 国产福利一区二区| 日韩av在线综合| 911精品美国片911久久久| 国产一区二区视频在线免费观看| 91欧美精品| 九九久久久久久久久激情| 欧美男男同志| 日韩午夜激情免费电影| 免费观看日批视频| 亚洲一区免费在线观看| 色综合99久久久无码国产精品| 国产精品 欧美精品| www.色就是色| 99在线热播精品免费99热| 中文字幕一区二区三区在线乱码| 牛牛影视久久网| 91情侣偷在线精品国产| 人人视频精品| 久久久久久久久久国产| 麻豆影院在线| 国产一区二区日韩| 人妻91麻豆一区二区三区| 欧美日韩精品欧美日韩精品一综合| 日韩精品久久久久久久酒店| 亚洲精品成人精品456| av2014天堂网| 国产精品小仙女| 2025韩国理伦片在线观看| 亚洲一区图片| 公共露出暴露狂另类av| 欧美色网址大全| 美乳视频一区二区| theporn国产在线精品| 亚洲一区二区三区乱码aⅴ| 免费在线成人激情电影| 欧美一级高清免费播放| av日韩国产| 久久99国产精品自在自在app| av在线播放网| 亚洲性xxxx| 免费a级毛片在线观看| 亚洲精品久久久久国产| 懂色av一区二区三区四区| 欧美一级片在线看| 国产一区二区三区四区视频| 欧美日韩一区二区电影| 日本黄色中文字幕| 欧美亚洲高清一区二区三区不卡| 男人天堂2024| 91久久精品一区二区三| 亚洲 日本 欧美 中文幕| 色视频成人在线观看免| 九九热最新视频| 欧美色爱综合网| 国产精品sm调教免费专区| 欧美性三三影院| 中文字幕观看视频| 欧美日韩精品在线播放| 国产精品suv一区| 免费观看性欧美大片无片| 超碰91人人草人人干| 91在线视频| 在线看片第一页欧美| 神马久久久久| 日韩国产在线看| 男人的天堂在线视频| 日韩精品视频在线免费观看| 欧美一级淫片免费视频魅影视频| 亚洲精品狠狠操| 国产大学生校花援交在线播放| 日韩视频免费在线观看| av网站免费在线观看| 欧美精品免费在线| 绿色成人影院| 国产成人精品在线视频| 亚洲视频资源| 国产精品久久久久久久久久久久冷| 国产伦精品一区二区三区在线播放| 国产视频精品网| 思热99re视热频这里只精品| 茄子视频成人在线观看| 青青草国产免费一区二区下载| 久久久一二三四| 亚洲精品黄色| 在线观看高清免费视频| 日本在线播放一区二区三区| 91大神免费观看| 91在线精品一区二区| 国产真人真事毛片视频| 亚洲精品videosex极品| 国产成人在线播放视频| 欧美日韩精品欧美日韩精品一 | 99国产精品99久久久久久粉嫩| 国产91对白刺激露脸在线观看| 另类av一区二区| 特黄特黄一级片| 久久久久久综合| 九九视频在线观看| 欧美亚洲国产一卡| 黄色一级大片在线免费看国产一| 在线午夜精品自拍| 超免费在线视频| 国产美女久久久| 欧美三级午夜理伦三级在线观看| 一区二区精品视频| 夜夜嗨一区二区| 波多野结衣网页| 国产嫩草影院久久久久| 国产精品999久久久| 欧美日韩在线三区| 深夜福利视频一区| 欧美成人三级视频网站| 78精品国产综合久久香蕉| 国产精品一区二区你懂得| 日本一二区不卡| 免费成人午夜视频| 国产一区二区三区黄视频 | 亚洲毛片在线免费| 久久综合毛片| 亚洲先锋成人| 成 人 黄 色 小说网站 s色| 国产精品亚洲专一区二区三区 | 国产精品久久久久久久久久久久久久久久 | 黄色免费观看视频网站| 国产精品1区2区3区| 亚洲精品自拍视频在线观看| 色综合久久88色综合天天免费| 国产精品热久久| 正在播放亚洲1区| 一根才成人网| 国产美女精品久久久| 99久久久久久中文字幕一区| 亚洲午夜精品久久久久久人妖| 国产宾馆实践打屁股91| 成人在线观看高清| 欧美日韩中文一区| 国产日本在线| 国内精品400部情侣激情| 国产亚洲高清在线观看| 亚洲精品中字| 人人超碰91尤物精品国产| 久久精品成人av| 欧美性猛交xxxx免费看久久久| 好吊视频一二三区| 久久99国产精品自在自在app| 国产一区二区三区国产精品| 中文字幕久久综合| 久久aⅴ国产欧美74aaa| 亚洲AV成人无码网站天堂久久| 在线观看亚洲a| lutube成人福利在线观看| 国产精品白丝jk喷水视频一区| 老牛影视av一区二区在线观看| av一区二区三区免费观看| 麻豆一区二区三| 亚洲欧美综合7777色婷婷| 欧美揉bbbbb揉bbbbb| 国产人成在线视频| 国产欧美精品一区二区三区介绍| 日韩成人影院| 在线播放免费视频| 亚洲欧美二区三区| 成人av一区二区三区在线观看| 欧美成人精品xxx| 97se亚洲国产一区二区三区| 人人妻人人做人人爽| 91丨porny丨户外露出| 亚洲天堂一区在线| 日韩电影在线观看中文字幕 | 中文字幕第100页| 亚洲欧美激情一区二区| 亚洲av无码一区二区三区性色| 欧美极品欧美精品欧美视频 | 中国一级黄色录像| 成人动漫一区二区三区| 无码人妻一区二区三区免费| 不卡中文字幕av| 亚洲欧美tv| 一级网站在线观看| 色综合色狠狠天天综合色| 黄色av网站在线播放| 精品视频免费观看| 激情国产一区二区| 日本熟妇乱子伦xxxx| 色偷偷噜噜噜亚洲男人的天堂| 成人精品动漫一区二区三区| 久久九九国产视频| 亚洲精品网站在线观看| 飘雪影视在线观看免费观看| 91久久国产婷婷一区二区| 久久精品动漫| 精品无码久久久久| 日韩在线不卡视频| 伊人久久综合影院| 国产51自产区|