精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大數據Hadoop之—Apache Hudi 數據湖實戰操作

大數據 Hadoop
構建hudi后,可以通過cd hudi cli&&./hudi-cli.sh啟動shell。一個hudi表駐留在DFS上的一個稱為basePath的位置,我們需要這個位置才能連接到hudi表。Hudi庫有效地在內部管理此表,使用.hoodie子文件夾跟蹤所有元數據。

一、概述

Hudi(Hadoop Upserts Deletes and Incrementals),簡稱Hudi,是一個流式數據湖平臺,支持對海量數據快速更新,內置表格式,支持事務的存儲層、 一系列表服務、數據服務(開箱即用的攝取工具)以及完善的運維監控工具,它可以以極低的延遲將數據快速存儲到HDFS或云存儲(S3)的工具,最主要的特點支持記錄級別的插入更新(Upsert)和刪除,同時還支持增量查詢。

GitHub地址:https://github.com/apache/hudi

官方文檔:https://hudi.apache.org/cn/docs/overview

關于Apache Hudi 數據湖 也可以參考我這篇文章:大數據Hadoop之——新一代流式數據湖平臺 Apache Hudi

二、Hudi CLI

構建hudi后,可以通過cd hudi cli&&./hudi-cli.sh啟動shell。一個hudi表駐留在DFS上的一個稱為basePath的位置,我們需要這個位置才能連接到hudi表。Hudi庫有效地在內部管理此表,使用.hoodie子文件夾跟蹤所有元數據。

編譯生成的包如下:

# 啟動
./hudi-cli/hudi-cli.sh

三、Spark 與 Hudi 整合使用

Hudi 流式數據湖平臺,協助管理數據,借助HDFS文件系統存儲數據,使用Spark操作數據。

1)Spark 測試

cd $SPARK_HOME
hdfs dfs -mkdir /tmp/
hdfs dfs -put README.md /tmp/
hdfs dfs -text /tmp/README.md

# 啟動spark-shell
./bin/spark-shell --master local[2]

val datasRDD = sc.textFile("/tmp/README.md")
# 行數
datasRDD.count()
# 讀取第一行數據
datasRDD.first()
val dataframe = spark.read.textFile("/tmp/README.md")
dataframe.printSchema
dataframe.show(10,false)

2)Spark 與 Hudi 整合使用

官方示例:https://hudi.apache.org/docs/quick-start-guide/在spark-shell命令行,對Hudi表數據進行操作,需要運行spark-shell命令是,添加相關的依賴包,命令如下:

  • 啟動spark-shell

【第一種方式】在線聯網下載相關jar包

### 啟動spark-shell,使用spark-shell操作hudi數據湖
### 第一種方式
./bin/spark-shell \
--master local[2] \
--packages org.apache.hudi:hudi-spark3.2-bundle_2.12:0.12.0 \
--conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' \
--conf 'spark.sql.catalog.spark_catalog=org.apache.spark.sql.hudi.catalog.HoodieCatalog' \
--conf 'spark.sql.extensions=org.apache.spark.sql.hudi.HoodieSparkSessionExtension'

### 上述命令需要聯網,基于ivy下載下載相關jar包到本地,然后加載到CLASSPATH,其中包含三個jar包。

【第二種方式】離線使用已經下載好的jar包。

### 第二種方式,使用--jars
cd /opt/apache
wget https://repo1.maven.org/maven2/org/apache/spark/spark-avro_2.12/3.3.0/spark-avro_2.12-3.3.0.jar

cd $SPARK_HOME
./bin/spark-shell \
--master local[2] \
--jars /opt/apache/hudi-0.12.0/packaging/hudi-spark-bundle/target/hudi-spark3.2-bundle_2.12-0.12.0.jar,/opt/apache/hudi-0.12.0/hudi-examples/hudi-examples-spark/target/lib/unused-1.0.0.jar,/opt/apache/spark-avro_2.12-3.3.0.jar \
--conf 'spark.sql.catalog.spark_catalog=org.apache.spark.sql.hudi.catalog.HoodieCatalog' \
--conf "spark.serializer=org.apache.spark.serializer.KryoSerializer"
  • 導入park及Hudi相關包
import org.apache.hudi.QuickstartUtils._
import scala.collection.JavaConversions._
import org.apache.spark.sql.SaveMode._
import org.apache.hudi.DataSourceReadOptions._
import org.apache.hudi.DataSourceWriteOptions._
import org.apache.hudi.config.HoodieWriteConfig._
import org.apache.hudi.common.model.HoodieRecord
  • 定義變量
val tableName = "hudi_trips_cow"
# 存儲到HDFS
val basePath = "hdfs://hadoop-hadoop-hdfs-nn:9000/tmp/hudi_trips_cow"
# 存儲到本地
# val basePath = "file:///tmp/hudi_trips_cow"
  • 模擬生成Trip乘車數據
##構建DataGenerator對象,用于模擬生成10條Trip乘車數據
val dataGen = new DataGenerator

val inserts = convertToStringList(dataGen.generateInserts(10))

其中,DataGenerator可以用于生成測試數據,用來完成后續操作。

  • 將模擬數據List轉換為DataFrame數據集
##轉成df
val df = spark.read.json(spark.sparkContext.parallelize(inserts,2))

##查看數據結構
df.printSchema()
##查看數據
df.show()
# 指定字段查詢
df.select("rider","begin_lat","begin_lon","driver","end_lat","end_lon","fare","partitionpath","ts","uuid").show(10,truncate=false)
  • 將數據寫入到hudi
# 將數據保存到hudi表中,由于Hudi誕生時基于Spark框架,所以SparkSQL支持Hudi數據源,直接通過format指定數據源Source,設置相關屬性保存數據即可,注意,hudi不是正真存儲數據,而是管理數據。

df.write.format("hudi").
options(getQuickstartWriteConfigs).
option(PRECOMBINE_FIELD_OPT_KEY, "ts").
option(RECORDKEY_FIELD_OPT_KEY, "uuid").
option(PARTITIONPATH_FIELD_OPT_KEY, "partitionpath").
option(TABLE_NAME, tableName).
mode(Overwrite).
save(basePath)

## 重要參數說明
#參數:getQuickstartWriteConfigs,設置寫入/更新數據至Hudi時,Shuffle時分區數目
#參數:PRECOMBINE_FIELD_OPT_KEY,數據合并時,依據主鍵字段
#參數:RECORDKEY_FIELD_OPT_KEY,每條記錄的唯一id,支持多個字段
#參數:PARTITIONPATH_FIELD_OPT_KEY,用于存放數據的分區字段

本地存儲

HDFS 存儲

四、Flink 與 Hudi 整合使用

官方示例:https://hudi.apache.org/docs/flink-quick-start-guide

1)啟動flink集群

下載地址:http://flink.apache.org/downloads.html

### 1、下載軟件包
wget https://dlcdn.apache.org/flink/flink-1.14.6/flink-1.14.6-bin-scala_2.12.tgz
tar -xf flink-1.14.6-bin-scala_2.12.tgz
export FLINK_HOME=/opt/apache/flink-1.14.6

### 2、設置HADOOP_CLASSPATH
# HADOOP_HOME is your hadoop root directory after unpack the binary package.
export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`
export HADOOP_CONF_DIR='/opt/apache/hadoop/etc/hadoop'

### 3、啟動單節點flink 集群
# Start the Flink standalone cluster,這里先修改slot數量,默認是1,這里改成4
# taskmanager.numberOfTaskSlots: 4
cd $FLINK_HOME
./bin/start-cluster.sh

# 測試可用性
./bin/flink run examples/batch/WordCount.jar

2) 啟動flink SQL 客戶端

# 【第一種方式】指定jar包
./bin/sql-client.sh embedded -j ../hudi-0.12.0/packaging/hudi-flink-bundle/target/hudi-flink1.14-bundle-0.12.0.jar shell

# 【第二種方式】還可以將jar包放在$FINK_HOME/lib目錄下

3)添加數據

-- sets up the result mode to tableau to show the results directly in the CLI
SET 'sql-client.execution.result-mode' = 'tableau';

CREATE TABLE t1(
uuid VARCHAR(20) PRIMARY KEY NOT ENFORCED,
name VARCHAR(10),
age INT,
ts TIMESTAMP(3),
`partition` VARCHAR(20)
)
PARTITIONED BY (`partition`)
WITH (
'connector' = 'hudi',
'path' = 'hdfs://hadoop-hadoop-hdfs-nn:9000/tmp/flink-hudi-t1',
'table.type' = 'MERGE_ON_READ' -- this creates a MERGE_ON_READ table, by default is COPY_ON_WRITE
);

INSERT INTO t1 VALUES ('id1','Danny',23,TIMESTAMP '1970-01-01 00:00:01','par1');
-- insert data using values
INSERT INTO t1 VALUES
('id1','Danny',23,TIMESTAMP '1970-01-01 00:00:01','par1'),
('id2','Stephen',33,TIMESTAMP '1970-01-01 00:00:02','par1'),
('id3','Julian',53,TIMESTAMP '1970-01-01 00:00:03','par2'),
('id4','Fabian',31,TIMESTAMP '1970-01-01 00:00:04','par2'),
('id5','Sophia',18,TIMESTAMP '1970-01-01 00:00:05','par3'),
('id6','Emma',20,TIMESTAMP '1970-01-01 00:00:06','par3'),
('id7','Bob',44,TIMESTAMP '1970-01-01 00:00:07','par4'),
('id8','Han',56,TIMESTAMP '1970-01-01 00:00:08','par4');

HDFS上查看

4)查詢數據(批式查詢)

select * from t1;

5)更新數據

-- this would update the record with key 'id1'
insert into t1 values
('id1','Danny',27,TIMESTAMP '1970-01-01 00:00:01','par1');

6)Streaming Query(流式查詢)

首先創建表t2,設置相關屬性,以流的方式查詢讀取,映射到上面表:t1。

  • read.streaming.enabled設置為true,表明通過streaming的方式讀取表數據;
  • read.streaming.check-interval指定了source監控新的commits的間隔時間4s;
  • table.type設置表類型為 MERGE_ON_READ;
CREATE TABLE t2(
uuid VARCHAR(20) PRIMARY KEY NOT ENFORCED,
name VARCHAR(10),
age INT,
ts TIMESTAMP(3),
`partition` VARCHAR(20)
)
PARTITIONED BY (`partition`)
WITH (
'connector' = 'hudi',
'path' = 'hdfs://hadoop-hadoop-hdfs-nn:9000/tmp/flink-hudi-t1',
'table.type' = 'MERGE_ON_READ',
'read.streaming.enabled' = 'true', -- this option enable the streaming read
'read.start-commit' = '20210316134557', -- specifies the start commit instant time
'read.streaming.check-interval' = '4' -- specifies the check interval for finding new source commits, default 60s.
);

-- Then query the table in stream mode
select * from t2;

注意:查看可能會遇到如下錯誤:

[ERROR] Could not execute SQL statement. Reason:

java.lang.ClassNotFoundException:

org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat

【解決】添加hadoop-mapreduce-client-core-xxx.jar和hive-exec-xxx.jar到Flink lib中。

cp /opt/apache/hadoop-3.3.2/share/hadoop/mapreduce/hadoop-mapreduce-client-core-3.3.2.jar $FLINK_HOME/lib
cp ./hudi-0.12.0/hudi-examples/hudi-examples-spark/target/lib/hive-exec-2.3.1-core.jar $FLINK_HOME/lib

責任編輯:武曉燕 來源: 今日頭條
相關推薦

2023-02-26 00:12:10

Hadoop數據湖存儲

2022-10-17 10:48:50

Hudi大數據Hadoop

2021-09-13 13:46:29

Apache HudiB 站數據湖

2021-08-31 10:07:16

Flink Hud數據湖阿里云

2021-09-07 10:41:21

CDC數據湖Apache Hud

2022-03-08 13:14:32

數據湖大數據

2020-10-30 09:27:25

開源技術 數據

2018-07-11 13:33:43

大數據人工智能Hadoop

2016-09-07 15:13:54

數據湖Hadoop大數據

2020-03-26 10:05:18

大數據IT互聯網

2013-02-18 15:15:32

英特爾大數據Apache

2016-09-16 22:40:25

Hadoop數據湖

2014-11-11 10:47:19

hadoop數據流

2023-11-09 15:56:26

數據倉庫數據湖

2016-12-20 18:21:29

Hadoop大數據面試

2012-05-03 11:51:59

ApacheCXFJava

2020-12-16 09:27:05

數據湖大數據數據

2014-07-29 10:38:25

大數據Hadoop

2022-06-09 14:19:46

順豐數據集成Flink

2013-04-12 10:56:31

大數據
點贊
收藏

51CTO技術棧公眾號

精品久久99ma| 亚洲一区二区四区蜜桃| 国产精品普通话| 国产真实乱在线更新| 66精品视频在线观看| 黑人精品xxx一区一二区| 日韩福利影院| 亚洲爱爱综合网| 久久久久久9| 久久久精品免费| 少妇按摩一区二区三区| 电影中文字幕一区二区| 欧美日韩在线视频观看| 强伦女教师2:伦理在线观看| 污污网站在线免费观看| 视频精品一区二区| 久久久久成人网| 国产第一页精品| 欧美爱爱网站| 欧美丰满一区二区免费视频| 97国产精东麻豆人妻电影| 美女羞羞视频在线观看| 91麻豆高清视频| 91精品视频在线看| 日韩在线 中文字幕| 欧美日韩亚洲国产精品| 色婷婷综合久久久久| 免费成人深夜夜行p站| 高清一区二区中文字幕| 91国产免费观看| www国产精品内射老熟女| 麻豆视频免费在线观看| 国产日韩在线不卡| 国产专区一区二区| 精品国产无码AV| 韩日欧美一区二区三区| 国产精品三级网站| 中文字幕黄色片| 亚洲精品精选| 欧美黑人巨大xxx极品| 欧美爱爱免费视频| 久久一区91| 在线成人激情黄色| 中文字幕xxx| 欧美影院天天5g天天爽| 亚洲成人aaa| 大尺度在线观看| 日韩中文字幕无砖| 欧美一级国产精品| 亚洲一区日韩精品| 国产激情欧美| 欧美午夜在线观看| 美女一区二区三区视频| 欧美精品总汇| 在线观看一区二区视频| 色婷婷综合久久久久中文字幕| 精品捆绑调教一区二区三区| 亚洲高清中文字幕| 日本一本中文字幕| 国产天堂在线播放视频| 亚洲小说欧美激情另类| 又大又硬又爽免费视频| brazzers在线观看| 五月综合激情日本mⅴ| 水蜜桃色314在线观看| 欧美裸体视频| 一本到三区不卡视频| 红桃av在线播放| 成人av三级| 欧美视频中文字幕| 樱花草www在线| 粉嫩一区二区三区四区公司1| 欧美精品一区二区三区蜜臀 | 91丝袜一区二区三区| 免费一级欧美片在线播放| 国产成人综合精品在线| japanese国产在线观看| 美女mm1313爽爽久久久蜜臀| 成人黄色影片在线| 性生交生活影碟片| a亚洲天堂av| 日产国产精品精品a∨| 777电影在线观看| 亚洲欧美日韩国产成人精品影院| 欧美亚洲色图视频| 欧美一区国产| 欧美精品乱码久久久久久按摩| 国产黄色一区二区三区| 美女呻吟一区| 日韩视频免费在线| 国产污视频在线观看| 久久国产日本精品| 亚洲iv一区二区三区| 午夜影院在线视频| 国产精品夫妻自拍| 成年人午夜视频在线观看| 国产经典一区| 亚洲国产91色在线| 天天舔天天操天天干| 亚洲午夜极品| 国产精品永久免费观看| 少妇av一区二区| 国产欧美一区二区在线| 欧美亚洲黄色片| 久久久久毛片| 日韩精品在线免费观看| 黑人狂躁日本娇小| 久久国产直播| av资源站久久亚洲| 成人h小游戏| 性感美女极品91精品| 欧美成人黄色网址| 美女一区二区在线观看| 久久亚洲精品网站| www.久久精品视频| 丁香天五香天堂综合| 亚洲精品国产精品国自产观看| 超级碰碰不卡在线视频| 欧美乱熟臀69xxxxxx| 91成人破解版| 亚洲视频二区| 国产精品免费在线播放| 伦xxxx在线| 欧美中文字幕一区| 亚洲精品女人久久久| 在线精品国产| 91精品久久久久久久| 国产福利在线观看| 精品美女永久免费视频| 国产麻豆剧传媒精品国产| 久久国产综合| 国产精品国产三级国产aⅴ浪潮 | 自拍偷拍亚洲一区| av资源免费观看| 成人激情黄色小说| 51xx午夜影福利| 日韩毛片免费看| 在线日韩日本国产亚洲| 天堂网中文字幕| 97精品视频在线观看自产线路二| 国产成人艳妇aa视频在线| 国产精品成人3p一区二区三区| 国产一区二区三区在线| 天天爽夜夜爽人人爽| 99精品欧美一区二区三区小说 | 水野朝阳av一区二区三区| 精品产品国产在线不卡| 高清在线视频不卡| 亚洲精品国产电影| 久久草视频在线| 99久久99精品久久久久久| 91免费黄视频| 久久夜色电影| 91av视频在线免费观看| 污视频在线免费| 日韩欧美aaa| 欧美多人猛交狂配| 久久久久网站| 色一情一乱一伦一区二区三区| 3d欧美精品动漫xxxx无尽| 亚洲欧美日韩网| 国产精品成人无码| 中文字幕一区二区三区在线观看| 四季av一区二区三区| 97欧美在线视频| 亚洲最大成人免费视频| 牛牛在线精品视频| 亚洲国产私拍精品国模在线观看| 日本少妇性高潮| 2024国产精品| 免费看国产黄色片| 99久久婷婷| 成人av蜜桃| 中日韩脚交footjobhd| 一区二区福利视频| 一级视频在线播放| 夜夜揉揉日日人人青青一国产精品| www.四虎在线| 丝袜美腿亚洲综合| 麻豆中文字幕在线观看| 伊人久久亚洲| 日韩美女在线观看一区| 在线观看完整版免费| 日韩一级大片在线| 久久99国产综合精品免费| 国产精品免费人成网站| 日韩精品国产一区| 日韩电影在线一区二区三区| 亚洲天堂av免费在线观看| 精品视频在线你懂得| 国产成人精品a视频一区www| 成人高清免费在线| 精品偷拍各种wc美女嘘嘘| 一区二区视频免费观看| 亚洲一区二区五区| jizz日本在线播放| 北条麻妃一区二区三区| 国内自拍视频网| 在线看片一区| 在线不卡日本| 亚洲都市激情| 999在线免费观看视频| 在线成人av观看| 九九热这里只有精品免费看| 国产一级片在线| 亚洲电影免费观看高清完整版在线观看 | 国产人妻精品一区二区三区| 日韩欧美亚洲范冰冰与中字| 黑鬼狂亚洲人videos| 久久久综合精品| 色悠悠在线视频| 精品影院一区二区久久久| 色欲av无码一区二区人妻| 亚洲精品久久| 午夜欧美性电影| 伊人久久大香线蕉综合网蜜芽| 91免费看片网站| av在线一区不卡| 91爱爱小视频k| 毛片网站在线看| 精品久久久91| 最新97超碰在线| 亚洲天堂av网| 亚洲人午夜射精精品日韩| 日韩免费高清av| 国产熟女一区二区三区四区| 在线免费观看不卡av| 91看片在线播放| 夜夜嗨av一区二区三区网页| 少妇高潮在线观看| 国产欧美精品一区| 99久久久无码国产精品性 | 91精品国产综合久久久久久久| www.色国产| 日韩欧美精品中文字幕| 91精品国产乱码在线观看| 亚洲一区二区三区视频在线播放 | 天天综合日日夜夜精品| 免费中文字幕在线观看| 亚洲精品视频在线观看免费| 最新av电影网站| 中文字幕制服丝袜一区二区三区| 一区二区三区伦理片| 久久婷婷成人综合色| 欧美黑人欧美精品刺激| 91丨国产丨九色丨pron| 中文字幕在线免费看线人| 99精品欧美一区| 800av在线播放| 94色蜜桃网一区二区三区| 中文在线永久免费观看| av电影在线观看一区| 老熟妇精品一区二区三区| av高清不卡在线| 精品国产av无码| 亚洲国产激情av| 黄色录像免费观看| 亚洲日本一区二区三区| 欧美日韩免费做爰视频| 亚洲综合免费观看高清完整版在线 | 六月婷婷综合网| 亚洲激情在线观看视频免费| 香蕉视频免费看| 亚洲图片制服诱惑| 日本三级在线播放完整版| xxx一区二区| 欧洲性视频在线播放| 国产69精品久久久| 在线日韩影院| 国产精品吴梦梦| 视频精品一区二区三区| 国产亚洲一区在线播放| 久久av超碰| 中文精品视频一区二区在线观看| 一区二区电影| 日韩在线综合网| 青青国产91久久久久久| 男人操女人下面视频| 9久草视频在线视频精品| 亚洲精品午夜视频| 1024成人网| 日韩精品一区二区av| 在线视频欧美区| aaa国产视频| 亚洲人成网站999久久久综合| 日韩专区在线| 97视频免费看| 香蕉久久久久久| 久久精品中文字幕一区二区三区| 欧美综合视频| 欧美精品一区二区三区三州| 日韩电影免费在线| 亚洲av综合色区无码另类小说| 91色porny| 国产精品成人69xxx免费视频| 亚洲高清免费观看| 亚洲中文字幕一区二区| 日韩电影网在线| 国产福利视频在线观看| 日本欧美在线视频| 欧美三级一区| 日韩欧美一区二区三区久久婷婷| 欧美精品国产| 成人免费在线观看视频网站| 成人激情校园春色| 美国黄色片视频| 色婷婷久久综合| 亚洲毛片在线播放| 日韩在线高清视频| 欧美日韩大片| 国产一区二区三区四区五区在线| 99久久视频| 一区二区三区入口| k8久久久一区二区三区| 污污的视频在线免费观看| 色哟哟国产精品| 六月婷婷综合网| 欧美另类高清videos| 欧美日韩国产网站| 老司机精品福利在线观看| 国语精品一区| 午夜免费福利网站| 国产精品天干天干在观线| 免费av网站在线| 亚洲国产欧美一区二区丝袜黑人| а√天堂8资源在线官网| 国产精品久久9| 视频一区在线观看| 日本毛片在线免费观看| 大美女一区二区三区| 色在线观看视频| 在线播放欧美女士性生活| 番号集在线观看| 国产成+人+综合+亚洲欧洲| 欧美深夜视频| 精品这里只有精品| av激情亚洲男人天堂| 日本一区二区三区免费视频| 精品国产一区二区三区av性色| а√天堂8资源在线官网| 91色视频在线导航| 国产高清欧美| 久久久精品视频国产| 亚洲黄色录像片| 亚洲第一视频在线| 色综合视频网站| eeuss鲁片一区二区三区| 男人天堂av片| 91亚洲大成网污www| www欧美在线| 亚洲精品之草原avav久久| 一区一区三区| 日本不卡一区二区三区视频| 日本午夜精品视频在线观看| 欧美黄色激情视频| 欧美日韩一区高清| 国产精品实拍| 国产精品加勒比| 亚洲美女少妇无套啪啪呻吟| theav精尽人亡av| 色一区在线观看| 日本不卡三区| 91久久大香伊蕉在人线| 狠狠综合久久av一区二区老牛| www.啪啪.com| 91国偷自产一区二区开放时间| 北条麻妃在线| 亚洲最大福利网站| 日韩午夜电影| 免费一级黄色录像| 日韩午夜精品电影| 白浆在线视频| 日韩动漫在线观看| 国产一区二区剧情av在线| 久久精品久久国产| 亚洲欧美色图片| 久久精品国产福利| 真实国产乱子伦对白视频| 久久久一区二区三区捆绑**| 亚洲一区二区色| 久久久久久91香蕉国产| 国产探花一区二区| 久久精品视频在线观看免费| 午夜精品视频一区| melody高清在线观看| 99中文字幕| 三级成人在线视频| 欧美性猛交xxxxx少妇| 日韩成人xxxx| 成人污污www网站免费丝瓜| 国产午夜大地久久| 国产精品盗摄一区二区三区| 人妻无码中文字幕免费视频蜜桃| 国产精品入口夜色视频大尺度 | 2019中文字幕全在线观看| 日韩88av| 日本japanese极品少妇| 777午夜精品视频在线播放| 九色porny视频在线观看| 亚洲在线播放电影|