精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Hadoop高可用集群部署

大數據 Hadoop
在master節點中使用yarn rmadmin -getAllServiceState命令查看各個節點ResourceManager狀態,接下來停止active狀態節點的ResourceManage進程,ResourceManage active自動跳轉到其他節點,集群仍可用,隨后再啟動該節點ResourceManager進程,最后再次查看狀態,Failed狀態恢復為standby。

背景

生產中Hadoop分布式集群中可能存在著單點故障問題,如果Namenode宕機或是軟硬件升級,集群將無法使用,所以進行搭建高可用的來消除單點故障。

Hadoop介紹

Hadoop集群一般為一個NameNode和ResourceManager,但在實際生產環境中,若恰好具有NameNode和ResourceManager的節點出現故障,那么整個Hadoop集群將會崩潰,這是因為在HDFS中NameNode是系統的核心節點,ResourceManager負責整個系統的資源管理和分配。

為了解決單點故障問題,在Hadoop2后中引入了高可用機制,支持NameNode和ResourceManager一個主節點和一個備用節點,而在Hadoop3中繼續對其進行了優化和提升,它支持一個主節點和多個備用節點。所謂高可用(High Availability, HA)就是7*24 小時不中斷服務,消除單點故障。

Hadoop HA嚴格來說應該分成各個組件的HA機制:HDFS的HA和YARN的HA,可以通過配置多個NameNode和ResourceManager(Active/Standby)實現在集群中的熱備來解決上述問題。

環境準備:

圖片圖片

節點相關進程如下:

圖片圖片

  • 操作系統:centos8
  • 內存:4G
  • Java 版本:jdk8

HDFS和YARN HA集群搭建

3.1 下載hadoop安裝包

官網https://hadoop.apache.org/下載hadoop 3.3.0安裝包解壓至/usr/local下3臺機器需修改的配置文件目錄為/usr/local/hadoop/etc/hadoop下。

3.2  hadoop.env

export JAVA_HOME=/usr/local/jdk #配置jdk路徑
#添加兩行
export HDFS_JOURNALNODE_USER=root
export HDFS_ZKFC_USER=root

3.3 core-site.xml

<?xml versinotallow="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<!-- hdfs分布式文件系統名字/地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://ns</value>
</property>
<!--存放namenode、datanode數據的根路徑 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
<!-- 存放journalnode數據的地址 -->
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/usr/local/hadoop/tmp/jn</value>
</property>
<!-- 列出運行 ZooKeeper 服務的主機端口對 -->
<property>
<name>ha.zookeeper.quorum</name>
<value>hadoop:2181,k8s-2:2181,k8s-3:2181</value>
</property>
</configuration>

3.4 hdfs-site.xml

<?xml versinotallow="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!--
  Licensed under the Apache License, Version 2.0 (the "License");
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at
    http://www.apache.org/licenses/LICENSE-2.0
  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an "AS IS" BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
-->
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/local/hadoop/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/local/hadoop/dfs/data</value>
    </property>
    <property>
        <name>dfs.journalnode.edits.dir</name>
        <value>/usr/local/hadoop/dfs/journalnode</value>
        <description>The path where the JournalNode daemon will store its local state.</description>
    </property>
    <property>
        <name>dfs.nameservices</name>
        <value>ns</value>
        <description>The logical name for this new nameservice.</description>
    </property>
    <property>
        <name>dfs.ha.namenodes.ns</name>
        <value>nn1,nn2,nn3</value>
        <description>Unique identifiers for each NameNode in the nameservice.</description>
    </property>
    <property>
        <name>dfs.namenode.rpc-address.ns.nn1</name>
        <value>hadoop:8020</value>
        <description>The fully-qualified RPC address for nn1 to listen on.</description>
    </property>
    <property>
        <name>dfs.namenode.rpc-address.ns.nn2</name>
        <value>k8s-2:8020</value>
        <description>The fully-qualified RPC address for nn2 to listen on.</description>
    </property>
    <property>
        <name>dfs.namenode.rpc-address.ns.nn3</name>
        <value>k8s-3:8020</value>
        <description>The fully-qualified RPC address for nn3 to listen on.</description>
    </property>
    <property>
        <name>dfs.namenode.http-address.ns.nn1</name>
        <value>hadoop:9870</value>
        <description>The fully-qualified HTTP address for nn1 to listen on.</description>
    </property>
    <property>
        <name>dfs.namenode.http-address.ns.nn2</name>
        <value>k8s-2:9870</value>
        <description>The fully-qualified HTTP address for nn2 to listen on.</description>
    </property>
    <property>
        <name>dfs.namenode.http-address.ns.nn3</name>
        <value>k8s-3:9870</value>
        <description>The fully-qualified HTTP address for nn3 to listen on.</description>
    </property>
    <property>
        <name>dfs.namenode.shared.edits.dir</name>
        <value>qjournal://hadoop:8485;k8s-3:8485;k8s-2:8485/ns</value>
        <description>The URI which identifies the group of JNs where the NameNodes will write/read edits.</description>
    </property>
    <property>
        <name>dfs.client.failover.proxy.provider.ns</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
        <description>The Java class that HDFS clients use to contact the Active NameNode.</description>
    </property>
    <property>
        <name>dfs.ha.fencing.methods</name>
        <value>
            sshfence
            shell(/bin/true)
        </value>
        <description>
            A list of scripts or Java classes which will be used to fence the Active NameNode during a failover.
            sshfence - SSH to the Active NameNode and kill the process
            shell - run an arbitrary shell command to fence the Active NameNode
        </description>
    </property>
    <property>
        <name>dfs.ha.fencing.ssh.private-key-files</name>
        <value>/root/.ssh/id_rsa</value>
        <description>Set SSH private key file.</description>
    </property>
    <property>
        <name>dfs.ha.automatic-failover.enabled</name>
        <value>true</value>
        <description>Automatic failover.</description>
    </property>
</configuration>

3.5 mapred-site.xml

<?xml versinotallow="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!--
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License. See accompanying LICENSE file.
-->
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>
</property>
<property>
<name>mapreduce.map.env</name>
<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>
</property>
<property>
<name>mapreduce.reduce.env</name>
<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>
</property>
</configuration>

3.6 yarn-site.xml

<?xml versinotallow="1.0"?>
<!--
  Licensed under the Apache License, Version 2.0 (the "License");
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at
    http://www.apache.org/licenses/LICENSE-2.0
  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an "AS IS" BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
-->
<configuration>
<property>
    <name>yarn.resourcemanager.ha.enabled</name>
    <value>true</value>
    <description>Enable RM HA.</description>
</property>
<property>
    <name>yarn.resourcemanager.cluster-id</name>
    <value>yrc</value>
    <description>Identifies the cluster.</description>
</property>
<property>
    <name>yarn.resourcemanager.ha.rm-ids</name>
    <value>rm1,rm2,rm3</value>
    <description>List of logical IDs for the RMs. e.g., "rm1,rm2".</description>
</property>
<property>
    <name>yarn.resourcemanager.hostname.rm1</name>
    <value>hadoop</value>
    <description>Set rm1 service addresses.</description>
</property>
<property>
    <name>yarn.resourcemanager.hostname.rm2</name>
    <value>k8s-2</value>
    <description>Set rm2 service addresses.</description>
</property>
<property>
    <name>yarn.resourcemanager.hostname.rm3</name>
    <value>k8s-3</value>
    <description>Set rm3 service addresses.</description>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address.rm1</name>
    <value>hadoop:8088</value>
    <description>Set rm1 web application addresses.</description>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address.rm2</name>
    <value>k8s-2:8088</value>
    <description>Set rm2 web application addresses.</description>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address.rm3</name>
    <value>k8s-3:8088</value>
    <description>Set rm3 web application addresses.</description>
</property>
<property>
    <name>hadoop.zk.address</name>
    <value>hadoop:2181,k8s-2:2181,k8s-3:2181</value>
    <description>Address of the ZK-quorum.</description>
</property>
</configuration>

3.7 workers

hadoop
k8s-2
k8s-3

安裝zookeeper

版本:zookeeper-3.6.4

通過https://www.apache.org/dyn/closer.lua/zookeeper/zookeeper-3.6.4/apache-zookeeper-3.6.4-bin.tar.gz 下載安裝包,3臺機器進行解壓配置安裝。

echo "1" > /data/zookeeperdata/myid #不同機器id不同

zoo.cfg配置如下:

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/data/zookeeperdata #數據目錄
dataLogDir=/data/zookeeperdata/logs #日志目錄
clientPort=2181 #端口
server.1=192.xxx.xxx.128:2888:3888
server.2=192.xxx.xxx.132:2888:3888
server.3=192.xxx.xxx.131:2888:3888

環境變量配置

vi /etc/profile

export JAVA_HOME=/usr/local/jdk
export HAD00P_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export HADOOP_CLASSPATH=`hadoop classpath`
source /etc/profile

啟動集群

在所有節點上使用rm -rf /usr/local/hadoop/dfs命令,刪除之前創建的存儲路徑,同時在master節點上執行mkdir -p /usr/local/hadoop/dfs/name /usr/local/hadoop/dfs/data /usr/local/hadoop/dfs/journalnode,再次創建存儲路徑。

在所有節點上使用rm -rf /usr/local/hadoop/tmp /usr/local/hadoop/logs && mkdir -p /usr/local/hadoop/tmp /usr/local/hadoop/logs命令,重置臨時路徑和日志信息。

通過以上步驟,Hadoop HA集群就配置完成了,當第一次啟動HA集群時需要依次執行以下命令:

$ZOOKEEPER_HOME/bin/zkServer.sh start # 開啟Zookeeper進程(所有節點上執行)
$HADOOP_HOME/bin/hdfs --daemon start journalnode # 開啟監控NameNode的管理日志的JournalNode進程(所有節點上執行)
$HADOOP_HOME/bin/hdfs namenode -format # 命令格式化NameNode(在master節點上執行)
scp -r /usr/local/hadoop/dfs k8s-2:/usr/local/hadoop  # 將格式化后的目錄復制到slave1中(在master節點上執行)
scp -r /usr/local/hadoop/dfs k8s-3:/usr/local/hadoop   # 將格式化后的目錄復制到slave2中(在master節點上執行)
$HADOOP_HOME/bin/hdfs zkfc -formatZK # 格式化Zookeeper Failover Controllers(在master節點上執行)
start-dfs.sh&&start-yarn.sh # 啟動HDFS和Yarn集群(在master節點上執行)

若不是第一次啟動HA集群(常規啟動HA集群),則只需要依次執行以下命令:

$ZOOKEEPER_HOME/bin/zkServer.sh start    # 開啟Zookeeper進程(所有節點上執行)
start-all.sh或者$HADOOP_HOME/sbin/start-dfs.sh && $HADOOP_HOME/sbin/start-yarn.sh # 啟動HDFS和Yarn集群(在master節點上執行)

啟動完成后每個節點使用jps命令會出現NameNode、DataNode、ResourceManager、NodeManager、JournalNode、DFSZKFailoverController、QuorumPeerMain和Jps 8個進程。

圖片圖片

圖片圖片

通過頁面訪問查看:

http://192.xxx.xxx.128:9870/

圖片圖片

http://192.xxx.xxx.128:8088/cluster/nodes

圖片圖片

hdfs HA驗證

6.1 查看各個節點NameNode狀態

圖片圖片

6.2 驗證hdfs的高可用

在開啟HA集群并成功啟動的情況下,在master節點中使用hdfs haadmin -getAllServiceState命令查看各個節點NameNode狀態,接下來停止active狀態節點的NameNode進程。

圖片圖片

Namenode active自動跳轉其他節點,集群仍可用。

圖片圖片

圖片圖片

隨后再啟動該節點NameNode進程,最后再次查看狀態,可以發現HDFS HA是正常的,并且沒有發生搶占。

圖片圖片

驗證yarn 高可用

在master節點中使用yarn rmadmin -getAllServiceState命令查看各個節點ResourceManager狀態,接下來停止active狀態節點的ResourceManage進程,ResourceManage active自動跳轉到其他節點,集群仍可用,隨后再啟動該節點ResourceManager進程,最后再次查看狀態,Failed狀態恢復為standby。

圖片圖片

若要關閉集群可以master使用$HADOOP_HOME/sbin/stop-yarn.sh && $HADOOP_HOME/sbin/stop-dfs.sh命令或者stop-all.sh 即可關閉hadoop集群,然后關閉zookeeper,三臺機器分別執行/data/apache-zookeeper-3.6.4-bin/bin/zkServer.sh  stop。

責任編輯:武曉燕 來源: IT那活兒
相關推薦

2013-07-11 13:39:23

Hadoop

2019-11-27 16:34:00

配置

2021-03-17 10:05:42

KubernetesRedis數據庫

2019-12-24 14:28:00

KeepalivedNginxTomcat

2022-09-02 16:59:13

Kubernetes高可用Linux

2025-09-11 10:05:00

KafkaZookeeper運維

2012-02-15 22:40:23

heartbeat高可用

2023-05-08 08:16:00

高可用MongoDB

2018-01-12 14:20:37

數據庫MySQL高可用架構

2019-08-27 15:56:44

MySQL 互聯網數據庫

2017-02-19 19:57:05

ZooKeeper集群

2017-02-06 11:43:57

ZooKeeper集群

2021-03-04 13:10:32

KubernetesRedisLinux

2022-05-31 08:04:03

Redis高可用集群

2014-10-09 10:04:23

CentOS集群

2024-02-27 09:48:25

Redis集群數據庫

2022-07-08 14:17:18

Kubernetes集群高可用Linux

2017-01-17 10:25:06

HBase集群運維

2023-10-13 18:57:22

2025-10-31 07:00:00

點贊
收藏

51CTO技術棧公眾號

国产日韩一区二区| 日韩亚洲精品电影| 九色在线视频观看| 亚洲欧洲成人在线| 日韩中文字幕91| 深夜成人在线观看| 国产精品69页| av在线电影网| 日韩精品乱码av一区二区| 亚洲欧美激情在线视频| 激情婷婷综合网| 国产激情在线| 国产亚洲精品aa| 亚洲va欧美va国产综合久久| 美日韩一二三区| 亚洲九九在线| 亚洲欧美在线看| 日韩av福利在线观看| 亚洲小少妇裸体bbw| 亚洲男人天堂一区| 色噜噜狠狠一区二区三区| 精品毛片在线观看| 秋霞午夜av一区二区三区| 久久久噜噜噜久久久| 美国一级黄色录像| 一区二区小说| 精品国产99国产精品| 天天操,天天操| 午夜伦理福利在线| 夜色激情一区二区| 一区二区三区四区视频在线观看| 天堂网www中文在线| 国产一区二区久久| 国产精品高清在线| 国产精品视频免费播放| 欧美激情成人在线| 日韩在线观看免费高清| 亚洲一区二区自偷自拍| 牛牛视频精品一区二区不卡| 欧美一区二区久久| 中文av一区二区三区| 免费观看一级欧美片| 亚洲观看高清完整版在线观看 | 中文字幕不卡av| 五月天激情小说| 免费观看性欧美大片无片| 欧美性生交片4| av免费在线播放网站| 爱啪啪综合导航| 亚洲观看高清完整版在线观看| 强开小嫩苞一区二区三区网站 | 久久精品夜色噜噜亚洲a∨| 岛国一区二区三区高清视频| 国产成人毛毛毛片| 国产真实乱对白精彩久久| 国产日韩欧美夫妻视频在线观看 | 97超级碰碰| 99国产精品久久久久99打野战| 美国欧美日韩国产在线播放| 国产精品jizz在线观看麻豆| 国产精品免费精品一区| 翔田千里一区二区| 日本精品久久久| 国产无人区码熟妇毛片多| 99精品福利视频| 91高清在线免费观看| 91av在线免费视频| 午夜亚洲一区| 国产精品第一区| 怡春院在线视频| 久久精品久久99精品久久| 国产欧美一区二区白浆黑人| 国产精品无码天天爽视频| 精品制服美女丁香| 亚洲xxxx18| 乱精品一区字幕二区| 99综合电影在线视频| 麻豆一区区三区四区产品精品蜜桃| 国产精品无码久久久久成人app| 久久99精品久久久久久动态图| 亚洲影影院av| 男人天堂网在线视频| 久久综合中文字幕| 性欧美精品一区二区三区在线播放 | 精品亚洲aⅴ无码一区二区三区| 日韩精品诱惑一区?区三区| 久久精品最新地址| 精品无码免费视频| 久久福利精品| 91免费国产视频| 日批视频在线播放| 国产日韩欧美精品一区| 性做爰过程免费播放| 春色校园综合激情亚洲| 色婷婷综合久久久中文一区二区 | 素人啪啪色综合| 337p亚洲精品色噜噜噜| 黄色国产在线视频| 精品国产乱码久久久久久蜜坠欲下| 最近2019中文字幕在线高清| 国产一级在线视频| 奇米精品一区二区三区在线观看 | 国产精品中文字幕制服诱惑| 精品五月天久久| 波兰性xxxxx极品hd| 国模大胆一区二区三区| 国产成人综合亚洲| 亚洲成人黄色片| 久久蜜桃av一区二区天堂 | 少妇特黄一区二区三区| 97精品一区| 欧美中文字幕在线| www.桃色av嫩草.com| 国产人久久人人人人爽| 欧美图片激情小说| 四虎国产精品永久在线国在线| 亚洲国语精品自产拍在线观看| jizzjizzjizz国产| 国产亚洲一区在线| 成人女人免费毛片| 日韩精品毛片| 欧美日韩一区二区在线播放| 国产成人精品综合久久久久99 | 国产伦精品一区二区三区免费 | 亚洲一区二区视频在线| 日本久久久久久久久久久久| 老司机精品在线| 欧美成人激情在线| 亚洲最新av网站| 国产午夜精品久久久久久免费视| 97超碰在线视| www.久久99| 色噜噜狠狠色综合网图区| 国产污视频网站| av在线不卡免费看| 中文字幕人妻熟女人妻洋洋| 国产精品美女久久久久| 国产亚洲精品91在线| 一级片免费网址| 国产91在线看| 欧美黄色免费网址| 欧美9999| 欧美刺激性大交免费视频| 中文字幕人妻色偷偷久久| 久久精品水蜜桃av综合天堂| jizzjizz国产精品喷水| 日本韩国欧美超级黄在线观看| 久久久久久欧美| 亚洲精品一区二区三区蜜桃| 亚洲精品精品亚洲| 国产成人av免费观看| 亚洲电影影音先锋| 亚洲一区二区三区毛片 | 国内精品一区二区三区| 亚洲精品人妻无码| 黄色精品一区二区| 青青草福利视频| 久久综合激情| 亚州欧美一区三区三区在线 | 一级毛片视频在线观看| 欧洲一区二区三区在线| av免费播放网站| 久草热8精品视频在线观看| 亚洲最新在线| 欧美经典影片视频网站| 欧美劲爆第一页| 四虎免费在线观看| 色香蕉久久蜜桃| 亚洲一级黄色录像| 紧缚捆绑精品一区二区| 久久香蕉视频网站| 美女网站色精品尤物极品姐弟| 国产69精品久久久久久| 丁香在线视频| 91精品国产高清一区二区三区| 五月婷婷一区二区| 99久久精品国产导航| 欧美成人精品欧美一级乱| 日韩理论片av| 成人h在线播放| 中文字幕21页在线看| 国产亚洲精品久久久| 亚洲图片欧美在线| 亚洲自拍偷拍av| 久久亚洲AV成人无码国产野外| 三级精品在线观看| 中文字幕超清在线免费观看| 都市激情久久| 国产精品草莓在线免费观看| bt在线麻豆视频| 亚洲精品美女在线| 一级特黄特色的免费大片视频| 一区二区成人在线视频| 午夜在线观看一区| 国产高清一区日本| 韩国中文字幕av| 国产精品啊v在线| 欧美日韩一区二| 国产一区二区视频在线看| 欧美一级成年大片在线观看| 免费黄色在线网站| 亚洲精品电影网站| 国产又黄又粗又猛又爽| 欧美视频二区36p| a在线视频播放观看免费观看| av中文一区二区三区| 日本国产一级片| 美女视频一区免费观看| 欧美交换配乱吟粗大25p| 国产亚洲一区二区三区不卡| 99国产超薄丝袜足j在线观看 | zjzjzjzjzj亚洲女人| 青青草国产成人av片免费| 高清欧美精品xxxxx| 国产精品国产三级国产在线观看| 精品综合久久| a看欧美黄色女同性恋| 国产精品网站入口| 我爱我色成人网| 性欧美暴力猛交69hd| lutube成人福利在线观看| 亚洲激情视频在线| 国产三级小视频| 欧美色倩网站大全免费| 在线观看日本视频| 亚洲mv大片欧洲mv大片精品| 99鲁鲁精品一区二区三区| 国产欧美日韩中文久久| 蜜桃传媒一区二区亚洲av| 粉嫩蜜臀av国产精品网站| 天堂在线中文在线| 久久激情综合网| 能在线观看的av网站| 99伊人成综合| 久无码久无码av无码| 欧美不卡一区| 三年中文高清在线观看第6集| 日韩久久电影| 一区二区三区精品国产| 欧美电影免费| 亚洲午夜精品久久| 精品高清在线| 日本高清一区| 青青草原综合久久大伊人精品| 欧美一区二区三区四区在线观看地址| 林ゆな中文字幕一区二区| 国产伦精品一区二区三| 91亚洲无吗| 国产精品一 二 三| 欧美巨大xxxx| 欧美大陆一区二区| 欧美女王vk| 视频一区二区综合| 欧美成免费一区二区视频| 欧美一级免费在线观看| 在线中文字幕第一区| 神马午夜伦理影院| 午夜欧美精品| 免费高清一区二区三区| 在线成人亚洲| aa免费在线观看| 日韩综合在线视频| 91精品无人成人www| 精品一区二区三区av| www.五月天色| 国产mv日韩mv欧美| 中文字幕一区二区久久人妻网站 | 亚洲黄色网址大全| 国产精品高潮久久久久无| 日本一级特级毛片视频| 一区二区三区**美女毛片| 日韩少妇裸体做爰视频| 色狠狠桃花综合| 亚洲一线在线观看| 精品少妇一区二区三区日产乱码| 色婷婷av一区二区三区之红樱桃 | 泷泽萝拉在线播放| 国产欧美一二三区| 一区二区视频免费看| 午夜精品久久久久久久蜜桃app| 免费的毛片视频| 欧美日韩成人一区二区| 亚洲精品福利网站| 国产午夜精品全部视频在线播放| 日本三级在线播放完整版| 欧美激情女人20p| 吞精囗交69激情欧美| 国产在线观看精品一区二区三区| 91综合精品国产丝袜长腿久久| 免费日韩av电影| 91精品福利| 91精品91久久久中77777老牛| 久久狠狠亚洲综合| 好男人香蕉影院| 国产午夜精品一区二区三区视频 | 日本a一级在线免费播放| 中文字幕一区二区精品| 9999精品成人免费毛片在线看 | 欧美乱做爰xxxⅹ久久久| 精品96久久久久久中文字幕无| 妺妺窝人体色www在线小说| 免费在线成人网| 国产在线不卡av| 国产精品国产三级国产aⅴ入口 | av免费观看久久| 国内精品久久久久久99蜜桃| 激情五月六月婷婷| 日韩vs国产vs欧美| 欧产日产国产精品98| 亚洲日本成人在线观看| 五月天婷婷导航| 精品sm在线观看| 免费人成在线观看播放视频| 奇米一区二区三区四区久久| 亚洲三级av| 中文字幕日韩一区二区三区不卡 | 欧美在线免费看视频| 天堂…中文在线最新版在线| 国内精品国产三级国产a久久| 亚洲第一香蕉网| 亚洲国产精品尤物yw在线观看| 在线观看毛片视频| 亚洲色图18p| 蜜桃麻豆av在线| 国产99在线播放| 亚洲精品国产成人影院| 日日噜噜噜噜久久久精品毛片| 91视视频在线直接观看在线看网页在线看| 国产美女福利视频| 欧美日本国产一区| 中文字幕在线免费| 国产不卡在线观看| 色哟哟精品丝袜一区二区| 精品少妇人欧美激情在线观看| 国产精选一区二区三区| 国产又黄又粗又猛又爽的| 在线免费不卡电影| 精品av中文字幕在线毛片| 51精品在线观看| 欧美偷窥清纯综合图区| 婷婷五月综合缴情在线视频| 懂色av一区二区三区免费看| 国产97免费视频| 欧美精品视频www在线观看| 九色在线视频蝌蚪| 国产成人高潮免费观看精品| 国产精品一国产精品| 国产成人综合一区| 国产三级精品三级| 午夜视频网站在线观看| 国产一区二区三区在线看 | 欧美福利网址| 熟妇无码乱子成人精品| 国产精品免费av| 一级特黄aaaaaa大片| 久久亚洲一区二区三区四区五区高| 国产精品中文| a级黄色片免费| 福利视频网站一区二区三区| 久久一级黄色片| 亚洲精品国产综合久久| 毛片无码国产| 色涩成人影视在线播放| 麻豆视频一区二区| 成人免费精品动漫网站| 日韩免费性生活视频播放| 大桥未久在线播放| 精品在线一区| 日本午夜一区二区| 日本高清不卡免费| 欧美变态凌虐bdsm| 欧美一区久久久| 亚洲一区在线直播| 国产大陆精品国产| 五月婷婷开心网| 中文字幕欧美视频在线| 成人精品在线| 黄色大片在线免费看| 久久精品人人做人人综合| 一区二区三区播放| 欧美高清视频一区二区| 日韩美女国产精品| 中文字幕国产免费| 亚洲国产视频一区二区| 精品av中文字幕在线毛片| 91在线免费观看网站| 一二三区精品| 欧美激情精品久久久久久免费 | 亚洲成在人线免费| 黄色网址在线播放| 91在线在线观看| 久久人人超碰| 久久久久亚洲AV成人| 亚洲欧美日本精品| 日本精品在线观看| 久久人妻精品白浆国产| 一区二区三区91| www.在线视频.com| 精品一区二区视频| 国产自产v一区二区三区c|