精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

七張圖入門 Hadoop 在 K8S 環境中部署

開源
Hadoop 是 Apache 軟件基金會下一個開源分布式計算平臺,以 HDFS(Hadoop Distributed File System)、MapReduce(Hadoop2.0 加入了 YARN,Yarn 是資源調度框架,能夠細粒度的管理和調度任務,還能夠支持其他的計算框架,比如 spark)。

一、概述

為核心的 Hadoop 為用戶提供了系統底層細節透明的分布式基礎架構。hdfs 的高容錯性、高伸縮性、高效性等優點讓用戶可以將 Hadoop 部署在低廉的硬件上,形成分布式系統。目前最新版本已經是 3.x 了,官方文檔:https://hadoop.apache.org/docs/current/index.html

HDFS

YARN

二、開始部署

1)添加源

地址:??https://artifacthub.io/packages/helm/apache-hadoop-helm/hadoop??

helm repo add apache-hadoop-helm https://pfisterer.github.io/apache-hadoop-helm/
helm pull apache-hadoop-helm/hadoop --version 1.2.0
tar -xf hadoop-1.2.0.tgz

2)構建鏡像 Dockerfile

FROM myharbor.com/bigdata/centos:7.9.2009
RUN rm -f /etc/localtime && ln -sv /usr/share/zoneinfo/Asia/Shanghai /etc/localtime && echo "Asia/Shanghai" > /etc/timezone
RUN export LANG=zh_CN.UTF-8
# 創建用戶和用戶組,跟yaml編排里的spec.template.spec.containers. securityContext.runAsUser: 9999
RUN groupadd --system --gid=9999 admin && useradd --system --home-dir /home/admin --uid=9999 --gid=admin admin
# 安裝sudo
RUN yum -y install sudo ; chmod 640 /etc/sudoers
# 給admin添加sudo權限
RUN echo "admin ALL=(ALL) NOPASSWD: ALL" >> /etc/sudoers
RUN yum -y install install net-tools telnet wget
RUN mkdir /opt/apache/
ADD jdk-8u212-linux-x64.tar.gz /opt/apache/
ENV JAVA_HOME=/opt/apache/jdk1.8.0_212
ENV PATH=$JAVA_HOME/bin:$PATH
ENV HADOOP_VERSION 3.3.2
ENV HADOOP_HOME=/opt/apache/hadoop
ENV HADOOP_COMMON_HOME=${HADOOP_HOME} \
HADOOP_HDFS_HOME=${HADOOP_HOME} \
HADOOP_MAPRED_HOME=${HADOOP_HOME} \
HADOOP_YARN_HOME=${HADOOP_HOME} \
HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop \
PATH=${PATH}:${HADOOP_HOME}/bin
#RUN curl --silent --output /tmp/hadoop.tgz https://ftp-stud.hs-esslingen.de/pub/Mirrors/ftp.apache.org/dist/hadoop/common/hadoop-${HADOOP_VERSION}/hadoop-${HADOOP_VERSION}.tar.gz && tar --directory /opt/apache -xzf /tmp/hadoop.tgz && rm /tmp/hadoop.tgz
ADD hadoop-${HADOOP_VERSION}.tar.gz /opt/apache
RUN ln -s /opt/apache/hadoop-${HADOOP_VERSION} ${HADOOP_HOME}
RUN chown -R admin:admin /opt/apache
WORKDIR $HADOOP_HOME
# Hdfs ports
EXPOSE 50010 50020 50070 50075 50090 8020 9000
# Mapred ports
EXPOSE 19888
#Yarn ports
EXPOSE 8030 8031 8032 8033 8040 8042 8088
#Other ports
EXPOSE 49707 2122

開始構建鏡像

docker build -t myharbor.com/bigdata/hadoop:3.3.2 . --no-cache
### 參數解釋
# -t:指定鏡像名稱
# . :當前目錄Dockerfile
# -f:指定Dockerfile路徑
# --no-cache:不緩存

推送到鏡像倉庫

docker push myharbor.com/bigdata/hadoop:3.3.2

調整目錄結構

mkdir hadoop/templates/hdfs hadoop/templates/yarn
mv hadoop/templates/hdfs-* hadoop/templates/hdfs/
mv hadoop/templates/yarn-* hadoop/templates/yarn/

3)修改配置

  • hadoop/values.yaml

image:
repository: myharbor.com/bigdata/hadoop
tag: 3.3.2
pullPolicy: IfNotPresent
...
persistence:
nameNode:
enabled: true
storageClass: "hadoop-nn-local-storage"
accessMode: ReadWriteOnce
size: 10Gi
local:
- name: hadoop-nn-0
host: "local-168-182-110"
path: "/opt/bigdata/servers/hadoop/nn/data/data1"
dataNode:
enabled: true
storageClass: "hadoop-dn-local-storage"
accessMode: ReadWriteOnce
size: 20Gi
local:
- name: hadoop-dn-0
host: "local-168-182-110"
path: "/opt/bigdata/servers/hadoop/dn/data/data1"
- name: hadoop-dn-1
host: "local-168-182-110"
path: "/opt/bigdata/servers/hadoop/dn/data/data2"
- name: hadoop-dn-2
host: "local-168-182-110"
path: "/opt/bigdata/servers/hadoop/dn/data/data3"
- name: hadoop-dn-3
host: "local-168-182-111"
path: "/opt/bigdata/servers/hadoop/dn/data/data1"
- name: hadoop-dn-4
host: "local-168-182-111"
path: "/opt/bigdata/servers/hadoop/dn/data/data2"
- name: hadoop-dn-5
host: "local-168-182-111"
path: "/opt/bigdata/servers/hadoop/dn/data/data3"
- name: hadoop-dn-6
host: "local-168-182-112"
path: "/opt/bigdata/servers/hadoop/dn/data/data1"
- name: hadoop-dn-7
host: "local-168-182-112"
path: "/opt/bigdata/servers/hadoop/dn/data/data2"
- name: hadoop-dn-8
host: "local-168-182-112"
path: "/opt/bigdata/servers/hadoop/dn/data/data3"
...
service:
nameNode:
type: NodePort
ports:
dfs: 9000
webhdfs: 9870
nodePorts:
dfs: 30900
webhdfs: 30870
dataNode:
type: NodePort
ports:
dfs: 9000
webhdfs: 9864
nodePorts:
dfs: 30901
webhdfs: 30864
resourceManager:
type: NodePort
ports:
web: 8088
nodePorts:
web: 30088
...
securityContext:
runAsUser: 9999
privileged: true

  • hadoop/templates/hdfs/hdfs-nn-pv.yaml

{{- range .Values.persistence.nameNode.local }}
---
apiVersion: v1
kind: PersistentVolume
metadata:
name: {{ .name }}
labels:
name: {{ .name }}
spec:
storageClassName: {{ $.Values.persistence.nameNode.storageClass }}
capacity:
storage: {{ $.Values.persistence.nameNode.size }}
accessModes:
- ReadWriteOnce
local:
path: {{ .path }}
nodeAffinity:
required:
nodeSelectorTerms:
- matchExpressions:
- key: kubernetes.io/hostname
operator: In
values:
- {{ .host }}
---
{{- end }}

  • hadoop/templates/hdfs/hdfs-dn-pv.yaml

{{- range .Values.persistence.dataNode.local }}
---
apiVersion: v1
kind: PersistentVolume
metadata:
name: {{ .name }}
labels:
name: {{ .name }}
spec:
storageClassName: {{ $.Values.persistence.dataNode.storageClass }}
capacity:
storage: {{ $.Values.persistence.dataNode.size }}
accessModes:
- ReadWriteOnce
local:
path: {{ .path }}
nodeAffinity:
required:
nodeSelectorTerms:
- matchExpressions:
- key: kubernetes.io/hostname
operator: In
values:
- {{ .host }}
---
{{- end }}

  • 修改 hdfs service

mv hadoop/templates/hdfs/hdfs-nn-svc.yaml hadoop/templates/hdfs/hdfs-nn-svc-headless.yaml
mv hadoop/templates/hdfs/hdfs-dn-svc.yaml hadoop/templates/hdfs/hdfs-dn-svc-headless.yaml
# 注意修改名稱,不要重復

hadoop/templates/hdfs/hdfs-nn-svc.yaml

# A headless service to create DNS records
apiVersion: v1
kind: Service
metadata:
name: {{ include "hadoop.fullname" . }}-hdfs-nn
labels:
app.kubernetes.io/name: {{ include "hadoop.name" . }}
helm.sh/chart: {{ include "hadoop.chart" . }}
app.kubernetes.io/instance: {{ .Release.Name }}
app.kubernetes.io/component: hdfs-nn
spec:
ports:
- name: dfs
port: {{ .Values.service.nameNode.ports.dfs }}
protocol: TCP
nodePort: {{ .Values.service.nameNode.nodePorts.dfs }}
- name: webhdfs
port: {{ .Values.service.nameNode.ports.webhdfs }}
nodePort: {{ .Values.service.nameNode.nodePorts.webhdfs }}
type: {{ .Values.service.nameNode.type }}
selector:
app.kubernetes.io/name: {{ include "hadoop.name" . }}
app.kubernetes.io/instance: {{ .Release.Name }}
app.kubernetes.io/component: hdfs-nn

hadoop/templates/hdfs/hdfs-dn-svc.yaml

# A headless service to create DNS records
apiVersion: v1
kind: Service
metadata:
name: {{ include "hadoop.fullname" . }}-hdfs-dn
labels:
app.kubernetes.io/name: {{ include "hadoop.name" . }}
helm.sh/chart: {{ include "hadoop.chart" . }}
app.kubernetes.io/instance: {{ .Release.Name }}
app.kubernetes.io/component: hdfs-nn
spec:
ports:
- name: dfs
port: {{ .Values.service.dataNode.ports.dfs }}
protocol: TCP
nodePort: {{ .Values.service.dataNode.nodePorts.dfs }}
- name: webhdfs
port: {{ .Values.service.dataNode.ports.webhdfs }}
nodePort: {{ .Values.service.dataNode.nodePorts.webhdfs }}
type: {{ .Values.service.dataNode.type }}
selector:
app.kubernetes.io/name: {{ include "hadoop.name" . }}
app.kubernetes.io/instance: {{ .Release.Name }}
app.kubernetes.io/component: hdfs-dn

  • 修改 yarn service

mv hadoop/templates/yarn/yarn-nm-svc.yaml hadoop/templates/yarn/yarn-nm-svc-headless.yaml
mv hadoop/templates/yarn/yarn-rm-svc.yaml hadoop/templates/yarn/yarn-rm-svc-headless.yaml
mv hadoop/templates/yarn/yarn-ui-svc.yaml hadoop/templates/yarn/yarn-rm-svc.yaml
# 注意修改名稱,不要重復

hadoop/templates/yarn/yarn-rm-svc.yaml

# Service to access the yarn web ui
apiVersion: v1
kind: Service
metadata:
name: {{ include "hadoop.fullname" . }}-yarn-rm
labels:
app.kubernetes.io/name: {{ include "hadoop.name" . }}
helm.sh/chart: {{ include "hadoop.chart" . }}
app.kubernetes.io/instance: {{ .Release.Name }}
app.kubernetes.io/component: yarn-rm
spec:
ports:
- port: {{ .Values.service.resourceManager.ports.web }}
name: web
nodePort: {{ .Values.service.resourceManager.nodePorts.web }}
type: {{ .Values.service.resourceManager.type }}
selector:
app.kubernetes.io/name: {{ include "hadoop.name" . }}
app.kubernetes.io/instance: {{ .Release.Name }}
app.kubernetes.io/component: yarn-rm

  • 修改控制器

在所有控制中新增如下內容:

containers:
...
securityContext:
runAsUser: {{ .Values.securityContext.runAsUser }}
privileged: {{ .Values.securityContext.privileged }}

  • hadoop/templates/hadoop-configmap.yaml

### 1、將/root換成/opt/apache
### 2、TMP_URL="http://{{ include "hadoop.fullname" . }}-yarn-rm-headless:8088/ws/v1/cluster/info"

4)開始安裝

# 創建存儲目錄
mkdir -p /opt/bigdata/servers/hadoop/{nn,dn}/data/data{1..3}
helm install hadoop ./hadoop -n hadoop --create-namespace

NOTES

NAME: hadoop
LAST DEPLOYED: Sat Sep 24 17:00:55 2022
NAMESPACE: hadoop
STATUS: deployed
REVISION: 1
TEST SUITE: None
NOTES:
1. You can check the status of HDFS by running this command:
kubectl exec -n hadoop -it hadoop-hadoop-hdfs-nn-0 -- /opt/hadoop/bin/hdfs dfsadmin -report
2. You can list the yarn nodes by running this command:
kubectl exec -n hadoop -it hadoop-hadoop-yarn-rm-0 -- /opt/hadoop/bin/yarn node -list
3. Create a port-forward to the yarn resource manager UI:
kubectl port-forward -n hadoop hadoop-hadoop-yarn-rm-0 8088:8088
Then open the ui in your browser:
open http://localhost:8088
4. You can run included hadoop tests like this:
kubectl exec -n hadoop -it hadoop-hadoop-yarn-nm-0 -- /opt/hadoop/bin/hadoop jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.3.2-tests.jar TestDFSIO -write -nrFiles 5 -fileSize 128MB -resFile /tmp/TestDFSIOwrite.txt
5. You can list the mapreduce jobs like this:
kubectl exec -n hadoop -it hadoop-hadoop-yarn-rm-0 -- /opt/hadoop/bin/mapred job -list
6. This chart can also be used with the zeppelin chart
helm install --namespace hadoop --set hadoop.useConfigMap=true,hadoop.configMapName=hadoop-hadoop stable/zeppelin
7. You can scale the number of yarn nodes like this:
helm upgrade hadoop --set yarn.nodeManager.replicas=4 stable/hadoop
Make sure to update the values.yaml if you want to make this permanent.

查看

kubectl get pods,svc -n hadoop -owide

hdfs web:??http://192.168.182.110:30870/??

yarn web:??http://192.168.182.110:30088/??

5)測試驗證

HDFS 測試驗證

kubectl exec -it hadoop-hadoop-hdfs-nn-0 -n hadoop -- bash
[root@local-168-182-110 hadoop]# kubectl exec -it hadoop-hadoop-hdfs-nn-0 -n hadoop -- bash
bash-4.2$
bash-4.2$
bash-4.2$ hdfs dfs -mkdir /tmp
bash-4.2$ hdfs dfs -ls /
Found 1 items
drwxr-xr-x - admin supergroup 0 2022-09-24 17:56 /tmp
bash-4.2$ echo "test hadoop" >test.txt
bash-4.2$ hdfs dfs -put test.txt /tmp/
bash-4.2$ hdfs dfs -ls /tmp/
Found 1 items
-rw-r--r-- 3 admin supergroup 12 2022-09-24 17:57 /tmp/test.txt
bash-4.2$ hdfs dfs -cat /tmp/
cat: `/tmp': Is a directory
bash-4.2$ hdfs dfs -cat /tmp/test.txt
test hadoop
bash-4.2$

Yarn 的測試驗證等后面講到 hive on k8s 再來測試驗證。

6)卸載

helm uninstall hadoop -n hadoop
kubectl delete pod -n hadoop `kubectl get pod -n hadoop|awk 'NR>1{print $1}'` --force
kubectl patch ns hadoop -p '{"metadata":{"finalizers":null}}'
kubectl delete ns hadoop --force

這里也提供 git 下載地址,有需要的小伙伴可以下載部署玩玩:??https://gitee.com/hadoop-bigdata/hadoop-on-k8s??

????在 k8s 集群中 yarn 會慢慢被弱化,直接使用 k8s 資源調度,而不再使用 yarn 去調度資源了,這里只是部署了單點,僅限于測試環境使用,下一篇文章會講 Hadoop 高可用 on k8s 實現,請小伙伴耐心等待。

責任編輯:龐桂玉 來源: 馬哥Linux運維
相關推薦

2023-09-06 08:12:04

k8s云原生

2023-07-11 07:12:21

Hadoop部署mysql

2023-07-10 07:22:16

2023-12-25 08:05:35

2020-05-12 10:20:39

K8s kubernetes中間件

2024-01-29 13:03:02

2022-01-22 21:38:19

K8SRedisRedis clus

2021-11-29 07:47:56

RocketMQ分布式消息

2024-01-12 08:03:29

k8s配置持久化

2022-04-22 13:32:01

K8s容器引擎架構

2021-08-13 07:00:41

云原生k8sspringboot

2021-08-26 07:20:05

云原生K8sSpringboot

2021-09-26 07:43:08

KongKongaK8s

2023-09-08 08:09:12

k8sservice服務

2023-11-06 07:16:22

WasmK8s模塊

2022-01-02 08:42:50

架構部署容器

2021-11-04 07:49:58

K8SStatefulSetMySQL

2023-02-27 07:40:00

2021-11-29 08:48:00

K8S KubernetesAirflow

2024-05-20 15:39:00

Karmada混合云多云
點贊
收藏

51CTO技術棧公眾號

亚洲91精品在线| 欧美性色综合网| 精品国产一二| а中文在线天堂| 欧美99久久| 日韩精品在线观看一区二区| 亚洲怡红院在线| 激情图片在线观看高清国产| 久久久精品免费网站| 成人网中文字幕| 天堂网一区二区三区| 日韩精品一区二区三区免费观看| 日韩精品一区二区在线| 999香蕉视频| 美女航空一级毛片在线播放| 国产三级久久久| 国产精品久久亚洲| 97久久人国产精品婷婷| 国产精品久久久久久模特| 久久精品国产亚洲一区二区| 大黑人交xxx极品hd| 精品中文字幕一区二区三区四区| 一本久道久久综合中文字幕| 欧美国产视频一区| 伦xxxx在线| 免费高清在线一区| 91精品国产高清久久久久久| avtt天堂在线| 日韩免费久久| 亚洲社区在线观看| 成熟妇人a片免费看网站| 91嫩草国产线观看亚洲一区二区 | a一区二区三区| 亚洲综合在线第一页| 中文字幕剧情在线观看一区| a天堂在线资源| 国产巨乳在线观看| 在线看片日韩| 色综合导航网站| 日韩精品一区二区三区在线视频| 欧美日韩色图| 国产一区二区三区视频在线观看| 一区二区三区少妇| 欧美影院天天5g天天爽| 亚洲第一级黄色片| 波多野结衣三级视频| 国产日韩一区二区三免费高清| 欧美亚洲一区二区在线观看| 91淫黄看大片| 88xx成人免费观看视频库| 精品久久久国产| 日本在线xxx| 欧美男男tv网站在线播放| 亚洲高清在线精品| 日韩av高清在线看片| 24小时免费看片在线观看| 亚洲香蕉伊在人在线观| 青青青青在线视频| free性护士videos欧美| 亚洲国产va精品久久久不卡综合| 精品少妇在线视频| 妞干网免费在线视频| 懂色av中文一区二区三区天美| 欧美亚洲另类色图| 日本精品不卡| 欧美色涩在线第一页| 欧美美女一级片| 欧美电影院免费观看| 日韩免费一区二区| 日韩美女视频免费在线观看| 久久精品99国产| 中文字幕资源网在线观看免费 | 久久天天躁狠狠躁夜夜躁| 国产美女久久久久久| 女主播福利一区| 韩国一区二区电影| 天码人妻一区二区三区在线看| 日韩黄色免费电影| 91在线观看免费网站| 亚洲av无码片一区二区三区| www.欧美.com| 亚洲成人在线视频网站| 超碰免费在线播放| 图片区小说区区亚洲影院| 国产肥臀一区二区福利视频| 欧美韩国亚洲| 日韩小视频在线观看专区| 久久久久久久人妻无码中文字幕爆| 欧美激情影院| 久久精品国产69国产精品亚洲| 久久久99999| 亚洲一区二区三区四区五区午夜| 国产精品久久久久免费a∨| 精品久久久中文字幕人妻| 99久久777色| 亚洲一区二区三区精品视频| 17videosex性欧美| 欧美日韩一区二区欧美激情 | 国产精品久久久久av蜜臀| 亚洲人精品午夜在线观看| 成年人二级毛片| 亚洲少妇一区| 亚洲精品免费一区二区三区| 亚洲 国产 欧美 日韩| 国产精品毛片高清在线完整版| 久久99久久99精品| 成人国产网站| 亚洲电影av在线| 无码人妻精品中文字幕| 亚洲欧美久久久| 99久久99| 蜜芽在线免费观看| 另类一区二区三区| 欧美老女人在线| 亚洲黄色在线网站| 欧美成人有码| 国产美女精品免费电影| 天天躁日日躁狠狠躁喷水| 亚洲欧洲av色图| 黄色片在线免费| 老汉色老汉首页av亚洲| 久久99亚洲精品| 91中文字幕在线播放| 久久亚洲一区二区三区四区| 中文字幕人妻熟女人妻洋洋| 亚洲精品一区av| 一区二区中文字幕| 国产精品久久久久久久久久精爆| 懂色av一区二区在线播放| 一区二区三区四区五区视频 | 欧美日韩国产中文精品字幕自在自线| 日韩av自拍偷拍| 久久网站免费观看| 国产99视频在线观看| 天天插天天干天天操| 一区2区3区在线看| 一级黄色高清视频| 五月激情综合| 国产主播喷水一区二区| 3p视频在线观看| 欧美日韩在线观看一区二区| 久久久久无码精品国产sm果冻 | 人妻体体内射精一区二区| 98精品视频| 国产免费久久av| 香蕉视频网站在线观看| 欧美日韩黄色一区二区| 波多野结衣欲乱| 久久99日本精品| 爱爱爱视频网站| 国产精品日韩精品在线播放 | 精品久久久久久中文字幕动漫| 大地资源网3页在线观看| 欧美精品v国产精品v日韩精品 | 三级在线视频| 色悠悠亚洲一区二区| 亚洲一区三区电影在线观看| 国产成人自拍偷拍| 成人国产亚洲欧美成人综合网| 国内自拍中文字幕| 澳门成人av| 1769国产精品| jzzjzzjzz亚洲成熟少妇| 欧美日韩一区国产| 欧美在线视频第一页| 懂色av中文一区二区三区| 久艹视频在线免费观看| 亚洲成a人片77777在线播放 | 国产精彩视频一区二区| 999久久精品| 97视频在线观看免费| 色视频在线看| 欧美日韩一区二区三区四区五区| 三级av在线免费观看| 国产成人综合亚洲91猫咪| 国产手机免费视频| 自拍自偷一区二区三区| 国产欧美在线播放| 黄色小说在线播放| 亚洲人成在线一二| 99久久精品国产一区色| 亚洲国产精品天堂| 欧美18—19性高清hd4k| 国产一区二区三区在线看麻豆 | 日韩中文字幕一区二区三区| 亚洲免费不卡| 蜜桃精品视频| 国产69久久精品成人| 国产在线电影| 日韩三级电影网址| 日韩在线视频不卡| 中文字幕亚洲综合久久菠萝蜜| 免费不卡的av| 美女视频网站黄色亚洲| 日韩极品视频在线观看| 精品国产欧美日韩| 成人免费视频网站| av亚洲一区| 韩国v欧美v日本v亚洲| 亚洲1卡2卡3卡4卡乱码精品| 亚洲精美色品网站| 国产又粗又猛又黄又爽| 岛国av午夜精品| 欧美日韩一级大片| 国产精品天干天干在线综合| 岛国精品一区二区三区| 免费不卡在线视频| 亚洲美女在线看| 成人免费看片载| 久久成人免费网站| 欧美一区二区三区爽大粗免费| 欧美a级片视频| 欧美日韩一区二区三| 亚洲一区二区电影| 国产精品一区二区久久精品| 忘忧草在线影院两性视频| 欧美成人中文字幕| 午夜激情在线观看| 亚洲男人天堂手机在线| 免费av网站在线播放| 欧美另类z0zxhd电影| 天堂网一区二区| 午夜久久电影网| 免费一级a毛片夜夜看| 国产精品不卡在线| 东方伊人免费在线观看| 91在线码无精品| 白嫩情侣偷拍呻吟刺激| 国产福利视频一区二区三区| 国产一伦一伦一伦| 日日骚欧美日韩| 亚洲精品乱码久久久久久自慰| 一二三区精品| 欧美又粗又长又爽做受| 欧美精品99| 公共露出暴露狂另类av| 99久久夜色精品国产亚洲1000部| 欧美日韩亚洲免费| 亚洲最好看的视频| 欧美aaaaa喷水| 欧美人体视频| 精品国产一区二区三| 久久99国产精品久久99大师| www.久久久| 亚洲天堂av资源在线观看| 91嫩草免费看| 99re8这里有精品热视频免费| 91成人理论电影| 成人在线日韩| 99热最新在线| 久久香蕉网站| 久久久久一区二区| 国产剧情在线观看一区| 日韩在线观看电影完整版高清免费| 国产一区二区三区91| 日韩久久不卡| 国产精品久久久久久久久妇女| 亚洲一区二区三区精品动漫| 中文字幕一区二区三三 | 国产熟女一区二区| 亚洲国产精品黑人久久久| 992在线观看| 亚洲国产精品高清| 中文字幕在线观看2018| 洋洋成人永久网站入口| 日本在线小视频| 欧美日韩中文字幕在线视频| 国产字幕在线观看| 在线不卡的av| 日本精品一二区| 国产一区二区精品丝袜| 黄色免费在线观看网站| 久久免费国产视频| 另类专区亚洲| 91久久中文字幕| 国产精品自在线拍| 日韩色妇久久av| 欧美一区影院| 国产二区视频在线播放| 久久er99热精品一区二区| 国产香蕉精品视频| 久久久精品欧美丰满| tube国产麻豆| 午夜一区二区三区在线观看| 进去里视频在线观看| 日韩一区二区三区精品视频| 奇米影视888狠狠狠777不卡| 久久精品免费电影| 国产激情在线播放| 国产欧美精品一区二区| 欧美激情15p| 中文字幕一区二区中文字幕| 99国产精品自拍| 777视频在线| 99久久婷婷国产| 五月天色婷婷丁香| 欧美日韩色婷婷| 国产肥老妇视频| 亚洲午夜性刺激影院| 青草青在线视频| 国产剧情久久久久久| 日韩精品社区| 久久亚洲国产成人精品无码区 | 国产精品久久久久久久久久| 成人福利一区| 中文字幕中文字幕在线中一区高清| 国产亚洲毛片在线| 国产黑丝在线视频| 亚洲国产精品99久久久久久久久| 国产精选第一页| 欧美精品tushy高清| 粉嫩一区二区三区国产精品| 国产做受高潮69| 欧美影院在线| 一区二区精品视频| 蜜桃视频一区| 中文文字幕文字幕高清| 亚洲欧美另类久久久精品| 久久久999久久久| 国产丝袜高跟一区| 国产美女一区视频| 91嫩草在线视频| 久久中文字幕二区| 最近免费中文字幕中文高清百度| 成人毛片老司机大片| 91aaa在线观看| 欧美精品三级日韩久久| 黄色美女网站在线观看| 欧美一级免费视频| 欧美激情极品| 中文字幕无码精品亚洲35| 国产成人精品在线看| 精品人妻伦九区久久aaa片| 欧美色中文字幕| 国产高清美女一级毛片久久| 日本精品一区二区三区在线| 日韩欧美在线精品| 久久久999视频| 久久久午夜精品| 国产www在线| 亚洲欧美国产va在线影院| 色吧亚洲日本| 久久亚洲国产精品日日av夜夜| 亚洲人成人一区二区三区| 亚洲香蕉中文网| 午夜日韩在线电影| 无码国精品一区二区免费蜜桃| 国内伊人久久久久久网站视频| av一级亚洲| 亚洲人精品午夜射精日韩| 99久久精品国产精品久久| xxxxxx国产| 精品一区精品二区| 欧美最新精品| 制服国产精品| 国产精品综合av一区二区国产馆| 91精品一区二区三区蜜桃| 日韩一二三四区| jizz一区二区三区| 精品一区二区不卡| 噜噜噜在线观看免费视频日韩| 变态另类ts人妖一区二区| 欧美视频一区二区在线观看| 免费日本一区二区三区视频| 97人人澡人人爽| 亚洲大胆av| 无码人妻精品一区二区中文| 欧美丝袜丝nylons| av免费在线观看网站| 国产亚洲情侣一区二区无| 亚洲在线成人| 中文字幕美女视频| 日韩精品一区二区三区蜜臀| 国产理论在线| 色一情一乱一伦一区二区三区| 韩国成人精品a∨在线观看| 麻豆一区产品精品蜜桃的特点| 亚洲精品电影在线观看| 78精品国产综合久久香蕉| 国产精品一区在线免费观看| 波波电影院一区二区三区| 亚洲精品无码久久久久| 欧美人在线视频| 国产欧美日韩影院| gogo亚洲国模私拍人体| 福利一区福利二区微拍刺激| 一区二区高清不卡| 国产精品视频500部| 日本亚洲三级在线| 久久久久亚洲av成人片| 亚洲欧美精品suv| 亚洲va欧美va人人爽成人影院| 日韩欧美国产免费| 亚洲欧美另类在线| 第九色区av在线| 痴汉一区二区三区| 美女视频一区在线观看| 国产情侣在线视频| 久久香蕉国产线看观看av| 国产欧美一区二区精品久久久|