精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

淺析 Rook 如何管理 Ceph Cluster

開發 前端
Rook 對 Ceph 的支持遠不止管理其集群,還包括很多數據面的支持,比如對 osd pool 的創建等,還提供了一系列的狀態管理和查詢。

最近做了很多 Rook 的調研工作,邊學習邊梳理清楚了 Rook 如何管理 Ceph 集群。這篇文章就來講解 Rook 如何將 Ceph 這么復雜的系統在 Kubernetes 中進行管理和維護。

Ceph 的架構

Ceph 包括多個組件:

  • Ceph Monitors(Mon):負責監控集群的全局狀態,包括集群的配置信息和數據的映射關系,所有的集群節點都會向 Mon 進行匯報,并在每次狀態變更時進行共享信息;負責管理集群的內部狀態,包括 OSD 故障后的恢復工作和數據的恢復;以及客戶端的查詢和授權工作。
  • Ceph Object Store Devices(OSD):負責在本地文件系統保存對象,并通過網絡提供訪問。通常 OSD 守護進程會綁定在集群的一個物理盤上;同時負責監控本身以及其他 OSD 進程的健康狀態并匯報給 Mon。
  • Ceph Manager(MGR):提供額外的監控和界面給外部的監管系統使用。
  • Ceph Metadata Server(MDS):CephFS 的元數據管理進程,主要負責文件系統的元數據管理,只有需要使用 CephFS 的時候才會需要。

Ceph 客戶端首先會聯系 Mon,獲取最新的集群地圖,其中包含了集群拓撲以及數據存儲位置的信息。然后使用集群地圖來獲知需要交互的 OSD,從而和特定 OSD 建立聯系。

Rook 是一個提供 Ceph 集群管理能力的 Operator,使用 CRD CephCluster 來對 Ceph 集群進行部署和管理。以下是 Rook 的架構圖:

圖片圖片

最下層是 Rook Operator 部署的 Ceph 集群的各種組件,通過 CSI Plugin 向上對應用提供不同的訪問接口。

安裝

本文演示使用的所有 Yaml 文件,均來自 Rook 倉庫的 examples。

安裝 Rook Operator

Rook Operator 的安裝主要分兩部分:RBAC 和 operator deployment,分別在兩個文件下:

kubectl apply -f common.yaml
kubectl apply -f operator.yaml

安裝完成后可以看到集群里只有一個 operator pod,非常簡潔:

$ kubectl -n rook-ceph get po
NAME                                  READY   STATUS        RESTARTS   AGE
rook-ceph-operator-7d8898f668-2chvz   1/1     Running      0          2d16h

安裝 CephCluster

Ceph 要求每個存儲節點都有一個塊設備,建議盡量為所有存儲節點分配同樣的 CPU、內存和磁盤。

Rook 的 examples 下提供了一個默認配置的 CephCluster 文件 cluster.yaml,在 storage 中可以使用正則表達式 /dev/sd[a-z] 進行設備匹配:

storage:
  useAllNodes: true
  useAllDevices: false
  deviceFilter: sd[a-z]

如果節點異構,也可以分 node 寫:

storage:
  useAllNodes: true
  useAllDevices: false
  nodes:
    - name: "172.17.4.201"
      devices: 
       - name: "sdb"
       - name: "nvme01"
    - name: "172.17.4.301"
      deviceFilter: "^sd."

創建了 CephCluster,隨后 operator 會安裝一系列 ceph 的組件。首先會看到以下 pod:

NAME                                            READY   STATUS            RESTARTS   AGE
csi-cephfsplugin-provisioner-868bf46b56-4xkx4   5/5     Running             0          3s
csi-cephfsplugin-provisioner-868bf46b56-qsxkg   5/5     Running             0          3s
csi-cephfsplugin-4jrsn                          2/2     Running             0          3s
csi-cephfsplugin-wfzmm                          2/2     Running             0          3s
csi-cephfsplugin-znn9x                          2/2     Running             0          3s
csi-rbdplugin-6x94s                             2/2     Running             0          3s
csi-rbdplugin-8cmfw                             2/2     Running             0          3s
csi-rbdplugin-qm8jr                             2/2     Running             0          3s
csi-rbdplugin-provisioner-d9b9d694c-s7vxg     5/5     Running             0          3s
csi-rbdplugin-provisioner-d9b9d694c-tlplc     5/5     Running             0          3s
rook-ceph-mon-a-canary-ddb95876f-wl26c          0/2     ContainerCreating   0          0s
rook-ceph-mon-b-canary-57dc9df878-7ntq9         0/2     ContainerCreating   0          0s
rook-ceph-mon-c-canary-685fdfb595-6cxjj         0/2     ContainerCreating   0          0s

主要有 cephfs 和 rbd 的相關 CSI Driver 組件,以及 Mon canary。

Mon canary 是將 Ceph 的 Mon 組件的 command 改成 sleep 3600,并按 cluster 中指定的 placement 等調度信息進行合并后的 Deployment。

管理員可以在 Cluster 中通過 nodeSelector 等調度策略來決定如何部署 Mon。由于 Mon 使用 hostPath 作為其存儲,所以 Mon pod 需要固定在特定的節點上。但 Kubernetes 無法做到在 Pod 被調度后,又自動設置上對所在節點的親和性。

Rook 對這一問題的處理方式是,先部署一個相同配置的 Mon canary Deployment,任由調度器按照 cluster 中設置的調度策略部署 canary pod。再按照調度有 canary pod 的節點,部署一個 Mon deployment,其 nodeSelector 為 kubernetes.io/hostname:<nodeName>,從而實現將 Mon 固定在節點上。

圖片圖片

在 Mon cacnary 完成調度后隨即被刪除,然后開始部署 Monitor 組件,以及相關的 Mon Manager、CrashController 及 exporter:

NAME                                                              READY   STATUS    RESTARTS   AGE
rook-ceph-crashcollector-cn-hongkong.192.168.0.55-66586f572zcg6   1/1     Running   0          15s
rook-ceph-crashcollector-cn-hongkong.192.168.0.56-748b6785dk7wl   1/1     Running   0          7s
rook-ceph-crashcollector-cn-hongkong.192.168.0.57-68774ff8hz42l   1/1     Running   0          15s
rook-ceph-exporter-cn-hongkong.192.168.0.55-789684674-26vwv       1/1     Running   0          15s
rook-ceph-exporter-cn-hongkong.192.168.0.56-694f674bdc-z9znh   1/1     Running   0          7s
rook-ceph-exporter-cn-hongkong.192.168.0.57-bbf8db8c6-2zjbq       1/1     Running   0          15s
rook-ceph-mgr-a-6c4b684b9f-4dx79                                  2/3     Running   0          15s
rook-ceph-mgr-b-75d5658884-pmq99                                  2/3     Running   0          15s
rook-ceph-mon-a-5c5dbf577c-2bssb                                  2/2     Running   0          61s
rook-ceph-mon-b-8d8c56989-g7znk                                   2/2     Running   0          37s
rook-ceph-mon-c-6677fc9f7c-slhvj                                  2/2     Running   0          26s

當 Monitor 部署成功后,operator 為 OSD 做準備,在每個數據節點創建一個 Job,查詢每個節點上是否存在滿足以下條件的設備:

  • 設備沒有分區
  • 設備沒有格式化的文件系統

圖片圖片

如果有,才會進入下一步部署 OSD 的階段。

NAME                                                              READY   STATUS      RESTARTS   AGE
rook-ceph-osd-prepare-cn-hongkong.192.168.0.55-9fq2t              0/1     Completed   0          11s
rook-ceph-osd-prepare-cn-hongkong.192.168.0.56-bdptk              0/1     Completed   0          11s
rook-ceph-osd-prepare-cn-hongkong.192.168.0.57-7f7bx              0/1     Completed   0          10s

圖片圖片

在滿足條件的節點上創建 OSD:

NAME                                                              READY   STATUS      RESTARTS   AGE
rook-ceph-osd-0-5bbb5d965f-k8k7z                                  1/2     Running     0          17s
rook-ceph-osd-1-56b689549b-8gj47                                  1/2     Running     0          16s
rook-ceph-osd-2-5946f9684f-wkwmm                                  1/2     Running     0          16s

至此,整個 Ceph Cluster 算是安裝完成了,除了查看各個組件是否 ready 外,還可以使用 Rook 提供的 Ceph Tool 來檢查 Ceph 集群是否 work。安裝 Ceph Tool:

kubectl apply -f toolbox.yaml

在 tool pod 中檢查集群狀態,在輸出中不僅可以可以查看當前 ceph 集群是否健康,還可以查看各個組件的個數及狀態:

bash-4.4$ ceph status
  cluster:
    id:     0212449b-1184-43ff-9d24-e6765d75ac3f
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum a,b,c (age 7m)
    mgr: a(active, since 5m), standbys: b
    osd: 3 osds: 3 up (since 6m), 3 in (since 6m)

  data:
    pools:   1 pools, 1 pgs
    objects: 2 objects, 449 KiB
    usage:   80 MiB used, 60 GiB / 60 GiB avail
    pgs:     1 active+clean

訪問 Ceph

Ceph 提供 3 種訪問方式,分別為對象存儲接口(radosgw)、塊設備接口(rbd)、文件系統接口(POSIX)。

圖片圖片

其中文件系統接口的訪問需要部署元數據服務 MDS;rbd 和 fs 都是通過 CSI Driver 的方式提供掛載到應用容器內,也就是前面看到的兩個 CSI Driver。

rgw

rgw 的訪問需要 cephobjectstore 這個 CR:

$ kubectl apply -f object.yaml
cephobjectstore.ceph.rook.io/my-store created

隨后可以看到組件 RGW 被創建出來:

NAME                                                              READY   STATUS      RESTARTS        AGE
rook-ceph-rgw-my-store-a-6f6768f457-tq625                         1/2     Running     0               33s

檢查集群狀態,可以觀察到 RGW:

bash-4.4$ ceph status
  cluster:
    id:     0212449b-1184-43ff-9d24-e6765d75ac3f
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum a,b,c (age 11m)
    mgr: a(active, since 10m), standbys: b
    mds: 1/1 daemons up, 1 hot standby
    osd: 3 osds: 3 up (since 11m), 3 in (since 4d)
    rgw: 1 daemon active (1 hosts, 1 zones)
...

具體使用可以參考 Rook 官方文檔

rbd

rbd 接口需要創建 replicapool 這個 CR 和 rbd 的 StorageClass:

$ kubectl apply -f csi/rbd/storageclass.yaml
cephblockpool.ceph.rook.io/replicapool created
storageclass.storage.k8s.io/rook-ceph-block created

再創建應用 pod 和 pvc:

kubectl apply -f csi/rbd/pvc.yaml
kubectl apply -f csi/rbd/pod.yaml

上述資源都創建完畢后,進入示例 pod 中可查看其中的掛載設備:

$ kubectl exec -it csirbd-demo-pod -- bash
root@csirbd-demo-pod:/#
root@csirbd-demo-pod:/#
root@csirbd-demo-pod:/# lsblk
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
...
rbd0   252:0    0     1G  0 disk /var/lib/www/html
vda    253:0    0   120G  0 disk
|-vda1 253:1    0     2M  0 part
|-vda2 253:2    0   200M  0 part
`-vda3 253:3    0 119.8G  0 part

filesystem

fs 接口需要創建 cephfilesystem 和 cephfilesystemsubvolumegroup 兩個 CR:

$ kubectl apply -f filesystem.yaml
cephfilesystem.ceph.rook.io/myfs created
cephfilesystemsubvolumegroup.ceph.rook.io/myfs-csi created

創建完畢后,可以觀察集群中已經創建出元數據服務 MDS:

NAME                                                              READY   STATUS      RESTARTS   AGE
rook-ceph-mds-myfs-a-9d8c6b7f8-f84pm                           2/2     Running     0          17s
rook-ceph-mds-myfs-b-dff454bf6-wxln6                           2/2     Running     0          16s

這時在 tool pod 中查看集群狀態,可以看到 mds 的狀態:

bash-4.4$ ceph status
  cluster:
    id:     0212449b-1184-43ff-9d24-e6765d75ac3f
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum a,b,c (age 13m)
    mgr: a(active, since 12m), standbys: b
    mds: 1/1 daemons up, 1 hot standby
    osd: 3 osds: 3 up (since 13m), 3 in (since 13m)
...

最后部署 StorageClass 、PVC 以及示例應用 pod:

$ kubectl apply -f csi/cephfs/storageclass.yaml
storageclass.storage.k8s.io/rook-cephfs created
$ kubectl apply -f csi/cephfs/pvc.yaml
persistentvolumeclaim/cephfs-pvc created
$ kubectl apply -f csi/cephfs/pod.yaml
pod/csicephfs-demo-pod created

進入 pod 查看文件系統掛載點:

$ kubectl exec -it csicephfs-demo-pod -- bash
root@csicephfs-demo-pod:/# df -h
Filesystem                                                                                                                                                 Size  Used Avail Use% Mounted on
overlay                                                                                                                                                     20G  9.9G  8.4G  54% /
tmpfs                                                                                                                                                       64M     0   64M   0% /dev
tmpfs                                                                                                                                                       16G     0   16G   0% /sys/fs/cgroup
/dev/vdb                                                                                                                                                    20G  9.9G  8.4G  54% /etc/hosts
shm                                                                                                                                                         64M     0   64M   0% /dev/shm
172.16.233.104:6789,172.16.38.236:6789,172.16.112.253:6789:/volumes/csi/csi-vol-37584a87-0dfb-48f2-8eee-647af351a695/fc5823e6-0c7e-4ce3-8565-4429d366ac64  1.0G     0  1.0G   0% /var/lib/www/html
tmpfs                                                                                                                                                       30G   12K   30G   1% /run/secrets/kubernetes.io/serviceaccount
tmpfs                                                                                                                                                       16G     0   16G   0% /proc/acpi
tmpfs                                                                                                                                                       16G     0   16G   0% /proc/scsi
tmpfs                                                                                                                                                       16G     0   16G   0% /sys/firmware

Ceph 的掛載點名稱會顯示 Mon 的連接信息。

總結

Rook 對 Ceph 的支持遠不止管理其集群,還包括很多數據面的支持,比如對 osd pool 的創建等,還提供了一系列的狀態管理和查詢。本文只針對 Ceph 集群的創建和管理做了簡單的分析和梳理,希望對如何在 Kubernetes 中管理和使用 Ceph 有所幫助。

責任編輯:武曉燕 來源: CS實驗室
相關推薦

2015-05-29 10:18:23

分布式文件Ceph開源

2009-09-23 10:19:08

Hibernate分頁

2011-03-21 09:26:47

上網行為管理

2011-08-22 10:20:17

研發

2015-07-28 14:18:21

Ceph性能測試優化

2010-06-30 10:38:05

2021-05-07 17:39:44

數據管理IT運營

2021-03-17 21:34:44

Linux內存管理

2021-05-19 14:19:13

數字化管理數據科學

2022-06-01 16:01:58

MySQL內存管理系統

2010-09-16 21:20:02

2010-09-13 09:20:21

2015-07-28 10:19:45

開源Ceph管理平臺Inkscope部署

2012-04-28 10:19:00

網絡管理網絡管理軟件網管軟件

2022-03-07 15:22:16

classHarmony鴻蒙

2009-07-22 08:54:32

Oracle恢復管理器

2022-05-10 07:46:08

Envoy網絡通訊

2009-03-16 13:30:55

腳本數據字典Oracle

2014-01-16 10:39:36

網絡管理網管軟件

2021-07-06 07:46:16

KubernetesRook存儲
點贊
收藏

51CTO技術棧公眾號

原创国产精品91| 日韩一区欧美小说| 欧美自拍视频在线| 欧美黄色激情视频| 99精品在线免费观看| 亚洲成精国产精品女| 欧美日本亚洲| 国产黄色高清视频| 性色一区二区三区| 久久久久北条麻妃免费看| 野战少妇38p| 欧亚一区二区| 亚洲一区二区视频在线观看| 免费在线成人av| 国产乱码精品一区二区三区精东| 亚洲视频精品| 中文字幕精品网| 成人啪啪18免费游戏链接| 网友自拍亚洲| 亚洲一区二区三区四区的| 日韩欧美三级电影| 高清乱码毛片入口| 日韩成人av影视| 久久久亚洲福利精品午夜| 日韩黄色中文字幕| 天海翼精品一区二区三区| 欧美日本一区二区三区| 欧美日本视频在线观看| 永久免费网站在线| 国产精品免费网站在线观看| 精品欧美一区二区三区久久久| 国产精品久久久久久69| 小嫩嫩精品导航| 欧美精品videosex极品1| 国产白丝一区二区三区 | 婷婷久久综合九色综合绿巨人| 亚洲巨乳在线观看| 麻豆av电影在线观看| 成人高清在线视频| 亚洲综合在线播放| 一级全黄少妇性色生活片| 性伦欧美刺激片在线观看| 久久久久久12| 五月天丁香激情| 手机亚洲手机国产手机日韩| 一本色道久久综合狠狠躁篇的优点| 给我免费观看片在线电影的| 网站一区二区| 欧美一区二区黄色| www.国产视频.com| 日本成人福利| 在线精品视频免费播放| 亚洲自偷自拍熟女另类| av最新在线| 亚洲综合色成人| 996这里只有精品| 超碰最新在线| 一区二区三区免费观看| 女女百合国产免费网站| 91亚洲天堂| 亚洲一区在线观看免费观看电影高清 | 久久久久成人网| 久青草免费视频| 激情av一区| 性欧美xxxx交| 精品美女久久久久| 亚洲一区欧美激情| 欧洲美女免费图片一区| 一级片免费在线播放| 丝袜脚交一区二区| 国产啪精品视频网站| 91精品国产乱码久久久| 激情文学综合丁香| 91免费版黄色| 婷婷五月综合激情| 久久免费视频一区| 日韩片电影在线免费观看| seseavlu视频在线| 亚洲桃色在线一区| 欧洲精品在线播放| free欧美| 欧美一区二区在线免费观看| 久久无码专区国产精品s| 精品国产一区二区三区不卡蜜臂| 精品亚洲一区二区三区在线观看| 久久婷婷五月综合| 亚洲最大黄网| 97av视频在线| 国产一区二区在线视频观看| 国产一区在线精品| 国新精品乱码一区二区三区18| 亚洲日本国产精品| 国产精品女主播av| 成人午夜视频在线观看免费| 人人鲁人人莫人人爱精品| 欧美精品v国产精品v日韩精品| 麻豆精品国产传媒| 色综合综合网| 久久99精品视频一区97| 国产原创视频在线| 激情av综合网| 蜜桃视频日韩| www久久日com| 日韩欧美在线看| 中文字幕55页| 国产在线日韩精品| 欧美日本亚洲视频| 亚洲国产无线乱码在线观看| 国产精品99久久久久久久女警 | 欧美最顶级丰满的aⅴ艳星| 91福利在线观看视频| 成a人片国产精品| 制服国产精品| 偷拍精品精品一区二区三区| 日韩欧美久久一区| 奇米网一区二区| a91a精品视频在线观看| 91系列在线播放| 欧美另类自拍| 五月天精品一区二区三区| 在线一区二区不卡| 国产一区二区三区不卡视频网站| 欧美精品久久久久久久久| 一级久久久久久久| 国产婷婷一区二区| 欧美二区在线视频| 97se亚洲国产一区二区三区| 色狠狠av一区二区三区香蕉蜜桃| 国产区在线观看视频| 国产精品99久久久久久似苏梦涵| 视频一区免费观看| 在线手机中文字幕| 亚洲国产高清福利视频| 青青草激情视频| 韩国一区二区视频| 一区二区在线观看网站| 欧美日韩女优| 亚洲福利视频二区| 久久免费视频精品| 国产精品自产自拍| 国内外成人激情免费视频| 91成人app| 久久天堂电影网| 亚洲日本视频在线观看| 成人免费的视频| 国产黄色激情视频| 中文字幕日韩高清在线| 欧美区在线播放| www.看毛片| 亚洲福利电影网| 成人欧美精品一区二区| 亚洲夜间福利| 国产伦精品一区二区三区高清版 | 91日韩视频| 国产欧美日韩视频| 国产在线更新| 日韩你懂的在线播放| 久草网视频在线观看| 成人性视频免费网站| 国产色一区二区三区| 久久精品色综合| 777午夜精品福利在线观看| 日本精品999| 欧美日韩亚洲精品内裤| 蜜乳av中文字幕| 久久成人麻豆午夜电影| 国产在线无码精品| 极品国产人妖chinesets亚洲人妖| 久久久久五月天| 五月激情六月婷婷| 欧美伊人久久大香线蕉综合69 | 国产精品嫩草影视| 在线日本成人| 欧美日韩精品免费观看视一区二区 | 日韩高清第一页| 欧美成人首页| 九色91国产| 成人在线视频免费看| 久久成人精品一区二区三区| 秋霞网一区二区| 日本高清不卡视频| 欧美三级免费看| 久久久久久久久免费| 一区二区免费av| av成人黄色| 亚洲精品美女久久7777777| 久久天堂久久| 欧洲精品久久久| 成人福利片网站| 亚洲欧美在线第一页| 国产又黄又爽视频| 天天亚洲美女在线视频| 1024在线看片| 成人激情综合网站| 三上悠亚av一区二区三区| 欧美视频一区| 四虎一区二区| 精品女人视频| 成人网址在线观看| 亚洲天堂av在线| 美女精品视频一区| 男人的天堂在线| 精品国产网站在线观看| 在线免费av片| 欧美日韩亚洲一区二区| 久久精品黄色片| 国产亚洲精品aa| 久久久久亚洲无码| 国产在线精品不卡| 日日摸天天爽天天爽视频| 欧美人与禽猛交乱配视频| 色噜噜狠狠一区二区三区| 风间由美性色一区二区三区四区 | 免费无码不卡视频在线观看| 91日韩在线| 日韩欧美99| 最近国产精品视频| 国产高清精品一区二区| 亚洲二区av| 国产精品国语对白| 欲香欲色天天天综合和网| 色综合久久中文字幕综合网小说| av在线播放网站| 亚洲美女视频网| 五月婷在线视频| 精品国产免费人成电影在线观看四季 | 中文字幕在线观看网址| 国产99久久久国产精品潘金| 在线观看日本一区二区| 日韩精品三区四区| 黄色高清无遮挡| 免费日韩av| 国产黄视频在线| 9国产精品视频| 美女扒开大腿让男人桶| 国产精品久久| 免费看欧美黑人毛片| 欧美一区不卡| 97超碰在线视| 欧美午夜不卡影院在线观看完整版免费 | 成人午夜视频一区二区播放| 日韩免费一区二区| va视频在线观看| 日韩欧美一级片| 国产 欧美 自拍| 精品伦理精品一区| 丰满岳乱妇国产精品一区| 精品乱人伦小说| 日本精品久久久久| 日韩av在线免费观看| 人成在线免费视频| 亚洲欧美福利视频| 国产区视频在线| 在线观看日韩av| 欧洲美女少妇精品| 久久亚洲私人国产精品va| 91麻豆一二三四在线| 久久久久久久成人| 成人免费网站观看| 日韩美女主播视频| 国产伊人久久| 91精品视频在线| 97视频一区| 久久伊人资源站| 欧美偷拍自拍| 中文字幕第50页| 亚洲午夜在线| 日韩av资源在线| 美日韩一区二区| 九九九久久久久久久| 成人18精品视频| 波多野在线播放| 亚洲丝袜自拍清纯另类| 久久一级黄色片| 色哟哟一区二区三区| 91无套直看片红桃| 欧美v国产在线一区二区三区| 亚洲欧美丝袜中文综合| 尤物精品国产第一福利三区| а√天堂8资源在线官网| 高清欧美电影在线| 丁香婷婷久久| 国产日韩欧美一区二区| 欧美一二区在线观看| 路边理发店露脸熟妇泻火| 亚洲美女少妇无套啪啪呻吟| 国产精品视频黄色| 国产成人小视频| 一级片手机在线观看| 亚洲毛片av在线| 精品国产一区二区三区四| 91精品国产福利| 日本私人网站在线观看| 久久精品福利视频| 国产v日韩v欧美v| 成人国产精品日本在线| 欧美绝顶高潮抽搐喷水合集| 在线看视频不卡| 男女精品视频| www.黄色网| 国产精品免费精品一区| 日韩精品成人一区二区在线| 亚洲国产日韩在线一区| 久久久久久久性| 国产精品久久视频| 日韩精品第一| 国产麻豆日韩| 国产精品黑丝在线播放| 无码人妻丰满熟妇区96| 激情综合亚洲精品| 国产一二三四五区| 亚洲成av人片在www色猫咪| 一级黄色大片免费| 日韩精品丝袜在线| 亚洲精品天堂| 国产区精品视频| 精品久久成人| www.浪潮av.com| 粉嫩av一区二区三区| 国产激情无码一区二区三区| 色噜噜狠狠成人中文综合| 亚洲欧美激情国产综合久久久| www亚洲精品| 成人在线免费av| 日本不卡一区| 国产日韩欧美三区| 中文字幕精品视频在线| 亚洲午夜羞羞片| av 一区二区三区| 久久精品男人天堂| 欧美亚洲黄色| 午夜精品一区二区在线观看的| 亚洲欧美日韩国产| www.自拍偷拍| 欧美日韩国产精品一区| 色欲av伊人久久大香线蕉影院| 精品中文字幕乱| 日本精品一区二区三区在线观看视频| 亚洲国产日韩欧美| 美国一区二区三区在线播放 | 一女被多男玩喷潮视频| 成人免费观看av| 日本一级黄色录像| 日韩成人在线免费观看| 末成年女av片一区二区下载| 国产精品一 二 三| 亚洲高清不卡| 欧美高清性xxxx| 色婷婷亚洲综合| 北岛玲一区二区三区| 国产精品久久久久久久久久新婚| 国产一区二区三区91| 一路向西2在线观看| 国产精品蜜臀av| 一区二区三区免费在线| 久久精品中文字幕一区| 国产精品一区三区在线观看| 8x8x华人在线| 成人一级视频在线观看| 日韩精品在线免费看| 日韩精品在线免费观看视频| 久久久久久久| 神马影院一区二区三区| 国产一区二区三区av电影| 97在线观看免费高| 日韩一级片在线观看| 成人国产电影在线观看| 欧美精品一区在线发布| 免费的成人av| 免费一级a毛片夜夜看| 亚洲国产精彩中文乱码av在线播放 | 综合伊思人在钱三区| caoporn超碰97| 国产精品免费看片| 亚洲国产精品久久人人爱潘金莲 | 国产对白videos麻豆高潮| 亚洲激情中文字幕| 成人在线观看免费视频| 国产精品av免费观看| 2020国产成人综合网| 天天综合久久综合| 欧美成人黑人xx视频免费观看| 国产劲爆久久| 欧美日韩在线免费播放| 亚洲三级在线免费观看| 国精品人妻无码一区二区三区喝尿 | 久久字幕精品一区| 国产精品麻豆免费版现看视频| 日韩精品影音先锋| 在线成人视屏| 欧美做暖暖视频| 久久久美女艺术照精彩视频福利播放| 在线观看毛片视频| 久久全国免费视频| 日韩欧美精品一区| 无码国产精品一区二区免费式直播 | 中文字幕在线播放日韩| 欧美极品少妇xxxxⅹ免费视频| 精品一区av| 精品国产aⅴ一区二区三区东京热 久久久久99人妻一区二区三区 |