精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Kubernetes CSI 實現舉例,你學會了嗎?

云計算 云原生
通過 s3fs,用戶可以像訪問本地文件系統一樣訪問 Amazon S3 存儲桶中的對象。這使得開發人員可以直接在應用程序中使用 S3 存儲桶,而無需使用 Amazon S3 的 API 進行手動操作。

前言

接下去我們簡單來看下一個 CSI Plugin 開源項目的實現,github 地址是:https://github.com/alibaba/open-object。

這個 CSI Plugin 實現了將 Minio 作為后端存儲。以這個項目為例子,主要的考慮是:(1)它的實現不復雜,整體上的代碼量就 2k 行左右,便于閱讀和了解;(2)項目實現了將 Minio 作為后端存儲,在這個項目基礎之上,我們可以進一步擴展將阿里云 OSS 作為后端存儲的實現,便于進一步的實操。(3)Minio 是對象存儲,了解它的實現可以解決我心中的一個疑惑,就是我們如何將對一個文件的讀寫訪問,轉換為對 bucket 的讀寫請求。通過后續的了解,我們可以知道這主要是依賴了像 s3f3 這樣的程序,s3f3 通過 FUSE 將一個 bucket 表現為一個文件。

從部署開始

CSIDriver 資源對象

CSIDriver 包含了部署的 CSI Plugin 有關的信息。Kubernetes AD Controller 通過該對象來決定是否需要 attach。Kubelet 通過該對象決定 mount 時是否需要傳遞 Pod 信息。CSIDriver 資源對象未劃分命名空間。

可以了解到以下幾個點:

  • OpenObject 這個 CSI 插件不需要 attach 步驟,并且在 mount 的時候需要傳遞 Pod 信息。
apiVersion: storage.k8s.io/v1beta1
kind: CSIDriver
metadata:
  name: object.csi.aliyun.com
spec:
  attachRequired: false
  podInfoOnMount: true
  volumeLifecycleModes:
  - Persistent

CSI Node Plugin

可以看到 Daemonset 中包含了 3 個容器:

  • init 容器,啟動一個 connector,這個 connector 運行在宿主機上,監聽 /etc/open-object/connector.sock。通過這個 socket 文件,connector 會收到相應的執行命令,并執行這些命令。總體上的作用相當于宿主機和容器之間的連接器。
  • driver-registrar 容器,調用 csi-plugin 的 NodeGetInfo 的接口,將 CSI Node Plugin 的信息通過 kubelet 的插件注冊機制在對應節點的 kubelet 上進行注冊,同時把 CSI Node Plugin 的通信地址同步給 kubelet。
  • CSI-Plugin 容器,這個容器里面運行的就是 CSI Node Plugin,也是我們實現的內容。
kind: DaemonSet
apiVersion: apps/v1
metadata:
  name: open-object
  namespace: {{ .Values.namespace }}
spec:
  selector:
    matchLabels:
      app: open-object
  template:
    metadata:
      labels:
        app: open-object
    spec:
      tolerations:
      - operator: Exists
      serviceAccount: open-object
      hostNetwork: true
      hostPID: true
      dnsPolicy: ClusterFirstWithHostNet
      initContainers:
      - name: run-connector
        image: {{ .Values.images.object.image }}:{{ .Values.images.object.tag }}
        securityContext:
          privileged: true
          capabilities:
            add: ["SYS_ADMIN"]
          allowPrivilegeEscalation: true
        command:
        - /run-connector.sh
        volumeMounts:
        - name: host-systemd-config
          mountPath: /host/usr/lib/systemd/system
        - name: host-etc
          mountPath: /host/etc/open-object
      containers:
      - name: driver-registrar
        image: {{ .Values.images.registrar.image }}:{{ .Values.images.registrar.tag }}
        args:
        - "--kubelet-registration-path=$(DRIVER_REG_SOCK_PATH)"
        - "--v=4"
        - "--csi-address=$(ADDRESS)"
        env:
        - name: ADDRESS
          value: /csi/csi.sock
        - name: DRIVER_REG_SOCK_PATH
          value: /var/lib/kubelet/plugins/object.csi.aliyun.com/csi.sock
        - name: KUBE_NODE_NAME
          valueFrom:
            fieldRef:
              fieldPath: spec.nodeName
        ...
        volumeMounts:
        - name: plugin-dir
          mountPath: /csi
        - name: registration-dir
          mountPath: /registration/
      - name: csi-plugin
        securityContext:
          privileged: true
          capabilities:
            add: ["SYS_ADMIN"]
          allowPrivilegeEscalation: true
        image: {{ .Values.images.object.image }}:{{ .Values.images.object.tag }}
        args:
        - "csi"
        - "--endpoint=$(CSI_ENDPOINT)"
        - "--nodeID=$(NODE_ID)"
        - "--driver=object.csi.aliyun.com"
        env:
        - name: CSI_ENDPOINT
          value: unix:///csi/csi.sock
        - name: NODE_ID
          valueFrom:
            fieldRef:
              fieldPath: spec.nodeName
        - name: TZ
          value: Asia/Shanghai
        ...
        volumeMounts:
        - name: plugin-dir
          mountPath: /csi
        - name: pods-mount-dir
          mountPath: /var/lib/kubelet/pods
          mountPropagation: "Bidirectional"
        - name: fuse-device
          mountPath: /dev/fuse
        - name: host-etc
          mountPath: /host/etc/open-object
        - name: host-etc-os
          mountPath: /host/etc/os-release
      volumes:
      - name: registration-dir
        hostPath:
          path: /var/lib/kubelet/plugins_registry/
          type: DirectoryOrCreate
      - name: plugin-dir
        hostPath:
          path: /var/lib/kubelet/plugins/object.csi.aliyun.com
          type: DirectoryOrCreate
      - name: pods-mount-dir
        hostPath:
          path: /var/lib/kubelet/pods
          type: Directory
      - name: fuse-device
        hostPath:
          path: /dev/fuse
      - name: host-etc
        hostPath:
          path: /etc/open-object
          type: DirectoryOrCreate
      - name: host-etc-os
        hostPath:
          path: /etc/os-release
          type: File
      - name: host-systemd-config
        hostPath:
          path: /usr/lib/systemd/system
          type: DirectoryOrCreate

CSI Controller Plugin

下面這個 Deployment 部署的是 external-provisioner 組件,指定了通過哪個 socket 文件跟 CSI Controller Plugin 進行通信。但是,我們在這個 Deployment 中并沒有看到 CSI Controller Plugin 組件相關的容器。這是因為對于 OpenObject 這個項目來說,它將 CSI Node Plugin 和 CSI Controller Plugin 的代碼都實現在了上述提到的 csi-plugin 容器里。由于,csi-plugin 是通過 Daemonset 方式部署的,每個節點上都有,所以 external-provisioner 組件可以通過指定的 socket 文件跟 csi-plugin 容器通信。

kind: Deployment
apiVersion: apps/v1
metadata:
  name: open-object-csi-provisioner
  namespace: {{ .Values.namespace }}
  labels:
    app: open-object
    component: open-object-csi-provisioner
spec:
  selector:
    matchLabels:
      app: open-object
      component: open-object-csi-provisioner
  replicas: 1
  template:
    metadata:
      labels:
        app: open-object
        component: open-object-csi-provisioner
    spec:
      tolerations:
      - operator: Exists
        effect: NoSchedule
        key: node-role.kubernetes.io/master
      priorityClassName: system-cluster-critical
      serviceAccount: open-object
      hostNetwork: true
      dnsPolicy: ClusterFirstWithHostNet
      containers:
        - name: csi-provisioner
          image: {{ .Values.images.provisioner.image }}:{{ .Values.images.provisioner.tag }}
          args:
            - --csi-address=$(ADDRESS)
            - --volume-name-prefix=fuse
            - --extra-create-metadata=true
            - --timeout=10m
          env:
            - name: ADDRESS
              value: /var/lib/kubelet/plugins/object.csi.aliyun.com/csi.sock
            - name: TZ
              value: Asia/Shanghai
          ...
          volumeMounts:
            - name: socket-dir
              mountPath: /var/lib/kubelet/plugins/object.csi.aliyun.com
      volumes:
        - name: socket-dir
          hostPath:
            path: /var/lib/kubelet/plugins/object.csi.aliyun.com
            type: DirectoryOrCreate

根據上述的情況,我們總結下:

  • CSI Node Plugin 和 CSI Controller Plugin 都實現在同一個程序里。
  • 由于這個程序通過 Daemonset 部署到了每個節點上,因此相當于每個節點都運行著 CSI Node Plugin 和 CSI Controller Plugin 這兩個插件,并且都可以通過 csi.sock 文件實現跟 CSI Node Plugin 和 CSI Controller Plugin 的通信。所以,雖然 external-provisioner 是通過 Deployment 部署的,但是它仍舊可以通過 csi.sock 文件實現跟 CSI Controller Plugin 的通信。

進入源碼

代碼實現上,我們重點關注 CSI 接口的實現。

初始化

首先是整個 CSI Plugin 的初始化:

  • NewFuseDriver 函數初始化了一個 FuseDriver 結構體,這個結構體包含了 endpoint 也就是 CSI Plugin 監聽的 socket 文件地址。
  • ids、cs、ns 分別是 CSI Identity、CSI Controller 和 CSI Node 三類接口的具體實現。
func NewFuseDriver(nodeID, endpoint, driverName string, kubeClient *kubernetes.Clientset) (*FuseDriver, error) {
 driver := csicommon.NewCSIDriver(driverName, version.Version, nodeID)
 if driver == nil {
  klog.Fatalln("Failed to initialize CSI Driver.")
 }

 s3Driver := &FuseDriver{
  endpoint: endpoint,
  driver:   driver,
  ids:      newIdentityServer(driver),
  cs:       newControllerServer(driver),
  ns:       newNodeServer(driver),
 }
 return s3Driver, nil
}

func (s3 *FuseDriver) Run() {
 // Initialize default library driver
 s3.driver.AddControllerServiceCapabilities([]csi.ControllerServiceCapability_RPC_Type{
  csi.ControllerServiceCapability_RPC_CREATE_DELETE_VOLUME,
  csi.ControllerServiceCapability_RPC_EXPAND_VOLUME,
 })
 s3.driver.AddVolumeCapabilityAccessModes([]csi.VolumeCapability_AccessMode_Mode{
  csi.VolumeCapability_AccessMode_MULTI_NODE_MULTI_WRITER})

 s := csicommon.NewNonBlockingGRPCServer()
 s.Start(s3.endpoint, s3.ids, s3.cs, s3.ns)
 s.Wait()
}

CSI Controller 類接口的實現

先看下 CSI Controller 類接口的具體實現,主要實現的是 CreateVolume、DeleteVolume 和 ControllerExpandVolume 這三個接口。

  • CreateVolume 接口的核心實現就是在 minio 上創建一個 bucket。
  • DeleteVolume 接口的核心實現就是將 bucket 刪除。
  • ControllerExpandVolume 接口的核心實現就是將 bucket 的 quota 上限提高,調整 bucket 的 metadata。
type controllerServer struct {
 kubeClinet *kubernetes.Clientset
 *csicommon.DefaultControllerServer
}

func newControllerServer(d *csicommon.CSIDriver) *controllerServer {
 cfg, err := clientcmd.BuildConfigFromFlags("", "")
 if err != nil {
  klog.Fatalf("Error building kubeconfig: %s", err.Error())
 }
 kubeClient, err := kubernetes.NewForConfig(cfg)
 if err != nil {
  klog.Fatalf("Error building kubernetes clientset: %s", err.Error())
 }
 return &controllerServer{
  DefaultControllerServer: csicommon.NewDefaultControllerServer(d),
  kubeClinet:              kubeClient,
 }
}

func (cs *controllerServer) CreateVolume(ctx context.Context, req *csi.CreateVolumeRequest) (*csi.CreateVolumeResponse, error) {
 ...

 // create volume
 return driver.CreateVolume(ctx, req)
}

func (cs *controllerServer) DeleteVolume(ctx context.Context, req *csi.DeleteVolumeRequest) (*csi.DeleteVolumeResponse, error) {
 ...

 return driver.DeleteVolume(ctx, req)
}

func (cs *controllerServer) ControllerExpandVolume(ctx context.Context, req *csi.ControllerExpandVolumeRequest) (*csi.ControllerExpandVolumeResponse, error) {
 ...

 // expand volume
 return driver.ControllerExpandVolume(ctx, req)
}

func (driver *MinIODriver) CreateVolume(ctx context.Context, req *csi.CreateVolumeRequest) (*csi.CreateVolumeResponse, error) {
 ...
 if err := driver.minioClient.CreateBucket(bucketName, capacity); err != nil {
  return &csi.CreateVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
  ...
}

func (driver *MinIODriver) DeleteVolume(ctx context.Context, req *csi.DeleteVolumeRequest) (*csi.DeleteVolumeResponse, error) {
 ...
 if err := driver.minioClient.DeleteBucket(bucketName); err != nil {
  return &csi.DeleteVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 ...
}

func (driver *MinIODriver) ControllerExpandVolume(ctx context.Context, req *csi.ControllerExpandVolumeRequest) (*csi.ControllerExpandVolumeResponse, error) {
 ...
 capacity := req.GetCapacityRange().RequiredBytes
 if DefaultFeatureGate.Enabled(Quota) {
  if err := driver.minioClient.SetBucketQuota(bucketName, capacity, madmin.HardQuota); err != nil {
   return &csi.ControllerExpandVolumeResponse{}, status.Error(codes.Internal, err.Error())
  }
 }

 bucketMap, err := driver.minioClient.GetBucketMetadata(bucketName)
 if err != nil {
  return &csi.ControllerExpandVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 bucketMap[MetaDataCapacity] = strconv.FormatInt(capacity, 10)
 if err = driver.minioClient.SetBucketMetadata(bucketName, bucketMap); err != nil {
  return &csi.ControllerExpandVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }

 return &csi.ControllerExpandVolumeResponse{CapacityBytes: capacity, NodeExpansionRequired: false}, nil
}

CSI Node 類接口的實現

接下去看一下 CSI Node 類接口的具體實現,主要實現的是 NodePublishVolume、NodeUnpublishVolume 這兩個接口。NodeStageVolume 和 NodeUnstageVolume 這兩個接口并沒有相應的邏輯,也就是說不存在多個 Pod 共享一個 volume 的情況。

  • NodePublishVolume 接口會調用 MinIODriver 的 NodePublishVolume 接口。在這個接口中會封裝好的 s3fs 執行命令,并將執行命令發送給 connector,connector 在宿主機上執行相應的命令。這個命令的主要作用是將 minio 的 bucket 掛載到 target path 上,也就是 /var/lib/kubelet/pods/${pod uid}/volumes/kubernetes.io****~${CSI Plugin Name}/${PV name} 上。
  • NodeUnpublishVolume 接口會調用 FuseUmount 方法 unmount 掉 target path 上的掛載。代碼繼續跟蹤下去,它是在容器內部就執行了 unmount 方法。為什么在容器內部執行 unmount 方法就可以了呢?這是因為在部署這個容器的時候,把宿主機的 /var/lib/kubelet/pods/ 目錄就掛載到了容器的 /var/lib/kubelet/pods/ 上。
type nodeServer struct {
 *csicommon.DefaultNodeServer
}

func newNodeServer(d *csicommon.CSIDriver) *nodeServer {
 return &nodeServer{
  DefaultNodeServer: csicommon.NewDefaultNodeServer(d),
 }
}

func (ns *nodeServer) NodePublishVolume(ctx context.Context, req *csi.NodePublishVolumeRequest) (*csi.NodePublishVolumeResponse, error) {
 volumeID := req.GetVolumeId()
 targetPath := req.GetTargetPath()
  ...
  
 return driver.NodePublishVolume(ctx, req)
}

func (ns *nodeServer) NodeUnpublishVolume(ctx context.Context, req *csi.NodeUnpublishVolumeRequest) (*csi.NodeUnpublishVolumeResponse, error) {
 volumeID := req.GetVolumeId()
 targetPath := req.GetTargetPath()
  ...
  
 if err := common.FuseUmount(targetPath); err != nil {
  return &csi.NodeUnpublishVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 klog.Infof("s3: mountpoint %s has been unmounted.", targetPath)

 return &csi.NodeUnpublishVolumeResponse{}, nil
}

func (ns *nodeServer) NodeStageVolume(ctx context.Context, req *csi.NodeStageVolumeRequest) (*csi.NodeStageVolumeResponse, error) {
 return &csi.NodeStageVolumeResponse{}, nil
}

func (ns *nodeServer) NodeUnstageVolume(ctx context.Context, req *csi.NodeUnstageVolumeRequest) (*csi.NodeUnstageVolumeResponse, error) {
 return &csi.NodeUnstageVolumeResponse{}, nil
}

// NodeGetCapabilities returns the supported capabilities of the node server
func (ns *nodeServer) NodeGetCapabilities(ctx context.Context, req *csi.NodeGetCapabilitiesRequest) (*csi.NodeGetCapabilitiesResponse, error) {
 ...
}

func (ns *nodeServer) NodeExpandVolume(ctx context.Context, req *csi.NodeExpandVolumeRequest) (*csi.NodeExpandVolumeResponse, error) {
 return &csi.NodeExpandVolumeResponse{}, status.Error(codes.Unimplemented, "NodeExpandVolume is not implemented")
}

// NodeGetVolumeStats used for csi metrics
func (ns *nodeServer) NodeGetVolumeStats(ctx context.Context, req *csi.NodeGetVolumeStatsRequest) (*csi.NodeGetVolumeStatsResponse, error) {
 return nil, nil
}

// NodePublishVolume 中的 driver.NodePublishVolume
func (driver *MinIODriver) NodePublishVolume(ctx context.Context, req *csi.NodePublishVolumeRequest) (*csi.NodePublishVolumeResponse, error) {
 pv, err := driver.kubeClinet.CoreV1().PersistentVolumes().Get(ctx, req.GetVolumeId(), metav1.GetOptions{})
 if err != nil {
  return &csi.NodePublishVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 bucketName := pv.Spec.CSI.VolumeAttributes[ParamBucketNameTag]
 targetPath := req.GetTargetPath()

 notMnt, err := checkMount(targetPath)
 if err != nil {
  return &csi.NodePublishVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 if !notMnt {
  return &csi.NodePublishVolumeResponse{}, nil
 }

 if err := S3FSMount(driver.Endpoint, bucketName, targetPath, driver.AK, driver.SK); err != nil {
  return &csi.NodePublishVolumeResponse{}, err
 }

 klog.Infof("s3: bucket %s successfully mounted to %s", bucketName, targetPath)

 return &csi.NodePublishVolumeResponse{}, nil
}

// NodeUnpublishVolume 中的 common.FuseUmount
func FuseUmount(path string) error {
 if err := mount.New("").Unmount(path); err != nil {
  return err
 }
 // as fuse quits immediately, we will try to wait until the process is done
 process, err := findFuseMountProcess(path)
 if err != nil {
  klog.Errorf("Error getting PID of fuse mount: %s", err)
  return nil
 }
 if process == nil {
  klog.Warningf("Unable to find PID of fuse mount %s, it must have finished already", path)
  return nil
 }
 klog.Infof("Found fuse pid %v of mount %s, checking if it still runs", process.Pid, path)
 return waitForProcess(process, 1)
}

擴展認識

上文提到了 s3f3,s3fs 是一個開源的用戶態文件系統,它允許將 Amazon S3 bucket 掛載到 Linux 系統中,使其表現為本地文件系統。

通過 s3fs,用戶可以像訪問本地文件系統一樣訪問 Amazon S3 存儲桶中的對象。這使得開發人員可以直接在應用程序中使用 S3 存儲桶,而無需使用 Amazon S3 的 API 進行手動操作。s3fs 提供了對 Amazon S3 存儲桶的標準文件系統操作,例如讀取、寫入、復制、移動和刪除文件。它還支持文件權限、目錄結構和符號鏈接等常見的文件系統功能。由于 Amazon S3 和 minio 的 API 是兼容的,因此也可以用于 minio。

s3f3 github 地址:https://github.com/s3fs-fuse/s3fs-fuse

責任編輯:武曉燕 來源: 多選參數
相關推薦

2022-06-16 07:50:35

數據結構鏈表

2022-07-26 08:03:27

Kubernetes節點磁盤

2024-01-30 18:29:29

微服務架構Ingress

2024-01-19 08:25:38

死鎖Java通信

2023-01-10 08:43:15

定義DDD架構

2024-02-04 00:00:00

Effect數據組件

2023-07-26 13:11:21

ChatGPT平臺工具

2024-01-02 12:05:26

Java并發編程

2023-08-01 12:51:18

WebGPT機器學習模型

2025-09-03 04:11:00

2024-03-12 08:37:32

asyncawaitJavaScript

2024-08-12 08:12:38

2023-12-07 12:29:49

Nginx負載均衡策略

2024-01-26 06:05:16

KuberneteseBPF網絡

2023-01-30 09:01:54

圖表指南圖形化

2024-08-06 09:47:57

2022-07-08 09:27:48

CSSIFC模型

2023-10-10 11:04:11

Rust難點內存

2024-07-31 08:39:45

Git命令暫存區

2023-12-12 08:02:10

點贊
收藏

51CTO技術棧公眾號

欧美艳星kaydenkross| 少妇人妻精品一区二区三区| 久久久久av| 精品久久久三级丝袜| 97视频免费在线观看| 精品人妻无码一区二区三区| 亚州精品国产| 婷婷激情综合网| 亚洲欧美日韩另类精品一区二区三区 | 波多野结衣影片| 91精品国产调教在线观看| 亚洲国产精品久久| 怡红院亚洲色图| 日本午夜大片a在线观看| 中文字幕佐山爱一区二区免费| 国产精品区一区二区三在线播放 | 亚洲欧美卡通动漫| 伦理一区二区| 欧美一区二区视频在线观看2020| 日韩av一二三四区| 永久免费网站在线| 日韩av一区二区在线影视| 欧美国产视频日韩| 亚洲 欧美 国产 另类| 任你弄精品视频免费观看| 5858s免费视频成人| 大肉大捧一进一出好爽动态图| 狠狠综合久久av一区二区| 全部av―极品视觉盛宴亚洲| 777午夜精品福利在线观看| √天堂中文官网8在线| 国产一区二区三区四区五区 | 国产精品免费一区| 国产免费观看av| 欧美日本二区| 日韩女优电影在线观看| 一区二区三区韩国| jizz视频在线观看| 91女厕偷拍女厕偷拍高清| 91精品91久久久久久| 强行糟蹋人妻hd中文| 中文久久电影小说| 这里是久久伊人| 九九热99视频| 四虎国产精品永久在线国在线| 日韩人在线观看| 精品国产免费av| 国产污视频在线播放| 亚洲午夜免费福利视频| 欧美日韩视频免费| 久久av色综合| 亚洲午夜私人影院| av网站手机在线观看| 色视频精品视频在线观看| 高清成人免费视频| 国产成人成网站在线播放青青| 国产高清第一页| 国产精品一二一区| 成人免费看片网站| 刘亦菲久久免费一区二区| 成人免费毛片嘿嘿连载视频| 国产日韩欧美一区二区| 亚洲欧美日韩精品永久在线| 97久久精品人人澡人人爽| 国产精品视频久久久久| 中文精品久久久久人妻不卡| 亚洲精品成人无限看| 草民午夜欧美限制a级福利片| 娇小11一12╳yⅹ╳毛片| 亚洲欧美色图| 久久久免费观看| 国产乱国产乱老熟| 喷水一区二区三区| 91青草视频久久| 欧美 日韩 国产 在线| 91污片在线观看| 午夜精品区一区二区三| 国产香蕉在线观看| 99视频在线精品| 3d动漫啪啪精品一区二区免费| a级片在线播放| 成人黄色综合网站| 日韩福利在线| 午夜伦理在线视频| 欧美日韩在线看| 久久国产激情视频| 国产福利一区二区精品秒拍| 亚洲日本中文字幕免费在线不卡| 国产午夜精品久久久久久久久| 国产精品99视频| 亚洲天堂开心观看| 多男操一女视频| 亚洲在线成人| 成人免费视频网址| 五月婷中文字幕| 中文字幕一区不卡| 精品视频免费在线播放| 日本午夜精品久久久久| 精品国产伦一区二区三区免费| 在线免费观看日韩av| 久久久久久久久丰满| 欧美在线xxx| 国内毛片毛片毛片毛片| 99精品热视频| 午夜啪啪福利视频| 吞精囗交69激情欧美| 日韩欧美一级片| 男人的天堂官网| 9色精品在线| 亚洲自拍高清视频网站| 国产最新视频在线| 午夜精品久久一牛影视| 91av视频免费观看| 久久99国产成人小视频| 欧美激情性做爰免费视频| 在线观看日韩一区二区| 91麻豆免费视频| 300部国产真实乱| 国内欧美日韩| 亚洲人成在线观| 99热国产在线观看| 国产盗摄视频一区二区三区| 色一情一乱一伦一区二区三区 | 亚洲女人小视频在线观看| 少妇高潮喷水久久久久久久久久| 激情综合婷婷| 日韩视频在线观看免费| 欧美啪啪小视频| 粉嫩一区二区三区在线看| 国产日韩视频在线播放| 成人高清一区| 欧美日韩中文字幕一区二区| 菠萝菠萝蜜网站| 亚洲成人原创| 动漫精品视频| 欧美1—12sexvideos| 日韩一区二区在线看| 亚洲色图100p| 九九精品视频在线看| 亚洲欧美久久234| 成人亚洲视频| 日韩中文综合网| 在线观看中文字幕码| 国产亚洲精品7777| www黄色在线| 国产欧美日韩免费观看| 国产成人精品在线观看| 免费在线观看污视频| 色综合一个色综合亚洲| 亚洲AV无码国产成人久久| 欧美一级二区| 欧美一区二区视频在线| 欧美韩国亚洲| 色yeye香蕉凹凸一区二区av| 在线免费看91| 亚洲三级电影网站| 三级网站免费看| 亚洲图片在线| 极品日韩久久| 综合在线影院| 日韩在线观看免费网站 | 日韩精品一区二区三区蜜臀 | 老色鬼久久亚洲一区二区| 国产欧美一区二区| 免费观看久久久久| 欧美一区二区私人影院日本| 精品无码m3u8在线观看| 9l国产精品久久久久麻豆| 99色精品视频| 日韩亚洲精品在线观看| 国产亚洲欧洲高清一区| 欧美人妻一区二区| 成人av在线一区二区三区| 成人综合视频在线| 不卡中文一二三区| 亚洲精品日产aⅴ| 久久亚洲导航| 亚洲欧美资源在线| 国产又黄又爽视频| 国产亚洲成年网址在线观看| 亚州精品一二三区| 午夜精品国产| 国产日韩中文字幕| 天堂av资源在线观看| 亚洲精选中文字幕| 国产一区二区自拍视频| 亚洲韩国一区二区三区| 法国空姐电影在线观看| 国产一区二区免费视频| 18禁免费观看网站| 欧美xxav| 久久66热这里只有精品| 成年永久一区二区三区免费视频| 久久久久久久色| av片在线看| 亚洲精品福利在线| 国产精品久久久久久久成人午夜| 亚洲国产日韩综合久久精品| 极品蜜桃臀肥臀-x88av| 成人动漫视频在线| 黄色小视频免费网站| 香蕉久久夜色精品国产| 男女爱爱视频网站| 精品国产一区二区三区| 国产一区二区三区四区hd| 91久久久久久白丝白浆欲热蜜臀| 欧美激情亚洲视频| 黄色av网站在线播放| 亚洲天堂免费视频| 免费a视频在线观看| 欧美精品电影在线播放| 免费黄色片视频| 亚洲国产精品一区二区www| 成年人二级毛片| 国产欧美日韩另类视频免费观看| 97视频在线免费播放| 欧美国产免费| 在线精品日韩| 国产精品一区二区av日韩在线 | 宅男在线一区| 国产伦视频一区二区三区| 日韩毛片网站| 国产精品激情自拍| 超碰免费在线观看| 亚洲激情久久久| 亚洲成人77777| 91精品国产一区二区三区香蕉| 中文在线a天堂| 色噜噜夜夜夜综合网| 在线能看的av| 午夜精品福利久久久| 一区二区三区免费高清视频| 亚洲乱码国产乱码精品精可以看| 永久免费av无码网站性色av| 久久久久久久网| 90岁老太婆乱淫| 久久精品一区八戒影视| 一区二区三区免费在线观看视频| 成人av在线网| 中文字幕5566| 91麻豆成人久久精品二区三区| 黄色网址在线视频| 日本女人一区二区三区| 逼特逼视频在线| 欧美亚洲网站| 成人免费视频久久| 秋霞电影一区二区| 性欧美极品xxxx欧美一区二区| 老司机免费视频久久| 欧美伦理片在线看| 日本成人在线不卡视频| 欧美日韩一区二区三区69堂| 久久精品国产色蜜蜜麻豆| 亚洲a级黄色片| 国产精品亚洲第一区在线暖暖韩国| 亚洲天堂小视频| 成人国产精品视频| 国产麻豆天美果冻无码视频| 久久毛片高清国产| 精品一区二区三孕妇视频| 国产精品不卡在线| 欧美极品视频在线观看| 亚洲二区视频在线| 欧美a视频在线观看| 在线中文字幕不卡| 91精品中文字幕| 欧美电影免费提供在线观看| 欧美一级在线免费观看| 日韩av网站在线| 二区三区在线播放| 精品国免费一区二区三区| 欧美一区二区三区激情| 亚洲欧美一区二区三区情侣bbw | 97香蕉超级碰碰久久免费的优势| 久热在线观看视频| 国产精品精品一区二区三区午夜版| 成人在线视频免费| 69174成人网| 亚洲精华一区二区三区| 亚洲在线播放电影| 亚洲天堂久久| 日韩一区二区三区不卡视频| 国产成人精品亚洲777人妖 | 中文字幕 日韩 欧美| 国产精品白丝jk白祙喷水网站| 五月天激情小说| 国产精品电影院| 丰满少妇乱子伦精品看片| 欧美性感一类影片在线播放| www日本在线| 国产一区二区三区日韩欧美| 怡红院在线播放| 国产精品99久久久久久久久| 涩爱av色老久久精品偷偷鲁| 欧洲在线视频一区| 国产精品theporn| 亚洲精品视频导航| 不卡的av在线播放| 很污很黄的网站| 色综合天天综合网天天狠天天| 国产毛片一区二区三区va在线 | 国产高清在线一区| 欧美亚洲国产激情| 国产一区二区网| 国产精品一二三四区| 性欧美一区二区| 亚洲大片在线观看| 国产视频www| 中文字幕欧美日韩| 色在线中文字幕| 成人欧美一区二区三区黑人免费| 成人网18免费网站| 成年人午夜免费视频| 国产一区二区三区四区在线观看| 91l九色lporny| 婷婷中文字幕一区三区| 99在线精品视频免费观看软件 | 欧美一区二区在线看| 国产原创av在线| 2019中文字幕全在线观看| 一本色道69色精品综合久久| 一区二区三区国产福利| 日韩精品欧美精品| 美国黄色一级毛片| 午夜伦欧美伦电影理论片| 精品久久人妻av中文字幕| 中文字幕亚洲欧美一区二区三区 | 欧美精品123| 日韩视频精品在线观看| 性感美女一区二区三区| 亚洲女同ⅹxx女同tv| 国产精品国产一区二区三区四区 | 欧美成人vps| av毛片在线免费| 91在线视频精品| 天天做天天爱天天综合网2021| 色免费在线视频| 国产精品美女久久久久久久久| 91视频最新网址| 91国在线观看| 第一福利在线| 国产精品久久久久av免费| 加勒比久久综合| 青青草精品视频在线观看| 国产精品免费av| 中文字幕在线观看第二页| 自拍偷拍亚洲欧美| 日韩久久一区| 路边理发店露脸熟妇泻火| 国产激情一区二区三区| 欧美成人免费看| 亚洲精品在线三区| 交100部在线观看| 欧美精品国产精品久久久 | 想看黄色一级片| 亚洲免费观看高清完整版在线观看| 国产精品熟女久久久久久| 久久国产视频网站| 成人偷拍自拍| 欧美日韩激情视频在线观看| 久久奇米777| 亚洲国产无线乱码在线观看| www日韩欧美| 91精品日本| 99爱视频在线| 欧美国产激情一区二区三区蜜月| 中文字幕日韩三级| 久久艹在线视频| 麻豆成人入口| 91人人澡人人爽人人精品| 亚洲天天做日日做天天谢日日欢| 亚洲免费国产视频| 欧美一区二区三区……| 秋霞欧美视频| 免费在线观看日韩av| 欧美日韩国产一中文字不卡 | 第四色中文综合网| aa在线免费观看| 一区二区中文字幕在线| 日韩在线视频观看免费| 国产精品久久久久久久久久东京| 亚洲91视频| 偷拍女澡堂一区二区三区| 欧美日韩精品专区| 五月天婷婷在线观看| 国产精品福利在线| 午夜久久tv| 亚洲国产av一区| 欧美一区二区三区男人的天堂| 国内激情视频在线观看| 亚洲欧洲一区二区| 成人18精品视频| 91久久久久久久久久久久| 97在线视频一区| 久久久久久久久久久久久久久久久久 | 国产亚洲第一页| 尤物yw午夜国产精品视频明星 | 日本亚洲欧洲精品| 国产麻豆9l精品三级站| 亚洲 日本 欧美 中文幕|