精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

虛擬化技術淺析之初識Kubernetes

開發 架構
Federation控制平面“封裝”了多個k8s集群的Master角色,提供了統一的Master,包括Federation API Server、Federation Controller Manafer,用戶可以向操作單個集群一樣操作Federation,還統一了全部k8s集群的DNS、ConfigMap,并將數據保存在集中的etcd數據庫中。

作者:京東物流 楊建民

一、微服務架構起源

單體架構:可以理解為主要業務邏輯模塊(我們編寫的代碼模塊,不包括獨立的中間件)運行在一個進程中的應用,最典型的是運行在一個Tomcat容器中,位于一個進程里。單體架構好處是技術門檻低、編程工作量少、開發簡單快捷、調試方便、環境容易搭建、容易發布部署及升級,開發運維等總體成本很低、見效快。其缺點也明顯:

(1)單體應用系統比較膨脹與臃腫,耦合度高,導致進行可持續開發和運維很困難。

(2)單體應用難以承載迅速增長的用戶請求和需求。

基于Spring Framework的單體應用架構圖

分布式架構核心思想是把一個單一進程的系統拆分為功能上相互協作又能獨立部署在多個服務器上的一組進程,這樣一來,系統可以根據實際業務需要,通過以下兩種方式實現某些獨立組件的擴容,提升吞吐量。

  • 水平擴展:通過增加服務器數量進行擴容
  • 垂直擴展:給系統中的某些特殊業務分配更好的機器,提供更多資源,從而提升這些業務的系統負載和吞吐

分布式架構是將一個龐大的單體應用拆分成多個獨立運行的進程,這些進程能通過某種方式實現遠程調用,因此,分布式架構要解決的第一個核心技術問題就是獨立進程之間的遠程通信。該問題的最早答案就是RPC技術(Remote Procedure Call),一種典型的微服務架構平臺的結構示意圖如下:

大家比較熟知的微服務架構框架有Dubbo與Spring Cloud,之后比較成功的微服務架構基本都和容器技術掛鉤了,其中最成功的、影響最大的當屬Kubernetes平臺了,與之相似的還有Docker公司推出的Docker Swarm(在2017年底,Docker Swarm也支持Kubernetes了)。

關于微服務架構的優勢由于文章篇幅有限,不再展開,但任何技術都存在兩面性,微服務架構具有一定的復雜性,如開發者必須掌握某種RPC技術,并且必須通過寫代碼來處理RPC速度過慢或者調用失敗等復雜問題。為了解決微服務帶來的編程復雜性問題,一種新的架構設計思想出現了,這就是Service Mesh,Service Mesh定義是:一個用于處理服務于服務之間通信(調用)的復雜的基礎架構設施。從本質上看,Service Mesh是一組網絡代理程序組成的服務網絡,這些代理會與用戶程序部署在一起,充當服務代理,這種代理后來在Google的Istio產品架構中稱為“Sidecar”,其實就是采用了代理模式的思想去解決代碼入侵及重復編碼的問題,。下圖給出了Service Mesh最簡單的架構圖。Servie Mesh同樣不是本次的主角,感興趣的小伙伴可自行學習。

二、初識k8s

官方原文是:K8s is an abbreviation derived by replacing the 8 letters “ubernete” with 8.

k8s全稱kubernetes,名字來源于希臘語,意思為“舵手”或“領航員”,它是第一代容器技術的微服務架構(第二代是Servie Mesh)。

Kubernetes最初源于谷歌內部的Borg,提供了面向應用的容器集群部署和管理系統。Kubernetes 的目標旨在消除編排物理/虛擬計算,網絡和存儲基礎設施的負擔,并使應用程序運營商和開發人員完全將重點放在以容器為中心的原語上進行自助運營。Kubernetes 也提供穩定、兼容的基礎(平臺),用于構建定制化的workflows 和更高級的自動化任務。

Kubernetes 具備完善的集群管理能力,包括多層次的安全防護和準入機制、多租戶應用支撐能力、透明的服務注冊和服務發現機制、內建負載均衡器、故障發現和自我修復能力、服務滾動升級和在線擴容、可擴展的資源自動調度機制、多粒度的資源配額管理能力。

Kubernetes 還提供完善的管理工具,涵蓋開發、部署測試、運維監控等各個環節。

2.1 k8s架構與組件

Kubernetes主要由以下幾個核心組件組成:

  1. etcd保存了整個集群的狀態;
  2. apiserver提供了資源操作的唯一入口,并提供認證、授權、訪問控制、API注冊和發現等機制;
  3. controller manager負責維護集群的狀態,比如故障檢測、自動擴展、滾動更新等;
  4. scheduler負責資源的調度,按照預定的調度策略將Pod調度到相應的機器上;
  5. kubelet負責維護容器的生命周期,同時也負責Volume(CVI)和網絡(CNI)的管理;
  6. Container runtime負責鏡像管理以及Pod和容器的真正運行(CRI);
  7. kube-proxy負責為Service提供cluster內部的服務發現和負載均衡;

2.2 k8s設計理念

API設計原則

API對象是k8s集群中的管理操作單元。k8s集群系統每支持一項新功能,引入一項新技術,一定會新引入對應的API對象,支持對該功能的管理操作。例如副本集Replica Set對應的API對象是RS。

k8s采用聲明式操作,由用戶定義yaml,k8s的API負責創建。每個對象都有3大類屬性:元數據metadata、規范spec和狀態status。元數據是用來標識API對象的,每個對象都至少有3個元數據:namespace,name和uid;除此以外還有各種各樣的標簽labels用來標識和匹配不同的對象,例如用戶可以用標簽env來標識區分不同的服務部署環境,分別用env=dev、env=testing、env=production來標識開發、測試、生產的不同服務。規范描述了用戶期望k8s集群中的分布式系統達到的理想狀態(Desired State),例如用戶可以通過復制控制器Replication Controller設置期望的Pod副本數為3;status描述了系統實際當前達到的狀態(Status),例如系統當前實際的Pod副本數為2;那么復制控制器當前的程序邏輯就是自動啟動新的Pod,爭取達到副本數為3。

apiVersion: apps/v1beta1
kind: Deployment
metadata:
name: nginx-deployment
spec:
replicas: 3
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:1.7.9
ports:
- containerPort: 80
  • apiVersion - 創建對象的Kubernetes API 版本
  • kind - 要創建什么樣的對象?
  • metadata- 具有唯一標示對象的數據,包括 name(字符串)、UID和Namespace(可選項)

使用上述.yaml文件創建Deployment,是通過在kubectl中使用kubectl create命令來實現。將該.yaml文件作為參數傳遞。如下例子:

$ kubectl create -f docs/user-guide/nginx-deployment.yaml --record

k8s常見對象:Pod、復制控制器(Replication Controller,RC)、副本集(Replica Set,RS)、部署(Deployment)、服務(Service)、任務(Job)、存儲卷(Volume)、持久存儲卷和持久存儲卷聲明(Persistent Volume,PV、Persistent Volume Claim,PVC)、節點(Node)、ConfigMap、Endpoint等。

控制機制設計原則

  • 每個模塊都可以在必要時優雅地降級服務控制邏輯應該只依賴于當前狀態。這是為了保證分布式系統的穩定可靠,對于經常出現局部錯誤的分布式系統,如果控制邏輯只依賴當前狀態,那么就非常容易將一個暫時出現故障的系統恢復到正常狀態,因為你只要將該系統重置到某個穩定狀態,就可以自信的知道系統的所有控制邏輯會開始按照正常方式運行。
  • 假設任何錯誤的可能,并做容錯處理。在一個分布式系統中出現局部和臨時錯誤是大概率事件。錯誤可能來自于物理系統故障,外部系統故障也可能來自于系統自身的代碼錯誤,依靠自己實現的代碼不會出錯來保證系統穩定其實也是難以實現的,因此要設計對任何可能錯誤的容錯處理。
  • 盡量避免復雜狀態機,控制邏輯不要依賴無法監控的內部狀態。因為分布式系統各個子系統都是不能嚴格通過程序內部保持同步的,所以如果兩個子系統的控制邏輯如果互相有影響,那么子系統就一定要能互相訪問到影響控制邏輯的狀態,否則,就等同于系統里存在不確定的控制邏輯。
  • 假設任何操作都可能被任何操作對象拒絕,甚至被錯誤解析。由于分布式系統的復雜性以及各子系統的相對獨立性,不同子系統經常來自不同的開發團隊,所以不能奢望任何操作被另一個子系統以正確的方式處理,要保證出現錯誤的時候,操作級別的錯誤不會影響到系統穩定性。
  • 每個模塊都可以在出錯后自動恢復。由于分布式系統中無法保證系統各個模塊是始終連接的,因此每個模塊要有自我修復的能力,保證不會因為連接不到其他模塊而自我崩潰。
  • 每個模塊都可以在必要時優雅地降級服務。所謂優雅地降級服務,是對系統魯棒性的要求,即要求在設計實現模塊時劃分清楚基本功能和高級功能,保證基本功能不會依賴高級功能,這樣同時就保證了不會因為高級功能出現故障而導致整個模塊崩潰。根據這種理念實現的系統,也更容易快速地增加新的高級功能,以為不必擔心引入高級功能影響原有的基本功能。

三、資源管理

容器云平臺如何對租戶可用資源進行精細管理,對平臺的可用性、可維護性和易用性起著至關重要的作用,是容器云平臺能夠為用戶提供豐富的微服務管理的基石。在云計算領域,資源可被分為計算資源、網絡資源和存儲資源三大類,也可被分別稱作計算云、網絡云和存儲云。

3.1、計算資源管理

Namespace

在k8s集群中,提供計算資源的實體叫做Node,Node既可以是物理機服務器,也可以是虛擬機服務器,每個Node提供了CPU、內存、磁盤、網絡等資源。每個Node(節點)具有運行pod的一些必要服務,并由Master組件進行管理,Node節點上的服務包括Docker、kubelet和kube-proxy。

通過引入Namespace,k8s將集群近一步劃分為多個虛擬分組進行管理,Namespace所實現“分區”是邏輯上的,并不與實際資源綁定,它用于多租戶場景實現資源分區和資源最大化利用。

大多數Kubernetes資源(例如pod、services、replication controllers或其他)都在某些Namespace中,但Namespace資源本身并不在Namespace中。而低級別資源(如Node和persistentVolumes)不在任何Namespace中。Events是一個例外:它們可能有也可能沒有Namespace,具體取決于Events的對象。

Pod

Pod是Kubernetes創建或部署的最小/最簡單的基本單位,一個Pod代表集群上正在運行的一個進程。

一個Pod封裝一個應用容器(也可以有多個容器),存儲資源、一個獨立的網絡IP以及管理控制容器運行方式的策略選項。Pod代表部署的一個單位:Kubernetes中單個應用的實例,它可能由單個容器或多個容器共享組成的資源。

每個Pod都是運行應用的單個實例,如果需要水平擴展應用(例如,運行多個實例),則應該使用多個Pods,每個實例一個Pod。在Kubernetes中,這樣通常稱為Replication。Replication的Pod通常由Controller創建和管理。Controller可以創建和管理多個Pod,提供副本管理、滾動升級和集群級別的自愈能力。例如,如果一個Node故障,Controller就能自動將該節點上的Pod調度到其他健康的Node上。

Container

docker本身比較重,2015年OCI(Open Container Initiative)誕生,它定義了鏡像標準、運行時標準和分發標準,由于k8s 本身不具備創建容器的能力,是通過 kubelet 組件調用容器運行時 API 接口和命令來創建容器,Kubernete 與 容器運行時的關系是歷史性的,也很復雜。但是隨著 Kubernete 棄用 Docker ,目前主流的運行時主要是 containerd 和 CRI-O

“one-container-per-Pod”模式是Kubernetes最常見的用法,一個Pod也可以有多個容器。

三個級別的計算資源管理

在k8s中,可以從Namespace、Pod和Container三個級別區管理資源的配置和限制。例如:

  • 容器級別可以通過Resource Request、Resource Limits配置項
apiVersion: v1
kind: Pod
metadata:
name: memory-demo-3
spec:
containers:
- name: memory-demo-3-ctr
image: vish/stress
resources:
limits:
memory: "1000Gi"
requests:
memory: "1000Gi"
args:
- -mem-total
- 150Mi
- -mem-alloc-size
- 10Mi
- -mem-alloc-sleep
- 1s
  • Pod級別可以通過創建LimitRange對象完成設置,這樣可以對Pod所含容器進行統一配置
apiVersion: v1
kind: LimitRange
metadata:
name: mylimits
spec:
limits:
- max:
cpu: "4"
memory: 2Gi
min:
cpu: 200m
memory: 6Mi
maxLimitRequestRatio:
cpu: 3
memory: 2
type: Pod
- default:
cpu: 300m
memory: 200Mi
defaultRequest:
cpu: 200m
memory: 100Mi
max:
cpu: "2"
memory: 1Gi
min:
cpu: 100m
memory: 3Mi
maxLimitRequestRatio:
cpu: 5
memory: 4
type: Container
  • Namespace級別可以通過對ReSourceQuota資源對象的配置,提供一個總體的資源使用量限制,這個限制可以是對所有Poid使用的計算資源總量上限,也可以是對所有Pod某種類型對象的總數量上限(包括可以創建的Pod、RC、Service、Secret、ConfigMap及PVC等對象的數量)
apiVersion: v1
kind: ResourceQuota
metadata:
name: pod-demo
spec:
hard:
request.cpu: "4"
request.memory: 8GB
limit.memory:16GB
pods: "2"

3.2 網絡資源管理

k8s的ip模型

?node Ip :node節點的ip,為物理ip.

pod Ip:pod的ip,即docker 容器的ip,為虛擬ip。

cluster Ip:service 的ip,為虛擬ip。提供一個集群內部的虛擬IP以供Pod訪問。實現原理是通過Linux防火墻規則,屬于NAT技術。當訪問ClusterIP時,請求將被轉發到后端的實例上,如果后端實例有多個,就順便實現了負載均衡,默認是輪訓方式。

跨主機容器網絡方案

在k8s體系中,k8s的網絡模型設計的一個基本原則:每個pos都擁有一個獨立的IP地址,而且假定所有的Pod都在一個可以直接聯通的、扁平的網絡空間中,不管它們是否運行在同一個Node(宿主機)中,都可以直接通過對方的IP進行訪問。但k8s本身并不提供跨主機的容器網絡解決方案。公有云環境(例如AWS、Azure、GCE)通常都提供了容器網絡方案,但是在私有云環境下,仍然需要容器云平臺位不同的租戶提供各種容器網絡方案。

目前,為容器設置Overlay網絡是最主流的跨主機容器網絡方案。Overlay網絡是指在不改變原有網絡配置的前提下,通過某種額外的網絡協議,將原IP報文封裝起來形成一個邏輯上的網絡。在k8s平臺上,建議通過CNI插件的方式部署容器網絡。

CNI(Container Network Interface)是CNCF基金會下的一個項目,由一組用于配置容器的網絡接口的規范和庫組成,它定義的是容器運行環境與網絡插件之間的接口規范,僅關心容器創建時的網絡配置和容器被銷毀是網絡資源的釋放,并且一個容器可以綁定多個CNI網絡插件加入網絡中,如下圖。

目前比較流程的CNI插件實現方式有Flannel、Calico、macvlan、Open vSwitch、直接路由。

Ingress

在k8s集群內,應用默認以Service的形式提供服務,有kube-proxy實現Service到容器的負載均衡器的功能,如下圖定義一個mysql service:

kind: Service
apiVersion: v1
metadata:
name: mysql-master
spec:
selector:
app: mysql-master
ports:
port: 3306
targetPort: 3306

此時,集群外是無法訪問這個Service的。對于需要k8s集群外的客戶端提供服務的Service,可以通過Ingress將服務暴露出去,并且如果該集群(網絡)擁有真實域名,則還能將Service直接與域名進行對接。

k8s將一個Ingress資源對象的定義和一個具體的Ingress Controller相結合來實現7層負載均衡器。Ingress Controller在轉發客戶請求到后端服務時,將跳過kube-proxy提供的4層負載均衡器的功能,直接轉發到Service的后端Pod(Endpoints),以提高網絡轉發效率。

如上圖展示了一個典型的HTTP層路由的Ingress例子,其中:

  • 對http://mywebsite.com/api的訪問將被路由到后端名為“api”的Service;
  • 對http://mywebsite.com/web的訪問將被路由到后端名為“web”的Service;
  • 對http://mywebsite.com/doc的訪問將被路由到后端名為“doc”的Service。

如下是一個典型的Ingress策略定義,Ingress Controller將對目標地址http://mywebsite.com/demo的訪問請求轉發到集群內部服務的webapp(webapp:8080/demo)

apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: mywebsite-ingress
spec:
rules:
-host:mywebsite.com
http:
paths:
- path: /demo
backend:
serviceName: webapp
servicePort: 8080

常用的Ingress Controller有:Nginx、HAProxy、Traefik、apisix等。

3.3 存儲資源

k8s支持的Volume類型

臨時目錄(emptyDir)

使用emptyDir,當Pod分配到Node上時,將會創建emptyDir,并且只要Node上的Pod一直運行,Volume就會一直存。當Pod(不管任何原因)從Node上被刪除時,emptyDir也同時會刪除,存儲的數據也將永久刪除。注:刪除容器不影響emptyDir。

配置類

  • ConfigMap:將保存在ConfigMap資源對象中的配置文件信息掛載到容器的某個目錄下
  • Secret:將保存在Secret資源對象中的密碼密鑰等信息掛載到容器內的某個文件中
  • DownwardApI:將downward API的數據以環境變量或文件的形式注入容器中
  • gitRepo:將某Git代碼庫掛載到容器內的某個目錄下
本地存儲類
  • hostPath:將宿主機的目錄或文件掛載到容器內進行使用
  • local:從v1.9版本引入,將本地存儲以PV形式提供給容器使用,并能夠給實現存儲空間的管理

共享存儲類

  • PV(Persistne Volume):將共享存儲定義為一種“持久存儲卷”,可以被多個容器共享使用
  • PVC(Persistne Volume Claim):用戶對存儲資源的一次“申請”,PVC申請的對象是PV,一旦申請成功,應用就能夠想使用本地目錄一樣使用共享存儲卷。下圖是一個PV對象ymal定義:
apiVersion: v1
kind: PersistentVolume
metadata:
name: example-pv
annotations:
"volume.alpha.kubernetes.io/node-affinity": '{
"requiredDuringSchedulingIgnoredDuringExecution": {
"nodeSelectorTerms": [
{ "matchExpressions": [
{ "key": "kubernetes.io/hostname",
"operator": "In",
"values": ["example-node"]
}
]}
]}
}'
spec:
capacity:
storage: 100Gi
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Delete
storageClassName: local-storage
local:
path: /mnt/disks/ssd1

PV與PVC

PV和PVC相互關系生命周期如上圖所示,k8s的共享存儲供應模式包括靜態模式(Static)和動態模式(Dynamic),資源供應的結果就是創建好的PV。運維人員手動創建PV就是靜態,而動態模式的關鍵就是StorageClass,它的作用就是創建PV模板。

創建StorageClass里面需要定義PV屬性比如存儲類型、大小等;另外創建這種PV需要用到存儲插件。最終效果是,用戶提交PVC,里面指定存儲類型,如果符合我們定義的StorageClass,則會為其自動創建PV并進行綁定。

下圖通過ymal創建一個StorageClass對象

kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
name: standard
provisioner: kubernetes.io/aws-ebs // 存儲分配器
parameters:
type: gp2
reclaimPolicy: Retain // 回收策略
mountOptions:
- debug

StorageClass和PV、PVC之間的運作關系如下圖所示:

CSI

CSI(Container Storage Interface)與k8s的關系與CNI有點類似,CSI旨在容器和共享存儲之間建議一套標準的存儲訪問接口。在它誕生前,經歷了“in-tree”方式、FlexVolume模式。

CSI規范用語將存儲供應商代碼與k8s代碼完全解耦,存儲插件的代碼由存儲供應商自行維護。

和kube-apiserver直接進行交互的是K8S官方直接提供的一些sidecar容器,這些sidecar直接部署即可。這些sidecar容器(主要是上圖的三個主要部件)監聽自己對應的CRD,觸發對應的操作,通過UDS接口直接調用CSI driver的接口(例如CreateVolume() 、NodePublishVolme()等)來實現對卷的操作。

要開發CSI Drivers一般來說實現以下幾個服務:

  • CSI Identity service

允許調用者(Kubernetes組件和CSI sidecar容器)識別驅動程序及其支持的可選功能。

  • CSI Node service

NodePublishVolume, NodeUnpublishVolume 和 NodeGetCapabilities 是必須的。

所需的方法使調用者能夠使卷在指定的路徑上可用,并發現驅動程序支持哪些可選功能。

  • CSI Controller Service

實現CreateVolume、DeleteVolume接口

3.4 多集群資源管理方案-集群聯邦(Federation)

Federation是Kubernetes的子項目,其設計目標是對多個Kubernetess集群進行統一管理,將用戶的應用部署到不同地域的數據中心。Federation引入了一個位于Kubernetes集群只上的控制平面,屏蔽了后端各k8s子集群,向客戶提供了統一的管理入口,如下圖:

Federation控制平面“封裝”了多個k8s集群的Master角色,提供了統一的Master,包括Federation API Server、Federation Controller Manafer,用戶可以向操作單個集群一樣操作Federation,還統一了全部k8s集群的DNS、ConfigMap,并將數據保存在集中的etcd數據庫中。

責任編輯:武曉燕 來源: 今日頭條
相關推薦

2013-08-01 11:31:50

存儲虛擬化虛擬化

2012-02-20 09:55:54

虛擬化虛擬化技術虛擬服務器

2011-12-31 09:37:36

虛擬化處理器虛擬化CPU

2021-08-31 20:21:11

VitessMySQL分庫

2015-06-30 10:00:44

Hyper虛擬化云計算

2013-09-30 10:28:51

虛擬化

2023-09-11 06:12:31

盒子模型CSS

2017-02-27 09:21:23

Kubernetes架構service

2011-11-19 15:53:59

虛擬化存儲虛擬化網絡虛擬化

2009-02-19 16:50:20

虛擬化虛擬機操作系統

2021-08-04 07:47:19

HTTP網絡協議

2020-06-05 14:29:07

PythonPandas數據分析

2020-09-23 14:20:07

Kubernetes容器網絡模型

2013-07-22 17:11:00

虛擬化云計算

2013-03-18 10:12:25

存儲虛擬化虛擬化技術

2021-06-01 09:27:53

Ast Go語言

2015-04-17 10:48:49

Docker虛擬化

2019-04-16 16:23:29

GPU虛擬化CPU

2012-04-06 11:09:36

戴爾

2009-04-14 19:39:55

虛擬化NovellIT
點贊
收藏

51CTO技術棧公眾號

国产欧美韩日| 国产一区二区三区精品久久久| 色一情一乱一乱一区91| 亚洲乱色熟女一区二区三区| 影音先锋久久精品| 亚洲午夜小视频| 国产成人av免费观看| 日韩精品极品| 国产精品成人网| 精品无人乱码一区二区三区的优势 | 国产在线精品视频| 午夜欧美不卡精品aaaaa| 日本理论中文字幕| 成人爽a毛片免费啪啪红桃视频| 色婷婷狠狠综合| 九一免费在线观看| 成人不用播放器| 成人精品视频一区二区三区| 国产精品永久在线| 97久久久久久久| 女人色偷偷aa久久天堂| 一区二区三区精品99久久 | 日韩在线精品强乱中文字幕| 色婷婷综合在线| 日韩视频在线视频| 黄色一级片在线观看| 久久亚洲精精品中文字幕早川悠里 | 国产高清亚洲一区| 日韩制服丝袜av| 日韩欧美区一区二| 簧片在线免费看| 182在线视频观看| 亚洲免费在线电影| 午夜久久资源| 国产区视频在线播放| proumb性欧美在线观看| 成人片在线免费看| 国产黄色片免费| 精品在线观看视频| 国产精品免费小视频| 国产精品免费精品一区| 在线欧美不卡| 欧美精品成人在线| 2019男人天堂| 国产欧美一区二区精品久久久| 亚洲第一区中文99精品| 一级全黄裸体片| 国产免费区一区二区三视频免费 | 成人午夜视频免费在线观看| heyzo高清中文字幕在线| 一区二区三区精品视频在线| 美国av在线播放| 黄视频网站在线看| 椎名由奈av一区二区三区| 亚洲黄色一区二区三区| eeuss影院在线播放| 久久久久久久久久久久久女国产乱| 精品视频一区二区| 免费国产在线视频| 久久久国产一区二区三区四区小说 | 91精品国产乱码久久久久久久久| 精品无码久久久久| 很黄很黄激情成人| 国内精品小视频在线观看| 日韩福利片在线观看| 91久久久久| 丁香另类激情小说| 久久人人爽人人| 国产无码精品一区二区| 亚洲乱码久久| 日本免费久久高清视频| 亚洲第一区av| 九九在线精品视频| 亚洲一区二区三区香蕉| 亚洲第一天堂网| 99精品久久只有精品| 久久99精品久久久久久久青青日本| 天堂在线视频免费| 久久九九久久九九| 亚洲制服中文| 中中文字幕av在线| 天天影视涩香欲综合网| 国产熟女高潮视频| 久久免费影院| 精品少妇一区二区| 国产又黄又粗又猛又爽的视频| 偷拍自拍亚洲色图| 国产人成亚洲第一网站在线播放| 免费99精品国产自在在线| 黄色一级片在线| 一区二区国产在线观看| 国产精品久久激情| 亚洲精品国产片| 91蝌蚪国产九色| 亚洲精品成人a8198a| 午夜伦理大片视频在线观看| 精品久久久久久中文字幕大豆网| 一级黄色香蕉视频| 免费精品一区二区三区在线观看| 日韩国产精品亚洲а∨天堂免| 美国美女黄色片| 欧美日韩在线大尺度| 热久久美女精品天天吊色| 国产精选久久久| 99久久er热在这里只有精品15 | 国模吧精品视频| 欧美精品做受xxx性少妇| 岛国av中文字幕| 国产精品69久久久久水密桃| 欧美一区二区三区四区五区六区| 在线免费观看a视频| 91久久国产最好的精华液| 欧美一区二区三级| 日本成人在线免费视频| 欧美黄色一级| 国产一区二区三区中文| 久久久久久久伊人| 精品一区二区三区在线播放视频 | 97国产精品久久| 亚洲中文字幕在线一区| 不卡一二三区首页| 爱爱爱视频网站| 成人美女黄网站| 精品欧美乱码久久久久久 | 91爱爱小视频k| 国产a级免费视频| 欧美国产日韩精品免费观看| 大j8黑人w巨大888a片| 免费一区二区三区在线视频| 日韩在线观看网站| 中国老头性行为xxxx| 91麻豆国产福利在线观看| 99久久99久久精品| 日韩成人在线电影| 伊人久久免费视频| www.国产毛片| 白白色 亚洲乱淫| 波多野结衣与黑人| 午夜精品久久久久久毛片| 一本色道久久88精品综合| 国产精品午夜影院| 国产99久久久久| 欧美大黑帍在线播放| 精品一区二区三区在线观看视频| 色爱精品视频一区| 中文字幕在线观看欧美| 欧美激情中文不卡| 国产视频一区二区视频| 国产欧美日韩影院| 国产精品v日韩精品| 成年人在线视频| 欧美在线影院一区二区| 欧美午夜激情影院| 男女男精品视频网| 亚洲巨乳在线观看| 国精品产品一区| 中文字幕欧美视频在线| 色一情一乱一伦一区二区三区日本| 最好看的日本字幕mv视频大全| 成人激情视频网站| 久久久性生活视频| 久久草在线视频| 69影院欧美专区视频| 亚州男人的天堂| 色婷婷一区二区| 手机看片日韩av| 麻豆精品在线看| 中文字幕免费高| 一区二区在线免费播放| 久久久久久成人精品| 天堂av一区二区三区| 欧美午夜xxx| 超碰97av在线| 国产中文字幕精品| 欧美久久在线观看| 伊人久久大香线蕉综合网站| 国产精品一区久久久| www视频在线免费观看| 精品国产91洋老外米糕| 亚洲伊人成人网| 日本一区二区三区四区| 亚洲网中文字幕| 最新成人av网站| 日韩欧美精品久久| 国产美女视频一区二区| 97视频在线播放| 自拍视频在线| 欧美成人猛片aaaaaaa| 精品国产免费观看| 中文成人综合网| 亚洲少妇中文字幕| 另类av一区二区| 偷拍盗摄高潮叫床对白清晰| 精品欧美午夜寂寞影院| 国产精品亚洲欧美导航| 欧美videosex性欧美黑吊| 亚洲视频免费一区| www.久久综合| 91精品福利视频| 国产精品日日夜夜| 日本一区二区动态图| 国产成人精品一区二区三区在线观看 | 手机av在线| 久久久精品久久久久| 天天影院图片亚洲| 日韩欧美一卡二卡| 奴色虐av一区二区三区| 亚洲一区二区在线免费观看视频 | 99国产精品国产精品久久| 麻豆传传媒久久久爱| 国内精品久久久久久久影视蜜臀| 秋霞毛片久久久久久久久| 最新国产一区二区| 国产精品吴梦梦| 自拍偷拍欧美视频| 色综合久久88| 欧美三级黄网| 国产亚洲激情在线| 天天综合在线视频| 日韩精品中文字幕一区| 一级黄色短视频| 欧美日韩另类字幕中文| 国产精品成人久久| 亚洲视频香蕉人妖| 精品丰满少妇一区二区三区| 久久午夜国产精品| 熟妇高潮一区二区| 国产成人午夜视频| www.桃色.com| 精品一二三四区| 黄色在线视频网| 久久综合图片| 毛片一区二区三区四区| 亚洲另类自拍| 国产精品专区在线| 亚洲第一伊人| 国产传媒久久久| 欧美精品三区| 伊人再见免费在线观看高清版| 日韩av久操| 亚洲精品一区二| 精品久久影视| 亚洲国产另类久久久精品极度| 久草成人在线| 欧美日韩一区二| 国产精品亚洲二区| 日本一区二区三区四区高清视频| 欧美女优在线视频| 日本不卡一二三区| 欧美最新另类人妖| 亚洲国产午夜伦理片大全在线观看网站| 九色成人国产蝌蚪91| 日本一区高清在线视频| 日韩成人精品一区| 日本特级黄色大片| 综合久久久久| 免费在线看黄色片| 国产日韩欧美一区在线| 日av中文字幕| 日本美女一区二区| 日本人69视频| 国产传媒日韩欧美成人| 韩国三级视频在线观看| 99久久777色| 国产亚洲欧美日韩美女| 国产女主播福利| 日韩精品一区二区三区中文精品 | 国产乱码一区二区三区| 中文字幕无人区二| 91麻豆国产香蕉久久精品| 影音先锋制服丝袜| 国产精品国产三级国产| 免费人成视频在线| 色综合久久久网| 一级黄色大片网站| 日韩免费成人网| 天堂av在线资源| 中文字幕视频在线免费欧美日韩综合在线看 | 亚洲国产天堂| 国产麻豆一区二区三区在线观看| 天堂综合网久久| 新呦u视频一区二区| 亚洲一本二本| 一本大道熟女人妻中文字幕在线 | 亚洲精品成人| 久艹视频在线免费观看| 日韩国产精品久久久| 国内精品国产三级国产aⅴ久| 成人h动漫精品| www.日本高清视频| 亚洲国产综合色| 久久永久免费视频| 日韩免费性生活视频播放| 内衣办公室在线| 欧美精品中文字幕一区| 成人一区福利| 91亚色免费| 精品国产一区二区三区香蕉沈先生| 中国黄色录像片| 久久午夜精品| 中文字幕avav| 欧美激情资源网| 国产乡下妇女做爰视频| 欧美性猛交xxxxxx富婆| 黄色一级大片在线免费看国产一 | 精品国产一区二区三区久久久久久| 欧美另类69xxxxx| 日韩精品一区二区免费| 久久se这里有精品| 天天躁日日躁aaaxxⅹ| 亚洲一区二区三区精品在线| 中文字幕在线播放av| 精品视频偷偷看在线观看| 在线观看a级片| 国产欧美日韩综合精品| 杨幂一区二区三区免费看视频| 97久久国产亚洲精品超碰热| 久久av资源网| 7777精品视频| 免费观看在线午夜影视| 国产成人福利视频| 欧美a一欧美| www.av91| 国产精品亚洲第一| 欧美a在线播放| 色婷婷综合久色| 午夜影院免费体验区| 欧美激情videos| 久久精品九色| 日本xxx免费| 国产真实乱偷精品视频免| 亚洲激情图片网| 在线亚洲欧美专区二区| 欧美精品少妇| 青草成人免费视频| 欧美日韩导航| 国产资源在线视频| 成人精品高清在线| 久久久久久久久久久久久久免费看| 在线电影院国产精品| 国产美女av在线| 91久久久久久久久久久| 欧美激情欧美| 欧美一级视频在线| **网站欧美大片在线观看| 91成人一区二区三区| 久久久国产精品亚洲一区| 久久综合偷偷噜噜噜色| 强伦女教师2:伦理在线观看| 韩国av一区二区| 男人的天堂久久久| 精品福利一二区| 久草在线资源福利站| 欧美精品七区| 日韩精品亚洲一区二区三区免费| 欧美人妻一区二区三区| 欧美视频在线一区| 国产91在线视频蝌蚪| 亚洲一区制服诱惑| 亚洲狠狠婷婷| 免费在线观看成年人视频| 色噜噜狠狠色综合欧洲selulu| av资源种子在线观看| 国产日韩欧美中文| 午夜精品电影| 无码国产69精品久久久久网站 | 91视频国产资源| 无码人妻一区二区三区线| 国产亚洲精品美女久久久| 四虎国产精品免费久久5151| 日本免费成人网| av日韩在线网站| 性高潮视频在线观看| 久久五月天色综合| 红杏一区二区三区| 麻豆传传媒久久久爱| 亚洲三级小视频| 天堂在线视频观看| 国产精品欧美一区二区三区奶水| 亚洲a在线视频| 五十路六十路七十路熟婆 | 国产喷水theporn| 亚洲欧美视频一区| 午夜视频福利在线观看| 国产精品美乳在线观看| 狠狠色狠狠色综合日日tαg| 一个人www欧美| 国产又色又爽又黄刺激在线视频| 久久综合中文色婷婷| 国内精品免费**视频| 日韩黄色精品视频| 色阁综合伊人av| 红杏视频成人| 制服丝袜中文字幕第一页 | 日韩综合在线观看| 久久精品国产一区二区三区| 精品国产一区二区三区成人影院 | 中文字幕免费精品一区| 成功精品影院| 久热精品在线观看视频|