精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

分布式存儲系統 Ceph 介紹與環境部署

存儲 存儲架構
Ceph是當前非常流行的開源分布式存儲系統,具有高擴展性、高性能、高可靠性等優點,同時提供塊存儲服務(rbd)、對象存儲服務(rgw)以及文件系統存儲服務(cephfs),Ceph在存儲的時候充分利用存儲節點的計算能力,在存儲每一個數據時都會通過計算得出該數據的位置,盡量的分布均衡。目前也是OpenStack的主流后端存儲。

一、概述

Ceph是當前非常流行的開源分布式存儲系統,具有高擴展性、高性能、高可靠性等優點,同時提供塊存儲服務(rbd)、對象存儲服務(rgw)以及文件系統存儲服務(cephfs),Ceph在存儲的時候充分利用存儲節點的計算能力,在存儲每一個數據時都會通過計算得出該數據的位置,盡量的分布均衡。目前也是OpenStack的主流后端存儲。

特點:

  • 高性能摒棄了傳統的集中式存儲元數據尋址的方案,采用CRUSH算法,數據分布均衡,并行度高。考慮了容災域的隔離,能夠實現各類負載的副本放置規則,例如跨機房、機架感知等。能夠支持上千個存儲節點的規模,支持TB到PB級的數據。
  • 高可用性副本數可以靈活控制。支持故障域分隔,數據強一致性。多種故障場景自動進行修復自愈。沒有單點故障,自動管理。
  • 高可擴展性去中心化。擴展靈活。隨著節點增加而線性增長。
  • 特性豐富支持三種存儲接口:塊存儲、文件存儲、對象存儲。支持自定義接口,支持多種語言驅動。

GitHub地址:https://github.com/ceph/ceph
官方文檔:https://docs.ceph.com/en/latest/start/intro/

二、Ceph 架構

支持三種接口:

  • Object:有原生的API,而且也兼容Swift和S3的API。
  • Block:支持精簡配置、快照、克隆。
  • File:Posix接口,支持快照。

  • RADOS——全稱Reliable Autonomic Distributed Object Store,即可靠的、自動化的、分布式對象存儲系統。RADOS是Ceph集群的精華,用戶實現數據分配、Failover等集群操作。
  • Librados——Rados提供庫,因為RADOS是協議很難直接訪問,因此上層的RBD、RGW和CephFS都是通過librados訪問的,目前提供PHP、Ruby、Java、Python、C和C++支持。
  • MDS——存儲Ceph文件系統的元數據。

三、Ceph核心組件介紹

  • OSD——OSD是負責物理存儲的進程,一般配置成和磁盤一一對應,一塊磁盤啟動一個OSD進程。主要功能是存儲數據、復制數據、平衡數據、恢復數據,以及與其它OSD間進行心跳檢查,負責響應客戶端請求返回具體數據的進程等。

OSD 是Ceph集群中存儲實際用戶數據的惟一組件,通常,一個OSD守護進程綁定到集群中的一個物理磁盤。因此,通常來說,Ceph集群中物理磁盤的總數與在每個物理磁盤上存儲用戶數據的OSD守護進程的總數相同。

  • PG——ceph中引入了PG(placement group)的概念,PG是一個虛擬的概念而已,并不對應什么實體。ceph先將object映射成PG,然后從PG映射成OSD。

  • Pool——Pool是存儲對象的邏輯分區,它規定了數據冗余的類型和對應的副本分布策略,支持兩種類型:副本(replicated)和 糾刪碼( Erasure Code)。

Pool、PG和OSD的關系:

一個Pool里有很多PG;
一個PG里包含一堆對象,一個對象只能屬于一個PG;
PG有主從之分,一個PG分布在不同的OSD上(針對三副本類型);
  • Monitor監控——一個Ceph集群需要多個Monitor組成的小集群,它們通過Paxos同步數據,用來保存OSD的元數據。負責監控整個Ceph集群運行的Map視圖(如OSD Map、Monitor Map、PG Map和CRUSH Map),維護集群的健康狀態,維護展示集群狀態的各種圖表,管理集群客戶端認證與授權。
  • MDS——MDS全稱Ceph Metadata Server,是CephFS服務依賴的元數據服務。負責保存文件系統的元數據,管理目錄結構。對象存儲和塊設備存儲不需要元數據服務; 如果不使用CephFS可以不安裝。
  • Mgr——ceph 官方開發了 ceph-mgr,主要目標實現 ceph 集群的管理,為外界提供統一的入口。例如cephmetrics、zabbix、calamari、prometheus。

Ceph manager守護進程(Ceph -mgr)是在Kraken版本中引入的,它與monitor守護進程一起運行,為外部監視和管理系統提供額外的監視和接口。

  • RGW——RGW全稱RADOS gateway,是Ceph對外提供的對象存儲服務,接口與S3和Swift兼容。
  • CephFS——ceph文件系統提供了一個符合posix標準的文件系統,它使用Ceph存儲集群在文件系統上存儲用戶數據。與RBD(塊存儲)和RGW(對象存儲)一樣,CephFS服務也作為librados的本機接口實現。

四、Ceph 三種存儲類型

1)塊存儲服務(RBD)

塊是一個字節序列(通常為 512)。 基于塊的存儲接口是一種成熟且常見的數據存儲方式 介質包括硬盤、固態硬盤、CD、軟盤,甚至磁帶。 塊設備接口的無處不在非常適合交互 具有包括 Ceph 在內的海量數據存儲。Ceph 數據塊設備可精簡配置、可調整大小,并按條帶方式存儲數據在多個 OSD。

優點:

  • 通過Raid與LVM等手段,對數據提供了保護;
  • 多塊廉價的硬盤組合起來,提高容量;
  • 多塊磁盤組合出來的邏輯盤,提升讀寫效率;

缺點:

  • 采用SAN架構組網時,光纖交換機,造價成本高;
  • 主機之間無法共享數據;

使用場景:

  • docker容器、虛擬機磁盤存儲分配;
  • 日志存儲;
  • 文件存儲;

總結: 一個Linux內核級的塊設備,允許用戶像任何其他Linux塊設備一樣訪問Ceph。

2)文件系統存儲服務(CephFS)

Ceph 文件系統(CephFS),是建立在 Ceph 分布式對象存儲的頂部, CephFS提供了最先進的、多用途、高度可用且高性能的文件存儲在各種場景應用,包括共享home目錄、FTP和NFS 共享存儲等等。

Ceph有了塊存儲,為什么還需要文件系統接口呢?

主要是因為應用場景的不同,Ceph的塊設備具有優異的讀寫性能,但不能多處掛載同時讀寫,目前主要用在OpenStack上作為虛擬磁盤,而Ceph的文件系統接口讀寫性能較塊設備接口差,但具有優異的 共享性。

優點:

  • 造價低,隨便一臺機器就可以了。
  • 方便文件共享。

缺點:

  • 讀寫速率低。
  • 傳輸速率慢。

使用場景:

  • 日志存儲。
  • 有目錄結構的文件存儲。

3)對象存儲服務(RGW)

Ceph 對象網關 是構建在 librados.它在應用程序和 Ceph 之間提供了一個 RESTful 網關。 存儲集群。 Ceph 對象存儲 支持兩種接口:

  • S3 兼容: 通過接口提供對象存儲功能 與 Amazon S3 RESTful API 的大部分子集兼容。
  • 快速兼容: 通過接口提供對象存儲功能 與 OpenStack Swift API 的一大塊子集兼容。

優點:

  • 具備塊存儲的讀寫高速。
  • 具備文件存儲的共享等特性。

使用場景:

  • 圖片存儲。
  • 視頻存儲。

五、Ceph版本發行生命周期

Ceph從Nautilus版本(14.2.0)開始,每年都會有一個新的穩定版發行,預計是每年的3月份發布,每年的新版本都會起一個新的名稱(例如,“Mimic”)和一個主版本號(例如,13 代表 Mimic,因為“M”是字母表的第 13 個字母)。

版本號的格式為x.y.z,x表示發布周期(例如,13 代表 Mimic,17代表Quincy),y表示發布版本類型,即

  • x.0.z - y等于0,表示開發版本
  • x.1.z - y等于1,表示發布候選版本(用于測試集群)
  • x.2.z - y等于2,表示穩定/錯誤修復版本(針對用戶)

Octopus版本后使用cephadm來部署ceph集群,如果使用cephadm部署,在后期新的版本升級時,可以做到完全自動化,并可以通過ceph -W cephadm查看升級進度,升級完成后,無法降級,升級時請不要跨版本升級,例如:當前使用Octopus升級到Quincy,要先把Octopus升級到Pacific,然后在升級至Quincy,這是最穩妥的方式。

穩定版本的生命周期在第一個發布月份后,大約2年時間將停止該版本的更新維護,具體版本發布時間見下表。

六、Ceph 集群部署

Ceph的部署工具:

  • ceph-deploy:官方的部署工具,不再積極維護ceph-deploy。它不支持RHEL8,CentOS 8或更新的操作系統。
  • ceph-ansible:紅帽的部署工具
  • ceph-chef:利用chef進行自動部署Ceph的工具
  • puppet-ceph:puppet的ceph模塊
  • cephadm——cephadm 僅支援 Octopus 及更新版本(推薦)。

1)集群部署規劃

IP

hostname

角色

磁盤

操作系統

192.168.182.130

local-168-182-130

monitor,mgr,rgw,mds,osd

2*20G

centos7

192.168.182.131

local-168-182-131

monitor,mgr,rgw,mds,osd

2*20G

centos7

192.168.182.132

local-168-182-132

monitor,mgr,rgw,mds,osd

2*20G

centos7

  • monitor:Ceph監視管理節點,承擔Ceph集群重要的管理任務,一般需要3或5個節點。
  • mgr: Ceph 集群管理節點(manager),為外界提供統一的入口。
  • rgw: Ceph對象網關,是一種服務,使客戶端能夠利用標準對象存儲API來訪問Ceph集群。
  • mds:Ceph元數據服務器,MetaData Server,主要保存的文件系統服務的元數據,使用文件存儲時才需要該組件。
  • osd:Ceph存儲節點Object Storage Daemon,實際負責數據存儲的節點。

2)前期準備

  • 關閉filewalld服務
systemctl stop firewalld.service
systemctl disable firewalld.service
  • 2、關閉并禁用SELinux
sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config
setenforce 0
  • 3、配置hosts
192.168.182.130 local-168-182-130
192.168.182.131 local-168-182-131
192.168.182.132 local-168-182-132
  • 4、ssh免密配置
ssh-keygen
# ...一路Enter
ssh-copy-id root@local-168-182-130 //會有一次密碼輸入
ssh-copy-id root@local-168-182-131
ssh-copy-id root@local-168-182-132
  • 4、配置時間同步
yum install -y chrony
systemctl enable --now chronyd

3)添加磁盤

如果添加完磁盤,看不到,可以執行以下命令:

# 重新掃描SCSI總線添加設備
echo "- - -" > /sys/class/scsi_host/host0/scan
echo "- - -" > /sys/class/scsi_host/host1/scan
echo "- - -" > /sys/class/scsi_host/host2/scan

4)安裝docker :(所有節點操作,包括新增)

# centos7
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

# 安裝yum-config-manager配置工具
yum -y install yum-utils
# 設置yum源
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
# 安裝docker-ce版本
yum install -y docker-ce

#啟動docker服務并開機自啟
systemctl enable --now docker

# 查看版本號
docker --version
# 查看版本具體信息
docker version

# Docker鏡像源設置
# 修改文件 /etc/docker/daemon.json,沒有這個文件就創建
# 添加以下內容后,重啟docker服務:
cat >/etc/docker/daemon.json<<EOF
{
"registry-mirrors": ["http://hub-mirror.c.163.com"]
}
EOF

systemctl restart docker

5)安裝cephadm

下載cephadm腳本: (只在主節點操作)

mkdir -p /opt/ceph/my-cluster ; cd /opt/ceph/my-cluster
curl --silent --remote-name --location https://github.com/ceph/ceph/raw/octopus/src/cephadm/cephadm -o cephadm
chmod +x cephadm
# 或者:
#curl https://raw.githubusercontent.com/ceph/ceph/v15.2.1/src/cephadm/cephadm -o cephadm
#chmod +x cephadm
#//**//下載出錯:配置/etc/hosts 文件--—> 199.232.28.133 raw.githubusercontent.com

# 安裝python3:(所有節點執行)
yum install python3 -y

# 配置ceph存儲庫 :(或指定版本)
./cephadm add-repo --release octopus
#或
#./cephadm add-repo --version 15.2.1

# 開始安裝ceph-common,ceph工具
./cephadm install ceph-common ceph
# 安裝cephadm工具
./cephadm install
which cephadm
which ceph

6)初始化 ceph 集群

當前節點安裝 mon、 mgr 角色,部署 prometheus、 grafana、 alertmanager、 node-exporter等服務。

#先安裝一個節點,其它節點通過后面的命令添加到集群中即可
#您需要知道用于集群的第一個監視器守護程序的IP地址。
#如果有多個網絡和接口,要確保選擇任何可供訪問Ceph群集的主機訪問的網絡和接口。

cephadm bootstrap --mon-ip 192.168.182.130

##### 命令特點:

#在本地主機上為新集群創建監視和管理器守護程序。
#為Ceph集群生成一個新的SSH密鑰,并將其添加到root用戶的/root/.ssh/authorized_keys文件中。
#將與新集群進行通信所需的最小配置文件編寫為/etc/ceph/ceph.conf
#將client.admin管理密鑰的副本寫入/etc/ceph/ceph.client.admin.keyring
#將公用密鑰的副本寫入 /etc/ceph/ceph.pub

# 查看部署的服務
docker ps

#=======輸出信息=======
Ceph Dashboard is now available at:

URL: https://local-168-182-130:8443/
User: admin
Password: 0ard2l57ji

You can access the Ceph CLI with:

sudo /usr/sbin/cephadm shell --fsid d1e9b986-89b8-11ed-bec2-000c29ca76a9 -c /etc/ceph/ceph.conf -k /etc/ceph/ceph.client.admin.keyring

Please consider enabling telemetry to help improve Ceph:

ceph telemetry on

For more information see:

https://docs.ceph.com/docs/master/mgr/telemetry/

根據提示可知,有個web地址:https://ip:8443/,這里的截圖是部署完之后的截圖。

通過ceph命令查看集群狀態

ceph -s

7)添加新節點

在新主機的根用戶authorized_keys文件中安裝群集的公共SSH密鑰 :

ssh-copy-id -f -i /etc/ceph/ceph.pub root@local-168-182-131
ssh-copy-id -f -i /etc/ceph/ceph.pub root@local-168-182-132

配置新節點

ceph orch host add local-168-182-131
ceph orch host add local-168-182-132

#第一次部署新節點時直接用上邊的命令即可:
#但是之后的節點新增有可能上述命令出錯:
ceph orch host add local-168-182-131 192.168.182.133 #后邊跟上對應的IP

# 查看節點
ceph orch host ls

8)部署監視器(monitor)

# ceph orch apply mon *<number-of-monitors>*
# 確保在此列表中包括第一臺(引導)主機。
ceph orch apply mon local-168-182-130,local-168-182-131,local-168-182-132

9)部署 osd

存儲設備清單可以顯示為:

ceph orch device ls

可用存儲設備的條件:

  • 設備必須沒有分區。
  • 設備不得具有任何LVM狀態。
  • 不得安裝設備。
  • 該設備不得包含文件系統。
  • 該設備不得包含Ceph BlueStore OSD。
  • 設備必須大于5 GB。

創建osd的方式:

# 【第一種方式】告訴Ceph使用任何可用和未使用的存儲設備:
ceph orch apply osd --all-available-devices

# 【第二種方式】或者使用下面命令指定使用的磁盤(推薦使用這種方式吧)
#1. ceph orch daemon add osd *<host>*:*<device-path>*
#例如:
#從特定主機上的特定設備創建OSD:
ceph orch daemon add osd local-168-182-130:/dev/sdb
ceph orch daemon add osd local-168-182-130:/dev/sdc

ceph orch daemon add osd local-168-182-131:/dev/sdb
ceph orch daemon add osd local-168-182-131:/dev/sdc

ceph orch daemon add osd local-168-182-132:/dev/sdb
ceph orch daemon add osd local-168-182-132:/dev/sdc

刪除OSD節點:(安全)

#1.停止osd進程
ceph osd stop x //(x 可以通過ceph osd ls 查看)
#停止osd的進程,這個是通知集群這個osd進程不在了,不提供服務了,因為本身沒權重,就不會影響到整體的分布,也就沒有遷移
#2.將節點狀態標記為out
ceph osd out osd.x
#停止到osd的進程,這個是通知集群這個osd不再映射數據了,不提供服務了,因為本身沒權重,就不會影響到整體的分布,也就沒有遷移
#3. 從crush中移除節點
ceph osd crush remove osd.x
這個是從crush中刪除,
#4. 刪除節點
ceph osd rm osd.x
這個是從集群里面刪除這個節點的記錄ls
#5. 刪除節點認證(不刪除編號會占住)
ceph auth del osd.x
這個是從認證當中去刪除這個節點的信息

10)部署mds(cephFS元數據守護程序)

# ceph orch apply mds *<fs-name>* --placement="*<num-daemons>* [*<host1>* ...]"

ceph orch apply mds myfs --placement="3 local-168-182-130 local-168-182-131 local-168-182-132"

11)部署RGW

# 為特定領域和區域部署一組radosgw守護程序:
# ceph orch apply rgw *<realm-name>* *<zone-name>* --placement="*<num-daemons>* [*<host1>* ...]"

ceph orch apply rgw myorg us-east-1 --placement="3 local-168-182-130 local-168-182-131 local-168-182-132"

###說明:
#myorg : 領域名 (realm-name)
#us-east-1: 區域名 (zone-name)myrgw

#Cephadm將等待運行正常的群集,并在部署rgw守護程序之前自動創建所提供的領域和區域(realm-name和zone-name不存在的情況)

查看集群狀態

ceph -s

12)添加專用的ceph-mgr節點

# ceph-mgr節點默認會挑選一主一備
# 添加新節點
ceph orch host add local-168-182-131 192.168.182.133

# 部署ceph-mgr
ceph orch apply mgr local-168-182-130,local-168-182-131,local-168-182-132

# ceph orch apply mgr local-168-182-130,local-168-182-131,local-168-182-132,local-168-182-133

責任編輯:武曉燕 來源: 今日頭條
相關推薦

2021-07-04 07:07:06

Ceph分布式存儲架構

2021-08-07 05:00:20

存儲系統

2018-10-29 12:42:23

Ceph分布式存儲

2017-04-14 09:48:25

分布式存儲系統

2017-06-06 14:25:54

CentOS 7Ceph分布式存儲系統

2018-09-29 14:08:04

存儲系統分布式

2014-05-19 16:41:29

紅帽

2017-11-22 10:23:32

存儲系統VeSpace

2018-11-15 12:35:25

Ceph分布式存儲

2019-07-05 15:01:32

區塊鏈系統分布式存儲

2017-10-16 10:24:47

LogDevice存儲系統

2017-07-18 09:51:36

文件存儲系統

2017-10-17 08:33:31

存儲系統分布式

2017-12-18 10:47:04

分布式存儲數據

2017-09-04 08:49:17

存儲原理架構

2017-10-19 08:45:15

存儲系統HBase

2017-10-12 09:36:54

分布式存儲系統

2018-11-20 09:19:58

存儲系統雪崩效應

2024-11-26 07:56:30

2013-12-27 10:56:42

分布式對象存儲Sheepdog性能測試
點贊
收藏

51CTO技術棧公眾號

黄色美女视频在线观看| 国产又黄又粗又硬| 神马午夜久久| 色老综合老女人久久久| 日韩欧美一区二区三区四区五区| 波多野结衣激情视频| 五月久久久综合一区二区小说| 日韩欧美一级二级三级 | 1000部精品久久久久久久久| 亚洲欧美日韩另类| 日韩成人av免费| 免费毛片b在线观看| 中文字幕高清一区| 国产精品视频入口| 美女黄页在线观看| 今天的高清视频免费播放成人| 亚洲欧洲在线播放| 亚洲成a人无码| 久久久成人av毛片免费观看| 亚洲猫色日本管| 欧美日韩在线不卡一区| 精品国产乱码一区二区三| 亚洲在线黄色| 欧美成人性生活| 538精品视频| 牛牛精品成人免费视频| 欧美福利电影网| www.亚洲天堂网| 精精国产xxxx视频在线| 久久久国际精品| 国产日韩亚洲精品| 国产99视频在线| 久久99精品久久久久久动态图 | 日韩精品久久久久久久| 日韩一区自拍| 一区二区三区美女xx视频| 中文字幕在线播放一区| 亚洲图色一区二区三区| 欧美三级欧美一级| 久久久久免费精品| 亚洲日本天堂| 精品久久久久久亚洲国产300| 亚洲av首页在线| 日韩专区在线| 中文成人av在线| 日本一区二区精品视频| 亚洲三级黄色片| 白白色亚洲国产精品| 99re国产视频| 国产成人精品亚洲精品色欲| 久久精品国产在热久久| 国产精品美女久久| 国产精品熟女视频| 石原莉奈在线亚洲二区| 日本高清不卡的在线| 久久久久久久99| 亚洲高清免费| 97免费视频在线| 国产手机在线视频| 亚洲美女一区| 欧美亚洲国产视频| 丰满少妇xoxoxo视频| 亚洲一区区二区| 欧美一级大片视频| 无码一区二区三区在线观看| 久久亚洲国产精品一区二区| 国产精品video| 91尤物国产福利在线观看| 美女免费视频一区| 91系列在线观看| 精品黑人一区二区三区在线观看| 国产69精品一区二区亚洲孕妇 | 女人抽搐喷水高潮国产精品| 日韩电影免费观看中文字幕 | a级片在线视频| 国产成人综合网| 国产一区二区免费在线观看| 欧美在线观看在线观看| 国产日韩欧美综合一区| 国产系列第一页| 亚洲制服国产| 无码av免费一区二区三区试看| 国产精品宾馆在线精品酒店| 日韩在线观看不卡| 欧美一个色资源| 中国xxxx性xxxx产国| 亚洲欧洲免费| www.亚洲男人天堂| 久久影院一区二区| 老司机精品视频网站| 成人免费观看a| 亚洲毛片在线播放| 国产视频一区二区在线观看| 精品一区二区成人免费视频| xxx在线免费观看| 色综合天天综合网天天看片| 手机av在线免费| 日本一区二区三区视频在线看| 日韩hd视频在线观看| 九九九视频在线观看| 国内精品久久久久久久影视麻豆| 国产91精品久久久久久久| 国产精品久久久久久久久毛片| 国产成人自拍高清视频在线免费播放| 久久国产精品精品国产色婷婷| av中文资源在线| 亚洲一区二区综合| 日本免费观看网站| 国产成人精品福利| 怡红院精品视频| 日本少妇久久久| 麻豆国产精品一区二区三区 | 无需播放器的av| 亚洲三级av| 色哟哟入口国产精品| 久久高清免费视频| 麻豆传媒一区二区三区| 久久本道综合色狠狠五月| 黄色av网站在线播放| 午夜欧美在线一二页| 久久精品国产露脸对白| 精品一区亚洲| 午夜精品福利电影| 国产免费黄色录像| 欧美国产精品久久| 各处沟厕大尺度偷拍女厕嘘嘘 | 快播亚洲色图| 国产探花视频在线观看| 678五月天丁香亚洲综合网| 这里只有久久精品| 99精品国产在热久久下载| 亚洲综合在线播放| 色综合久久影院| 欧洲色大大久久| 一出一进一爽一粗一大视频| 欧美精品观看| 444亚洲人体| 久久久久久久久免费视频| 欧美性一区二区| 欧美成人午夜精品免费| 国产欧美91| 国产精品麻豆免费版| 日韩免费影院| 欧美一区二区网站| 91九色丨porny丨极品女神| 免费在线观看成人| 亚洲国产精品一区二区第一页| 免费成人美女女| 亚洲欧美激情四射在线日| 成人午夜淫片100集| 99视频一区二区| 国产成人艳妇aa视频在线 | 日日夜夜精品免费视频| 欧美日韩一区在线视频| 奇米777日韩| 国产午夜精品全部视频播放| 探花国产精品一区二区| 国产精品三级av在线播放| 欧美精品性生活| 人人狠狠综合久久亚洲婷| 国产精品视频播放| 欧美激情视频在线播放| 91精品在线观看入口| caoporn91| 高清日韩电视剧大全免费| 97在线国产视频| 国产精品黄网站| 57pao成人国产永久免费| 精品亚洲成a人片在线观看| 日本福利一区二区| www..com.cn蕾丝视频在线观看免费版 | 成人黄色av网站在线| 国产无限制自拍| 综合干狼人综合首页| 国产精品久久不能| 岛国中文字幕在线| 欧美精品一区二区三区蜜桃视频| 日韩av片在线播放| 国产欧美日韩精品一区| 日韩av片专区| 亚洲精品欧洲| 日韩精品久久久免费观看| 99re8精品视频在线观看| 欧美日韩成人在线播放| 四虎在线观看| 欧美日韩一区二区不卡| 精品视频久久久久| 久久久一区二区三区| xxxx在线免费观看| 99国产精品自拍| 在线成人性视频| 国产精品videossex| 国产成人午夜视频网址| 中文字幕中文字幕在线中高清免费版| 亚洲精品成人av| 在线黄色av网站| 亚洲成人自拍偷拍| 国产三级在线观看完整版| 国产不卡视频在线观看| 亚洲视频在线观看一区二区三区| 综合天堂av久久久久久久| 精品999在线观看| 亚洲伦理一区二区| 4p变态网欧美系列| 在线观看电影av| 国产亚洲精品激情久久| 亚洲精品久久久蜜桃动漫| 日本韩国欧美三级| 国产在线拍揄自揄拍| 国产精品国产三级国产普通话99| 波多野结衣影院| 精品一区二区三区视频在线观看 | 亚洲最大网站| 免费不卡在线观看av| 国产区视频在线| 精品捆绑美女sm三区| 自拍偷拍色综合| 亚洲r级在线视频| 成年人午夜剧场| 中文字幕乱码亚洲精品一区| 六十路息与子猛烈交尾| 国产一区二区三区高清播放| 一区二区三区视频在线观看免费| 亚洲视频二区| 九九热只有这里有精品| 久久精品欧美一区| 四虎影院一区二区三区 | 亚洲成人av在线| 国产三区在线播放| 欧美偷拍一区二区| 超碰中文字幕在线| 午夜精品福利一区二区三区av| 国产午夜精品理论片| 日本一区二区高清| 日本爱爱爱视频| 久久综合久久99| 亚洲最大的黄色网| 成人不卡免费av| av不卡中文字幕| 国产不卡一区视频| 日本少妇xxx| 国产精品自拍三区| 999热精品视频| 国产毛片一区二区| 91视频福利网| 国产美女视频91| 久久久福利影院| 国产在线精品一区二区不卡了 | 久久精品视频5| 欧美日韩国产中字| 亚洲午夜18毛片在线看| 欧美体内谢she精2性欧美| 久久国产黄色片| 91福利在线导航| 中文字幕福利视频| 欧美日韩视频在线第一区| 伊人成人在线观看| 欧美美女一区二区| 国产深喉视频一区二区| 日韩久久久久久| 蜜桃av噜噜一区二区三区麻豆| 欧美v亚洲v综合ⅴ国产v| 日本免费一区视频| 亚洲精品狠狠操| 伦理片一区二区三区| 在线观看中文字幕亚洲| 免费av在线| 日韩在线欧美在线国产在线| 日本电影全部在线观看网站视频| 久久中文字幕在线视频| 福利写真视频网站在线| 88国产精品欧美一区二区三区| 桃色一区二区| 91老司机在线| 都市激情亚洲欧美| 欧美日韩电影一区二区三区| 日韩欧美不卡| 久久久久久久香蕉| 一区二区三区福利| 亚洲一区在线不卡| 国产成人精品三级麻豆| 久久久久国产精品无码免费看| 久久精品人人做人人综合| 萌白酱视频在线| 亚洲一卡二卡三卡四卡| 欧美一区免费看| 7799精品视频| 神马久久久久| 久久久国产精品视频| 2021中文字幕在线| 国产欧美日韩中文| 久久久久观看| 一本久久a久久精品vr综合| 欧美视频不卡| www.涩涩涩| 成人福利电影精品一区二区在线观看| 免费在线观看你懂的| 亚洲精品一二三区| 日本熟女毛茸茸| 日韩欧美国产成人一区二区| 酒色婷婷桃色成人免费av网| 另类视频在线观看| 欧美黑人疯狂性受xxxxx野外| 亚洲自拍偷拍在线| 色综合综合网| 欧美亚洲色图视频| 免费高清成人在线| 一级少妇精品久久久久久久| 国产精品女主播在线观看| 日韩女同强女同hd| 在线综合亚洲欧美在线视频| 毛片在线播放网站| 欧美精品激情在线观看| 四虎成人精品一区二区免费网站| 九九99玖玖| 欧美日韩视频| 老司机久久精品| 久久久久久一二三区| 国产精品999久久久| 91精品国产综合久久小美女| 国产香蕉视频在线看| 91国内揄拍国内精品对白| 欧美1区2区3| 一区不卡字幕| 日韩成人伦理电影在线观看| 久久久久国产精品区片区无码| 樱桃视频在线观看一区| 91女人18毛片水多国产| 在线精品高清中文字幕| 日本美女一区| 久久免费视频1| 在线一区欧美| 亚洲少妇一区二区三区| 一区二区三区四区视频精品免费 | 欧美mv日韩mv| 99在线播放| 成人女保姆的销魂服务| 成人在线免费视频观看| 亚洲色精品三区二区一区| 91老司机福利 在线| 日韩精品无码一区二区| 精品日韩一区二区三区| 污污片在线免费视频| 99久久精品免费看国产四区| 欧美~级网站不卡| 亚洲精品在线网址| 亚洲欧美日韩久久| 国产色片在线观看| 九九久久综合网站| 日韩高清一区| 蜜臀av性久久久久蜜臀av| 国产另类ts人妖一区二区| 一起操在线播放| 日韩限制级电影在线观看| 自由的xxxx在线视频| 粉嫩av四季av绯色av第一区| 亚洲一本视频| 国产中文字幕一区二区| 日韩欧美成人精品| 国产区视频在线| 成人黄色av播放免费| 一区二区三区午夜视频| 欧美一级大片免费看| 亚洲午夜在线观看视频在线| 天天舔天天干天天操| 日本成人在线视频网址| sdde在线播放一区二区| 欧美wwwwwww| 亚洲精品高清在线观看| 特黄aaaaaaaaa真人毛片| 日本不卡免费高清视频| 久久国产成人精品| 韩国三级与黑人| 五月婷婷久久综合| 成黄免费在线| 91青青草免费观看| 夜夜嗨网站十八久久| 九九九视频在线观看| 欧美日本韩国一区| 男人添女人下部高潮视频在线观看 | 久久久久久久久久久电影| 曰批又黄又爽免费视频| 九九视频这里只有精品| 天天躁日日躁成人字幕aⅴ| 色哟哟精品视频| 亚洲免费视频中文字幕| 国产精品国产高清国产| 国产日韩在线播放| 激情国产一区| 中文字幕av久久爽一区| 欧美xxxxxxxxx| 成人精品高清在线视频| 久久综合久久久久| 国产农村妇女毛片精品久久麻豆| 99久久国产热无码精品免费| 91av在线播放| 亚洲最新色图| 妺妺窝人体色WWW精品| 精品国产乱码久久| 美女视频一区|