精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

用于管理任何規模集群的十個必要的Ceph命令

存儲 存儲架構
使用這些基本的命令,您可以很好的處理日常Ceph集群管理。借助HyperDrive存儲管理器,你可以更輕松一些。

如果遵循部署和維護的最佳實踐,Ceph將變得很簡單和容易操作。以下是我們日常去管理我們內部和客戶的Ceph集群的一些最基本和最有用的命令。

一、status

首先也是最重要的命令是**ceph -s**** 或 **ceph status**,這通常是你在任何Ceph集群中想要運行的第一個命令。輸出的內容也包含了許多其他的命令輸出并合并到一起,可以查看集群的健康狀況、大小、使用量、和任何可能會發生的問題。**

**HEALTH_OK**是你想要找的,這表示你晚上可以睡個好覺了,而不是**HEALTH_WARN**或**HEALTH_ERR**,這可能表示驅動器或節點錯誤或故障。

其他關鍵的輸出是查看有多少個OSD在線或不在線,有多少服務在運行,例如rgw或cephfs,以及他們是如何運行的。

$ ceph -s
cluster:
id: 7c9d43ce-c945-449a-8a66-5f1407c7e47f
health: HEALTH_OK
services:
mon: 1 daemons, quorum danny-mon (age 2h)
mgr: danny-mon(active, since 2h)
osd: 36 osds: 36 up (since 2h), 36 in (since 2h)
rgw: 1 daemon active (danny-mgr)

task status:

data:
pools: 6 pools, 2208 pgs
objects: 187 objects, 1.2 KiB
usage: 2.3 TiB used, 327 TiB / 330 TiB avail
pgs: 2208 active+clean

二、osd tree

接下來是**ceph osd tree**,它提供了每個OSD的列表還包括類、權重、狀態,OSD所在的節點,以及任何重新加權或優先級。在OSD故障的情況下,這是你首先要查看的地方,比如說您需要查看OSD日志或本地節點故障一樣,這將為你提供正確的引導。OSD通常根據大小相互加權,因此1T OSD的權重是500G SSD的兩倍,以確保集群以相同的速率填滿OSD。

如果在tree中特定OSD存在問題,或者是你的集群規模很大,但你需要快速的在不使用grep以及滾動瀏覽文本輸出的情況下找到單個OSD的詳細狀態,你可以使用osd find,這個命令能夠幫助你通過單個命令識別OSD的IP地址和機架位置等。

$ ceph osd tree
ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
-1 329.69476 root default
-3 109.89825 host danny-1
0 hdd 9.15819 osd.0 up 1.00000 1.00000
1 hdd 9.15819 osd.1 up 1.00000 1.00000
2 hdd 9.15819 osd.2 up 1.00000 1.00000
3 hdd 9.15819 osd.3 up 1.00000 1.00000
4 hdd 9.15819 osd.4 up 1.00000 1.00000
5 hdd 9.15819 osd.5 up 1.00000 1.00000
6 hdd 9.15819 osd.6 up 1.00000 1.00000
-7 109.89825 host danny-2
12 hdd 9.15819 osd.12 up 1.00000 1.00000
13 hdd 9.15819 osd.13 up 1.00000 1.00000
14 hdd 9.15819 osd.14 up 1.00000 1.00000
15 hdd 9.15819 osd.15 up 1.00000 1.00000
16 hdd 9.15819 osd.16 up 1.00000 1.00000
17 hdd 9.15819 osd.17 up 1.00000 1.00000
-5 109.89825 host danny-3
24 hdd 9.15819 osd.24 up 1.00000 1.00000
25 hdd 9.15819 osd.25 up 1.00000 1.00000
26 hdd 9.15819 osd.26 up 1.00000 1.00000
27 hdd 9.15819 osd.27 up 1.00000 1.00000
28 hdd 9.15819 osd.28 up 1.00000 1.00000

$ ceph osd find37
{
"osd": 37,
"ip": "172.16.4.68:6804/636",
"crush_location": {
"datacenter": "pa2.ssdr",
"host": "lxc-ceph-main-front-osd-03.ssdr",
"physical-host": "store-front-03.ssdr",
"rack": "pa2-104.ssdr",
"root": "ssdr"
}
}

三、df

與 *nix df 命令類似,它告訴我們在大多數unix和linux系統中還有多少可用空間,ceph有它自己的df命令,**ceph df**,提供了我們集群中存儲量的概覽和細節,使用了多少和可用多少,以及它是如何在我們的池和存儲中區分的。

使用Ceph時將集群容量填滿是一個非常糟糕的主意,當你得到90%!的(MISSING)標記時,你需要添加新的存儲設備,并確保以合理的方式添加它以允許重新均衡,如果你的集群有大量活動的會話,這一點是尤為重要的。

$ ceph df
RAW STORAGE:
CLASS SIZE AVAIL USED RAW USED %RAW USED
hdd 330 TiB 327 TiB 2.3 TiB 2.3 TiB 0.69
TOTAL 330 TiB 327 TiB 2.3 TiB 2.3 TiB 0.69

POOLS:
POOL ID PGS STORED OBJECTS USED %USED MAX AVAIL
.rgw.root 1 32 1.2 KiB 4 768 KiB 0 104 TiB
default.rgw.control 2 32 0 B 8 0 B 0 104 TiB
default.rgw.meta 3 32 0 B 0 0 B 0 104 TiB
default.rgw.log 4 32 0 B 175 0 B 0 104 TiB
default.rgw.buckets.index 5 32 0 B 0 0 B 0 104 TiB
default.rgw.buckets.data 6 2048 0 B 0 0 B 0 104 TiB

四、osd pool ls detail

這是一個非常有用的快速查看存儲池的命令,但包含有關特定配置的更多信息,理想情況下,我們需要知道這個存儲池是糾刪碼還是三副本,在place內有什么樣的crush規則,最小尺寸是多少,在存儲池中有多少放置組,以及我們在特定的池中的應用程序。

$ ceph osd pool ls detail
pool 1 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode warn last_change 64 flags hashpspool stripe_width 0 application rgw
pool 2 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode warn last_change 68 flags hashpspool stripe_width 0 application rgw
pool 3 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode warn last_change 73 flags hashpspool stripe_width 0 application rgw
pool 4 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode warn last_change 71 flags hashpspool stripe_width 0 application rgw
pool 5 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode warn last_change 76 flags hashpspool stripe_width 0 application rgw
pool 6 'default.rgw.buckets.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 2048 pgp_num 2048 autoscale_mode warn last_change 83 lfor 0/0/81 flags hashpspool stripe_width 0 application rgw

五、osd crush rule dump

Crush rules是ceph cluster的核心,crush是ceph放置組算法,規則幫助我們定義如何在集群中放置數據,無論是驅動器、主機、節點、機柜還是數據中心,例如,我們需要強制要求我們的每個站點都需要至少一個數據副本用于鏡像存儲,我們會為我們的鏡像存儲池分配一個CRUSH規則來強制執行該行為,而不管我們有多少節點,可能在每一邊都有。

crush rule dump 是一個快速獲取crush rule列表以及如何在集群中定義他們的好方法,如果我們想要進行更改,我們可以使用大量的CRUSH命令來進行修改,或者,我們可以手動下載下來然后通過反編譯的方式以進行手動更改,重新編譯并將其推送回我們的集群。

$ ceph osd crush rule dump
[
{
"rule_id": 0,
"rule_name": "replicated_rule",
"ruleset": 0,
"type": 1,
"min_size": 1,
"max_size": 10,
"steps": [
{
"op": "take",
"item": -1,
"item_name": "default"
},
{
"op": "chooseleaf_firstn",
"num": 0,
"type": "host"
},
{
"op": "emit"
}
]
}
]

六、versions

在生產環境中運行分布式集群,一次升級所有內容任何和祈禱不出現問題問題,這顯然不是個好注意。為此,每個在ceph內的集群范圍的守護進程都有自己的版本并且能獨立升級,并使集群保持最新狀態,而不會或幾乎不中斷服務。

只要我們保持版本相互接近,不同版本的守護進程就可以完美的相互協作。這意味可能在升級過程中管理數百個不同的守護進程和各自的版本。輸入ceph version ,一個很簡單的查看正在運行的特定版本的守護進程實例。

$ ceph versions
{
"mon": {
"ceph version 14.2.15-2-g7407245e7b (7407245e7b329ac9d475f61e2cbf9f8c616505d6) nautilus (stable)": 1
},
"mgr": {
"ceph version 14.2.15-2-g7407245e7b (7407245e7b329ac9d475f61e2cbf9f8c616505d6) nautilus (stable)": 1
},
"osd": {
"ceph version 14.2.15-2-g7407245e7b (7407245e7b329ac9d475f61e2cbf9f8c616505d6) nautilus (stable)": 36
},
"mds": {},
"rgw": {
"ceph version 14.2.15-2-g7407245e7b (7407245e7b329ac9d475f61e2cbf9f8c616505d6) nautilus (stable)": 1
},
"overall": {
"ceph version 14.2.15-2-g7407245e7b (7407245e7b329ac9d475f61e2cbf9f8c616505d6) nautilus (stable)": 39
}
}


七、auth print-key

如果有很多不同的客戶端使用集群,我們需要從集群中拿到密鑰以便他們進行認證,使用ceph auth print-key命令是一個查看密鑰比較好的方法,比通過配置文件獲取要好一些。其他有用相關的命令是ceph auth list,這將列出整個集群中和守護進程的所有身份認證密鑰的完整列表,以及他們各自的功能。

$ ceph auth print-key client.admin
AQDgrLhg3qY1ChAAzzZPHCw2tYz/o+2RkpaSIg==d

八、crash ls

守護進程崩潰?發生這種情況的原因很多,但是ceph crash ls是首要的查看方法,我們將得到崩潰的線索,然后我們可以進一步的進行診斷,通常他們會有些次要的告警幫助更簡單的定位錯誤,但是crash能夠提供嚴肅的問題,其他一些有用的命令是ceph crash info ,它會給出在問題中的crash ID的更多信息,如果告警不必擔心的話,我們將存儲所有crash,或已經處理的問題。

$ ceph crash ls
1 daemons have recently crashed
osd.9 crashed on host danny-1 at 2021-03-06 07:28:12.665310Z

九、osd flags

有許多OSD flags是非常有用的,可以在OSDMAP_FLAGS** 查看到完整的列表,這里將一些場景的列出,如下**

  • pauserd, pausewr - 不再回應讀寫請求
  • noout - 如果守護進程由于某種原因失效,Ceph不會將OSD視為集群之外。
  • nobackfill, norecover, norebalance - 恢復和重新均衡處于關閉狀態

我們可以在下邊的演示看到如何使用ceph osd set命令設置這些標志,以及這如何影響我們的健康消息傳遞,另一個有用且相關的命令是通過簡單的bash擴展取出過的OSD的能力。

$ ceph osd out {7..11}
marked out osd.7. marked out osd.8. marked out osd.9. marked out osd.10. marked out osd.11.
$ ceph osd set noout
noout is set$ ceph osd set nobackfill
nobackfill is set

$ ceph osd set norecover
norecover is set

$ ceph osd set norebalance
norebalance is set
$ ceph osd set nodown
nodown is set

$ ceph osd set pause
pauserd,pausewr is set

$ ceph health detail
HEALTH_WARN pauserd,pausewr,nodown,noout,nobackfill,norebalance,norecover flag(s) set
OSDMAP_FLAGS pauserd,pausewr,nodown,noout,nobackfill,norebalance,norecover flag(s) set

十、pg dump

所有的數據計劃放到Ceph中,它提供了一個抽象層 - 類似數據buckets的bit(不是S3存儲桶) - 用于我們的存儲,并允許集群輕松決定如何分發數據并對故障做出最佳反應。詳細了解我們的放置組是如何在我們的OSD上映射的。或者相反的,我們可以使用pgdump完成兩種操作,雖然很多放置組命令可以非常冗長且難以閱讀,但ceph pg dump osds可以很好的將其提取到單個窗格中。

$ ceph pg dump osds
dumped osds
OSD_STAT USED AVAIL USED_RAW TOTAL HB_PEERS PG_SUM PRIMARY_PG_SUM
31 70 GiB 9.1 TiB 71 GiB 9.2 TiB [0,1,2,3,4,5,6,8,9,12,13,14,15,16,17,18,19,20,21,22,23,30,32] 175 72
13 70 GiB 9.1 TiB 71 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,10,11,12,14,24,25,26,27,28,29,30,31,32,33,34,35] 185 66
25 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,12,13,14,15,16,17,18,19,20,21,22,23,24,26] 180 64
32 83 GiB 9.1 TiB 84 GiB 9.2 TiB [0,1,2,3,4,5,6,7,12,13,14,15,16,17,18,19,20,21,22,23,31,33] 181 73
23 102 GiB 9.1 TiB 103 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,10,11,22,24,25,26,27,28,29,30,31,32,33,34,35] 191 69
18 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,10,11,17,19,24,25,26,27,28,29,30,31,32,33,34,35] 188 67
11 64 GiB 9.1 TiB 65 GiB 9.2 TiB [10,12,21,28,29,31,32,33,34,35] 0 0
8 90 GiB 9.1 TiB 91 GiB 9.2 TiB [1,2,7,9,14,15,21,27,30,33] 2 0
14 70 GiB 9.1 TiB 71 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,10,11,13,15,24,25,26,27,28,29,30,31,32,33,34,35] 177 64
33 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,12,13,14,15,16,17,18,19,20,21,22,23,32,34] 187 80
3 89 GiB 9.1 TiB 90 GiB 9.2 TiB [2,4,8,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35] 303 74
30 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,9,12,13,14,15,16,17,18,19,20,21,22,23,29,31] 179 76
15 71 GiB 9.1 TiB 72 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,10,11,14,16,24,25,26,27,28,29,30,31,32,33,34,35] 178 72
7 70 GiB 9.1 TiB 71 GiB 9.2 TiB [6,8,15,17,30,31,32,33,34,35] 0 0
28 90 GiB 9.1 TiB 91 GiB 9.2 TiB [0,1,2,3,4,5,6,7,9,12,13,14,15,16,17,18,19,20,21,22,23,27,29] 188 73
16 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,10,11,15,17,24,25,26,27,28,29,30,31,32,33,34,35] 183 66
1 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,2,8,9,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35] 324 70
26 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,12,13,14,15,16,17,18,19,20,21,22,23,25,27] 186 61
22 89 GiB 9.1 TiB 90 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,11,21,23,24,25,26,27,28,29,30,31,32,33,34,35] 178 80
0 103 GiB 9.1 TiB 104 GiB 9.2 TiB [1,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35] 308 83
5 70 GiB 9.1 TiB 71 GiB 9.2 TiB [4,6,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35] 312 69
21 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,10,11,20,22,24,25,26,27,28,29,30,31,32,33,34,35] 187 63
4 96 GiB 9.1 TiB 97 GiB 9.2 TiB [3,5,10,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35] 305 77
34 96 GiB 9.1 TiB 97 GiB 9.2 TiB [0,1,2,3,4,5,6,8,9,12,13,14,15,16,17,18,19,20,21,22,23,33,35] 189 73
17 96 GiB 9.1 TiB 97 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,10,11,16,18,24,25,26,27,28,29,30,31,32,33,34,35] 185 72
24 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,10,12,13,14,15,16,17,18,19,20,21,22,23,25] 186 73
10 76 GiB 9.1 TiB 77 GiB 9.2 TiB [4,9,11,15,17,18,25,29,34,35] 1 0
27 89 GiB 9.1 TiB 90 GiB 9.2 TiB [0,1,2,3,4,5,6,10,12,13,14,15,16,17,18,19,20,21,22,23,26,28] 185 75
2 77 GiB 9.1 TiB 78 GiB 9.2 TiB [1,3,8,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35] 310 62
19 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,10,11,18,20,24,25,26,27,28,29,30,31,32,33,34,35] 184 77
20 77 GiB 9.1 TiB 78 GiB 9.2 TiB [0,1,2,3,4,5,6,7,8,9,10,11,19,21,24,25,26,27,28,29,30,31,32,33,34,35] 183 69
35 96 GiB 9.1 TiB 97 GiB 9.2 TiB [0,1,2,3,4,5,6,12,13,14,15,16,17,18,19,20,21,22,23,34] 187 78
9 77 GiB 9.1 TiB 78 GiB 9.2 TiB [1,8,10,12,13,16,21,23,32,35] 1 0
6 83 GiB 9.1 TiB 84 GiB 9.2 TiB [5,7,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35] 323 58
12 89 GiB 9.1 TiB 90 GiB 9.2 TiB [0,1,2,3,4,5,6,8,9,10,11,13,24,25,26,27,28,29,30,31,32,33,34,35] 189 78
29 64 GiB 9.1 TiB 65 GiB 9.2 TiB [0,1,2,3,4,5,6,9,12,13,14,15,16,17,18,19,20,21,22,23,28,30] 185 74
sum 2.8 TiB 327 TiB 2.9 TiB 330 TiB

使用這些基本的命令,您可以很好的處理日常Ceph集群管理。借助HyperDrive存儲管理器,你可以更輕松一些。

就像孩子在使用計算器之前學習如何在紙上進行加法、減法、除法和乘法一樣,任何Ceph管理員都必須了解這些關鍵的Ceph命令,但是一旦他們掌握在您的掌控之下,那么為什么不使用HyperDrive Storage Manager讓集群管理更加簡單/或將簡單的管理任務委托給團隊中不太精通的人呢?

HyperDrive Storage Manager是一個功能強大、統一且直觀的系統,它從根本上簡化了對所有Ceph軟件和存儲硬件的管理,無論他們是HyperDrive還是通用存儲。

原文:https://softiron.com/blog/10-essential-ceph-commands-for-managing-any-cluster-at-any-scale/

責任編輯:武曉燕 來源: 新鈦云服
相關推薦

2023-10-07 11:36:15

2022-12-04 23:39:33

機器學習AutoML

2023-02-14 08:10:14

Python人工智能XAI

2017-12-12 14:50:33

數據庫MySQL命令

2022-03-21 10:48:02

IT行業變革管理IT領導者

2011-05-31 17:13:29

SEO

2013-08-27 15:03:18

PowerShell

2023-07-31 10:21:56

數據中心運營商

2023-12-14 17:34:22

Kubernetes集群K8s

2024-11-21 17:22:40

2025-03-18 00:10:00

2024-04-08 14:33:18

2024-01-02 22:12:15

Go代碼片段Golang

2022-07-30 23:35:49

軟件開發代碼編輯器Web

2013-04-08 09:11:39

2022-04-20 10:43:24

Linux命令

2023-12-06 18:06:37

Git開發

2023-09-12 06:55:27

2009-03-03 16:50:52

需求分析軟件需求需求管理

2012-10-29 09:30:47

HadoopHadoop集群Hadoop生態系統包
點贊
收藏

51CTO技術棧公眾號

国产精品欧美久久久久一区二区| 国产一区二区三区探花| 亚洲乱码国产乱码精品精可以看 | 欧美久久视频| 亚洲精品国精品久久99热| 欧美 日韩精品| 伊人在线视频| 成人av在线播放网址| 欧美乱妇40p| 日本少妇激三级做爰在线| 国产丝袜在线播放| 久久精品人人做| 国产mv免费观看入口亚洲| 日韩成人短视频| 亚洲女娇小黑人粗硬| 在线电影欧美成精品| 91好吊色国产欧美日韩在线| 亚洲精品传媒| www欧美成人18+| 成人av蜜桃| 国产又粗又猛又黄视频| 欧美日韩亚洲一区二区三区在线| 日韩精品一区二区三区中文不卡| 欧美亚洲色图视频| 岛国在线视频| 99国产精品久| 亚洲资源在线看| 欧美成人精品网站| 国产欧美不卡| 欧美大码xxxx| 91n在线视频| 日韩黄色三级| 亚洲视频你懂的| 日韩一区免费观看| 性xxxx搡xxxxx搡欧美| 免费欧美网站| 欧美午夜精品久久久| 一区二区不卡在线| 黄色大片在线看| 99re这里只有精品6| 操人视频欧美| 亚洲AV午夜精品| 免费视频一区| 97在线观看免费高清| 精品一区二区三区四| 人人网欧美视频| 精品国产乱码久久| 中文字幕无人区二| 日本一区二区三区视频在线看 | 欧洲亚洲一区二区| 最近中文字幕在线免费观看| 香蕉亚洲视频| 欧美在线观看网址综合| 久久精品国产成人av| 一区二区久久| 欧美怡春院一区二区三区| 天天操天天爽天天干| 日韩午夜免费视频| 97视频在线观看成人| 91精品国产乱码在线观看| 精品91视频| 午夜精品在线视频| 国产尤物在线视频| 国产女优一区| 日韩免费观看av| 在线观看你懂的网站| 蜜臀国产一区二区三区在线播放| 欧美激情一二三| 国产一级生活片| 日韩综合网站| 久热99视频在线观看| 欧美黑人性猛交xxx| 精品一区免费| 中文字幕在线日韩 | 国产精品免费视频观看| 国产一区福利视频| 国产成人av免费看| 成人深夜视频在线观看| 久久久久久亚洲精品不卡4k岛国| a视频免费在线观看| 高清在线不卡av| 精品一区二区不卡| 成人在线免费公开观看视频| 中文字幕日韩一区| 人妻av无码专区| 伊人久久国产| 天天色天天操综合| 99草草国产熟女视频在线| 51一区二区三区| 欧美mv和日韩mv国产网站| 制服丝袜中文字幕第一页| 欧美色片在线观看| 91精品国产91久久综合桃花 | 欧美丰满一区二区免费视频| 女人扒开腿免费视频app| 美腿丝袜亚洲图片| 国产一区二区三区在线| 一区二区视频免费看| 亚洲区欧美区| 成人av番号网| 亚洲香蕉在线视频| 成人午夜av在线| 亚洲精美视频| 免费黄色电影在线观看| 亚洲成人免费电影| 小明看看成人免费视频| 久久久久97| 久久天天躁狠狠躁夜夜av| 日韩精品人妻中文字幕| 毛片av一区二区| 精品人伦一区二区三区 | 精品捆绑美女sm三区| 中文字幕一二三四区| 综合久久亚洲| 国产精品视频精品| 国产有码在线观看| 久久婷婷国产综合精品青草| 日韩专区第三页| 成人在线视频观看| 亚洲精品自拍第一页| av激情在线观看| 午夜久久影院| 国产精品自拍偷拍| 激情综合闲人网| 五月天婷婷综合| 91福利视频免费观看| 成人一区而且| 国产999在线| 性xxxx视频| 国产日产欧美一区二区视频| 无码免费一区二区三区免费播放 | 国产精品一久久香蕉国产线看观看| 欧美片一区二区| 亚洲先锋成人| 亚洲在线www| 瑟瑟视频在线| 欧美日韩午夜精品| 人妻aⅴ无码一区二区三区| 亚洲精品极品| 国产精品二区在线观看| 2024最新电影在线免费观看| 欧美精品丝袜中出| 强制高潮抽搐sm调教高h| 日韩电影在线观看电影| 欧美三级电影在线播放| 亚洲国产欧美日本视频| 国产丝袜精品第一页| 日本一区二区不卡在线| 福利一区福利二区| 成人免费看片'免费看| 97久久亚洲| 久久久免费高清电视剧观看| 日韩一级片免费在线观看| 亚洲五码中文字幕| 污污网站免费看| 成人av动漫在线观看| 国产精品中文久久久久久久| 一广人看www在线观看免费视频| 亚洲在线免费播放| 国产综合内射日韩久| 91久久夜色精品国产九色| 国产精品免费区二区三区观看| 国产1区2区3区在线| 欧美中文字幕亚洲一区二区va在线| 日本wwww色| 极品中文字幕一区| 欧美日韩高清在线一区| 无人区在线高清完整免费版 一区二| 欧美v日韩v国产v| 国产亚洲色婷婷久久99精品| 成人激情动漫在线观看| 国产乱子伦农村叉叉叉| 精品日韩一区| 成人激情电影一区二区| 国产区美女在线| 亚洲人成在线观| 国产精品无码一区二区桃花视频| 久久精子c满五个校花| 116极品美女午夜一级| 精品久久久久久久久久久aⅴ| 1769国产精品| av福利在线播放| 91精品国产综合久久久久久久 | 国产精品久久久久久久久晋中| 成人小视频在线看| 成人久久一区| 亚洲一区中文字幕在线观看| 多野结衣av一区| 在线精品91av| 人人妻人人澡人人爽久久av| 在线视频国产一区| 欧美激情一区二区视频| 26uuu久久天堂性欧美| 欧美成人免费在线观看视频| 精品久久成人| 国产综合动作在线观看| 福利视频亚洲| 77777亚洲午夜久久多人| 婷婷在线视频观看| 日韩精品小视频| 无码人妻精品一区二区三区不卡| 久久久亚洲高清| www.久久com| 手机精品视频在线观看| 丁香色欲久久久久久综合网| 精品国产乱码久久久久久1区2匹| 国产精品久久久久国产a级| 怡红院在线观看| 中文字幕国产日韩| 色久视频在线播放| 日韩午夜在线观看| 中文字幕永久免费视频| 国产精品家庭影院| 日韩网站在线播放| 国产成人精品三级麻豆| av日韩在线看| 国产精品国产一区| 日韩欧美视频第二区| 久久资源综合| 成人免费在线看片| 久久亚洲精精品中文字幕| 国产极品jizzhd欧美| 精品欧美色视频网站在线观看| 91精品中文字幕一区二区三区| 欧美精品色哟哟| 中文字幕中文在线不卡住| 亚洲做受高潮无遮挡| 久久精品国产成人一区二区三区| 中文字幕精品在线播放| 日韩精品水蜜桃| 欧洲一区二区在线观看| 欧美调教在线| 国产综合第一页| 激情欧美一区二区三区黑长吊| 欧美猛交ⅹxxx乱大交视频| 色的视频在线免费看| 国产一区二区三区丝袜| 岛国在线视频| 中文字幕久久亚洲| www.国产精品.com| 亚洲深夜福利网站| av一区二区三| 欧美一区二区福利在线| 国产欧美久久久| 91精品在线麻豆| 99热这里是精品| 日韩一级黄色片| 精品久久久免费视频| 日韩视频国产视频| 波多野结衣视频免费观看| 日韩欧美亚洲综合| 人妻 日韩精品 中文字幕| 富二代精品短视频| 亚洲国产成人无码av在线| 色婷婷综合视频在线观看| 国产嫩bbwbbw高潮| 在线观看一区二区视频| 日本中文字幕免费观看| 亚洲.国产.中文慕字在线| 亚洲精品视频在线观看免费视频| 亚洲欧美在线aaa| 国产精品99久久久久久成人| 亚洲男女一区二区三区| 久久久香蕉视频| 精品国产91久久久久久老师| 中国一级片在线观看| 亚洲精品视频在线观看免费| xxxx日本少妇| 亚洲国产精品久久久男人的天堂| 日韩激情小视频| 亚洲美女少妇撒尿| 国产成人精品亚洲男人的天堂| 国产精品区一区二区三| 一级黄色片大全| 中文字幕日韩欧美一区二区三区| 日本少妇xxxxx| 亚洲天堂久久久久久久| 国产精彩视频在线观看| 色婷婷av一区二区| 国产精品久久综合青草亚洲AV| 欧美丝袜丝交足nylons图片| 国产又黄又粗又长| 欧美午夜精品免费| 国产又粗又猛又爽又| 5858s免费视频成人| 欧美视频xxx| 一区二区三区高清国产| caoporn97在线视频| 91av在线影院| 亚洲影视资源| 久草精品电影| 97精品一区二区| 九九九九免费视频| 久久99精品国产.久久久久 | 国产美女一区视频| 欧美精品日韩三级| 在线看女人毛片| 日韩免费视频在线观看| 精品一区二区三区免费看| 久久大片网站| 国产欧美日韩影院| 成人短视频在线观看免费| 天堂蜜桃一区二区三区| 中文字幕无人区二| 国产精品久久久久久久久快鸭| 久久精品国产亚洲AV成人婷婷| 国产精品久久久久久久岛一牛影视| 亚洲综合第一区| 天涯成人国产亚洲精品一区av| 麻豆精品久久久久久久99蜜桃| 色婷婷综合久久| 丰满熟妇乱又伦| 中文字幕国产亚洲2019| 中文字幕在线看片| 波多野结衣成人在线| 99精品全国免费观看视频软件| 四虎精品欧美一区二区免费| 久久狠狠婷婷| 日本护士做爰视频| 亚洲精品精品亚洲| 亚洲综合精品在线| 亚洲人成免费电影| 久久精品视频免费看| 国产999在线观看| 美女一区二区在线观看| 激情成人开心网| 国产精品一区免费在线观看| 操她视频在线观看| 在线免费不卡视频| 欧美午夜黄色| 欧美在线观看一区二区三区| 综合激情网...| 在线丝袜欧美日韩制服| 欧美午夜不卡| 无码无遮挡又大又爽又黄的视频| 日韩一区欧美二区| aaaaa级少妇高潮大片免费看| 中文字幕中文在线不卡住| 久久久久久av无码免费看大片| 91精品国产综合久久精品性色 | 欧美午夜在线播放| 一区二区三区国产福利| 日本va欧美va精品| 欧美 日韩 国产 成人 在线观看| 亚洲欧美日韩国产一区二区三区| 天堂网av手机版| 亚洲国产精品一区二区三区| 韩国日本一区| 国产日本一区二区三区| 91视频综合| 992kp免费看片| 亚洲精品高清在线| 午夜精品久久久久久久99热黄桃 | 麻豆免费在线视频| 91精品国产综合久久香蕉922 | 日韩黄在线观看| 一区二区精品伦理...| 欧美精品欧美精品系列c| 久久久久看片| 国产在视频线精品视频| 欧美视频日韩视频在线观看| 日本不卡三区| 亚洲综合色av| 日韩欧美网址| 亚洲一二区在线观看| 亚洲精品久久嫩草网站秘色| 亚洲精品无amm毛片| 91av福利视频| 成人一区二区| 欧美视频免费播放| 成人午夜又粗又硬又大| 国产成人愉拍精品久久| 日韩精品一区在线| 欧美黑人激情| 99影视tv| 综合精品一区| 欲求不满的岳中文字幕| 一本久久a久久精品亚洲| 欧洲成人一区二区三区| 欧美情侣性视频| 亚洲最好看的视频| 国产一二三区av| 亚洲一区二区三区四区在线| 青春有你2免费观看完整版在线播放高清| 欧美理论片在线观看| 美女av一区| 国产成人在线免费看| 中文字幕免费在线观看视频一区| 久久精品久久久久久久| 最近2019年手机中文字幕| 日韩欧美中文在线观看| 欧美黄色免费影院| 亚洲精品成a人| 九色蝌蚪在线| 97在线资源站| 日韩成人午夜精品| 国产一级淫片免费| 亚洲国产97在线精品一区| 成人精品高清在线视频| 欧美图片激情小说|