精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

QEMU/KVM + Ceph Librbd 性能測試以及深度優化

存儲 存儲架構
對于 16K 的 IO,qemu+librbd 經過仔細調優后,可以從單個 VM 實現 64-67K 的隨機寫入 IOPS 和 123K 的隨機讀取 IOPS。即使在使用 libssl 的 AES-NI 支持時,在 Ceph 中啟用 128 位在線 AES 加密也會對性能產生顯著影響(30% 以上)。

?介紹

圖片

最近,很多人都會問:如何設置 QEMU/KVM 以獲取最高的性能?

雖然,過去很多人都在測試或者使用 Ceph 過程中進行調優設置以獲取最佳性能,但到目前而言,還沒有一個最優的最新數據。通常,我們在使用 Ceph 的時候,有經驗的工程師往往會通過消除系統高級別的性能瓶頸來優化。

這可能意味著可能會通過 librbd 與同步 IO 隔離測試單個OSD的延遲,或者使用大量有高 IO 深度的客戶端在裸機上的 OSD 集群上產生大量IO。在這種情況下,請求是用大量并發 IO 驅動由 librbd 支持的單個 QEMU/KVM,并查看其速度。

下文,我們將了解 QEMU/KVM 在使用 Ceph 的 librbd 驅動程序時的執行速度。

集群設置

圖片

所有節點都位于同一個 Juniper QFX5200 交換機上,并通過單個 100GbE QSFP28 鏈路連接。雖然集群有 10 個節點,但在決定最終設置之前我們也評估了各種配置。最終使用 5 個節點作為 OSD 主機,總共有 30 個 NVMe 支持的 OSD。

此設置的預期總體性能約為 1M 隨機讀取 IOPS 和至少 250K 隨機寫入 IOPS(在 3 副本的場景下),這足以測試單個 VM 的 QEMU/KVM 性能。集群中剩余的一個節點用作 VM 客戶端主機。不過,在配置 VM 之前,使用 CBT (https://github.com/ceph/cbt/) 構建了幾個測試集群,并使用 fio 的 librbd 引擎運行測試工作負載以獲得基線結果。

基線測試

CBT 的配置為匹配 Ceph 環境修改了一些,而不是使用默認的配置。首先,禁用了 rbd 緩存 (1),每個 OSD 被分配了一個 8GB 的 OSD 內存 traget,并且在初始測試中禁用了 cephx ,并且使用 msgr V1(但在以后的測試中使用安全模式下的 msgr V2 啟用了 cephx)。創建集群后,CBT 配置為使用帶有 librbd 引擎的 fio 創建一個 6TB RBD 卷,然后通過 iodepth=128 的 fio 執行 16KB 隨機讀取 5 分鐘。由于使用 CBT 重新創建集群和運行多個基線測試非常簡單,因此,下面測試了幾種不同的集群大小以獲得 librbd 引擎和基于 kernel-rbd 的 libaio 引擎的基線結果。

在集群級別禁用 RBD 緩存將對使用 librbd 引擎的 fio 有效,但不會對 QEMU/KVM 的 librbd 驅動程序有效。相反,cache=none 必須通過 qemu-kvm 的驅動部分顯式傳遞。

圖片

Kernel-RBD 在從單個 OSD 讀取時表現非常出色,但 Librbd 在完整的 30 個 OSD Ceph 集群中以略高于 122K IOPS 的速度實現了最高性能。librbd 和 kernel-rbd 在 5 OSD Ceph 集群上的表現幾乎一樣。

盡管如此,在 5 個節點、30 個 OSD Ceph 集群上我們執行了進一步的測試。此場景更好地模仿了用戶在小規模但更貼近真實環境并且配置 NVMe 的 Ceph 集群上可能看到的結果。

虛擬機部署

使用 RBD 部署和引導 QEMU 虛擬機鏡像相當簡單了。

1. 下載鏡像

使用了 CentOS8 Stream qcow2 映像,并注入了 root 密碼和公鑰以便于訪問:

wget https://cloud.centos.org/centos/8-stream/x86_64/images/CentOS-Stream-GenericCloud-8-20220913.0.x86_64.qcow2
virt-sysprep -a ~/CentOS-Stream-GenericCloud-8-20220913.0.x86_64.qcow2 --root-password password:123456 --ssh-inject root:file:/home/nhm/.ssh/id_rsa.pub

2. RBD 鏡像池創建、初始化和設置 LibVirt 身份驗證

這用于存儲 RBD 鏡像。

sudo /usr/local/bin/ceph osd pool create libvirt-pool 
sudo /usr/local/bin/rbd pool init libvirt-pool
sudo /usr/local/bin/ceph auth get-or-create client.libvirt mon 'profile rbd' osd 'profile rbd pool=libvirt-pool'

3. 將 qcow2 鏡像轉換為 Ceph RBD 鏡像并調整大小

調整它的大小,以便為基準測試留出一些空間!

qemu-img convert -f qcow2 -O raw ./CentOS-Stream-GenericCloud-8-20220913.0.x86_64.qcow2 rbd:libvirt-pool/CentOS8 
qemu-img resize rbd:libvirt-pool/CentOS8 6000G

4. 完成設置虛擬機并預填充基準數據

最后,從 RBD 啟動 VM,登錄,設置分區,并預填充 FIO 文件以進行測試。在這種情況下,僅使用了 20GB 的鏡像部分,但不要擔心。稍后將在真正的 XFS 文件系統上生成更大 (2TB) 文件的結果。

/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,file=rbd:libvirt-pool/CentOS8 -net nic -net user,hostfwd=tcp::2222-:22
ssh -p 2222 root@localhost
sudo yum install fio
cfdisk /dev/sda # Create a 2TB partition here (maximum size due to the partition type for image, oh well)
fio --ioengine=libaio --rw=write --numjobs=1 --bs=4M --iodepth=128 --size=20G --name=/dev/sda2

對 VM 進行基準測試

1. 默認情況

眾所周知,在 ide 和 virtio-blk 等 qemu 設備之間存在相當顯著的性能差異。QEMU/KVM 配置為使用其默認值的性能如何?

/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,file=rbd:libvirt-pool/CentOS8 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/sda2
read: IOPS=2484, BW=38.8MiB/s (40.7MB/s)(11.4GiB/300001msec)

結果慘不忍睹!那virtio-blk 又是怎么樣的了?

2. 使用 virtio-blk-pci

/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,file=rbd:libvirt-pool/CentOS8 -device virtio-blk-pci,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=24.9k, BW=390MiB/s (409MB/s)(114GiB/300005msec)

結果有很大的進步。現在是時候添加一個單獨的 iothread。

3. 添加單獨的 IO 線程

?
/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,file=rbd:libvirt-pool/CentOS8 -object iothread,id=iothread0 -device virtio-blk-pci,iothread=iothread0,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=26.0k, BW=407MiB/s (426MB/s)(119GiB/300005msec) 

結果更好,但其實仍然很慢。此時,我使用 ( uwpmp (https://github.com/markhpc/uwpmp/) ) 分析了 QEMU/KVM。有各種各樣的問題,包括不匹配的 debug symbols 和其他煩人的問題。為了防止結果不標準,我們進行了數十次測試。最終推動測試繼續的是對 QEMU 調用 librbd 緩存層的 wallclock 配置文件調整。QEMU 中的 librbd 驅動程序會覆蓋 Ceph 全局配置中設置的內容。要在 QEMU/KVM 中禁用 RBD 緩存(這在告訴集群上很重要),必須在 qemu-kvm 的驅動器配置中明確設置 cache=none。

4. 禁用 LibRBD 驅動器緩存

/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,cache=none,file=rbd:libvirt-pool/CentOS8 -object iothread,id=iothread0 -device virtio-blk-pci,iothread=iothread0,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=53.5k, BW=836MiB/s (876MB/s)(245GiB/300003msec)

禁用 LibRBD 緩存帶來了相當大的性能改進,但幸運的是這還沒有結束。在運行 wallclock profiler 時,我們注意到不僅有大量時間花在 rbd 緩存上,還有 libc 內存分配例程。Ceph 的內存模型通常涉及創建許多小的臨時對象,這些對象會分割內存并且對內存分配器來說非常困難。TCMalloc(和 JEMalloc)傾向于比 libc malloc 更好地處理 Ceph 的行為。幸運的是,可以通過 LD_PRELOAD 指令注入 TCMalloc。

5. 將內存分配器切換到 TCMalloc

LD_PRELOAD="/usr/lib64/libtcmalloc.so" /usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,cache=none,file=rbd:libvirt-pool/CentOS8 -device virtio-blk-pci,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=80.0k, BW=1250MiB/s (1311MB/s)(366GiB/300003msec)

結果變得更好了,但它可以更快嗎?

6. 使用新版本的 LibRBD

目前本次測試使用的是CentOS Stream8自帶的系統版本librbd。它已經很老了,后面的版本有顯著的改進。這些主要與由 Adam Emerson 編寫并由 Jason Dillaman 在 RBD 中實現的 boost::asio IO 路徑返工有關。可以設置 LD_LIBRARY_PATH 來告訴 qemu-kvm 使用編譯 Ceph (v16.2.9) 時安裝在 /usr/local 中的新版本 librbd。

LD_LIBRARY_PATH=/usr/local/lib:/usr/local/lib64
LD_PRELOAD="/usr/lib64/libtcmalloc.so" /usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,cache=none,aio=native,file=rbd:libvirt-pool/CentOS8 -object iothread,id=iothread0 -device virtio-blk-pci,iothread=iothread0,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=126k, BW=1964MiB/s (2060MB/s)(575GiB/300002msec)

新版本的 librbd 顯著提高了性能,現在的結果比直接使用 librbd 的基線 fio 測試要快一些!

更大鏡像的測試

到目前為止,只有一個直接位于 RBD 塊設備上的小型 (20G) 數據集用于測試。為了使這些測試更真實,更接近我們的基線測試,可以安裝一個 XFS 文件系統并預填充 2TB 的數據(遺憾的是受到前面提到的分區大小限制)。

mkfs.xfs /dev/vda2
mount /dev/vda2 /mnt
fio --ioengine=libaio --direct=1 --rw=write --numjobs=1 --bs=4M --iodepth=16 --size=2000G --name=/mnt/foo
write: IOPS=607, BW=2429MiB/s (2547MB/s)(2000GiB/843305msec); 0 zone resets

不錯。即使 iodepth=16 相當適中,fio 也能夠以大致 NVMe 的速度填充 RBD 卷。16K randread 工作量怎么樣?

16K 隨機讀取

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=2000G --numjobs=1 --runtime=300 --time_based --name=/mnt/foo
read: IOPS=123k, BW=1916MiB/s (2009MB/s)(561GiB/300002msec)

16K 隨機寫入怎么樣?

16K 隨機寫入

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randwrite --norandommap --size=2000G --numjobs=1 --runtime=300 --time_based --name=/mnt/foo
write: IOPS=64.1k, BW=1001MiB/s (1050MB/s)(293GiB/300003msec); 0 zone resets

不如本地 NVMe 驅動器快,但對于單個 VM 來說還不錯。值得注意的是,在隨機讀取測試期間,Ceph 的所有三個異步 msgr 線程都以 100% 的 CPU 運行。在測試運行時使用 ( uwpmp (https://github.com/markhpc/uwpmp/) )查看 qemu-kvm 進程,發現正在進行相當多的工作,但在 librbd 端沒有明顯的快速優化區域。然而,將 boost::asio 帶入堆棧更深可能會提供額外的改進。

進一步的 QEMU 優化?

完成上述測試后,我聯系了 QEMU 維護者 Stefan Hajnoczi 以獲得他對結果的看法。他提供了幾個額外的選擇來嘗試:

  • 較新的 --blockdev rbd,node-name=rbd0,cache.direct=on,pool=libvirt-pool,image=CentOS8 參數省略了 “raw'” 驅動程序以實現微小的加速...I / O請求直接進行使用這種新參數從模擬的 virtio-blk 設備到 rbd 驅動程序。
  • 使用 -M q35 獲得現代機器類型。

事實證明,測試這很容易,我們可以使用新參數重新啟動 qemu-kvm:

LD_LIBRARY_PATH=/usr/local/lib:/usr/local/lib64
LD_PRELOAD="/usr/lib64/libtcmalloc.so" /usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 --blockdev rbd,node-name=rbd0,cache.direct=on,pool=libvirt-pool,image=CentOS8 -M q35 -object iothread,id=iothread0 -device virtio-blk-pci,iothread=iothread0,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

最終,性能非常接近,使用新命令的讀取速度可能稍慢,寫入速度稍快,但需要進一步測試以了解結果是否具有統計相關性。

圖片

Msgr V2 和 AES 加密

到目前為止,這些測試都使用了完全禁用 CephX 的 Msgr V1。這不是運行真實集群的一種非常現實的方式。唯一應該像這樣配置集群的情況是,網絡以及 Ceph 客戶端是完全可靠信任的。Ceph 的默認身份驗證模式允許身份驗證和防止中間人攻擊。Ceph 還可以在“安全”模式下運行,該模式還提供 AES-128-GCM 在線加密。這可以通過將幾個 Ceph 配置選項設置為“安全”來啟用:

ms_client_mode = secure
ms_cluster_mode = secure
ms_service_mode = secure
ms_mon_client_mode = secure
ms_mon_cluster_mode = secure
ms_mon_service_mode = secure

這些設置對基線測試中的客戶端性能有多大影響?

圖片

這里的下降似乎并不算太糟糕,但是從上面的“更大鏡像的測試”部分重復 QEMU/KVM 隨機讀取測試導致得分約為 87K IOPS,而沒有加密時為 123K IOPS。在 qemu-kvm 進程中,異步 msgr 線程仍然固定在 100%,但是這次(反向)wallclock 配置文件看起來有點不同:

+ 14.00% _aesni_ctr32_ghash_6x
|+ 14.00% aesni_gcm_decrypt
| + 14.00% aes_gcm_cipher
| + 14.00% EVP_DecryptUpdate
| + 14.00% ceph::crypto::onwire::AES128GCM_OnWireRxHandler::authenticated_decrypt_update(ceph::buffer::v15_2_0::list&)
| + 14.00% ceph::msgr::v2::FrameAssembler::disasm_remaining_secure_rev1(ceph::buffer::v15_2_0::list*, ceph::buffer::v15_2_0::list&) const

作為框架組裝工作的一部分,每個異步 msgr 線程至少花費 14% 的時間在 libssl 的 EVP_DecryptUpdate 函數中。值得注意的是,即使在這個 AMD Rome 處理器上,libssl 似乎也能正確使用 AES-NI 指令。仔細查看代碼,似乎對于每一幀,Ceph 都會遍歷每個段并依次解密各個緩沖區(每個段可能有多個!)。IE 的偽代碼看起來像這樣:

Disassemble first segment
Disassemble remaining segments
For each Segment in Segments:
For each buffer in Segment:
convert buffer to c string
call EVP_DecryptUpdate on c string

也許如果可以一次解密更大的數據塊,那么這里的 AES-NI 開銷就可以減少。但是什么大小真的很重要?Openssl 提供了一個速度測試,可以幫助縮小范圍:

openssl speed -evp aes-128-gcm -decrypt

圖片

看來,在這個處理器上,當我們只處理 16K 塊并利用一個完整的核心來進行 AES 解密時,我們應該能夠達到接近 4GB/s(256K 塊/秒)的速度。即使是 1-8K 的塊處理速度也很快,但非常小的塊對解密性能有重大影響。

這可能有助于解釋啟用安全模式時的性能損失。如果 3 個 IO 線程中的每一個都在 libssl 函數中花費 14-20% 的時間(并非所有都顯示在上面的配置文件片段中),那么根據 openssl 速度測試,預期應該可以實現 120-130K IOPS。如果可以減少 msgr 線程之間的爭用,那么額外的 msgr 線程可能能夠以增加 CPU 使用率為代價來提高性能。

結論

這篇文章介紹了如何為 VM 存儲調整以及優化 QEMU/KVM 和 librbd 的性能。

對于 16K 的 IO,qemu+librbd 經過仔細調優后,可以從單個 VM 實現 64-67K 的隨機寫入 IOPS 和 123K 的隨機讀取 IOPS。即使在使用 libssl 的 AES-NI 支持時,在 Ceph 中啟用 128 位在線 AES 加密也會對性能產生顯著影響(30% 以上)。

在加密和未加密的情況下,性能似乎主要受到飽和 msgr 線程的限制。有一些跡象表明,線程之間的爭用可能在限制單客戶端性能方面發揮了作用。在啟用AES加密的情況下,幀段的分解和解密順序可能會影響性能。似乎沒有證據表明 virtio-blk-pci 達到了極限。

*原文鏈接:https://ceph.io/en/news/blog/2022/qemu-kvm-tuning/

責任編輯:武曉燕 來源: 新鈦云服
相關推薦

2010-04-12 10:46:02

Oracle性能測試

2021-10-26 11:21:50

WindowsCeph性能

2010-08-14 21:59:35

2015-04-03 10:43:49

2015-07-28 14:18:21

Ceph性能測試優化

2015-02-09 09:57:56

Ceph 塊設備OpenStackLinux

2013-06-08 14:19:05

性能優化KVM

2023-02-02 08:04:15

Ceph數據CPU

2015-07-09 13:19:17

Ceph分布式存儲性能調優

2022-08-23 08:00:59

磁盤性能網絡

2023-12-01 08:01:59

鏡像Ceph

2023-03-21 14:59:18

2010-06-04 11:00:27

hadoop性能優化

2022-10-19 08:01:17

QuincyCephPG

2023-08-17 16:51:00

虛擬化QEMUKVM

2018-06-27 08:21:31

前端Web渲染

2021-03-28 18:23:22

Linux虛擬化Virtqueue

2022-08-31 08:04:08

Ceph配置選項

2021-11-14 15:13:18

存儲數據存儲技術
點贊
收藏

51CTO技術棧公眾號

国产一区二区剧情av在线| 自拍偷拍欧美一区| 一区二区在线观看av| 亚洲自拍偷拍在线| 国产精品99无码一区二区| 在线观看视频一区二区三区| 亚洲网友自拍偷拍| 欧美一区二区综合| 国产精品伦理一区| 精品白丝av| 亚洲第五色综合网| 波多结衣在线观看| 男插女视频久久久| 91在线免费播放| 国产欧美日韩丝袜精品一区| 精品一级少妇久久久久久久| av亚洲免费| 欧美不卡一区二区| 欧美伦理视频在线观看| av官网在线播放| 国产视频一区在线播放| 亚洲影院在线看| 日本久久综合网| 国产精品啊啊啊| 在线观看日韩www视频免费| 国产xxx在线观看| www成人在线视频| 亚洲国产视频直播| 亚洲欧美日韩国产成人综合一二三区| 女人18毛片水真多18精品| 日韩经典一区二区| 韩日欧美一区二区| 婷婷色中文字幕| japanese国产精品| 日韩电影中文字幕在线| 久久久久亚洲av无码专区首jn| 浪潮色综合久久天堂 | 国产精品二区二区三区| 伊人久久成人网| 老鸭窝亚洲一区二区三区| 欧美黄色性视频| 国产精品 欧美激情| 青青草原综合久久大伊人精品| 亚洲精品wwww| 日批免费观看视频| 一区中文字幕| 日韩欧美中文字幕制服| 亚洲综合激情视频| 91成人短视频在线观看| 欧美日韩国产精选| 亚洲综合欧美在线| 久久久免费人体| 欧美性色黄大片手机版| 91av俱乐部| 香蕉成人av| 日本道在线观看一区二区| 国内外成人激情视频| 6699嫩草久久久精品影院| 亚洲国产精品欧美一二99| 国产在线无码精品| 日本三级在线观看网站| 亚洲自拍欧美精品| 九九热只有这里有精品| 美足av综合网| 精品国产91久久久久久| 成 年 人 黄 色 大 片大 全| 国产黄色大片在线观看| 有坂深雪av一区二区精品| 一本一道久久久a久久久精品91| 东凛在线观看| 久久这里只精品最新地址| 蜜桃欧美视频| jzzjzzjzz亚洲成熟少妇| 欧美国产1区2区| 中文字幕一区二区三区在线乱码 | 亚洲欧美日韩激情| 久久精品主播| 国产精品亚洲视频在线观看| 国产精品久久久久久久一区二区 | 日本人妻一区二区三区| www.久久东京| 亚洲精品电影在线| 国产免费一区二区三区网站免费| 日韩理论片av| 欧美成人午夜剧场免费观看| 国产午夜久久久| 先锋亚洲精品| 国产欧美日韩中文| 国产草草影院ccyycom| aaa欧美色吧激情视频| 秋霞毛片久久久久久久久| 中文字幕在线播放| 一区二区三区在线影院| 哪个网站能看毛片| 福利一区二区免费视频| 精品欧美一区二区在线观看| 国产美女喷水视频| 小处雏高清一区二区三区| 欧美激情综合亚洲一二区| 香蕉影院在线观看| 国产乱人伦偷精品视频免下载| 精品产品国产在线不卡| xxxxx日韩| 亚洲 欧美综合在线网络| 成人在线免费播放视频| 精品久久国产一区| 亚洲欧美视频在线| 极品盗摄国产盗摄合集| 久久久精品网| 91一区二区三区| 国产乱理伦片a级在线观看| 亚洲欧美日韩综合aⅴ视频| a在线视频观看| 亚洲国产伊人| 亚洲午夜精品久久久久久性色| 91成人福利视频| 日韩经典中文字幕一区| 国产区欧美区日韩区| 在线观看av的网站| 欧美日韩国产一中文字不卡 | 豆国产97在线 | 亚洲| 免播放器亚洲一区| 精品免费一区二区三区蜜桃| 蜜桃av在线免费观看| 一本到不卡精品视频在线观看| 国产伦理在线观看| 91精品一区二区三区综合在线爱| 欧美亚洲激情视频| 黄色一级a毛片| 亚洲欧美日韩一区| 蜜桃免费在线视频| 五月综合久久| 97色在线视频观看| 精品久久国产视频| 国产精品国产三级国产有无不卡| 国产成人a亚洲精v品无码| 中文字幕一区日韩精品| 久久精品亚洲热| 一级黄色片免费看| 欧美国产日本韩| 国产成人精品视频ⅴa片软件竹菊| 给我免费播放日韩视频| 九九视频直播综合网| 国产精品美女一区| 中文字幕欧美一| 日韩精品视频一二三| av中文字幕一区二区| 国产精品扒开腿做爽爽爽的视频| 欧洲伦理片一区 二区 三区| 午夜精品一区在线观看| 亚洲婷婷在线观看| 激情综合中文娱乐网| 国产精品区免费视频| 日韩精品亚洲人成在线观看| 日韩天堂在线观看| 久久久久亚洲AV成人| 国产一区二区不卡| 91国在线高清视频| 亚洲超碰在线观看| 欧美激情视频一区| 欧美一区二不卡视频| 五月天亚洲精品| 欧美精品黑人猛交高潮| 久久久久99| 亚洲日本欧美在线| 成人激情久久| 欧美黑人国产人伦爽爽爽| 欧美 日韩 国产 成人 在线 91| 亚洲国产日产av| 亚洲一区二区三区四区五区六区| 国产精品色网| 性欧美精品一区二区三区在线播放| 久久免费资源| 欧美黑人又粗大| 深夜福利视频一区| 在线观看视频91| 日本二区三区视频| 国产精品乡下勾搭老头1| 欧美一级视频在线播放| 一呦二呦三呦国产精品| 国产精品无av码在线观看| 黄色av电影在线观看| 精品伦理精品一区| 久久久久久久久黄色| 国产精品黄色在线观看| 国产人妖在线观看| 久久激情中文| 国产精品12p| 免费观看成人www动漫视频| 日韩免费在线播放| 91极品在线| 亚洲美女在线看| 国产精品国产精品国产专区| 亚洲国产精品综合小说图片区| 男生草女生视频| 国产乱子伦视频一区二区三区 | 国产777精品精品热热热一区二区| 亚洲欧美精品中文字幕在线| 国产精品久久久久久无人区| 婷婷国产在线综合| 五月天婷婷丁香网| 成人动漫一区二区在线| 日本中文字幕影院| 亚洲欧美高清| 香蕉视频免费版| 亚洲人成网站77777在线观看| 成人免费网视频| 亚洲精品mv| 欧美男插女视频| 成人免费高清在线播放| 精品福利一区二区三区 | 3d成人动漫网站| 草久久免费视频| 一区在线播放视频| 国产中文字幕一区二区| 久久99日本精品| 国产在线精品91| 欧美三区美女| 亚洲天堂电影网| 国产精品中文字幕亚洲欧美| 国产精品对白一区二区三区| 亚洲人成777| 日韩女在线观看| 51精品视频| 欧美巨乳美女视频| 麻豆电影在线播放| 一本一本久久a久久精品综合小说| 欧美一级视频免费| 精品免费日韩av| 国产婷婷在线视频| 欧美剧情片在线观看| 波多野结衣一本一道| 欧美午夜无遮挡| 日本一级淫片免费放| 亚洲精品欧美专区| 免费看特级毛片| 国产精品久久久久久久久免费樱桃| 国产精品无码久久久久久| av电影一区二区| 国产熟女高潮一区二区三区| 成人在线一区二区三区| 精品国产一二区| 国产二区国产一区在线观看 | 99天天综合性| 无码人妻丰满熟妇区毛片蜜桃精品| 国产一区二区三区四| 亚洲精品免费一区亚洲精品免费精品一区| 丝袜国产日韩另类美女| 激情五月亚洲色图| 日本欧美大码aⅴ在线播放| 成人免费视频久久| 日韩精品高清不卡| 黄色av免费在线播放| 日韩主播视频在线| 北条麻妃av高潮尖叫在线观看| 久久裸体视频| 亚洲第一狼人区| 毛片一区二区三区| 在线观看av免费观看| 国产麻豆一精品一av一免费| 色哟哟免费视频| 国产成人精品免费在线| 国产人妖在线观看| 99久久99久久久精品齐齐| 亚洲自拍偷拍一区二区| 久久久综合视频| 刘亦菲国产毛片bd| 亚洲天堂精品在线观看| 国产精品九九九九九九| 亚洲成人av免费| 日日噜噜噜噜人人爽亚洲精品| 在线免费不卡电影| 97国产成人无码精品久久久| 日韩一区二区精品葵司在线| 刘玥91精选国产在线观看| 亚洲精品国产综合久久| 国家队第一季免费高清在线观看| 中文字幕在线成人| 性欧美1819sex性高清大胸| 久久久免费在线观看| 亚洲一二三四| 91热精品视频| 精品精品国产三级a∨在线| 日韩精品福利视频| 亚洲成人最新网站| 免费无遮挡无码永久视频| 日韩不卡一区二区| 亚洲高清av一区二区三区| 成人美女视频在线看| 欧美黄色激情视频| 曰韩精品一区二区| 高潮毛片又色又爽免费 | 国产九一精品| 国产精品视频一二三四区| 久久成人一区| 性鲍视频在线观看| 久久精品亚洲乱码伦伦中文| 蜜臀久久精品久久久用户群体| 欧美香蕉大胸在线视频观看| 国产精品久久久久久久一区二区| 亚洲国产欧美一区二区丝袜黑人| av成人手机在线| 97超碰蝌蚪网人人做人人爽| 久久精品国产福利| 精品一区二区三区自拍图片区| 99精品视频在线| 91视频 -- 69xx| 高清不卡一二三区| 四虎影视1304t| 精品美女国产在线| 国产99999| 神马久久久久久| 色综合桃花网| 成人免费视频网站| 久久亚洲影视| 激情综合网婷婷| 成人免费毛片嘿嘿连载视频| 免费成人美女女在线观看| 日韩欧中文字幕| 刘玥91精选国产在线观看| 免费97视频在线精品国自产拍| 欧美日韩五区| 免费久久久一本精品久久区| 欧美三级视频| 图片区乱熟图片区亚洲| 国产精品美女久久久久久久久久久 | 农村少妇一区二区三区四区五区| 国产大尺度在线观看| 日韩avvvv在线播放| 粉嫩av蜜桃av蜜臀av| 亚洲一级二级三级在线免费观看| 国产精品国产一区二区三区四区 | 色婷婷综合久久久久中文一区二区 | 国产美女一区视频| 91丝袜美腿美女视频网站| 日韩欧美中字| 国产又大又黄又粗又爽| 久久久高清一区二区三区| 在线观看国产亚洲| 精品三级在线看| 色婷婷av在线| 97久久人人超碰caoprom欧美| 香蕉视频国产精品| 999热精品视频| 亚洲码国产岛国毛片在线| 91极品身材尤物theporn| 色爱av美腿丝袜综合粉嫩av| av成人在线观看| 亚洲视频精品一区| 激情综合色播激情啊| 一级性生活免费视频| 这里是久久伊人| 182tv在线播放| 国产精品9999久久久久仙踪林| 极品中文字幕一区| 在线观看成人动漫| 偷拍亚洲欧洲综合| 天堂a中文在线| 日本久久久久久| 欧美日韩国产在线观看网站 | 国产精品1区2区| 免费在线观看黄色av| 精品国产乱码久久久久久牛牛| 黑人极品ⅴideos精品欧美棵| 国产伦一区二区三区色一情| 国产婷婷精品| 一区二区精品免费| 精品污污网站免费看| 黄网站在线播放| www 成人av com| 亚洲一区二区网站| 少妇一级黄色片| 欧美一卡2卡三卡4卡5免费| 免费不卡av| 日韩欧美亚洲精品| 国产在线播放一区| 日本三级免费看| 亚洲人线精品午夜| 日韩黄色三级在线观看| 国产爆乳无码一区二区麻豆| 91视视频在线直接观看在线看网页在线看 | 91插插插插插插插插| 亚洲男人的天堂网| 手机看片一区二区三区| 国产精品444| 综合激情在线| 人体私拍套图hdxxxx| 欧美影院一区二区三区| 2020国产在线视频| 欧美不卡三区| 国产一区二区三区免费播放| 国产情侣自拍av| 中文字幕在线观看亚洲| 成人在线视频中文字幕| 99视频在线视频| 亚洲国产精品人人做人人爽| xxxxx日韩| 久久久久高清| 国产乱码精品一区二区三区忘忧草 | 亚洲高清免费在线|