精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

詳解 Redis 遷移工具 redis-shark4.0.3

原創 精選
數據庫 Redis
RedisShake 是一個用于處理和遷移 Redis 數據的工具,它提供以下特性:Redis 兼容性;云服務兼容性;Module 兼容;多種導出模式;數據處理。

作者 | 吳守陽

審校 | 重樓

簡介

RedisShake 是一個用于處理和遷移 Redis 數據的工具,它提供以下特性:

  • Redis 兼容性:RedisShake 兼容從 2.8 到 7.2 的 Redis 版本,并支持各種部署方式,包括單機、主從、哨兵和集群。
  • 云服務兼容性:RedisShake 與主流云服務提供商提供的流行 Redis-like 數據庫無縫工作,包括但不限于:

     阿里云-云數據庫 Redis 版
     阿里云-云原生內存數據庫Tair
     AWS - ElastiCache
     AWS - MemoryDB

  • Module 兼容:RedisShake 與 TairString,TairZSet 和 TairHash 模塊兼容。
  • 多種導出模式:RedisShake 支持 PSync,RDB 和 Scan 導出模式。
  • 數據處理:RedisShake 通過自定義腳本實現數據過濾和轉換。

遷移模式介紹

目前, RedisShake 有三種遷移模式:PSync、RDB 和 SCAN,分別對應 sync_reader、rdb_reader 和 scan_reader。

  • 對于從備份中恢復數據的場景,可以使用 rdb_reader。
  • 對于數據遷移場景,優先選擇 sync_reader。一些云廠商沒有提供 PSync 協議支持,可以選擇scan_reader。
  • 對于長期的數據同步場景,RedisShake 目前沒有能力承接,因為 PSync 協議并不可靠,當復制連接斷開時,RedisShake 將無法重新連接至源端數據庫。如果對于可用性要求不高,可以使用 scan_reader。如果寫入量不大,且不存在大 key,也可以考慮 scan_reader。不同模式各有優缺點,需要查看各 Reader 章節了解更多信息。

Redis Cluster 架構

當源端 Redis 以 cluster 架構部署時,可以使用 sync_reader 或者 scan_reader。兩者配置項中均有開關支持開啟 cluster 模式,會通過 cluster nodes 命令自動獲取集群中的所有節點,并建立連接。

Redis Sentinel 架構

當源端 Redis 以 sentinel 架構部署且 RedisShake 使用 sync_reader 連接主庫時,會被主庫當做 slave,從而有可能被 sentinel 選舉為新的 master。

為了避免這種情況,應選擇備庫作為源端。

云 Redis 服務

主流云廠商都提供了 Redis 服務,不過有幾個原因導致在這些服務上使用 RedisShake 較為復雜:

  • 引擎限制。存在一些自研的 Redis-like 數據庫沒有兼容 PSync 協議。
  • 架構限制。較多云廠商支持代理模式,即在用戶與 Redis 服務之間增加 Proxy 組件。因為 Proxy 組件的存在,所以 PSync 協議無法支持。
  • 安全限制。在原生 Redis 中 PSync 協議基本會觸發 fork(2),會導致內存膨脹與用戶請求延遲增加,較壞情況下甚至會發生 out of memory。盡管這些都有方案緩解,但并不是所有云廠商都有這方面的投入。
  • 商業策略。較多用戶使用 RedisShake 是為了下云或者換云,所以部分云廠商并不希望用戶使用 RedisShake,從而屏蔽了 PSync 協議。

下文會結合實踐經驗,介紹一些特殊場景下的 RedisShake 使用方案。

阿里云「云數據庫 Redis」與「云原生內存數據庫Tair」

「云數據庫 Redis」與「云原生內存數據庫Tair」都支持 PSync 協議,推薦使用 sync_reader。用戶需要創建一個具有復制權限的賬號(可以執行 PSync 命令),RedisShake 使用該賬號進行數據同步,具體創建步驟見 創建與管理賬號。

例外情況:

  1. 2.8 版本的 Redis 實例不支持創建復制權限的賬號,需要 升級大版本。
  2. 集群架構的 Reids 與 Tair 實例在 代理模式 下不支持 PSync 協議。
  3. 讀寫分離架構不支持 PSync 協議。

在不支持 PSync 協議的場景下,可以使用 scan_reader。需要注意的是,scan_reader 會對源庫造成較大的壓力。

AWS ElastiCache and MemoryDB

優選 sync_reader, AWS ElastiCache and MemoryDB 默認情況下沒有開啟 PSync 協議,但是可以通過提交工單的方式請求開啟 PSync 協議。AWS 會在工單中給出一份重命名的 PSync 命令,比如 xhma21yfkssync 和 nmfu2bl5osync。此命令效果等同于 psync 命令,只是名字不一樣。 用戶修改 RedisShake 配置文件中的 aws_psync 配置項即可。對于單實例只寫一對 ip:port@cmd 即可,對于集群實例,需要寫上所有的 ip:port@cmd,以逗號分隔。

不方便提交工單時,可以使用 scan_reader。需要注意的是,scan_reader 會對源庫造成較大的壓力。

安裝

Wget https://github.com/tair-opensource/RedisShake/archive/refs/tags/v4.0.5.tar.gz
yum install go 
tar -xvf redis-shake-linux-amd64.tar.gz 
cd redis-shark 
[root@ redis-shark]# ls 
1shake_online.toml 2shake_rdb.toml data redis-shake shake.toml.bak

遷移配置

在線遷移SYNC模式

[root@idc-zabbix12 redis-shark]# vim 1shake_online.toml

function = ""

[sync_reader]
version = "7.0" ###source集群版本
cluster = true ###集群
address = "10.0.0.8:9101" ###source只需填寫一個主節點地址即可
username = ""
password = "Bj***w"
tls = false
sync_rdb = true 
sync_aof = true
prefer_replica = true

# [scan_reader]
# cluster = false # set to true if source is a redis cluster
# address = "127.0.0.1:6379" # when cluster is true, set address to one of the cluster node
# username = "" # keep empty if not using ACL
# password = "" # keep empty if no authentication is required
# ksn = false # set to true to enabled Redis keyspace notifications (KSN) subscription
# tls = false
# dbs = [] # set you want to scan dbs such as [1,5,7], if you don't want to scan all
# prefer_replica = true # set to true if you want to sync from replica node

##文件依次執行
[rdb_reader]
#filepath = "/opt/bakredis-shake.bak/local_dump.0"
#filepath = "/opt/bakredis-shake.bak/local_dump.1"
#filepath = "/opt/bakredis-shake.bak/local_dump.2"

# [aof_reader]
# filepath = "/tmp/.aof"
# timestamp = 0 # subsecond

[redis_writer]
version = "7.0" ###目標集群版本
cluster = true ###集群
address = "10.28.29.51:9101" ###target集群只需填寫一個主節點地址即可
username = ""
password = "B***Zw"
tls = false
off_reply = false

[advanced]
dir = "data" ###生成的數據目錄
ncpu = 4 # runtime.GOMAXPROCS, 0 means use runtime.NumCPU() cpu cores
pprof_port = 0 # pprof port, 0 means disable
status_port = 0 # status port, 0 means disable

# log
log_file = "shake.log" ###日志文件
log_level = "info" # debug, info or warn
log_interval = 5 # in seconds

rdb_restore_command_behavior = "panic" # panic, rewrite or skip
pipeline_count_limit = 1024
target_redis_client_max_querybuf_len = 1024_000_000
target_redis_proto_max_bulk_len = 512_000_000
aws_psync = "" # example: aws_psync = "10.0.0.1:6379@nmfu2sl5osync,10.0.0.1:6379@xhma21xfkssync"
empty_db_before_sync = false

[module]
target_mbbloom_version = 20603

執行:

[root@idc-zabbix12 redis-shark]# ./redis-shake 1shake_online.toml

RDB文件導入模式

[root@idc-zabbix12 redis-shark]# cat 2shake_rdb.toml 
function = ""
#[sync_reader]
#version = "7.0"
#cluster = true
#address = "10.28.29.8:9101"
#username = ""
#password = "Bjmr0cakP7Zw"
#tls = false
#sync_rdb = true 
#sync_aof = true
#prefer_replica = true

# [scan_reader]
# cluster = false # set to true if source is a redis cluster
# address = "127.0.0.1:6379" # when cluster is true, set address to one of the cluster node
# username = "" # keep empty if not using ACL
# password = "" # keep empty if no authentication is required
# ksn = false # set to true to enabled Redis keyspace notifications (KSN) subscription
# tls = false
# dbs = [] # set you want to scan dbs such as [1,5,7], if you don't want to scan all
# prefer_replica = true # set to true if you want to sync from replica node

##文件依次執行 0、1、2 
[rdb_reader]
filepath = "/opt/bakredis-shake.bak/local_dump.0" ###rdb文件,source集群是3分片集群
#filepath = "/opt/bakredis-shake.bak/local_dump.1"
#filepath = "/opt/bakredis-shake.bak/local_dump.2"

# [aof_reader]
# filepath = "/tmp/.aof"
# timestamp = 0 # subsecond

[redis_writer]
version = "7.0" 
cluster = true
address = "10.0.0.51:9101" ####目標導入集群
username = ""
password = "Bj***Zw"
tls = false
off_reply = false

[advanced]
dir = "data"
ncpu = 4 # runtime.GOMAXPROCS, 0 means use runtime.NumCPU() cpu cores
pprof_port = 0 # pprof port, 0 means disable
status_port = 0 # status port, 0 means disable

# log
log_file = "shake.log"
log_level = "info" # debug, info or warn
log_interval = 5 # in seconds

rdb_restore_command_behavior = "panic" # panic, rewrite or skip
pipeline_count_limit = 1024
target_redis_client_max_querybuf_len = 1024_000_000
target_redis_proto_max_bulk_len = 512_000_000
aws_psync = "" # example: aws_psync = "10.0.0.1:6379@nmfu2sl5osync,10.0.0.1:6379@xhma21xfkssync"
empty_db_before_sync = false

[module]
target_mbbloom_version = 20603

執行:

恢復/opt/bakredis-shake.bak/local_dump.0文件

[root@idc-zabbix12 redis-shark]# ./redis-shake 2shake_rdb.toml

恢復/opt/bakredis-shake.bak/local_dump.1文件

[root@idc-zabbix12 redis-shark]# ./redis-shake 2shake_rdb.toml

恢復/opt/bakredis-shake.bak/local_dump.2文件

[root@idc-zabbix12 redis-shark]# ./redis-shake 2shake_rdb.toml

scan_reader

scan_reader 通過 SCAN 命令遍歷源端數據庫中的所有 Key,并使用 DUMP 與 RESTORE 命令來讀取與寫入 Key 的內容。

注意:

Redis 的 SCAN 命令只保證 SCAN 的開始與結束之前均存在的 Key 一定會被返回,但是新寫入的 Key 有可能會被遺漏,期間刪除的 Key 也可能已經被寫入目的端。這可以通過 ksn 配置解決。

SCAN 命令與 DUMP 命令會占用源端數據庫較多的 CPU 資源。

[scan_reader]
cluster = false # set to true if source is a redis cluster
address = "127.0.0.1:6379" # when cluster is true, set address to one of the cluster node
username = "" # keep empty if not using ACL
password = "" # keep empty if no authentication is required
tls = false
ksn = false # set to true to enabled Redis keyspace notifications (KSN) subscription
dbs = [] # set you want to scan dbs, if you don't want to scan all

其中:

cluster:源端是否為集群。

address:源端地址,當源端為集群時,address 為集群中的任意一個節點即可。

鑒權:

當源端使用 ACL 賬號時,配置 username 和 password。

當源端使用傳統賬號時,僅配置 password。

當源端無鑒權時,不配置 username 和 password。

tls:源端是否開啟 TLS/SSL,不需要配置證書。因為 RedisShake 沒有校驗服務器證書。

ksn:開啟 ksn 參數后, RedisShake 會在 SCAN 之前使用 Redis keyspace notifications 能力來訂閱 Key 的變化。當 Key 發生變化時,RedisShake 會使用 DUMP 與 RESTORE 命令來從源端讀取 Key 的內容,并寫入目標端。

dbs:源端為非集群模式時,支持指定DB庫。

WARNING

Redis keyspace notifications 不會感知到 FLUSHALL 與 FLUSHDB 命令,因此在使用 ksn 參數時,需要確保源端數據庫不會執行這兩個命令。

function模式

RedisShake 通過提供 function 功能,實現了的 ETL(提取-轉換-加載) 中的 transform 能力。通過利用 function 可以實現類似功能:

  • 更改數據所屬的 db,比如將源端的 db 0 寫入到目的端的 db 1。
  • 對數據進行篩選,例如,只將 key 以 user: 開頭的源數據寫入到目標端。
  • 改變 Key 的前綴,例如,將源端的 key prefix_old_key 寫入到目標端的 key prefix_new_key。

...

要使用 function 功能,只需編寫一份 lua 腳本。RedisShake 在從源端獲取數據后,會將數據轉換為 Redis 命令。然后,它會處理這些命令,從中解析出 KEYS、ARGV、SLOTS、GROUP 等信息,并將這些信息傳遞給 lua 腳本。lua 腳本會處理這些數據,并返回處理后的命令。最后,RedisShake 會將處理后的數據寫入到目標端。

以下是一個具體的例子:

function = """
shake.log(DB)
if DB == 0
then
 return
end
shake.call(DB, ARGV)
"""

[sync_reader]
address = "127.0.0.1:6379"

[redis_writer]
address = "127.0.0.1:6380"

DB 是 RedisShake 提供的信息,表示當前數據所屬的 db。shake.log 用于打印日志,shake.call 用于調用 Redis 命令。上述腳本的目的是丟棄源端 db 0 的數據,將其他 db 的數據寫入到目標端。

除了 DB,還有其他信息如 KEYS、ARGV、SLOTS、GROUP 等,可供調用的函數有 shake.log 和 shake.call,具體請參考 function API。

function API

變量

因為有些命令中含有多個 key,比如 mset 等命令。所以,KEYS、KEY_INDEXES、SLOTS 這三個變量都是數組類型。如果確認命令只有一個 key,可以直接使用 KEYS[1]、KEY_INDEXES[1]、SLOTS[1]。

函數

  • shake.call(DB, ARGV):返回一個 Redis 命令,RedisShake 會將該命令寫入目標端。
  • shake.log(msg):打印日志。

最佳實踐

過濾 Key

local prefix = "user:"
local prefix_len = #prefix

if string.sub(KEYS[1], 1, prefix_len) ~= prefix then
 return
end

shake.call(DB, ARGV)

效果是只將 key 以 user: 開頭的源數據寫入到目標端。沒有考慮 mset 等多 key 命令的情況。

過濾 DB

shake.log(DB)
if DB == 0
then
 return
end
shake.call(DB, ARGV)

效果是丟棄源端 db 0 的數據,將其他 db 的數據寫入到目標端。

過濾某類數據結構

可以通過 GROUP 變量來判斷數據結構類型,支持的數據結構類型有:STRING、LIST、SET、ZSET、HASH、SCRIPTING 等。

過濾 Hash 類型數據

if GROUP == "HASH" then
 return
end
shake.call(DB, ARGV)

效果是丟棄源端的 hash 類型數據,將其他數據寫入到目標端。

過濾 LUA 腳本

if GROUP == "SCRIPTING" then
 return
end
shake.call(DB, ARGV)

效果是丟棄源端的 lua 腳本,將其他數據寫入到目標端。常見于主從同步至集群時,存在集群不支持的 LUA 腳本。

修改 Key 的前綴

local prefix_old = "prefix_old_"
local prefix_new = "prefix_new_"

shake.log("old=" .. table.concat(ARGV, " "))

for i, index in ipairs(KEY_INDEXES) do
 local key = ARGV[index]
 if string.sub(key, 1, #prefix_old) == prefix_old then
 ARGV[index] = prefix_new .. string.sub(key, #prefix_old + 1)
 end
end

shake.log("new=" .. table.concat(ARGV, " "))
shake.call(DB, ARGV)

效果是將源端的 key prefix_old_key 寫入到目標端的 key prefix_new_key。

交換 DB

local db1 = 1
local db2 = 2

if DB == db1 then
 DB = db2
elseif DB == db2 then
 DB = db1
end
shake.call(DB, ARGV)

效果是將源端的 db 1 寫入到目標端的 db 2,將源端的 db 2 寫入到目標端的 db 1, 其他 db 不變。

注意事項

  1. 不要在同一個目錄運行兩個 RedisShake 進程,因為運行時產生的臨時文件可能會被覆蓋,導致異常行為。
  2. 不要降低 Redis 版本,比如從 6.0 降到 5.0,因為 RedisShake 每個大版本都會引入一些新的命令和新的編碼方式,如果降低版本,可能會導致不兼容。

作者簡介

吳守陽,51CTO社區編輯,擁有8年DBA工作經驗,熟練管理MySQL、Redis、MongoDB等開源數據庫。精通性能優化、備份恢復和高可用性架構設計。善于故障排除和自動化運維,保障系統穩定可靠。具備良好的團隊合作和溝通能力,致力于為企業提供高效可靠的數據庫解決方案。

責任編輯:華軒 來源: 51CTO
相關推薦

2024-11-04 15:49:43

Redis?數據遷移

2022-02-06 21:14:57

Redis命令

2025-02-24 10:07:09

Redis節點遷移集群

2024-09-11 20:05:56

2024-07-16 08:38:06

2018-08-15 09:48:27

數據庫Redis應用場景

2023-07-03 07:55:25

2017-10-17 14:05:52

網站Redis 2Redis 3

2011-12-29 09:36:40

JavaJailer

2024-07-31 08:33:17

2020-09-30 07:41:28

Redis工具 Redis-full

2025-04-25 11:00:00

mini-redisRedisINCR指令

2013-01-06 09:43:35

MySQLMySQL遷移Redis

2019-08-06 19:36:25

RedisMemcached緩存

2024-12-09 00:00:09

2024-04-18 00:20:56

Redis策略數據

2024-10-08 10:13:17

2018-04-27 09:03:57

Redis數據存儲

2013-03-20 10:19:17

RedisRedis-senti監控

2021-01-26 07:11:26

Redis數據同步數據遷移
點贊
收藏

51CTO技術棧公眾號

欧美成人三级在线视频| 亚洲影视九九影院在线观看| b站大片免费直播| 成人1区2区| 亚洲免费视频成人| 欧美 日韩 国产在线| 岳乳丰满一区二区三区| 欧美私人啪啪vps| 亚洲男子天堂网| 四虎成人在线播放| 暖暖成人免费视频| 亚洲精品视频免费看| 久久综合给合久久狠狠色| 在线亚洲欧美日韩| 999亚洲国产精| 日韩亚洲成人av在线| chinese麻豆新拍video| 精品久久久久久久久久久久久久久久| 成人免费看片39| 亚洲不卡一区二区三区| 日韩动漫在线观看| 隣の若妻さん波多野结衣| 青青草精品视频| 午夜精品一区二区三区视频免费看| 精品国产aaa| 国产成人av毛片| 欧美日韩免费一区二区三区| 黄色一级视频片| 亚洲小说区图片| 欧美国产日韩在线观看| 国产欧美亚洲日本| 国产人妖一区二区| 奇米综合一区二区三区精品视频| 国内精品美女av在线播放| 九九精品视频免费| 日韩欧美网址| 亚洲图片在区色| 双性尿奴穿贞c带憋尿| 免费在线小视频| 一区二区三区日韩精品| 精品国产三级a∨在线| 电影av在线| 久久久影院官网| 国内视频一区二区| 日本韩国在线观看| 校园激情久久| 91成人在线观看国产| 久久伊人成人网| 欧美三级不卡| 欧美国产日韩在线| 九九在线观看视频| 欧美日韩国产成人精品| 久久99精品视频一区97| 免费在线黄色网| 欧美一区综合| 欧美日韩成人在线观看| tube国产麻豆| 欧美视频二区| 性色av一区二区三区红粉影视| 久久这里只有精品国产| 亚洲小说欧美另类社区| 97在线视频免费看| 青草视频在线观看免费| 麻豆精品网站| 国产精品美女久久久久久免费| 综合久久中文字幕| 久久99精品久久只有精品| 国产精品永久免费视频| 国产精品玖玖玖| 国产最新精品免费| 成人av免费看| 手机亚洲第一页| 秋霞午夜鲁丝一区二区老狼| 国产精品在线看| 国产手机av在线| 成人免费va视频| 欧美亚洲免费高清在线观看| av播放在线观看| 亚洲精品乱码久久久久久久久| 777久久精品一区二区三区无码| 好久没做在线观看| 色综合视频在线观看| 国产一区二区在线观看免费视频| 国产专区精品| 日韩国产欧美区| 五月婷婷六月香| 欧美激情偷拍| 国产成人精品日本亚洲专区61| 91 中文字幕| 成人av网站在线观看免费| 免费不卡亚洲欧美| 欧美激情二区| 图片区小说区区亚洲影院| 国产情侣av自拍| 日韩精品一区二区三区中文| 亚洲精品国产综合区久久久久久久| 疯狂揉花蒂控制高潮h| 欧美一二区在线观看| 久久69精品久久久久久久电影好| 在线观看 中文字幕| 免费在线观看成人| 国产欧美日韩亚洲| 麻豆免费在线视频| 午夜精品久久久久久久久久| 亚洲另类第一页| 欧美精品国产白浆久久久久| 久久精视频免费在线久久完整在线看| 日韩av电影网址| 麻豆成人久久精品二区三区小说| 国产伦精品一区二区三区四区免费| av资源网站在线观看| 亚洲午夜一区二区| 最新国产黄色网址| 网友自拍区视频精品| 毛片精品免费在线观看| 一二三区免费视频| 99视频在线观看一区三区| 亚洲国产精品影视| 国精产品一区二区三区有限公司 | 中文在线观看av| 成人丝袜高跟foot| 91成人在线视频观看| 性高爱久久久久久久久| 亚洲黄页网在线观看| 在线观看亚洲网站| 美女国产一区二区| 欧美性大战久久久久| 国产精品yjizz视频网| 日韩欧美一级二级三级久久久| www亚洲色图| 久久九九精品| 久久亚洲免费| h片在线观看视频免费| 日韩欧美国产高清| 亚洲国产美女视频| 久久99精品久久久久婷婷| 欧美一区三区二区在线观看| av在线中出| 亚洲成人a**站| 久久久久久久久久久网 | 黄色av网址在线免费观看| 亚洲国产婷婷综合在线精品| 中文字幕免费高清在线| 欧美韩日高清| 成人av.网址在线网站| 3d成人动漫在线| 欧美视频三区在线播放| 亚洲精品视频久久久| 亚洲欧美日韩国产一区| 欧美激情视频一区二区三区| 欧美一级鲁丝片| 日韩成人xxxx| 中文字幕超碰在线| 国产亚洲欧美日韩俺去了| 色综合av综合无码综合网站| 美女毛片一区二区三区四区最新中文字幕亚洲 | 在线免费播放av| 亚洲国产高清一区二区三区| 国产日韩亚洲精品| 忘忧草在线影院两性视频| 亚洲精品自拍偷拍| 老熟妇一区二区三区| 国产欧美日韩综合精品一区二区| www.涩涩涩| 中文字幕午夜精品一区二区三区| 99三级在线| 人在线成免费视频| 国产亚洲精品久久久久久| 亚洲资源在线播放| 亚洲欧美另类图片小说| 丰满熟女人妻一区二区三区| 在线一区免费观看| 日韩中文一区| 欧美国产视频| 欧美夫妻性视频| 你懂的视频在线| 欧美理论电影在线| 国产精品99无码一区二区| 久久夜色精品国产噜噜av| 自拍偷拍一区二区三区四区| 欧美一区成人| 蜜桃狠狠色伊人亚洲综合网站| 精品裸体bbb| 欧美精品手机在线| 青青草免费在线| 欧美久久久久久蜜桃| 国产大片中文字幕| 国产日韩高清在线| 91av免费观看| 久久动漫亚洲| 天天爽天天狠久久久| 91成人福利| 国产精品视频1区| 丁香高清在线观看完整电影视频| 国产亚洲a∨片在线观看| av手机免费看| 在线看不卡av| 日本网站免费观看| 中文字幕在线观看不卡视频| 亚洲色偷偷色噜噜狠狠99网| 奇米色777欧美一区二区| 日韩亚洲欧美视频| 欧美freesextv| 蜜桃成人免费视频| 亚洲精品影片| 国产一区二中文字幕在线看| 性欧美xxx69hd高清| 久久国产精品久久久久久久久久| 国自产拍在线网站网址视频| 欧美sm极限捆绑bd| 国产一区二区麻豆| 日本韩国视频一区二区| 日韩精品人妻中文字幕| 亚洲免费av在线| 调教驯服丰满美艳麻麻在线视频| av中文一区二区三区| 亚洲一二三av| 青青草97国产精品免费观看无弹窗版 | 久久国产免费视频| 九九视频精品免费| 一级黄色香蕉视频| 亚洲一区二区三区高清不卡| 337p亚洲精品色噜噜狠狠p| 日韩欧美精品一区| 日本免费高清不卡| 日韩在线你懂的| 国产一区喷水| 国产三级精品三级在线观看国产| 成人有码在线播放| 青青草国产一区二区三区| 国产精品av电影| 成人动漫一区| 欧美做受高潮电影o| 国产乱码午夜在线视频| 国内精品一区二区三区四区| а√天堂资源地址在线下载| 久久天天躁狠狠躁夜夜av| 日本美女在线中文版| 色哟哟入口国产精品| 成年在线电影| 在线激情影院一区| sese一区| 丝袜情趣国产精品| 浪潮av一区| 欧美成人精品在线播放| 操你啦在线视频| 不卡av在线播放| 在线电影福利片| 欧美激情奇米色| 精品三级久久| 日本成人精品在线| 欧美日一区二区三区| 国产免费一区二区三区在线观看| 日韩在线你懂得| 亚洲free性xxxx护士hd| 日本一区精品视频| 国产精品毛片va一区二区三区| 国产香蕉精品| 欧美乱偷一区二区三区在线| 国产亚洲电影| 中文字幕一区二区三区精彩视频 | 久久这里有精品| 男女在线观看视频| 5566成人精品视频免费| 日韩制服一区| 亚洲专区在线视频| 西野翔中文久久精品字幕| 色女人综合av| 91成人精品| 18禁免费观看网站| 琪琪一区二区三区| 2018国产精品| 久久久久国产精品人| www.涩涩爱| 亚洲444eee在线观看| 福利网址在线观看| 欧美福利视频导航| 日本波多野结衣在线| 在线精品高清中文字幕| 在线观看小视频| 欧美在线亚洲在线| 高清久久一区| 久久精品日韩| 888久久久| 欧美 国产 日本| 狠狠色综合日日| 国产ts丝袜人妖系列视频| 国产精品免费av| 日本少妇激情视频| 欧美狂野另类xxxxoooo| 欧美少妇bbw| 色综合影院在线| 涩涩av在线| 亚洲精品免费在线视频| 美女精品一区最新中文字幕一区二区三区| 亚洲欧美在线网| 日韩一级不卡| 国产精品嫩草影视| 久久久久国产精品免费免费搜索| 精国产品一区二区三区a片| 日本电影亚洲天堂一区| www日本高清| 色婷婷**av毛片一区| 秋霞伦理一区| 国产精品日韩欧美一区二区| 98精品久久久久久久| 激情六月丁香婷婷| 国产成人啪午夜精品网站男同| 黄色三级生活片| 欧美日韩亚洲视频一区| 性生交大片免费看女人按摩| 深夜福利亚洲导航| 电影亚洲精品噜噜在线观看| 国产一区免费在线| 欧美日韩调教| 国产九九九视频| 国产精品蜜臀av| 自拍偷拍色综合| 一区二区欧美激情| 亚洲欧洲日本韩国| 精品欧美一区二区精品久久| 欧美99久久| 中文字幕第三区| 国产精品久久久久久久久果冻传媒| 99热只有这里有精品| 欧美不卡123| 四虎亚洲精品| 亚洲xxxx视频| 亚洲区综合中文字幕日日| 色乱码一区二区三区在线| 国产亚洲综合在线| 久久国产乱子伦精品| 亚洲欧美色图片| 美女福利一区二区三区| 久久久久网址| 久久动漫亚洲| 级毛片内射视频| 欧美天堂亚洲电影院在线播放| 精品成人一区二区三区免费视频| 26uuu国产精品视频| 亚洲第一福利社区| 国产精品69页| 日本一区二区免费在线| 中文字幕第99页| 日韩综合视频在线观看| 在线不卡一区| 成年在线观看视频| 国产宾馆实践打屁股91| 国产一级在线观看视频| 亚洲福利视频网| 五月天国产在线| 日韩久久不卡| 久久国产精品99久久人人澡| 久久国产高清视频| 日韩欧美中文字幕精品| 久久99亚洲网美利坚合众国| 国产日韩欧美一区二区| 久久综合五月| 99热在线观看精品| 精品国产百合女同互慰| 亚洲美女久久精品| 偷拍视频一区二区| 国产一区二区免费看| 久久97人妻无码一区二区三区| 亚洲成人动漫在线播放| a一区二区三区| 一本久道久久综合狠狠爱亚洲精品| 黄页网站大全一区二区| 久久这里只有精品免费| 亚洲美女av在线播放| 欧美一区二区三区婷婷| www.xxx麻豆| 国产亚洲福利社区一区| 国产三级小视频| 91精品国产高清久久久久久| 精品视频黄色| 麻豆传媒在线看| 日韩欧美在线播放| 麻豆影视在线观看_| 狠狠干一区二区| 免费的成人av| 日韩黄色在线视频| 色青青草原桃花久久综合| 精品亚洲自拍| 三级视频中文字幕| 亚洲成人激情综合网| 91看片在线观看| 国产高清自拍一区| 日韩高清在线电影| 久久精品性爱视频| 在线观看不卡av| 红杏一区二区三区| 欧美三级午夜理伦三级富婆| 亚洲无人区一区| 日韩伦理在线电影| 国产中文一区二区| 久久国产乱子精品免费女| 日本少妇毛茸茸高潮| 日韩在线资源网| 一区二区小说|