精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

優化實錄!如何將 MySQL 查詢時間從 190 秒縮減到 1 秒,輕松應對千萬數據

開發 前端
當表的大小過大時,除了關注訪問此表的響應時間外,還應考慮表的維護成本(例如 DDL 操作所需的時間和刪除歷史數據的時間)。

最近,我在工作中遇到一個數據庫配置問題,涉及一個主從結構的數據庫實例。具體來說,該數據庫每天凌晨會觸發SLA(服務級別協議)警報。這個警報表明主從同步延遲顯著。這意味著如果在這個時間點嘗試從主庫切換到從庫,切換的完成時間會非常長。系統需要額外的時間來趕上并同步延遲的數據,以確保主庫和從庫之間的數據一致性。進一步分析顯示,這個問題的一個主要驅動因素是該數據庫實例中存在大量慢查詢。

這些慢查詢定義為執行時間超過1秒的SQL查詢。

我們發現,應用程序每晚執行的一個特定任務——刪除一個月前的舊數據——是這些慢查詢的主要來源。

分析

利用pt-query-digest工具分析最近一周的mysql-slow.log。

pt-query-digest --since=148h mysql-slow.log | less

結果第二部分

圖片圖片

在過去一周,總共記錄的慢查詢執行時間為25403秒,最長的慢SQL執行時間為266秒,平均每個慢SQL的執行時間為5秒,平均掃描的行數為1766萬。

結果第二部分

圖片圖片

選擇arrival_record操作的慢查詢次數超過4萬次,平均響應時間為4秒。刪除arrival_record的記錄6次,平均響應時間為258秒。

select xxx_record語句

選擇arrival_record的慢查詢語句類似于以下,where子句中的參數字段相同,但參數值不同: *select count(*) from arrival_record where product_id=26 and receive_time between '2019-03-25 14:00:00' and '2019-03-25 15:00:00' and receive_spend_ms>=0\G*

圖片圖片

選擇arrival_record的語句最多掃描了5600萬行,MySQL中的平均掃描行數為172萬,推斷出掃描行數過多導致執行時間長。

查看執行計劃

explain select count(*) from arrival_record where product_id=26 and receive_time between '2019-03-25 14:00:00' and '2019-03-25 15:00:00' and receive_spend_ms>=0\G;
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: arrival_record
partitions: NULL
type: ref
possible_keys: IXFK_arrival_record
key: IXFK_arrival_record
key_len: 8
ref: const
rows: 32261320
filtered: 3.70
Extra: Using index condition; Using where
1 row in set, 1 warning (0.00 sec)

使用了索引IXFK_arrival_record,但估算掃描的行數非常大,超過3000萬行。

show index from arrival_record;
+----------------+------------+---------------------+--------------+--------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
| Table | Non_unique | Key_name | Seq_in_index | Column_name | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment | Index_comment |
+----------------+------------+---------------------+--------------+--------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
| arrival_record | 0 | PRIMARY | 1 | id | A | 107990720 | NULL | NULL | | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 1 | product_id | A | 1344 | NULL | NULL | | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 2 | station_no | A | 22161 | NULL | NULL | YES | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 3 | sequence | A | 77233384 | NULL | NULL | | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 4 | receive_time | A | 65854652 | NULL | NULL | YES | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 5 | arrival_time | A | 73861904 | NULL | NULL | YES | BTREE | | |
+----------------+------------+---------------------+--------------+--------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
show create table arrival_record;
..........
arrival_spend_ms bigint(20) DEFAULT NULL,
total_spend_ms bigint(20) DEFAULT NULL,
PRIMARY KEY (id),
KEY IXFK_arrival_record (product_id,station_no,sequence,receive_time,arrival_time) USING BTREE,
CONSTRAINT FK_arrival_record_product FOREIGN KEY (product_id) REFERENCES product (id) ON DELETE NO ACTION ON UPDATE NO ACTION
) ENGINE=InnoDB AUTO_INCREMENT=614538979 DEFAULT CHARSET=utf8 COLLATE=utf8_bin |
  • 表中包含超過1億條記錄,只有一個復合索引。product_id字段的基數非常低,選擇性差,不適合查詢。
  • 提供的過濾條件where product_id=26 and receive_time between '2019-03-25 14:00:00' and '2019-03-25 15:00:00' and receive_spend_ms>=0中并未包含station_no字段,因此未能利用復合索引IXFK_arrival_record的字段product_id、station_no、sequence和receive_time。
  • 根據左前綴原則,選擇arrival_record只使用復合索引IXFK_arrival_record的第一個字段product_id,其選擇性差,導致掃描的行數較多,執行時間較長。
  • receive_time字段具有較高的基數和良好的選擇性,單獨為該字段創建索引是有益的。然后,選擇arrival_record的SQL將會利用這個索引。

現在我們知道arrival_record的慢查詢日志中的where語句包含了字段product_id、receive_time、receive_spend_ms的參數,我們想知道是否還有其他字段用于過濾訪問這個表?

強大工具tcpdump的登場時間

使用tcpdump捕獲一段時間內針對該表的select語句的數據包。

tcpdump -i bond0 -s 0 -l -w - dst port 3316 | strings | grep select | egrep -i 'arrival_record' >/tmp/select_arri.log

捕獲 select 語句中 from 后的條件語句。

IFS_OLD=$IFS
IFS=$'\n'
for i in `cat /tmp/select_arri.log`; do echo ${i#*'from'}; done | less
IFS=$IFS_OLD
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=17 and arrivalrec0_.station_no='56742'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=22 and arrivalrec0_.station_no='S7100'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4631'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=22 and arrivalrec0_.station_no='S9466'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4205'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4105'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4506'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4617'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=22 and arrivalrec0_.station_no='S8356'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=22 and arrivalrec0_.station_no='S8356'

表的 where 條件包含 product_id、station_no 和 sequence 字段,可以利用復合索引 IXFK_arrival_record 的前三個字段。

總結來說,優化方法是刪除復合索引 IXFK_arrival_record,創建一個新的復合索引 idx_sequence_station_no_product_id,并建立單獨的索引 indx_receive_time。

刪除 xxx_record 語句

刪除操作的平均掃描量為 1.1 億行,平均執行時間為 262 秒。

下面是刪除語句,每個慢查詢記錄不同的參數值:

delete from arrival_record where receive_time < STR_TO_DATE('2019-02-23', '%Y-%m-%d')\G

執行計劃:

explain select * from arrival_record where receive_time < STR_TO_DATE('2019-02-23', '%Y-%m-%d')\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: arrival_record
partitions: NULL
type: ALL
possible_keys: NULL
key: NULL
key_len: NULL
ref: NULL
rows: 109,501,508
filtered: 33.33
Extra: Using where
1 row in set, 1 warning (0.00 sec)

該刪除語句未使用索引(沒有合適的索引可用),導致全表掃描和較長的執行時間。

優化方法也是創建一個單獨的索引 indx_receive_time(receive_time)。

測試

將 arrival_record 表復制到測試實例,以在 XX 實例的 arrival_record 表 上執行刪除和重建索引操作。

du -sh /datas/mysql/data/3316/cq_new_cimiss/arrival_record*
12K /datas/mysql/data/3316/cq_new_cimiss/arrival_record.frm
48G /datas/mysql/data/3316/cq_new_cimiss/arrival_record.ibd
select count() from cq_new_cimiss.arrival_record;
+-----------+
| count()   |
+-----------+
| 112294946 |
+-----------+
超過 1 億條記錄。

SELECT
table_name,
CONCAT(FORMAT(SUM(data_length) / 1024 / 1024,2),'M') AS dbdata_size,
CONCAT(FORMAT(SUM(index_length) / 1024 / 1024,2),'M') AS dbindex_size,
CONCAT(FORMAT(SUM(data_length + index_length) / 1024 / 1024 / 1024,2),'G') AS table_size(G),
AVG_ROW_LENGTH,table_rows,update_time
FROM
information_schema.tables
WHERE table_schema = 'cq_new_cimiss' and table_name='arrival_record';
+----------------+-------------+--------------+------------+----------------+------------+---------------------+
| table_name     | dbdata_size | dbindex_size | table_size(G) | AVG_ROW_LENGTH | table_rows | update_time        |
+----------------+-------------+--------------+------------+----------------+------------+---------------------+
| arrival_record | 18,268.02M  | 13,868.05M   | 31.38G       | 175            | 109155053  | 2019-03-26 12:40:17 |
+----------------+-------------+--------------+------------+----------------+------------+---------------------+

磁盤空間使用為 48G,MySQL 中的表大小為 31G,顯示出大約 17G 的碎片,主要是由于刪除造成的(刪除記錄后未回收空間)。

備份并恢復表到新實例,刪除原復合索引,并添加新索引進行測試。

mydumper 并行壓縮備份

user=root
passwd=xxxx
socket=/datas/mysql/data/3316/mysqld.sock
db=cq_new_cimiss
table_name=arrival_record
backupdir=/datas/dump_$table_name
mkdir -p $backupdir
nohup echo `date +%T` && mydumper -u $user -p $passwd -S $socket -B $db -c -T $table_name -o $backupdir -t 32 -r 2000000 && echo `date +%T` &

并行壓縮備份耗時(52秒)和使用空間(1.2G,實際表占用 48G 磁盤空間,顯示出 mydumper 的高壓縮比?。?/p>

開始備份于:2019-03-26 12:46:04
........

備份完成于:2019-03-26 12:46:56

du -sh /datas/dump_arrival_record/
1.2G  /datas/dump_arrival_record/

將備份數據復制到測試節點:

scp -rp /datas/dump_arrival_record root@10.230.124.19:/datas

多線程數據導入:

time myloader -u root -S /datas/mysql/data/3308/mysqld.sock -P 3308 -p root -B test -d /datas/dump_arrival_record -t 32

真實耗時 126m42.885s 用戶 1m4.543s 系統 0m4.267s

邏輯導入表后的磁盤空間使用:

du -h -d 1 /datas/mysql/data/3308/test/arrival_record.*
12K /datas/mysql/data/3308/test/arrival_record.frm
30G /datas/mysql/data/3308/test/arrival_record.ibd
無碎片,與 MySQL 中的表大小相匹配。
cp -rp /datas/mysql/data/3308 /datas

使用在線 DDL 和 pt-osc 工具進行索引刪除和重建。首先,刪除外鍵;如果不這樣做,復合索引無法被刪除,因為外鍵列是復合索引中第一列的一部分。

nohup bash /tmp/ddl_index.sh &
2019-04-04-10:41:39 開始停止 mysqld_3308
2019-04-04-10:41:41 開始 rm -rf datadir 并復制 datadir_bak
2019-04-04-10:46:53 啟動 mysqld_3308
2019-04-04-10:46:59 在線 DDL 開始
2019-04-04-11:20:01 索引刪除成功

索引刪除完成后,添加新索引。

2019-04-04-11:20:02 索引添加開始
2019-04-04-11:40:30 索引添加成功

生成的 EXPLAIN:

+----+-------------+-------------------+-------+---------------+---------+---------+------------------+------+-------------+
| id | select_type | table             | type  | possible_keys | key     | key_len | ref              | rows | Extra       |
+----+-------------+-------------------+-------+---------------+---------+---------+------------------+------+-------------+
|  1 | SIMPLE      | arrival_record    | range | indx_receive_time | indx_receive_time | 8       | NULL            | 3522 | Using where |
+----+-------------+-------------------+-------+---------------+---------+---------+------------------+------+-------------+

該查詢可以使用索引進行加速,最終性能提升十倍。

使用建議:

實施

由于這是一個主從實例,應用程序連接到 VIP。刪除和重建索引使用在線 DDL 進行。在停止主從復制后,首先在從實例上執行(不記錄 binlog),然后進行主從切換,接著在新切換的從實例上執行(不記錄 binlog)。

function red_echo () {
    local what="$*"
    echo -e "$(date +%F-%T)  ${what}"
}

function check_las_comm(){
    if [ "$1" != "0" ];then
        red_echo "$2"
        echo "exit 1"
        exit 1
    fi
}

red_echo "stop slave"
mysql -uroot -p$passwd --socket=/datas/mysql/data/${port}/mysqld.sock -e"stop slave"
check_las_comm "$?" "stop slave failed"

red_echo "online ddl begin"
mysql -uroot -p$passwd --socket=/datas/mysql/data/${port}/mysqld.sock -e"set sql_log_bin=0;select now() as ddl_start;ALTER TABLE $db_.\`${table_name}\` DROP FOREIGN KEY FK_arrival_record_product,drop index IXFK_arrival_record,add index idx_product_id_sequence_station_no(product_id,sequence,station_no),add index idx_receive_time(receive_time);select now() as ddl_stop" >>${log_file} 2>&1
red_echo "online ddl stop"
red_echo "add foreign key"
mysql -uroot -p$passwd --socket=/datas/mysql/data/${port}/mysqld.sock -e"set sql_log_bin=0;ALTER TABLE $db_.${table_name} ADD CONSTRAINT _FK_${table_name}_product FOREIGN KEY (product_id) REFERENCES cq_new_cimiss.product (id) ON DELETE NO ACTION ON UPDATE NO ACTION;" >>${log_file} 2>&1
check_las_comm "$?" "add foreign key error"
red_echo "add foreign key stop"

red_echo "start slave"
mysql -uroot -p$passwd --socket=/datas/mysql/data/${port}/mysqld.sock -e"start slave"
check_las_comm "$?" "start slave failed"

執行時間

2019–04–08–11:17:36 停止從服務器 mysql: [警告] 在命令行界面使用密碼可能不安全。 ddl_start 2019–04–08 11:17:36 ddl_stop 2019–04–08 11:45:13 2019–04–08–11:45:13 online ddl stop 2019–04–08 –11:45:13 添加外鍵。

mysql: [警告] 在命令行界面使用密碼可能不安全。 2019–04–08–12:33:48 添加外鍵停止 2019–04–08 –12:33:48 啟動從服務器。

重新檢查刪除和選擇語句的執行計劃。

explain select count(*) from arrival_record where receive_time < STR_TO_DATE('2019-03-10', '%Y-%m-%d')\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: arrival_record
partitions: NULL
type: range
possible_keys: idx_receive_time
key: idx_receive_time
key_len: 6
ref: NULL
rows: 7540948
filtered: 100.00
Extra: Using where; Using index
explain select count(*) from arrival_record where product_id=26 and receive_time between '2019-03-25 14:00:00' and '2019-03-25 15:00:00' and receive_spend_ms>=0\G;
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: arrival_record
partitions: NULL
type: range
possible_keys: idx_product_id_sequence_station_no,idx_receive_time
key: idx_receive_time
key_len: 6
ref: NULL
rows: 291448
filtered: 16.66
Extra: Using index condition; Using where

所有查詢都使用了 idx_receive_time 索引,大大減少了掃描的行數。

索引優化后

刪除操作仍然花費了 77 秒。

delete from arrival_record where receive_time < STR_TO_DATE('2019-03-10', '%Y-%m-%d')\G

該刪除語句利用 receive_time 索引刪除了超過 300 萬條記錄,耗時 77 秒。

大表刪除小批量優化

應用程序已優化為每 10 分鐘刪除一次數據(每次執行時間約 1 秒),在 xxx 中沒有出現 SLA(主從延遲警報)事件。

另一種方法是按主鍵順序一次刪除 20,000 條記錄。

# 獲取符合時間條件的最大主鍵 ID
# 按主鍵順序逐步掃描小批量刪除數據
# 首先執行以下語句
SELECT MAX(id) INTO @need_delete_max_id FROM `arrival_record` WHERE receive_time<'2019-03-01';
DELETE FROM arrival_record WHERE id<@need_delete_max_id LIMIT 20000;
select ROW_COUNT();  # 返回 20000

# 在執行小批量刪除后,返回 row_count(),表示刪除的行數
# 程序檢查返回的 row_count() 是否為 0,如果不是,則執行以下循環;如果為 0,則退出循環,刪除完成
DELETE FROM arrival_record WHERE id<@need_delete_max_id LIMIT 20000;
select ROW_COUNT();
# 程序休眠 0.5 秒

總結

  • 當表的大小過大時,除了關注訪問此表的響應時間外,還應考慮表的維護成本(例如 DDL 操作所需的時間和刪除歷史數據的時間)。
  • 在對大表進行 DDL 操作時,應考慮表的實際情況(例如表的并發性、是否有外鍵)以選擇合適的 DDL 變更方法。
  • 對于從表中刪除大量數據,應采用小批量刪除的方法,以減少主實例的壓力和主從延遲。
責任編輯:武曉燕 來源: 路條編程
相關推薦

2019-11-12 13:30:07

開源技術 軟件

2024-10-31 10:41:01

2023-05-29 12:35:09

模型ChatGPT

2022-09-26 09:41:25

MySQL數據庫

2013-03-26 10:10:38

服務器RubyGo

2019-08-21 14:35:18

壓縮文件優化過程Java

2025-06-27 09:05:47

2020-11-12 18:51:43

Java編程語言

2025-08-18 03:00:22

Spring樹形結構分類樹

2024-04-10 08:00:00

PostgresNoSQL

2022-11-03 10:28:43

Docker

2021-04-07 13:43:07

PythonDash數據庫

2025-06-25 09:30:14

2010-08-31 09:03:07

IT技術周刊

2025-06-04 02:20:00

SQL優化儀表盤

2012-06-20 11:17:02

MemSQL

2012-04-28 14:07:41

AMD數據中心

2021-08-26 22:26:55

性能優化技術

2024-11-08 09:34:54

點贊
收藏

51CTO技術棧公眾號

成人免费观看视频| 激情久久中文字幕| 在线综合视频播放| 国产日韩亚洲欧美在线| 日韩中文字幕免费观看| 天堂va蜜桃一区二区三区| 色偷偷av一区二区三区| 中文字幕在线观看视频www| av最新在线| 中文字幕精品三区| 99热国产免费| 波多野结衣一二区| 欧美日本一区二区高清播放视频| 亚洲精品自在久久| 亚洲高清视频免费| 亚洲女色av| 亚洲精品国产品国语在线app| 精品午夜一区二区三区| 夜夜躁狠狠躁日日躁av| 一区二区久久| 欧美大成色www永久网站婷| 欧美熟妇精品黑人巨大一二三区| 香蕉久久一区| 色欧美片视频在线观看| 久久综合久久网| 蜜桃视频网站在线| 久久亚洲精华国产精华液| 97人人模人人爽人人少妇| 欧美一级做a爰片免费视频| 亚洲小说区图片区| 久热99视频在线观看| 少妇无套高潮一二三区| 精品五月天堂| 日韩视频一区二区三区| 午夜免费高清视频| 日韩伦理在线一区| 亚洲大片精品永久免费| 一道本在线观看视频| 成人动漫在线播放| 久久久99精品免费观看| 国产一区二区三区四区五区在线 | 欧美一区二区视频17c| www.精品久久| 国产一区二区三区美女| 国产一区二区香蕉| 中文字幕免费播放| 久久香蕉精品| 国产精品91在线观看| 国产微拍精品一区| 宅男噜噜噜66一区二区| 久久久影视精品| 久久精品国产av一区二区三区| 91精品国产成人观看| 日韩三级成人av网| 糖心vlog免费在线观看| 欧美va久久久噜噜噜久久| 欲色天天网综合久久| 国产性猛交xx乱| 欧美精品一区二区三区中文字幕| 亚洲欧美日韩中文在线| 免费一级做a爰片久久毛片潮| 一区二区三区韩国免费中文网站| 日韩激情av在线播放| 蜜臀av一区二区三区有限公司| 老司机精品在线| 日韩精品视频免费专区在线播放| 欧美精品欧美极品欧美激情| 全国精品免费看| 日韩国产欧美区| 精品欧美一区二区久久久| 欧美亚洲在线日韩| 日韩在线视频线视频免费网站| 欧美性生交大片| 亚洲老妇激情| 国内外成人免费激情在线视频网站| 国产午夜福利一区二区| 亚洲毛片播放| 国产精品69久久久久| 中文字幕91爱爱| 国产美女在线精品| 国产精品久久九九| 日韩欧美电影在线观看| 国产欧美日韩三级| 青少年xxxxx性开放hg| 美女精品视频| 在线免费观看成人短视频| 色免费在线视频| **爰片久久毛片| 亚洲美女av在线播放| 欧美美女性生活视频| 一区二区三区四区日韩| 66m—66摸成人免费视频| 久久久久久无码午夜精品直播| 激情综合色播五月| 国产一区二区黄色| 在线视频1区2区| 亚洲国产日韩a在线播放| 免费裸体美女网站| 国产美女视频一区二区| 亚洲精品电影久久久| 国产白丝一区二区三区| 亚洲经典三级| 成人淫片在线看| 日韩a在线看| 亚洲精品久久久蜜桃| 九色porny91| 成人盗摄视频| 俺也去精品视频在线观看| 国产精品xxxx喷水欧美| 国产自产2019最新不卡| 久久精品中文字幕一区二区三区| 黄色精品在线观看| 日韩欧美精品免费在线| 欧美一区二区三区影院| 欧美一区二区麻豆红桃视频| 97视频免费在线看| 国产精品女人久久久| 久久综合久色欧美综合狠狠| 日本天堂免费a| 国产精品久久久久久久久久齐齐| 亚洲第一色在线| 欧美成人综合色| 老汉av免费一区二区三区| 久久精品国产美女| 人人超在线公开视频| 欧美人与z0zoxxxx视频| 国产高清一区二区三区四区| 国产亚洲网站| 成人国产一区二区| dy888亚洲精品一区二区三区| 欧美图片一区二区三区| 欧美一区二区三区成人精品| 亚洲无吗在线| 成人免费看片网站| 26uuu亚洲电影在线观看| 欧美日韩久久久一区| 偷拍夫妻性生活| 亚洲专区一区二区三区| 国产免费一区二区三区| gogo高清在线播放免费| 欧美成人女星排名| 日韩视频中文字幕在线观看| 久久精品国产精品青草| 伊人情人网综合| 亚瑟国产精品| 精品久久国产精品| 一起草av在线| √…a在线天堂一区| 日本黄大片一区二区三区| 精品无人区麻豆乱码久久久| 国产成人精品国内自产拍免费看| 免费在线观看一级毛片| 欧美特级www| b站大片免费直播| 久久中文欧美| 日韩亚洲视频| 亚洲成a人片777777久久| 久久精品免费播放| 99在线精品视频免费观看20| 一区二区三区欧美视频| 久久无码专区国产精品s| 亚洲高清免费| 免费在线成人av电影| 刘亦菲一区二区三区免费看| 中文字幕日韩欧美| 亚洲综合精品视频| 亚洲美女在线国产| 亚洲久久久久久| 久久蜜桃资源一区二区老牛| 台湾成人av| 国产精品1区在线| 国内精品一区二区三区| 欧美成人福利视频| 91禁男男在线观看| 国内精品国产三级国产a久久| 日韩 欧美 自拍| 国产精品xxxav免费视频| 91超碰caoporn97人人| 韩国三级av在线免费观看| 欧美日韩一区在线观看| 欧美国产在线看| av一区二区不卡| 激情视频综合网| 亚洲精品极品少妇16p| 国产精品一区二区三区精品| 日日av拍夜夜添久久免费| zzijzzij亚洲日本成熟少妇| 亚洲黄色小说网址| 色国产精品一区在线观看| 国产wwwwxxxx| av午夜一区麻豆| 午夜免费福利在线| 黄色工厂这里只有精品| 欧美一区二区三区四区夜夜大片 | 18网站在线观看| 日韩经典第一页| 一级片一区二区三区| 亚洲香蕉伊在人在线观| 国产精品成人无码免费| 国产福利不卡视频| 国产真实乱子伦| 自拍偷拍欧美专区| 美媛馆国产精品一区二区| 综合久草视频| 日韩美女免费线视频| 午夜成年人在线免费视频| 亚洲欧美一区二区激情| 亚洲免费黄色片| 欧美高清视频一二三区| 中文在线第一页| 亚洲自拍偷拍图区| 日本视频在线免费| 久久夜色精品国产噜噜av| 中文字幕在线播放一区二区| 日韩va亚洲va欧美va久久| 女人帮男人橹视频播放| 国产精品久久久久久| 日本精品国语自产拍在线观看| 国内精品偷拍| 2022国产精品| aa亚洲一区一区三区| 国产成人精品电影久久久| 黄色18在线观看| 欧美国产中文字幕| 黄视频网站在线看| 色噜噜狠狠狠综合曰曰曰88av| 日本精品专区| 精品香蕉在线观看视频一| www.久久久久久| 91麻豆精品国产91久久久久| 中文字幕+乱码+中文| 在线精品视频免费观看| 欧美男人亚洲天堂| 欧美日韩亚洲视频| 欧美亚韩一区二区三区| 亚洲国产精品久久人人爱| 午夜少妇久久久久久久久| 中文字幕亚洲区| 久久精品色妇熟妇丰满人妻| 国产人久久人人人人爽| a级在线免费观看| 国产日产精品一区| 亚洲人成人无码网www国产| 91丝袜高跟美女视频| 国产在线观看无码免费视频| www.亚洲激情.com| 无码精品一区二区三区在线播放| 处破女av一区二区| 中文字幕人妻一区二区三区| 成人激情免费电影网址| 亚洲香蕉中文网| av一本久道久久综合久久鬼色| 波多野结衣先锋影音| 91亚洲精品乱码久久久久久蜜桃| 国产一级二级视频| 久久综合av免费| 扒开jk护士狂揉免费| 国产夜色精品一区二区av| 波多野结衣一二三四区| 国产精品不卡在线观看| 国精品无码一区二区三区| 悠悠色在线精品| 国产在线精品观看| 日韩欧美一区二区三区久久| 69视频免费看| 欧美日本不卡视频| 亚洲国产精品视频在线| 亚洲精品99久久久久| 国产在线观看免费| 日韩在线视频免费观看| 亚洲小说区图片| 91国产美女在线观看| 欧美日韩尤物久久| 91免费的视频在线播放| 国产精品色呦| 日本不卡一区| 一区二区中文| av免费观看国产| 日韩精品成人一区二区在线| 国产永久免费网站| 成人免费黄色大片| 人成免费在线视频| 亚洲一区二区三区中文字幕| 日韩一区二区视频在线| 欧美日韩一区二区三区四区五区| av一级黄色片| 亚洲精品天天看| av黄在线观看| 日本一区二区不卡| 电影91久久久| 欧美日韩在线精品| 欧美 日韩 国产一区二区在线视频 | 在线观看av的网站| 欧美国产日本在线| 黄瓜视频成人app免费| 999精品在线观看| 视频一区中文| 大胆欧美熟妇xx| 日本亚洲天堂网| 国产大学生视频| 国产精品不卡在线| 特级西西444www大精品视频免费看| 欧美男同性恋视频网站| 性xxxx18| 美女啪啪无遮挡免费久久网站| 天堂av中文在线观看| 91精品婷婷国产综合久久蝌蚪| 国产精品一区二区av交换| www.av91| 国内久久婷婷综合| 精品人伦一区二区三电影| 亚洲国产视频直播| 国产孕妇孕交大片孕| 亚洲人午夜色婷婷| 999福利在线视频| 91午夜在线播放| 成人在线视频免费观看| 无码精品a∨在线观看中文| 国产成人在线影院 | 嫩草研究院在线观看| 欧美俄罗斯乱妇| 婷婷久久免费视频| 亚洲国产精品视频一区| 模特精品在线| 91视频啊啊啊| 亚洲mv大片欧洲mv大片精品| 精品久久久久成人码免费动漫| 日韩中文理论片| 国产精品久久久久久妇女| 欧美综合77777色婷婷| 亚洲神马久久| 日韩免费高清一区二区| 亚洲午夜免费视频| 亚洲第一天堂在线观看| 久久电影一区二区| 91成人app| 裸体裸乳免费看| 国产在线精品国自产拍免费| 中文字幕无码日韩专区免费 | 国产精品久久久久久久久妇女| 999精品视频在线| 日本一区二区在线不卡| 丁香社区五月天| 国产亚洲日本欧美韩国| 日韩欧美看国产| 日韩av电影免费播放| 日韩电影免费一区| 日本综合在线观看| 欧美日韩精品系列| 免费观看久久久久| 成人在线免费观看视视频| 婷婷综合在线| 91福利视频免费观看| 亚洲亚洲人成综合网络| 天堂在线观看av| 日产日韩在线亚洲欧美| 欧美色网址大全| 中文字幕线观看| 一区二区三区在线免费| 嫩草影院一区二区| 欧美制服第一页| 精品视频黄色| 涩涩网站在线看| 亚洲福利一二三区| 可以免费看污视频的网站在线| 国产精品久久久| 天天射天天综合网| 又黄又爽又色的视频| 精品久久久久久久久久ntr影视| 青青国产在线| 国产欧美一区二区白浆黑人| 欧美国产高潮xxxx1819| 国产a级黄色片| 欧美中文字幕一区| av官网在线播放| 蜜桃视频日韩| 韩国精品免费视频| 黄色小视频在线免费看| 亚洲人成网站在线播| 成人久久精品| 国产极品在线视频| 中文字幕第一区| 亚洲精品无amm毛片| 国产98色在线| 午夜日韩福利| 国产在线观看无码免费视频| 欧美日韩成人高清| 成年女人在线看片| 亚洲国产精品日韩| 成人av动漫在线| 中国一区二区视频| 欧美精品videofree1080p| 久久99高清| 蜜臀视频在线观看| 欧美在线观看视频在线| 久草在线资源站资源站| 色一情一乱一伦一区二区三区丨| 粉嫩aⅴ一区二区三区四区| 波多野结衣在线观看视频| 欧美激情欧美狂野欧美精品|