精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大規(guī)模集群故障處理,能抗住這3個(gè)靈魂拷問(wèn)算你贏

安全
我相信每一個(gè)集群管理員,在長(zhǎng)期管理多個(gè)不同體量及應(yīng)用場(chǎng)景的集群后,都會(huì)多少產(chǎn)生情緒。其實(shí)這在我看來(lái),是一個(gè)很微妙的事,即大家也已經(jīng)開(kāi)始人性化的看待每一個(gè)集群了。

我相信每一個(gè)集群管理員,在長(zhǎng)期管理多個(gè)不同體量及應(yīng)用場(chǎng)景的集群后,都會(huì)多少產(chǎn)生情緒。其實(shí)這在我看來(lái),是一個(gè)很微妙的事,即大家也已經(jīng)開(kāi)始人性化的看待每一個(gè)集群了。

[[278545]]

既然是人性化的管理集群,我總是會(huì)思考幾個(gè)方向的問(wèn)題:

  • 集群的特別之處在哪兒?
  • 集群經(jīng)常生什么病?
  • 對(duì)于集群產(chǎn)生的突發(fā)疾病如何精準(zhǔn)地做到靶向定位?
  • 應(yīng)急處理故障之后如何避免舊除新添?

在長(zhǎng)期大規(guī)模集群治理實(shí)踐過(guò)程中,也針對(duì)各個(gè)集群的各種疑難雜癥形成了自己的西藥(trouble shooting)丶中藥(Returning for analysis)丶健身預(yù)防(On a regular basis to optimize)的手段及產(chǎn)品。

下面通過(guò)自我的三個(gè)靈魂拷問(wèn)來(lái)分享一下自己對(duì)于大規(guī)模集群治理的經(jīng)驗(yàn)及總結(jié)。

靈魂拷問(wèn)1

集群量大,到底有啥特點(diǎn)?

集群數(shù)量多,規(guī)模大:管理著大小將近20個(gè)集群,最大的xxx集群和xx集群達(dá)到1000+節(jié)點(diǎn)的規(guī)模。

靈魂拷問(wèn)2

平時(shí)集群容易生什么病,都有哪些隱患呢?

集群在整體功能性,穩(wěn)定性,資源的使用等大的方面都會(huì)有一些痛點(diǎn)問(wèn)題。

常見(jiàn)的文件數(shù)過(guò)多丶小文件過(guò)多丶RPC隊(duì)列深度過(guò)高,到各個(gè)組件的版本bug,使用組件時(shí)發(fā)生嚴(yán)重生產(chǎn)故障,以及資源浪費(fèi)等都是集群治理的常見(jiàn)問(wèn)題。

靈魂拷問(wèn)3

對(duì)于集群的突發(fā)疾病如何精準(zhǔn)地解決故障?

對(duì)于集群突發(fā)的故障,平臺(tái)應(yīng)具備全面及時(shí)的監(jiān)控告警,做到分鐘級(jí)發(fā)現(xiàn)告警故障,推送告警通知,這是快速解決故障的前提保障。

對(duì)于集群的慢性疾病,應(yīng)該從底層收集可用的詳細(xì)數(shù)據(jù),分析報(bào)告加以利用,通過(guò)長(zhǎng)期的治理來(lái)有效的保障集群的深層次健康,并開(kāi)發(fā)形成能實(shí)實(shí)在在落地企業(yè)的數(shù)據(jù)資產(chǎn)管理丶數(shù)據(jù)治理產(chǎn)品。

下面將針對(duì)上面的9個(gè)集群?jiǎn)栴}或故障逐一解答如何解決。

1、底層計(jì)算引擎老舊,業(yè)務(wù)加工占用大量資源且異常緩慢。

集群底層使用MR計(jì)算引擎,大量任務(wù)未進(jìn)合理優(yōu)化,大多數(shù)任務(wù)占用上千core,上百TB內(nèi)存,且對(duì)集群造成了大量的IO讀寫壓力。

解決手段:通過(guò)監(jiān)控“拎大頭”,找出消耗資源巨大的任務(wù),通過(guò)業(yè)務(wù),計(jì)算引擎,參數(shù)調(diào)優(yōu)來(lái)優(yōu)化集群資源使用,提高集群算力。

業(yè)務(wù)優(yōu)化:從業(yè)務(wù)角度明確來(lái)源數(shù)據(jù),減少加載數(shù)據(jù)量。

計(jì)算引擎優(yōu)化 :MR轉(zhuǎn)Spark。

參數(shù)調(diào)優(yōu):小文件合并優(yōu)化,內(nèi)存內(nèi)核調(diào)優(yōu),并發(fā)量調(diào)優(yōu),防止數(shù)據(jù)傾斜。

2、xx集群RPC故障問(wèn)題。

現(xiàn)象概述:XX產(chǎn)線集群提交作業(yè)執(zhí)行慢; 業(yè)務(wù)數(shù)據(jù)加工邏輯為讀取HDFS新增文件>>>入庫(kù)HBase; 遍歷列表文件周期為5s。

根因分析:

解決方案:

閱讀RPC源碼:動(dòng)態(tài)代理機(jī)制+NIO通信模型。

調(diào)整NN RPC關(guān)鍵參數(shù),做對(duì)比實(shí)驗(yàn)。

1)優(yōu)化系統(tǒng)參數(shù)配置:

  1. ipc.server.handler.queue.size; 
  2.         dfs.namenode.service.handler.count 

2)將HDFS千萬(wàn)級(jí)目錄掃描周期從5s調(diào)整為5分鐘

3)增加集群RPC請(qǐng)求分時(shí)段分業(yè)務(wù)模型深度監(jiān)控

3、xx集群由于承載對(duì)外多租戶,面對(duì)各個(gè)租戶提出的集群生產(chǎn)環(huán)境的需求都不一致,造成集群環(huán)境復(fù)雜化,yarn資源打滿,并且容易出現(xiàn)負(fù)載過(guò)高的接口機(jī),加重運(yùn)維成本。

解決手段:

集群環(huán)境多版本及異構(gòu)管理:

配置多版本Python環(huán)境,并搭建私有第三方庫(kù)。

 

配置多版本Spark,Kafka環(huán)境。

 

實(shí)時(shí)監(jiān)控yarn隊(duì)列資源使用,監(jiān)控yarn應(yīng)用任務(wù),重點(diǎn)優(yōu)化。 

配置明細(xì)接口機(jī)監(jiān)控,優(yōu)化接口機(jī)負(fù)載。

接口機(jī)從基礎(chǔ)指標(biāo),top分析,CPU內(nèi)存消耗過(guò)大的進(jìn)程多維度監(jiān)控,及時(shí)的合理調(diào)整優(yōu)化接口機(jī)的調(diào)度任務(wù),降低接口機(jī)負(fù)載。

4、xxx集群由于文件數(shù)過(guò)多,導(dǎo)致集群運(yùn)行緩慢,NameNode進(jìn)程掉線。

集群的文件對(duì)象達(dá)到九千多萬(wàn)。且集群的讀寫IO是寫多讀少。NameNode啟動(dòng)需要加載大量的塊信息,啟動(dòng)耗時(shí)過(guò)長(zhǎng)。

解決手段:

計(jì)算引擎優(yōu)化 :盡量使用Spark,有效率使用內(nèi)存資源,減少磁盤IO讀寫。

周期性清理:根據(jù)HDFS業(yè)務(wù)目錄存儲(chǔ)增量,定期協(xié)調(diào)業(yè)務(wù)人員清理相關(guān)無(wú)用業(yè)務(wù)數(shù)據(jù)。

塊大小管理:小文件做合并,增加block大小為1GB,減少小文件塊數(shù)量。

深度清理:采集監(jiān)控auit日志做HDFS文件系統(tǒng)的多維畫像。深入清理無(wú)用數(shù)據(jù)表,空文件,廢文件。

5、HDFS數(shù)據(jù)目錄權(quán)限管理混亂,經(jīng)常造成數(shù)據(jù)誤刪或丟失。

由于下放的權(quán)限沒(méi)有及時(shí)回收,或者一些誤操作造成了數(shù)據(jù)的誤刪和丟失。

解決辦法:

業(yè)務(wù)劃分:明確梳理各個(gè)業(yè)務(wù)對(duì)應(yīng)權(quán)限用戶,整改當(dāng)前HDFS數(shù)據(jù)目錄結(jié)構(gòu),生產(chǎn)測(cè)試庫(kù)分離控制。

數(shù)據(jù)生命周期管理:

6、yarnJOB造成節(jié)點(diǎn)負(fù)載過(guò)高影響了其他job運(yùn)行。

某些節(jié)點(diǎn)CPU負(fù)載很高影響了job任務(wù)的運(yùn)行,發(fā)現(xiàn)有些節(jié)點(diǎn)的負(fù)載從9:30到現(xiàn)在一直很高,導(dǎo)致job任務(wù)執(zhí)行了大概7個(gè)小時(shí)。

 

解決辦法:

找到耗時(shí)task執(zhí)行的節(jié)點(diǎn),確實(shí)發(fā)現(xiàn)負(fù)載很高,并找到了此任務(wù)對(duì)應(yīng)的進(jìn)程。

 

查看此進(jìn)程的堆棧信息,發(fā)現(xiàn)Full GC次數(shù)很多,時(shí)長(zhǎng)很長(zhǎng)大概6個(gè)小時(shí),頻繁的Full GC會(huì)使CPU使用率過(guò)高。

 

查看job進(jìn)程詳情發(fā)現(xiàn),java heap內(nèi)存只有820M,task處理的記錄數(shù)為7400多萬(wàn),造成堆內(nèi)存不足頻繁出發(fā)Full GC。

 

推薦下次執(zhí)行任務(wù)時(shí)設(shè)置如下參數(shù)大小:

  1. hive> set mapreduce.map.memory.mb=4096; 
  2. hive> set mapreduce.map.java.opts=-Xmx3686m; 

7、NameNode切換后部分Hive表無(wú)法查詢。

小集群NameNode發(fā)生切換,并出現(xiàn)Hive某庫(kù)下的表和其有關(guān)聯(lián)的表無(wú)法使用的情況報(bào)錯(cuò)如下:

截圖報(bào)錯(cuò),表明當(dāng)前NameNode節(jié)點(diǎn)為stanby節(jié)點(diǎn)。經(jīng)過(guò)排查發(fā)現(xiàn),Hive的Metadata中有些partition列的屬性還保留之前配置的NameNode location。

解決辦法:

  • 備份Hive所在的MySQL元數(shù)據(jù)庫(kù) # mysqldump -uRoot -pPassword hive > hivedump.sql;
  • 進(jìn)入Hive所在的MySQL數(shù)據(jù)庫(kù)執(zhí)行,修改Hive庫(kù)下SDS表下的location信息,涉及條數(shù)9739行。把指定IP的location替換成nameservice ;
  1. hive> set mapreduce.map.memory.mb=4096; 
  2. hive> set mapreduce.map.java.opts=-Xmx3686m; 
  • 切換NameNode驗(yàn)證所影響Hive表是否可用;
  • 業(yè)務(wù)全方面驗(yàn)證 ;
  • 變更影響范圍:本次變更可以在線進(jìn)行實(shí)施,避開(kāi)業(yè)務(wù)繁忙段,對(duì)業(yè)務(wù)無(wú)影響;
  • 回退方案:從備份的mysqldump文件中恢復(fù)mysql hive元數(shù)據(jù)庫(kù) mysql -uUsername -pPassword hive < hivedump.sq。

8、Spark任務(wù)運(yùn)行緩慢,且經(jīng)常執(zhí)行報(bào)錯(cuò)。

產(chǎn)線集群提交作業(yè)執(zhí)行報(bào)錯(cuò),個(gè)別Task執(zhí)行耗時(shí)超過(guò)2h: ERROR server.TransportChannelHandler: Connection to ip:4376 has been quiet for 120000 ms while there are outstanding requests. Assuming connection is dead; please adjust spark.network.timeout if this is wrong.

根因分析:

報(bào)錯(cuò)表象為shuffle階段拉取數(shù)據(jù)操作連接超時(shí)。默認(rèn)超時(shí)時(shí)間為120s。

深入了解Spark源碼:在shuffle階段會(huì)有read 和 write操作。

首先根據(jù)shuffle可使用內(nèi)存對(duì)每一個(gè)task進(jìn)行chcksum,校驗(yàn)task處理數(shù)據(jù)量是否超出shuffle buffer 內(nèi)存上限。該過(guò)程并不是做全量chcksum,而是采用抽樣的方式進(jìn)行校驗(yàn)。

其原理是抽取task TID ,與shuffle內(nèi)存校驗(yàn),小于shuffle內(nèi)存上限,則該區(qū)間的task都會(huì)獲取 task data 遍歷器進(jìn)行數(shù)據(jù)遍歷load本地,即HDFS Spark中間過(guò)程目錄。

這樣會(huì)導(dǎo)致一些數(shù)據(jù)量過(guò)大的task成為漏網(wǎng)之魚,正常來(lái)說(shuō),數(shù)據(jù)量過(guò)大,如果被校驗(yàn)器采樣到,會(huì)直接報(bào)OOM,實(shí)際情況是大數(shù)據(jù)量task沒(méi)有被檢測(cè)到,超出buffer過(guò)多,導(dǎo)致load時(shí),一部分?jǐn)?shù)據(jù)在內(nèi)存中獲取不到,進(jìn)而導(dǎo)致連接超時(shí)的報(bào)錯(cuò)假象。

解決方案:

1)調(diào)優(yōu)參數(shù)配置:

spark.shuffle.manager(sort),spark.shuffle.consolidateFiles (true),spark.network.timeout(600s)。報(bào)錯(cuò)解決,運(yùn)行耗時(shí)縮短一小時(shí)。

2)excutor分配內(nèi)存從16g降為6g。內(nèi)存占用節(jié)省三分之二,運(yùn)行耗時(shí)增加一小時(shí)。

9、某HBase集群無(wú)法PUT入庫(kù)問(wèn)題處理。

集群情況介紹:HDFS總存儲(chǔ) 20+PB,已使用 75+%,共 600+ 個(gè) DN 節(jié)點(diǎn),大部分?jǐn)?shù)據(jù)為 2 副本(該集群經(jīng)歷過(guò) 多次擴(kuò)容,擴(kuò)容前由于存儲(chǔ)緊張被迫降副本為 2),數(shù)據(jù)分布基本均衡。集群上只承載了HBase數(shù)據(jù)庫(kù)。

故障描述:因集群部分 DN 節(jié)點(diǎn)存儲(chǔ)使用率非常高(超過(guò) 95%),所以采取了下線主機(jī)然后再恢復(fù) 集群中這種辦法來(lái)減輕某些 DN 存儲(chǔ)壓力。

且集群大部分?jǐn)?shù)據(jù)為 2 副本,所以在這個(gè)過(guò)程 中出現(xiàn)了丟塊現(xiàn)象。通過(guò) fsck 看到已經(jīng)徹底 miss,副本數(shù)為 0。

因此,在重啟 HBase 過(guò)程中,部分 region 因 為 block 的丟失而無(wú)法打開(kāi),形成了 RIT。

對(duì)此問(wèn)題,我們通過(guò) hadoop fsck –delete 命令清除了 miss 的 block。然后逐庫(kù)通過(guò) hbase hbck –repair 命令來(lái)修復(fù) hbase 在修復(fù)某個(gè)庫(kù)的時(shí)候在嘗試連接 ZK 環(huán)節(jié)長(zhǎng)時(shí)間卡死(10 分鐘沒(méi)有任何輸出),被迫只能 中斷命令。

然后發(fā)現(xiàn)故障表只有 999 個(gè) region,并且出現(xiàn) RIT,手動(dòng) assign 無(wú)效后,嘗試了重啟庫(kù)及再次 repair 修 復(fù),均無(wú)效。

目前在 HDFS 上查看該表 region 目錄總數(shù)為 1002 個(gè),而 Hbase UI 上是 999 個(gè),正常值為 1000 個(gè)。

問(wèn)題處理:后續(xù)檢查發(fā)現(xiàn)在整個(gè)集群的每張 HBase 表都有 region un-assignment 及 rowkey 存在 hole 問(wèn)題(不是單張表存在問(wèn)題)。

運(yùn)行 hbase hbck -details -checkCorruptHFiles 做集群狀態(tài)檢查,檢查結(jié)果如下:

  1. … ERROR: Region { meta => index_natip201712,#\xA0,1512009553152.00d96f6b2de55b56453e7060328b7930., hdfs => hdfs://ns1/hbase_ipsource3/data/default/index_natip201712/00d96f6b2de55b56453e7060328b7930, deployed => } not deployed on any region server. ERROR: Region { meta => index_natip201711,Y`,1509436894266.00e2784a250af945c66fb70370344f2f., hdfs => hdfs://ns1/hbase_ipsource3/data/default/index_natip201711/00e2784a250af945c66fb70370344f2f, deployed => } not deployed on any region server. … ERROR: There is a hole in the region chain between \x02 and \x02@. You need to create a new .regioninfo and region dir in hdfs to plug the hole. ERROR: There is a hole in the region chain between \x04 and \x04@. You need to create a new .regioninfo and region dir in hdfs to plug the hole. 

每張表可用(online)的 region 數(shù)都少于 1000,共存在 391 個(gè) inconsistency,整個(gè)集群基本不可用。

因?yàn)槊繌埍矶疾豢捎茫酝ㄟ^(guò)新建表并將原表的 HFile 文件 BulkLoad 入新表的方案基本不可行。

第一、這種方案耗時(shí)太長(zhǎng);第二、做過(guò)一個(gè)基本測(cè)試,如果按照原表預(yù) 分區(qū)的方式新建表,在 BulkLoad 操作后,無(wú)法在新表上查詢數(shù)據(jù)(get 及 scan 操作均 阻塞,原因未知,初步估計(jì)和預(yù)分區(qū)方式有關(guān))。

基于以上分析,決定采用 hbck 直接修復(fù)原表的方案進(jìn)行,不再采用 BulkLoad 方案。

運(yùn)行命令 hbae hbck -repair -fixAssignments -fixMeta,報(bào)Repair 過(guò)程阻塞異常。

查 HMaster 后臺(tái)日志,發(fā)現(xiàn)是某個(gè) RegionServer(DSJ-signal-4T-147/10.162.0.175)的連接數(shù)超多造成連接超時(shí)。重啟該 RegionServer 后再次運(yùn)行 hbck -repair -fixAssignments -fixMeta 順序結(jié)束,并成功修復(fù)了所有表的 region un-assignment、hole 及 HBase:meta 問(wèn)題。

應(yīng)用層測(cè)試整個(gè)集群入庫(kù)正常,問(wèn)題處理完成。

10、Kafka集群頻頻到達(dá)性能瓶頸,造成上下游數(shù)據(jù)傳輸積壓。

Kafka集群節(jié)點(diǎn)數(shù)50+,集群使用普通SATA盤,存儲(chǔ)能力2000TB,千億級(jí)日流量,經(jīng)常會(huì)出現(xiàn)個(gè)別磁盤IO打滿,導(dǎo)致生產(chǎn)斷傳,消費(fèi)延遲,繼而引發(fā)消費(fèi)offset越界,單個(gè)節(jié)點(diǎn)topic配置記錄過(guò)期等問(wèn)題。

1)降低topic副本:

建議如果能降低大部分topic的副本,這個(gè)方法是簡(jiǎn)單有效的。

降副本之后再把集群的拷貝副本所用的cpu核數(shù)降低,可以由num.replica.fetchers=6降低為num.replica.fetchers=3。磁盤IO使用的num.io.threads=14升為num.io.threads=16。num.network.threads=8升為num.network.threads=9。此參數(shù)只是暫時(shí)壓榨機(jī)器性能,當(dāng)數(shù)據(jù)量遞增時(shí)仍會(huì)發(fā)生故障。

2)設(shè)定topic創(chuàng)建規(guī)則,針對(duì)磁盤性能瓶頸做分區(qū)指定磁盤遷移:

如果降低副本收效甚微,考慮到目前集群瓶頸主要在個(gè)別磁盤讀寫IO達(dá)到峰值,是因磁盤的topic分區(qū)分配不合理導(dǎo)致,建議首先做好針對(duì)topic分區(qū)級(jí)別IO速率的監(jiān)控,然后形成規(guī)范合理的topic創(chuàng)建分區(qū)規(guī)則(數(shù)據(jù)量,流量大的topic先創(chuàng)建;分區(qū)數(shù)*副本數(shù)是磁盤總數(shù)的整數(shù)倍),先做到磁盤存儲(chǔ)的均衡,再挑出來(lái)個(gè)別讀寫IO到達(dá)瓶頸的磁盤,根據(jù)監(jiān)控找出讀寫異常大分區(qū)。

找出分區(qū)后再次進(jìn)行針對(duì)topic的分區(qū)擴(kuò)容或者針對(duì)問(wèn)題分區(qū)進(jìn)行指定磁盤的遷移。這樣集群的整體利用率和穩(wěn)定性能得到一定的提升,能節(jié)省集群資源。

3)Kafka版本升級(jí)及cm納管:

將手工集群遷移至cm納管,并在線升級(jí)Kafka版本。

4)zk和broker節(jié)點(diǎn)分離:

進(jìn)行zk和broker節(jié)點(diǎn)的分離工作,建議進(jìn)行zk節(jié)點(diǎn)變化而不是broker節(jié)點(diǎn)變化,以此避免數(shù)據(jù)拷貝帶來(lái)的集群負(fù)荷,建議創(chuàng)建測(cè)試topic,由客戶端適當(dāng)增加批大小和減少提交頻率進(jìn)行測(cè)試,使集群性能達(dá)到最優(yōu)。

作者介紹

小火牛,項(xiàng)目管理高級(jí)工程師,具有多年大數(shù)據(jù)平臺(tái)運(yùn)維管理及開(kāi)發(fā)優(yōu)化經(jīng)驗(yàn)。管理過(guò)多個(gè)上千節(jié)點(diǎn)集群,擅長(zhǎng)對(duì)外多租戶平臺(tái)的維護(hù)開(kāi)發(fā)。信科院大數(shù)據(jù)性能測(cè)試、功能測(cè)試主力,大廠PK獲得雙項(xiàng)第一。

 

責(zé)任編輯:武曉燕 來(lái)源: DBAplus社群
相關(guān)推薦

2019-10-09 09:39:15

PythonHDFS大數(shù)據(jù)

2019-04-18 11:37:49

NameNodeHDFS架構(gòu)

2015-08-31 05:51:37

集群運(yùn)維私有云

2015-06-11 13:24:27

集群運(yùn)維

2010-12-23 11:01:19

集群FTPFTP代理

2015-10-12 15:11:36

GoogleBorg集群管理

2023-02-17 07:41:18

KubernetePrometheus

2015-10-13 11:06:36

谷歌Google Borg集群管理

2020-06-02 07:44:04

AQS JavaNode

2015-09-07 12:06:10

51CTO技術(shù)周刊集群運(yùn)維

2025-09-11 09:11:36

2021-08-29 20:02:38

高并發(fā)集群部署

2025-10-29 16:29:27

OpenAIGPT-2模型

2016-08-12 15:40:17

CCEKubernetes華為

2022-05-11 09:34:15

云原生集群數(shù)倉(cāng)

2020-04-09 11:56:10

Elasticsear集群硬件

2021-05-12 09:15:48

Facebook 開(kāi)發(fā)技術(shù)

2011-07-15 17:12:15

云計(jì)算SkyptLync

2024-07-04 11:06:47

2024-06-07 14:01:29

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

婷婷伊人综合| 自拍偷拍亚洲视频| 国产精品一区二区久久不卡| 久久久久久久久91| 男女做爰猛烈刺激| 伊人亚洲精品| 黑人与亚洲人色ⅹvideos| 亚洲免费高清视频| 国产av天堂无码一区二区三区| 免费观看成年在线视频网站| 狠狠色狠狠色综合| …久久精品99久久香蕉国产| 国产一区在线观看免费| 99ri日韩精品视频| 欧美性色黄大片手机版| 欧美大黑帍在线播放| 久青草国产在线| 国产黑丝在线一区二区三区| 欧美在线视频网| 成人精品一二三区| 日韩影视在线观看| 欧美一卡2卡三卡4卡5免费| 欧美 日韩精品| 日本三级韩国三级欧美三级| 国产精品女同互慰在线看| 国产一区二区三区四区五区在线| 在线播放亚洲精品| 噜噜噜久久亚洲精品国产品小说| 欧美精品在线极品| 18啪啪污污免费网站| 婷婷精品视频| 精品盗摄一区二区三区| mm131国产精品| 成年美女黄网站色大片不卡| 亚洲一区在线电影| 樱空桃在线播放| 波多野结衣在线影院| www.欧美日韩| 99re国产视频| 国产成人精品白浆久久69| 日韩国产精品91| 欧美又大粗又爽又黄大片视频| 欧美成人精品欧美一| 久久中文字幕二区| 亚洲网站在线看| 黄色正能量网站| 精品福利一区| 亚洲加勒比久久88色综合| 日本少妇xxxx软件| 免费观看性欧美大片无片| 在线电影院国产精品| 国产3p在线播放| 欧美亚洲综合视频| 欧美区一区二区三区| 九色91popny| 日本中文字幕一区二区| 色婷婷综合久久久| 丝袜制服一区二区三区| 日本成人伦理电影| 欧美在线视频不卡| 孩娇小videos精品| 日韩成人一区| 91精品国产一区二区| 三级性生活视频| 久久久久久久久成人| 日韩视频在线你懂得| 成人做爰69片免费| 日韩av网站在线免费观看| 日韩精品福利网站| b站大片免费直播| 日韩免费在线| 久久中文字幕国产| 久久亚洲AV无码| 亚洲日本欧美| 国产高清视频一区三区| 亚洲图片在线播放| 国产精品小仙女| 国内精品视频在线播放| 日韩美女一级视频| 国产精品天干天干在线综合| 97精品国产97久久久久久粉红| 牛牛精品视频在线| 欧美性极品少妇精品网站| 爱情岛论坛vip永久入口| 四虎成人精品一区二区免费网站| 日韩一区二区三区电影在线观看| 亚洲国产精品无码久久久久高潮| 久久99国内| 久久精品人人做人人爽| 日本一级淫片免费放| 久久久精品五月天| 91麻豆桃色免费看| 水莓100在线视频| 国产精品天天摸av网| 成人免费观看在线| 无人区在线高清完整免费版 一区二| 欧美日韩免费高清一区色橹橹 | 国产综合18久久久久久| 在线观看xxx| 亚洲三级电影网站| 日本精品免费在线观看| 91麻豆精品| 日韩精品极品视频| 日本黄色小说视频| 久久精品30| 99三级在线| yiren22亚洲综合伊人22| 亚洲一区二区三区中文字幕在线| 三级在线免费看| 久久99精品国产自在现线| 自拍偷拍亚洲一区| 羞羞影院体验区| 国产一区二区精品在线观看| 欧美一区视久久| 国产美女情趣调教h一区二区| 欧洲一区在线观看| 一级做a爰片毛片| 午夜国产欧美理论在线播放| 国产精品99久久久久久久久久久久| 国产精品毛片一区二区在线看舒淇 | 国产国产精品| 国产suv精品一区二区三区88区| 99国产精品久久久久久久成人| 久久精品一区蜜桃臀影院| 久久av综合网| 免费一级欧美在线大片| 在线播放日韩精品| 国产三级av片| 成人99免费视频| 黄色一级片国产| 国产电影一区| 久久精品视频一| 91成品人影院| 中文字幕第一区第二区| 国产熟女高潮视频| 伊人成综合网yiren22| 91禁外国网站| 无套内谢的新婚少妇国语播放| 亚洲免费观看高清在线观看| 男人的天堂最新网址| 欧美自拍偷拍| 国产精品视频一区二区高潮| 国产三级电影在线| 91黄色免费网站| 亚洲区自拍偷拍| 青青草国产成人av片免费| 欧美亚洲精品日韩| 欧美一区久久久| 亚洲社区在线观看| 波多野结衣毛片| 欧美激情在线观看视频免费| 国产精品视频黄色| 久久要要av| 成人亚洲综合色就1024| av免费在线网站| 欧美成人艳星乳罩| 日本中文字幕网| 久久久久一区二区三区四区| 精品久久久久久久免费人妻| 欧州一区二区| 国产欧美精品日韩| 超碰超碰在线| 精品国产一区二区三区久久久蜜月| 久久精品这里只有精品| 成人免费高清视频| 黄色a级片免费| 日韩精品久久| 92国产精品久久久久首页| 亚洲资源一区| 亚洲精品福利资源站| 天堂在线免费观看视频| 国产欧美日韩激情| 91性高潮久久久久久久| 一区二区自拍| 欧美日韩精品久久久免费观看| 国产精品久久久久久久久久齐齐| 久久精品国产成人| 内射无码专区久久亚洲| 日韩欧美成人免费视频| 国产精品一区二区亚洲| 粉嫩在线一区二区三区视频| 欧美日韩亚洲第一| 婷婷久久一区| 久久国产精品久久| 亚洲国产伊人| 8090成年在线看片午夜| 2019中文字幕在线视频| 日韩免费视频线观看| 成人免费毛片男人用品| 18成人在线观看| 精品一区二区视频在线观看| 免费高清视频精品| 成人精品视频在线播放| sdde在线播放一区二区| 99久久精品无码一区二区毛片| 日本美女一区| 欧美激情视频一区二区| 国产小视频福利在线| 精品久久久久久久久久久久包黑料| 9i精品福利一区二区三区| 亚洲精品免费视频| 一级黄色性视频| 成人精品视频一区二区三区 | 国产真实的和子乱拍在线观看| 久久久久久久久蜜桃| 日批视频在线看| 免费成人在线网站| 国产成人无码精品久久久性色| 我不卡伦不卡影院| 欧美午夜免费| 开心激情综合| aa成人免费视频| 黄页免费欧美| 青草青草久热精品视频在线观看| caopon在线免费视频| 中文字幕一区二区三区电影| 涩爱av在线播放一区二区| 日韩欧美久久一区| 在线观看黄色国产| 在线视频欧美精品| 欧美精品二区三区| 性感美女极品91精品| 成人免费毛片东京热| 综合av第一页| 我想看黄色大片| 视频在线亚洲| 国产精品三级网站| 亚洲一二三四| 韩国日本不卡在线| 亚洲精品一线| 久久中文字幕在线视频| yw视频在线观看| 亚洲人成自拍网站| 日本免费不卡| 日韩毛片中文字幕| 无码国产色欲xxxx视频| 亚洲成人激情在线观看| 精品免费久久久| 91精品国产综合久久福利软件| 欧美另类高清videos的特点| 色婷婷综合久久久中文字幕| 好看的av在线| 在线影视一区二区三区| 999视频在线| 欧美中文字幕不卡| 中文字幕在线观看国产| 欧美日韩视频在线第一区| 国产精品高清无码| 欧美日韩一区三区| 91tv国产成人福利| 777久久久精品| 国产情侣激情自拍| 欧美一区二区三级| 亚洲黄色a级片| 日韩av在线一区| 黄色在线播放| 综合欧美国产视频二区| 国产一二区在线观看| 色综合久久悠悠| 色噜噜狠狠狠综合欧洲色8| 欧美激情性做爰免费视频| 黄色美女视频在线观看| 国产91ⅴ在线精品免费观看| 香蕉视频亚洲一级| 国产日韩欧美在线| 日韩在线亚洲| 欧美第一黄网| 日韩系列欧美系列| 大地资源第二页在线观看高清版| 欧美日韩1区| 欧美日韩亚洲一| 日韩电影在线一区二区| 亚洲第一成肉网| 粉嫩aⅴ一区二区三区四区| 中文字幕在线免费看线人| 欧美激情自拍偷拍| 欧美成人一二三区| 色婷婷综合激情| 99er热精品视频| 日韩成人av在线播放| 95在线视频| 欧美精品激情视频| 8av国产精品爽爽ⅴa在线观看| 成人免费网视频| 日韩大胆成人| 综合一区中文字幕| 亚洲专区一区| 又黄又爽又色的视频| 26uuu国产在线精品一区二区| 国产又粗又长免费视频| 亚洲国产日韩一级| 欧美一级做a爰片免费视频| 日韩免费看网站| 国产高清视频免费最新在线| 欧美国产一区二区三区| 色尼玛亚洲综合影院| 97av自拍| 欧美日韩伦理| 性欧美大战久久久久久久| 久久99国产精品麻豆| 国产精品无码一区二区三区| 亚洲激情自拍偷拍| 亚洲精品国产精品乱码视色| 亚洲激情视频网站| 免费在线你懂的| 日本不卡高字幕在线2019| 亚洲精品高潮| 吴梦梦av在线| 久久亚洲精选| 大乳护士喂奶hd| 亚洲靠逼com| 中文字幕在线2018| 亚洲色无码播放| 牛牛精品一区二区| 97自拍视频| 亚洲国产日韩欧美在线| 国产v亚洲v天堂无码久久久| av激情亚洲男人天堂| 久久精品黄色片| 欧美日韩亚洲国产综合| 狠狠色伊人亚洲综合网站l| 538国产精品视频一区二区| 日日夜夜精品视频| 伊人久久大香线蕉成人综合网| 久久精品一本| 亚洲永久无码7777kkk| 亚洲一区日韩精品中文字幕| 国产美女www爽爽爽视频| 中文字幕精品在线| 欧美www.| 欧美日韩一区二区视频在线观看| 亚洲激情网址| jlzzjizz在线播放观看| 亚洲一区二区四区蜜桃| 亚洲精品18在线观看| 欧美大片va欧美在线播放| 欧美成人福利| 亚洲一区精彩视频| 蜜桃传媒麻豆第一区在线观看| 久久美女免费视频| 色猫猫国产区一区二在线视频| 亚洲aⅴ乱码精品成人区| 韩国精品美女www爽爽爽视频| 国产成人夜色高潮福利影视| www.欧美黄色| 粉嫩嫩av羞羞动漫久久久 | 国内精品视频在线观看| 丝袜老师办公室里做好紧好爽| 91香蕉视频mp4| 国产精品久久久久久久久久久久久久久久久| 亚洲成人国产精品| 女人让男人操自己视频在线观看| 国产一区二区三区av在线 | 九色porny自拍| 国产精品国产自产拍高清av王其| 91在线观看喷潮| 欧美精品日韩三级| 大奶在线精品| 国产高清精品在线观看| 国产欧美日韩在线看| 一区二区www| 久久久精品国产| 韩国精品福利一区二区三区| 欧美又粗又长又爽做受| 97久久超碰国产精品电影| 亚洲黄色激情视频| 中文字幕日韩欧美在线视频| 国产精品国产三级在线观看| 91免费国产精品| 91在线国内视频| 在线免费a视频| 欧美精品在线免费播放| 偷拍精品福利视频导航| 我要看一级黄色大片| 亚洲精品久久久久久国产精华液| 免费看黄色一级视频| 国产精品久久久精品| 欧美欧美天天天天操| 国产精品一级黄片| 欧美日韩视频在线第一区| 日本高清在线观看| 日本三级中国三级99人妇网站| 久久99久国产精品黄毛片色诱| 精品视频久久久久| 亚洲一区第一页| 日本在线一区二区三区| 97视频在线免费播放| 日韩一区中文字幕| 天天舔天天干天天操| 国产日韩精品一区二区| 在线看片一区| 一区二区三区在线播放视频| 亚洲第一av网| 欧美激情福利| 国产黄色一级网站| 综合色天天鬼久久鬼色| 日色在线视频| 97人人模人人爽人人少妇| 视频精品一区二区| 精品一区在线视频|