精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

一文讀懂開源日志管理方案ELK和EFK的區別

系統 Linux
我們一起來看下從 ELK 到 EFK 發生了哪些變化,與此同時我也推薦大家了解下 Grafana Loki

 前言

主流的 ELK (Elasticsearch, Logstash, Kibana) 目前已經轉變為 EFK (Elasticsearch, Filebeat or Fluentd, Kibana) 比較重,對于容器云的日志方案業內也普遍推薦采用 Fluentd,我們一起來看下從 ELK 到 EFK 發生了哪些變化,與此同時我也推薦大家了解下 Grafana Loki

ELK 和 EFK 概述

隨著現在各種軟件系統的復雜度越來越高,特別是部署到云上之后,再想登錄各個節點上查看各個模塊的 log,基本是不可行了。因為不僅效率低下,而且有時由于安全性,不可能讓工程師直接訪問各個物理節點。而且現在大規模的軟件系統基本都采用集群的部署方式,意味著對每個 service,會啟動多個完全一樣的 POD 對外提供服務,每個 container 都會產生自己的 log,僅從產生的 log 來看,你根本不知道是哪個 POD 產生的,這樣對查看分布式的日志更加困難。

所以在云時代,需要一個收集并分析 log 的解決方案。首先需要將分布在各個角落的 log 收集到一個集中的地方,方便查看。收集了之后,還可以進行各種統計分析,甚至用流行的大數據或 maching learning 的方法進行分析。當然,對于傳統的軟件部署方式,也需要這樣的 log 的解決方案,不過本文主要從云的角度來介紹。

ELK 就是這樣的解決方案,而且基本就是事實上的標準。ELK 是三個開源項目的首字母縮寫,如下: 

  1. E: Elasticsearch  
  2. L: Logstash  
  3. K: Kibana 

Logstash 的主要作用是收集分布在各處的 log 并進行處理;Elasticsearch 則是一個集中存儲 log 的地方,更重要的是它是一個全文檢索以及分析的引擎,它能讓用戶以近乎實時的方式來查看、分析海量的數據。Kibana 則是為 Elasticsearch 開發的前端 GUI,讓用戶可以很方便的以圖形化的接口查詢 Elasticsearch 中存儲的數據,同時也提供了各種分析的模塊,比如構建 dashboard 的功能。

我個人認為將 ELK 中的 L 理解成 Logging Agent 更合適。Elasticsearch 和 Kibana 基本就是存儲、檢索和分析 log 的標準方案,而 Logstash 則并不是唯一的收集 log 的方案,Fluentd 和 Filebeats 也能用于收集 log。所以現在網上有 ELK,EFK 之類的縮寫。

一般采用的架構如下圖所示。通常一個小型的 cluster 有三個節點,在這三個節點上可能會運行幾十個甚至上百個容器。而我們只需要在每個節點上啟動一個 logging agent 的實例(在 kubernetes 中就是 DaemonSet 的概念)即可。

Filebeats、Logstash、Fluentd 三者的區別和聯系

這里有必要對 Filebeats、Logstash 和 Fluentd 三者之間的聯系和區別做一個簡要的說明。Filebeats 是一個輕量級的收集本地 log 數據的方案,官方對 Filebeats 的說明如下。可以看出 Filebeats 功能比較單一,它僅僅只能收集本地的 log,但并不能對收集到的 Log 做什么處理,所以通常 Filebeats 通常需要將收集到的 log 發送到 Logstash 做進一步的處理。

Filebeat is a log data shipper for local files. Installed as an agent on your servers, Filebeat monitors the log directories or specific log files, tails the files, and forwards them either to Elasticsearch or Logstash for indexing

Logstash 和 Fluentd 都具有收集并處理 log 的能力,網上有很多關于二者的對比,提供一個寫得比較好的文章鏈接如下。功能上二者旗鼓相當,但 Logstash 消耗更多的 memory,對此 Logstash 的解決方案是使用 Filebeats 從各個葉子節點上收集 log,當然 Fluentd 也有對應的 Fluent Bit。

  1. https://logz.io/blog/fluentd-Logstash/ 

另外一個重要的區別是 Fluentd 抽象性做得更好,對用戶屏蔽了底層細節的繁瑣。作者的原話如下:

Fluentd’s approach is more declarative whereas Logstash’s method is procedural. For programmers trained in procedural programming, Logstash’s configuration can be easier to get started. On the other hand, Fluentd’s tag-based routing allows complex routing to be expressed cleanly.

雖然作者說是要中立的對二者(Logstash 和 Fluentd)進行對比,但實際上偏向性很明顯了:)。本文也主要基于 Fluentd 進行介紹,不過總體思路都是相通的。

額外說一點,Filebeats、Logstash、Elasticsearch 和 Kibana 是屬于同一家公司的開源項目,官方文檔如下:   

  1. https://www.elastic.co/guide/index.html 

Fluentd 則是另一家公司的開源項目,官方文檔如下:

https://docs.fluentd.org

關于 ELK

ELK 簡介

ELK 是 Elastic 公司提供的一套完整的日志收集以及展示的解決方案,是三個產品的首字母縮寫,分別是 Elasticsearch、Logstash 和 Kibana。

  •  Elasticsearch 是實時全文搜索和分析引擎,提供搜集、分析、存儲數據三大功能
  •  Logstash 是一個用來搜集、分析、過濾日志的工具
  •  Kibana 是一個基于 Web 的圖形界面,用于搜索、分析和可視化存儲在 Elasticsearch 指標中的日志數據

ELK 日志處理流程

上圖展示了在 Docker 環境下,一個典型的 ELK 方案下的日志收集處理流程:

  •  Logstash 從各個 Docker 容器中提取日志信息
  •  Logstash 將日志轉發到 Elasticsearch 進行索引和保存
  •  Kibana 負責分析和可視化日志信息

由于 Logstash 在數據收集上并不出色,而且作為 Agent,其性能并不達標。基于此,Elastic 發布了 beats 系列輕量級采集組件。

這里我們要實踐的 Beat 組件是 Filebeat,Filebeat 是構建于 beats 之上的,應用于日志收集場景的實現,用來替代 Logstash Forwarder 的下一代 Logstash 收集器,是為了更快速穩定輕量低耗地進行收集工作,它可以很方便地與 Logstash 還有直接與 Elasticsearch 進行對接。

本次實驗直接使用 Filebeat 作為 Agent,它會收集我們在第一篇《Docker logs & logging driver》中介紹的 json-file 的 log 文件中的記錄變動,并直接將日志發給 Elasticsearch 進行索引和保存,其處理流程變為下圖,你也可以認為它可以稱作 EFK。

ELK 套件的安裝

本次實驗我們采用 Docker 方式部署一個最小規模的 ELK 運行環境,當然,實際環境中我們或許需要考慮高可用和負載均衡。

首先拉取一下 sebp/elk 這個集成鏡像,這里選擇的 tag 版本是 latest: 

  1. docker pull sebp/elk:latest 

注:由于其包含了整個 ELK 方案,所以需要耐心等待一會。

通過以下命令使用 sebp/elk 這個集成鏡像啟動運行 ELK: 

  1. docker run -it -d --name elk \  
  2.     -p 5601:5601 \  
  3.     -p 9200:9200 \  
  4.     -p 5044:5044 \  
  5.     sebp/elk:latest 

運行完成之后就可以先訪問一下 http://192.168.4.31:5601 看看 Kibana 的效果:

當然,目前沒有任何可以顯示的 ES 的索引和數據,再訪問一下 http://192.168.4.31:9200 看看 Elasticsearch 的 API 接口是否可用:

如果啟動過程中發現一些錯誤,導致 ELK 容器無法啟動,可以參考《ElasticSearch 啟動常見錯誤》 一文。如果你的主機內存低于 4G,建議增加配置設置 ES 內存使用大小,以免啟動不了。例如下面增加的配置,限制 ES 內存使用最大為 1G: 

  1. docker run -it -d --name elk \  
  2.     -p 5601:5601 \  
  3.     -p 9200:9200 \  
  4.     -p 5044:5044 \  
  5.     -e ES_MIN_MEM=512m \  
  6.     -e ES_MAX_MEM=1024m \  
  7.     sebp/elk:latest 

若啟動容器的時候提示 max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144] 請參考 

  1. # 編輯 sysctl.con  
  2. vi /etc/sysctl.conf  
  3. # 添加下面配置  
  4. vm.max_map_count=655360  
  5. # 然后執行命令  
  6. sysctl -p 

Filebeat 配置

安裝 Filebeat

Download Filebeat

這里我們通過 rpm 的方式下載 Filebeat,注意這里下載和我們 ELK 對應的版本(ELK 是 7.6.1,這里也是下載 7.6.1,避免出現錯誤): 

  1. wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.6.1-x86_64.rpm  
  2. rpm -ivh filebeat-7.6.1-x86_64.rpm 

配置 Filebeat

這里我們需要告訴 Filebeat 要監控哪些日志文件 及 將日志發送到哪里去,因此我們需要修改一下 Filebeat 的配置: 

  1. nano /etc/filebeat/filebeat.yml 

要修改的內容為:

(1)監控哪些日志 

  1. filebeat.inputs:  
  2. # Each - is an input. Most options can be set at the input level, so  
  3. # you can use different inputs for various configurations.  
  4. # Below are the input specific configurations.  
  5. - type: log  
  6.   # Change to true to enable this input configuration.  
  7.   enabled: true  
  8.   # Paths that should be crawled and fetched. Glob based paths.  
  9.   paths: 
  10.      - /var/lib/docker/containers/*/*.log 

這里指定 paths:/var/lib/docker/containers/*/*.log,另外需要注意的是將 enabled 設為 true。

(2)將日志發到哪里 

  1. #-------------------------- Elasticsearch output ------------------------------  
  2. output.elasticsearch:  
  3.   # Array of hosts to connect to.  
  4.   hosts: ["192.168.4.31:9200"]   
  5.   # Optional protocol and basic auth credentials.  
  6.   #protocol: "https"  
  7.   #username: "elastic"  
  8.   #password: "changeme" 

這里指定直接發送到 Elasticsearch,配置一下 ES 的接口地址即可。

注意:如果要發到 Logstash,請使用后面這段配置,將其取消注釋進行相關配置即可: 

  1. #----------------------------- Logstash output --------------------------------  
  2. #output.Logstash:  
  3.   # The Logstash hosts  
  4.   #hosts: ["localhost:9200"]  
  5.   # Optional SSL. By default is off.  
  6.   # List of root certificates for HTTPS server verifications  
  7.   #ssl.certificate_authorities: ["/etc/pki/root/ca.pem"]  
  8.   # Certificate for SSL client authentication  
  9.   #ssl.certificate: "/etc/pki/client/cert.pem"  
  10.   # Client Certificate Key  
  11.   #ssl.key: "/etc/pki/client/cert.key" 

啟動 Filebeat

由于 Filebeat 在安裝時已經注冊為 systemd 的服務,所以只需要直接啟動即可: 

  1. systemctl start filebeat 

設置開機啟動: 

  1. systemctl enable filebeat 

檢查 Filebeat 啟動狀態: 

  1. systemctl status filebeat 

上述操作總結為腳本為: 

  1. wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.6.1-x86_64.rpm  
  2. rpm -ivh filebeat-7.6.1-x86_64.rpm  
  3. echo "please input elk host_ip"  
  4. read host_ip  
  5. sed -i "s/  enabled: false/  enabled: true/g" /etc/filebeat/filebeat.yml  
  6. sed -i "s/\/var\/log\/\*.log/\/var\/lib\/docker\/containers\/\*\/\*.log/g" /etc/filebeat/filebeat.yml  
  7. sed -i "s/localhost:9200/${host_ip}:9200/g" /etc/filebeat/filebeat.yml  
  8. systemctl start filebeat  
  9. systemctl enable filebeat 
  10. systemctl status filebeat 

Kibana 配置

接下來我們就要告訴 Kibana,要查詢和分析 Elasticsearch 中的哪些日志,因此需要配置一個 Index Pattern。從 Filebeat 中我們知道 Index 是 filebeat-timestamp 這種格式,因此這里我們定義 Index Pattern 為 filebeat-*

點擊 Next Step,這里我們選擇 Time Filter field name 為 @timestamp:

單擊 Create index pattern 按鈕,即可完成配置。

這時我們單擊 Kibana 左側的 Discover 菜單,即可看到容器的日志信息啦:

仔細看看細節,我們關注一下 message 字段:

可以看到,我們重點要關注的是 message,因此我們也可以篩選一下只看這個字段的信息:

這里只是樸素的展示了導入 ELK 的日志信息,實際上 ELK 還有很多很豐富的玩法,例如分析聚合、炫酷 Dashboard 等等。筆者在這里也是初步使用,就介紹到這里啦。

Fluentd 引入

關于 Fluentd

前面我們采用的是 Filebeat 收集 Docker 的日志信息,基于 Docker 默認的 json-file 這個 logging driver,這里我們改用 Fluentd 這個開源項目來替換 json-file 收集容器的日志。

Fluentd 是一個開源的數據收集器,專為處理數據流設計,使用 JSON 作為數據格式。它采用了插件式的架構,具有高可擴展性高可用性,同時還實現了高可靠的信息轉發。Fluentd 也是云原生基金會 (CNCF) 的成員項目之一,遵循 Apache 2 License 協議,其 GitHub 地址為:https://github.com/fluent/fluentd/。Fluentd 與 Logstash 相比,比占用內存更少、社區更活躍,兩者的對比可以參考這篇文章《Fluentd vs Logstash》。

因此,整個日志收集與處理流程變為下圖,我們用 Filebeat 將 Fluentd 收集到的日志轉發給 Elasticsearch。

當然,我們也可以使用 Fluentd 的插件(fluent-plugin-elasticsearch)直接將日志發送給 Elasticsearch,可以根據自己的需要替換掉 Filebeat,從而形成 Fluentd => Elasticsearch => Kibana 的架構,也稱作 EFK。

運行 Fluentd

這里我們通過容器來運行一個 Fluentd 采集器: 

  1. docker run -it -d --name fluentd \  
  2.     -p 24224:24224 \  
  3.     -p 24224:24224/udp \  
  4.     -v /etc/fluentd/log:/fluentd/log \  
  5.     fluent/fluentd:latest 

默認 Fluentd 會使用 24224 端口,其日志會收集在我們映射的路徑下。

此外,我們還需要修改 Filebeat 的配置文件,將 / etc/fluentd/log 加入監控目錄下: 

  1. #=========================== Filebeat inputs =============================  
  2. filebeat.inputs:  
  3. # Each - is an input. Most options can be set at the input level, so  
  4. # you can use different inputs for various configurations.  
  5. # Below are the input specific configurations.  
  6. - type: log  
  7.   # Change to true to enable this input configuration.  
  8.   enabled: true  
  9.   # Paths that should be crawled and fetched. Glob based paths. 
  10.   paths:  
  11.     - /etc/fluentd/log/*.log 

添加監控配置之后,需要重新 restart 一下 filebeat:

  1. systemctl restart filebeat 

運行測試容器

為了驗證效果,這里我們 Run 兩個容器,并分別制定其 log-dirver 為 fluentd:

 

  1. docker run -d \  
  2.     --log-driver=fluentd \  
  3.     --log-opt fluentd-address=localhost:24224 \  
  4.     --log-opt tag="test-docker-A" \  
  5.     busybox sh -c 'while true; do echo "This is a log message from container A"; sleep 10; done;'  
  6. docker run -d \  
  7.     --log-driver=fluentd \  
  8.     --log-opt fluentd-address=localhost:24224 \  
  9.     --log-opt tag="test-docker-B" \  
  10.     busybox sh -c 'while true; do echo "This is a log message from container B"; sleep 10; done;' 

這里通過指定容器的 log-driver,以及為每個容器設立了 tag,方便我們后面驗證查看日志。

驗證 EFK 效果

這時再次進入 Kibana 中查看日志信息,便可以通過剛剛設置的 tag 信息篩選到剛剛添加的容器的日志信息了:

模擬日志生成壓力測試工具

  1.  https://github.com/elastic/rally
  2.  https://pypi.org/project/log-generator/
  3.  https://github.com/mingrammer/flog

小結

本文從 ELK 的基本組成入手,介紹了 ELK 的基本處理流程,以及從 0 開始搭建了一個 ELK 環境,演示了基于 Filebeat 收集容器日志信息的案例。然后,通過引入 Fluentd 這個開源數據收集器,演示了如何基于 EFK 的日志收集案例。當然,ELK/EFK 有很多的知識點,筆者也還只是初步使用,希望未來能夠分享更多的實踐總結。

參考文章

  1.  Elasticsearch Reference
  2.  開源日志管理方案 ELK/EFK
  3.  開源日志管理方案 ELK/EFK
  4.  ELK 構建云時代的 logging 解決方案
  5.  在 Kubernetes 上搭建 EFK 日志收集系統
  6.  Kubernetes 基于 EFK 技術棧的日志收集實踐

 

 

責任編輯:龐桂玉 來源: 奇妙的Linux世界
相關推薦

2024-04-10 13:50:41

CentOSUbuntu操作系統

2025-04-07 08:40:00

開源Llama 4大模型

2023-11-26 19:31:18

2025-02-05 10:07:57

2019-11-14 05:02:05

霧計算邊緣計算物聯網

2021-08-04 16:06:45

DataOps智領云

2023-12-22 19:59:15

2022-05-04 17:43:28

元數據大數據

2022-06-16 08:01:06

云成本管理FinOps

2023-10-23 15:38:12

Spring 5開發

2024-05-31 12:44:12

2019-09-12 09:56:33

TCPUDPHTTP

2021-09-04 19:04:14

配置LogbackJava

2023-11-27 17:35:48

ComponentWeb外層

2022-07-05 06:30:54

云網絡網絡云原生

2023-05-20 17:58:31

低代碼軟件

2022-10-20 08:01:23

2025-10-14 09:01:20

2022-12-01 17:23:45

2022-07-26 00:00:03

語言模型人工智能
點贊
收藏

51CTO技術棧公眾號

国产亚洲欧美另类一区二区三区| 亚洲美女又黄又爽在线观看| www.亚洲视频.com| 天天操天天干天天| 爽爽淫人综合网网站| 日韩中文第一页| 在线免费看黄色片| 亚州一区二区三区| 亚洲一区二区av电影| 日本一区二区三区视频在线播放| 精品人妻午夜一区二区三区四区| 国产亚洲午夜| 欧美成年人在线观看| 无码熟妇人妻av| 免费一级欧美在线大片 | 国产亚洲第一页| 精品久久成人| 亚洲精品国产精品久久清纯直播 | 色综合视频一区二区三区日韩| 一区二区三区国产精品| 午夜久久资源| 日韩毛片在线一区二区毛片| 久久99精品视频| 欧美一级免费看| 黄色一级视频免费| 国产韩国精品一区二区三区| 亚洲欧美日韩第一区| 麻豆短视频在线观看| 欧美在线一级| 欧美日韩一二三区| 97xxxxx| 日本在线观看大片免费视频| 中文成人av在线| 欧美日韩最好看的视频| 欧美 中文字幕| 国产一区二三区| 国产美女91呻吟求| 做爰无遮挡三级| 日韩成人免费在线| 国产成人a亚洲精品| 欧美videossex极品| 亚洲高清网站| 午夜精品福利电影| 欧美成人三级视频| 午夜视频精品| 精品中文字幕在线| 九九精品在线观看视频 | 欧美一级爱爱视频| h网站久久久| 亚洲免费观看高清| 91精品国产吴梦梦| 女人黄色免费在线观看| 一区二区三区四区在线| 日韩专区第三页| 亚洲91av| 亚洲国产裸拍裸体视频在线观看乱了| 喜爱夜蒲2在线| 自拍亚洲图区| 夜色激情一区二区| 91传媒免费视频| 欧美人与牲禽动交com| 亚洲精品国产精品乱码不99| 日韩激情视频一区二区| 91视频欧美| 欧美日韩国产精品一区二区不卡中文| 国产黄视频在线| 免费观看一级欧美片| 在线视频欧美区| 手机视频在线观看| 四虎地址8848精品| 深夜福利在线观看直播| 三级黄色片免费看| 日韩av电影免费播放| 青少年xxxxx性开放hg| h狠狠躁死你h高h| 国产精品一区二区在线看| av一区二区在线看| 深夜福利视频在线免费观看| 国产欧美一区二区三区在线老狼| 亚洲国产午夜伦理片大全在线观看网站 | 亚洲精品国产福利| 亚洲专区区免费| 全球成人免费直播| 色综合久久久888| 欧美三级一区二区三区| 久久www免费人成看片高清| 91在线观看免费观看 | 国产一级片免费| 亚洲免费网址| 91久久久在线| 日韩在线免费播放| 最新日韩在线视频| 777av视频| 欧美黄色成人| 亚洲第一福利在线观看| 日本人亚洲人jjzzjjz| 五月婷婷六月综合| 欧美在线视频观看| 国产成人av免费看| 国产目拍亚洲精品99久久精品| 欧美性受黑人性爽| 二吊插入一穴一区二区| 日韩三级免费观看| 99久久99久久精品免费看小说. | 2025韩国理伦片在线观看| 日韩欧洲国产| 在线观看国产欧美| 天天操天天摸天天干| 精品一区二区三区影院在线午夜| 精品国产91亚洲一区二区三区www| aaa在线观看| 亚洲成人在线免费| 毛毛毛毛毛毛毛片123| 免费看成人哺乳视频网站| 免费97视频在线精品国自产拍| 日韩久久中文字幕| 高清不卡在线观看| 手机福利在线视频| 桃色一区二区| 亚洲激情成人网| 欧美成人一区二区三区高清| 美洲天堂一区二卡三卡四卡视频| 国产一区二区免费电影| 尤物yw193can在线观看| 欧美挠脚心视频网站| 中文字幕免费高清| 国产欧美精品| 国产精品国产一区二区| 色哟哟免费在线观看 | 国产真实乱子伦| www.神马久久| 美女999久久久精品视频| 亚洲av无码不卡| 91亚洲国产成人精品一区二区三| 色哺乳xxxxhd奶水米仓惠香| 国产成+人+综合+亚洲欧美| 亚洲精品自在久久| 国产黄色免费观看| 久久综合九色综合97婷婷| 欧美精品自拍视频| 超碰97久久国产精品牛牛| 九九精品在线观看| 国产高清不卡视频| 亚洲精品国产视频| 色婷婷狠狠18禁久久| 欧美日韩第一区| 91视频免费在线观看| 国产素人视频在线观看| 91麻豆精品国产自产在线观看一区 | 91丨精品丨国产| 色婷婷av一区二区三区在线观看 | 激情黄产视频在线免费观看| 精品国产乱码久久久久久夜甘婷婷| 欧美成人aaa片一区国产精品| 国产精品一区二区久久精品爱涩 | 精品丝袜在线| 日韩精品一二三四区| 中文字幕精品三级久久久 | 久久成人小视频| 狠狠色丁香久久婷婷综| 7777在线视频| 高潮久久久久久久久久久久久久 | 亚洲爱爱视频| 日韩亚洲欧美中文高清在线| 国产视频在线观看视频| 亚洲综合色自拍一区| 国产婷婷在线观看| 另类天堂av| 亚洲综合视频一区| 66精品视频在线观看| 91精品国产色综合久久不卡98口| 日韩精品一二| 欧美日韩在线电影| 91高清免费观看| 99国产精品国产精品毛片| 色综合av综合无码综合网站| 日韩av有码| 国产精品福利视频| 欧美人体一区二区三区| 久久中文字幕一区| 性感美女一级片| 欧美三级中文字| 欧美激情国产精品免费| 91日韩一区二区三区| 鲁一鲁一鲁一鲁一av| 激情视频一区二区三区| 欧美日韩三区四区| 免费一级欧美片在线观看网站| 91精品国产91久久久久| 蜜芽在线免费观看| 亚洲护士老师的毛茸茸最新章节| 国产91av在线播放| 亚洲国产sm捆绑调教视频| 韩国女同性做爰三级| 国产91精品一区二区| 波多野结衣天堂| 影音先锋日韩资源| 亚洲人成网站在线播放2019| 国产精品毛片av| 国产女人18毛片水18精品| 黄色在线免费观看网站| 成人444kkkk在线观看| 人成在线免费视频| 日韩免费一区二区| 亚洲av综合一区| 午夜成人免费电影| 永久免费看片视频教学| 久久久亚洲综合| 少妇献身老头系列| 久久国产人妖系列| 成年人在线看片| 亚洲承认在线| 免费看日b视频| 日韩欧美综合| 免费观看国产成人| 手机av免费在线| jizz亚洲女人高潮大叫| 亚洲在线久久| 亚洲人成影院在线观看| 51ⅴ精品国产91久久久久久| 99精品国产99久久久久久97| 色av综合在线| 国产美女激情视频| 亚洲国产精品一区二区久久恐怖片| 波多野结衣家庭教师在线观看| 91麻豆swag| 国产肉体xxxx裸体784大胆| 国产农村妇女毛片精品久久| 欧美另类专区| 亚洲精品久久久久久一区二区| 秋霞在线一区| 国产一区二区三区四区五区加勒比| 亚洲精品无播放器在线播放| 国产精品偷伦免费视频观看的| 3d性欧美动漫精品xxxx软件| 免费观看成人www动漫视频| 久久久久久网站| 欧美黑人猛交| 欧美大尺度激情区在线播放| 免费在线毛片网站| 精品国产一区二区三区在线观看| 91在线免费看| 最好看的2019的中文字幕视频| 国产在线视频福利| 亚洲人午夜精品| 黄色在线视频观看网站| 国产亚洲精品激情久久| 成年人视频在线观看免费| 中文字幕欧美日韩精品| av在线资源站| 精品国产美女在线| 91精品久久久久久粉嫩| 欧美精品一区在线播放| 日本大胆在线观看| 欧美激情精品久久久久久久变态| 免费在线国产视频| 欧美激情在线有限公司| 1234区中文字幕在线观看| 97视频在线免费观看| 亚洲小少妇裸体bbw| 清纯唯美亚洲激情| 肉色欧美久久久久久久免费看| 国产成人精品视频| 另类一区二区三区| 亚洲最大激情中文字幕| 豆花视频一区二区| 欧美日韩亚洲一区二区三区四区| 国产伦精品一区二区三区千人斩| 色999日韩自偷自拍美女| 一区二区电影在线观看| 精品人妻大屁股白浆无码| 国产精品日韩| 国产又大又黄又粗的视频| 激情国产一区二区| 亚洲一级Av无码毛片久久精品| 97久久精品人人澡人人爽| 亚洲精品一区二区三区影院忠贞| 亚洲欧美另类图片小说| 久久精品免费在线| 欧洲激情一区二区| 成人免费公开视频| 亚洲色图校园春色| 大地资源网3页在线观看| 7m精品福利视频导航| 久久99国产精品二区高清软件| 99国精产品一二二线| 色综合久久中文| 超碰免费在线公开| 亚洲自啪免费| 亚洲欧美天堂在线| 91视频在线观看免费| 日本精品在线免费观看| 欧美日韩视频免费播放| 国产精品亚洲lv粉色| 日韩精品在线播放| a毛片在线播放| 国产精品v日韩精品| av中文字幕免费| 麻豆一区二区三| 亚洲第一色av| aaa亚洲精品| 日本a级片视频| 在线看不卡av| 黄色美女一级片| 久久精品电影一区二区| 在线天堂中文资源最新版| 亚洲影影院av| 欧美在线色图| 干日本少妇首页| 岛国精品在线播放| 91制片厂在线| 在线一区二区三区做爰视频网站| 成人爽a毛片一区二区| xxxxx成人.com| 123成人网| 欧美精品v日韩精品v国产精品| 黄色在线一区| 亚洲黄色片免费| 国产精品视频一二| 中文字幕国产在线观看| 欧美精品一区二区三区一线天视频| 久cao在线| 国产精品美女免费看| 任我爽精品视频在线播放| 日韩精品久久一区二区| 国产在线精品一区二区不卡了| 在线观看日本中文字幕| 欧美性生活大片免费观看网址| 少妇高潮久久久| 欧美激情一区二区三级高清视频| 日本国产一区| 欧美一区二区三区在线播放| 亚洲精选91| 亚洲一区二区三区综合| 午夜国产不卡在线观看视频| 丰满人妻熟女aⅴ一区| 欧美成人精品不卡视频在线观看| 在线免费观看亚洲| 一区二区视频在线播放| 国产成人麻豆精品午夜在线| 国产一区二区日韩| 日韩高清在线| 亚洲国产精品视频一区| 麻豆一区二区三区| 成人自拍小视频| 欧美放荡的少妇| 在线三级电影| www.成人av| 亚洲高清av| aa片在线观看视频在线播放| 婷婷亚洲久悠悠色悠在线播放| 手机看片福利在线| 91av国产在线| 精品国产99| xxww在线观看| 亚洲欧美一区二区三区国产精品| 国产麻豆91视频| 欧美理论电影在线播放| 国产精品18hdxxxⅹ在线| 欧美在线一区视频| 久久婷婷成人综合色| 日韩不卡高清视频| 色妞色视频一区二区三区四区| 国产日本亚洲| 99热久久这里只有精品| 久久久夜色精品亚洲| 夜夜躁狠狠躁日日躁av| 欧美激情在线狂野欧美精品| 免费看成人人体视频| 人妻无码视频一区二区三区| 国产精品乱码妇女bbbb| 午夜免费福利视频| 欧美亚洲视频一区二区| 欧美激情成人| 日韩aaaaa| 欧美色图12p| heyzo在线播放| 日本黑人久久| 国产一区二区三区四区在线观看| 久久免费视频播放| 亚洲性视频网站| 精品午夜视频| 日本免费一级视频| 亚洲天堂a在线| 欧美日韩在线中文字幕| 成人激情免费在线| 精品成人免费| 貂蝉被到爽流白浆在线观看| 精品国产91乱码一区二区三区 | 亚洲免费视频中文字幕| 色噜噜在线播放| 国产一区私人高清影院| 亚洲黄色成人| 国精品人伦一区二区三区蜜桃| 亚洲第一区中文字幕| 日本精品久久| 狠狠爱免费视频| 一区二区高清免费观看影视大全| yw193.com尤物在线| 成人羞羞视频免费|