精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

ELK Stack生產實踐——pod日志采集(EFK方案)

開發 架構
默認情況下fluent-bit通過socket獲取journald日志,但如果使用pod運行fluent-bit時無法獲取journald日志,需要配置journald參數,改為存儲至宿主機本地/var/log/journal目錄下,然后pod掛載宿主機/var/log目錄進而讀取kubelet和container日志。

EFK日志采集方案

方案介紹

  • 實現目標:k8s集群所有節點container和kubelet服務日志采集、k8s集群所有pod日志采集并對自定義應用日志實現過濾和清洗操作。
  • fluent bit采集:相較于fluentd而言,fluent bit更加輕量,且內置了pod日志解析插件和service日志采集功能無需編寫復雜的日志處理配置。因此使用daemonset方式在每個節點部署fluent bit容器,可以最大程度減少資源占用。
  • fluentd處理:雖然fluent bit足夠輕量,但日志解析處理能力弱于fluentd。fluentd支持更多的過濾處理插件,對于常用的數據處理操作,fluentd可以直接通過ruby語法處理,而fluent bit需要開發lua腳本才能實現。
  • fluentd集群方案:使用Fluentd充當日志聚合層,接收fluent-bit日志后統一進行處理操作,最后批量寫入elasticsearch集群。這樣做的好處是當k8s集群規模過大時,避免了過多的fluent-bit連接ES寫入數據,導致ES連接資源消耗過高、網絡擁堵、連接資源競爭等問題。
  • fluent bit+fluentd方案:將日志采集與日志處理拆后分別交由不同的組件負責,最大程度發揮各個組件的優勢,使得配置文件更加清晰易讀,便于后期維護管理。

架構圖

圖片圖片

fluent bit部署與配置

參考文檔

https://docs.fluentbit.io/manual/installation/kubernetes

開啟journal日志持久化

默認情況下fluent-bit通過socket獲取journald日志,但如果使用pod運行fluent-bit時無法獲取journald日志,需要配置journald參數,改為存儲至宿主機本地/var/log/journal目錄下,然后pod掛載宿主機/var/log目錄進而讀取kubelet和container日志。

[root@work1 ~]# vim /etc/systemd/journald.conf
Storage=persistent
[root@work1 ~]# systemctl restart systemd-journald

部署fluent-bit

拉取helm包

[root@master1 ~]# helm repo add fluent https://fluent.github.io/helm-charts
[root@master1 ~]# helm pull fluent/fluent-bit --untar
[root@master1 ~]# cd fluent-bit/
[root@master1 fluent-bit]# ls
Chart.yaml  ci  dashboards  README.md  templates  values.yaml

修改配置

[root@tiaoban fluent-bit]# vim values.yaml
image:
  repository: harbor.local.com/elk/fluentbit # 修改為本地倉庫地址
  tag: v2.1.9 # 指定鏡像版本

config:
 # 默認未配置文件緩沖,新增文件緩沖配置
  service: |
    [SERVICE]
        Daemon Off
        Flush {{ .Values.flush }}
        Log_Level {{ .Values.logLevel }}
        Parsers_File /fluent-bit/etc/parsers.conf
        Parsers_File /fluent-bit/etc/conf/custom_parsers.conf
        HTTP_Server On
        HTTP_Listen 0.0.0.0
        HTTP_Port {{ .Values.metricsPort }}
        Health_Check On
        storage.path              /var/log/flb-storage/ 
        storage.sync              normal               
        storage.checksum          off                   
        storage.backlog.mem_limit 5M 
 
  # 默認配置文件只采集pod和kubelet服務日志,新增containerd日志,并排除Fluentd和Fluent-bit日志采集
  inputs: |
    [INPUT]
        Name systemd
        Tag containerd.service
        Systemd_Filter _SYSTEMD_UNIT=containerd.service
        Read_From_Tail On

    [INPUT]
        Name systemd
        Tag kubelet.service
        Systemd_Filter _SYSTEMD_UNIT=kubelet.service
        Read_From_Tail On

    [INPUT]
        Name tail
        Path /var/log/containers/*.log
        Exclude_Path /var/log/containers/fluent-bit*, /var/log/containers/fluentd-*
        multiline.parser docker, cri
        Tag kube.*
        Mem_Buf_Limit 5MB
        Skip_Long_Lines On
  
  # 原始字段中的time值不是標準時間格式,直接寫入es會報錯,可移除time字段,使用@timestamp標識時間
 filters: |
    [FILTER]
        name        record_modifier
        match       kube.*
        remove_key  time
 
  # 將所有采集到的數據直接轉發至后端fluentd服務。
  outputs: |
    [OUTPUT]
        Name forward
        Match *
        Host fluentd.logging.svc
        Port 8888
        storage.total_limit_size 5M

hotReload:
  enabled: true # 按需開啟配置熱更新
  image:
    repository: harbor.local.com/elk/fluentbit # 修改為本地倉庫地址

部署fluent-bit

[root@tiaoban fluent-bit]# kubectl create ns logging
namespace/logging created
[root@tiaoban fluent-bit]# helm install fluent-bit -n logging . -f values.yaml
NAME: fluent-bit
LAST DEPLOYED: Sat Sep 16 14:46:03 2023
NAMESPACE: logging
STATUS: deployed
REVISION: 1
NOTES:
Get Fluent Bit build information by running these commands:

export POD_NAME=$(kubectl get pods --namespace logging -l "app.kubernetes.io/name=fluent-bit,app.kubernetes.io/instance=fluent-bit" -o jsnotallow="{.items[0].metadata.name}")
kubectl --namespace logging port-forward $POD_NAME 2020:2020
curl http://127.0.0.1:2020

驗證

[root@tiaoban fluent]# cat Dockerfile 
FROM fluent/fluentd:v1.16.2-debian-1.1
USER root
ADD GeoLite2-City.mmdb /fluentd/GeoLite2-City.mmdb
RUN buildDeps="build-essential libgeoip-dev autoconf automake libtool libffi-dev" \
    && sed -i "s@http://deb.debian.org@http://mirrors.aliyun.com@g" /etc/apt/sources.list \
    && apt-get update \
    && apt-get install -y --no-install-recommends $buildDeps \
    && gem sources --add https://gems.ruby-china.com/ --remove https://rubygems.org/ \
    && fluent-gem install fluent-plugin-elasticsearch fluent-plugin-geoip fluent-plugin-rewrite-tag-filter \
    && apt-get autoclean \
    && gem sources --clear-all \
    && rm -rf /var/lib/apt/lists/* \
    && rm -rf /tmp/* /var/tmp/* /usr/lib/ruby/gems/*/cache/*.gem
[root@tiaoban fluent]# docker build -t harbor.local.com/elk/fluentd:fluentd:v1.16.2 .
[root@tiaoban fluent]# docker push harbor.local.com/elk/fluentd:fluentd:v1.16.2

fluentd部署與配置

構建fluentd鏡像

由于fluentd鏡像未安裝elasticsearch、geoip、rewrite-tag-filter插件,如果在pod的init階段在線安裝插件經常會導致拉取超時無法正常啟動。因此需要提前構建包含相關插件的fluentd鏡像,并上傳至harbor倉庫中。

[root@tiaoban fluentd]# cat fluentd-conf.yaml 
apiVersion: v1
kind: ConfigMap
metadata:
  name: fluentd-conf
  namespace: logging
data:
  fluent.conf : |-
    <source>
      @type forward
      port 8888
      bind 0.0.0.0
    </source>

    <match *.service>
      @type elasticsearch
      host elasticsearch-es-http.elk.svc
      port 9200
      default_elasticsearch_version 8
      user elastic
      scheme https
      password 78HOWor95Iiot076O59xq2Am
      ssl_verify false
      data_stream_name logs-${tag}-fluentd
      include_timestamp true
      <buffer>
        @type file
        flush_interval 5s
        path /fluentd/buf/service-logs.*
      </buffer>
    </match>

    <match kube.**>
      @type elasticsearch
      host elasticsearch-es-http.elk.svc
      port 9200
      default_elasticsearch_version 8
      user elastic
      scheme https
      password 78HOWor95Iiot076O59xq2Am
      ssl_verify false
      data_stream_name logs-pod-fluentd
      include_timestamp true
      <buffer>
        @type file
        flush_interval 5s
        path /fluentd/buf/pod-logs.*
      </buffer>
    </match>

fluentd部署配置

fluentd使用deployment控制器部署多副本集群,用于接收fluent bit的數據然后寫入es的數據流中。

  • fluentd-conf.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: fluentd
  namespace: logging
spec:
  replicas: 3
  selector:
    matchLabels:
      app: fluentd
  template:
    metadata:
      labels:
        app: fluentd
    spec:
      containers:
      - name: fluentd
        image: harbor.local.com/elk/fluentd:v1.16.2
        resources:
          limits:
            memory: "128Mi"
            cpu: "500m"
        ports:
        - containerPort: 8888
        volumeMounts:
          - name: fluentd-conf
            mountPath: /fluentd/etc/fluent.conf
            subPath: fluent.conf
      volumes:
        - name: fluentd-conf
          configMap:
            name: fluentd-conf
  • fluentd-svc.yaml
apiVersion: v1
kind: Service
metadata:
  name: fluentd
  namespace: logging
spec:
  selector:
    app: fluentd
  ports:
  - port: 8888
    targetPort: 8888
  • fluentd.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: fluentd
  namespace: logging
spec:
  replicas: 3
  selector:
    matchLabels:
      app: fluentd
  template:
    metadata:
      labels:
        app: fluentd
    spec:
      containers:
      - name: fluentd
        image: harbor.local.com/elk/fluentd:v1.16.2
        resources:
          limits:
            memory: "128Mi"
            cpu: "500m"
        ports:
        - containerPort: 8888
        volumeMounts:
          - name: fluentd-conf
            mountPath: /fluentd/etc/fluent.conf
            subPath: fluent.conf
      volumes:
        - name: fluentd-conf
          configMap:
            name: fluentd-conf

部署fluentd服務

[root@tiaoban fluentd]# ls
Dockerfile  fluentd-conf.yaml  fluentd-svc.yaml  fluentd.yaml  GeoLite2-City.mmdb
[root@tiaoban fluentd]# kubectl apply -f .
configmap/fluentd-conf created
service/fluentd created
deployment.apps/fluentd created

訪問驗證

此時查看kibana索引管理,已成功創建了pod、containerd、kubelet日志數據流。

圖片圖片

service日志處理

雖然我們已經將service日志存儲在了elasticsearch中,但觀察發現默認情況下日志內容都在MESSAGE字段中,通常情況下,我們只會關注日志等級為warning和error的日志,因此我們需要對該字段內容做解析處理。

日志內容分析

觀察container日志可知,MESSAGE中包含了日志時間、日志等級、日志內容三部分內容

圖片圖片

觀察kubelet日志,MESSAGE中包含了日志時間、處理函數、日志內容三部分內容

圖片圖片

新增service日志處理規則

我們可以通過正則匹配插件實現MESSAGE字段值解析操作,需要注意的是正則匹配時一定是所有字段都包含,否則會因為匹配不到而無法過濾處理操作。

  • service-conf.yaml
apiVersion: v1
kind: ConfigMap
metadata:
  name: service-conf
  namespace: logging
data:
  service.conf : |
    <filter containerd.service>
      @type parser
      key_name MESSAGE
      reserve_data true
      <parse>
        @type regexp
        expression /time="(?<time>[^"]+)" level=(?<level>[^ ]+) msg="(?<msg>[^"]+)"/
        time_key time
        time_format %Y-%m-%dT%H:%M:%S.%N%z
      </parse>
    </filter>

    <filter kubelet.service>
      @type parser
      key_name MESSAGE
      reserve_data true
      <parse>
        @type regexp
        expression /[EI](?<time>\d{4} \d{2}:\d{2}:\d{2}.\d{6}) +\d* (?<class>\w*).go:\d*] (?<message>.*)/
        time_key time
        time_format %m%d %H:%M:%S.%N
        timezone +08:00
      </parse>
    </filter>

    <match *.service>
      @type elasticsearch_data_stream
      host elasticsearch-es-http.elk.svc
      port 9200
      default_elasticsearch_version 8
      user elastic
      scheme https
      password 78HOWor95Iiot076O59xq2Am
      ssl_verify false
      data_stream_name logs-${tag}-fluentd
      include_timestamp true
      <buffer>
        @type file
        path /fluentd/buf/service-logs.*
      </buffer>
    </match>

訪問驗證

查看containerd服務日志,已成功解析了MESSAGE字段內容,并新增了@timestamp、leve、msg字段

圖片圖片

查看kubelet服務日志,同樣成功解析了MESSAGE字段內容,并新增了@timestamp、class、message字段

圖片圖片

自定義日志解析

需求分析

默認情況下,fluent bit會采集所有pod日志信息,并自動添加namespace、pod、container等信息,所有日志內容存儲在log字段中。 以log-demo應為日志為例,將所有日志內容存儲到log字段下無法很好的解析日志內容,因此需要編寫fluentd解析規則,實現日志內容解析。

圖片圖片

新增自定義日志處理規則

使用rewrite_tag_filter插件,匹配到container_name字段值為log-demo的事件時,新增myapp.log標簽,接下來對myapp.log標簽的事件進一步做解析處理操作。

  • myapp-conf.yaml
apiVersion: v1
kind: ConfigMap
metadata:
  name: myapp-conf
  namespace: logging
data:
  myapp.conf : |
    <match kube.**>
      @type rewrite_tag_filter
      <rule>
        key $.kubernetes.container_name
        pattern log-demo
        tag myapp.log
      </rule>
    </match>

    <filter myapp.log>
      @type parser
      key_name log
      <parse>
        @type regexp
        expression /^(?<logtime>[^|]+) \| (?<level>[A-Z]*) *\| __main__:(?<class>\D*:\d*) - (?<content>.*)$/
        time_key logtime
        time_format %Y-%m-%d %H:%M:%S.%L
      </parse>
    </filter>

    <filter myapp.log>
      @type record_transformer
      enable_ruby
      <record>
        content ${record["content"].gsub("'", '"')}
      </record>
    </filter>

    <filter myapp.log>
      @type parser
      key_name content
      <parse>
        @type json
      </parse>
    </filter>

    <filter myapp.log>
      @type geoip
      geoip_lookup_keys remote_address
      geoip2_database /fluentd/GeoLite2-City.mmdb
      backend_library geoip2_c
      <record>
        geoip_city            ${city.names.en["remote_address"]}
        geoip_latitude        ${location.latitude["remote_address"]}
        geoip_longitude       ${location.longitude["remote_address"]}
        geoip_country         ${country.iso_code["remote_address"]}
        geoip_country_name    ${country.names.en["remote_address"]}
        geoip_postal_code     ${postal.code["remote_address"]}
        geoip_region_name     ${subdivisions.0.names.en["remote_address"]}
      </record>
    </filter>

    <match myapp.log>
      @type elasticsearch_data_stream
      host elasticsearch-es-http.elk.svc
      port 9200
      default_elasticsearch_version 8
      user elastic
      scheme https
      password 78HOWor95Iiot076O59xq2Am
      ssl_verify false
      data_stream_name logs-myapp-default
      include_timestamp true
      <buffer>
        @type file
        flush_interval 5s
        path /fluentd/buf/myapp-logs.*
      </buffer>
    </match>

訪問驗證

查看kibana索引信息,已成功創建名為logs-myapp-default的數據流。

圖片圖片

查看logs-myapp-default字段信息,已成功解析了日志內容。

圖片圖片

完整資源清單

本實驗案例所有yaml文件已上傳至git倉庫。訪問地址如下:

Github

https://github.com/cuiliang0302/blog-demo

Gitee

https://gitee.com/cuiliang0302/blog_demo

參考文檔

fluent bit轉發事件至fluentd:

https://docs.fluentbit.io/manual/pipeline/outputs/forward

構建自定義fluentd鏡像:

https://github.com/fluent/fluentd-docker-image#31-for-current-images

fluentd重寫事件tag:

https://docs.fluentd.org/output/rewrite_tag_filter

博客鏈接:https://www.cuiliangblog.cn/

責任編輯:武曉燕 來源: 崔亮的博客
相關推薦

2023-10-20 15:08:28

pod日志采集

2023-09-05 07:40:37

PythonSDKAPI

2017-01-10 16:04:02

容器MySQL實踐

2022-06-03 09:21:47

Svelte前端攜程

2021-03-12 07:47:44

KubernetesRedis-clustRedis

2023-07-12 16:07:50

鏈路數據湖技術

2020-12-31 10:48:17

ELKEFKLinux

2021-07-20 08:32:16

Kubernetes日志平臺

2021-07-19 09:18:07

KubernetesELK Stackk8s

2023-12-08 07:59:04

2023-10-09 14:36:28

工具PLGEFK

2023-10-16 16:00:27

Redis限流

2022-07-08 09:26:45

Flink快手計算

2022-03-08 08:21:21

Spring日志分析系統日志數據

2022-09-19 08:35:28

Kafka節點故障

2022-04-29 09:04:35

日志平臺開發

2022-11-23 21:51:42

大數據

2024-12-09 08:27:02

2018-10-17 10:49:49

Kubernetes存儲處理
點贊
收藏

51CTO技術棧公眾號

欧美性生交xxxxx久久久| 国产综合色视频| 亚洲视频在线观看网站| 少妇一级淫免费播放| 国产黄a三级三级三级av在线看| 韩国一区二区视频| 91国产一区在线| 久久成人小视频| 人体久久天天| 91麻豆精品国产91久久久久久 | 亚洲国产激情一区二区三区| 91九色蝌蚪91por成人| 黄色在线成人| 这里精品视频免费| 污污内射在线观看一区二区少妇| 成人国产一区二区三区精品麻豆| 亚洲国产成人porn| 一区在线电影| 免费国产在线视频| 高清国产一区二区| 国产三级精品网站| 日韩在线视频不卡| 激情亚洲成人| 久久久91精品| 免费观看a级片| 林ゆな中文字幕一区二区| 91超碰这里只有精品国产| 国产精品欧美激情在线观看| 丰满诱人av在线播放| 国产精品久久久久aaaa| 久久超碰亚洲| 人妻一区二区三区四区| 国产久卡久卡久卡久卡视频精品| 国产精品成人一区二区| 五月婷婷开心网| 午夜国产欧美理论在线播放| 综合久久五月天| 最新中文字幕av| 中文字幕亚洲影视| 亚洲成人av片在线观看| 色诱av手机版| 秋霞影院一区| 欧美日韩一区二区在线观看视频| aaa毛片在线观看| 三级在线观看视频| 黑人巨大精品欧美一区二区免费| 日韩亚洲欧美视频| 丁香花在线影院| 亚洲综合色在线| 激情五月婷婷六月| 日本在线视频中文有码| 一区二区三区精品在线| 天天做天天躁天天躁| caopo在线| 一区二区三区在线观看欧美| 黄色网zhan| 2020国产在线视频| 一区二区三区四区视频精品免费 | 自拍偷拍中文字幕| 亚洲桃色综合影院| 亚洲免费伊人电影在线观看av| 国产精品无码在线| 偷窥自拍亚洲色图精选| 亚洲欧洲日产国产网站| 天天舔天天操天天干| 日本欧美国产| 久久av在线播放| 欧美日韩一级大片| 亚洲精品少妇| 日韩av成人在线观看| 自拍偷拍色综合| 国产剧情av麻豆香蕉精品| 国产精品久久久久免费| 少妇精品高潮欲妇又嫩中文字幕| 2欧美一区二区三区在线观看视频| 欧美亚洲另类在线一区二区三区| 北岛玲一区二区三区| 专区另类欧美日韩| 妞干网在线观看视频| 亚洲黄色免费看| 欧美日韩精品系列| 久久久久亚洲av片无码v| 黄色成人美女网站| 在线播放亚洲激情| 91在线播放观看| 国产精品日韩久久久| 国产精品偷伦一区二区| 精品国产无码一区二区| 久久久精品免费免费| 中文字幕精品—区二区日日骚| 日本资源在线| 欧美图片一区二区三区| 亚洲熟女一区二区三区| 国产精品欧美日韩一区| 欧美另类xxx| 人妻丰满熟妇av无码区| 国产在线精品不卡| 久久久久久精| 成人短视频在线| 色爱区综合激月婷婷| 九九九久久久久久久| 亚洲伊人春色| 欧美黑人巨大精品一区二区| 成人av网站在线播放| 国产成人综合自拍| 日本一区二区免费看| 日本在线视频中文有码| 欧美日韩一级大片网址| 亚洲美女在线播放| 亚洲va在线| 国产999精品久久久影片官网| 国内精品久久久久久久久久| 日本一区二区三区在线观看| 国产毛片视频网站| 久久在线观看| 日韩在线视频二区| 久久人妻免费视频| 成人动漫视频在线| 国产一区一区三区| 国产美女久久| 亚洲久久久久久久久久| 久久久综合久久| 国产乱码精品一区二区三区av| 日产精品一线二线三线芒果| 日本在线啊啊| 日韩av中文在线| 国产在线观看99| 国产高清久久久久| 咪咪色在线视频| 精品自拍视频| 中文字幕精品久久| 久久久久久久久久一级| 91啦中文在线观看| 免费看的黄色大片| 欧美顶级毛片在线播放| 欧美劲爆第一页| 国产黄色一区二区| 亚洲老妇xxxxxx| 亚洲综合在线一区二区| 91av精品| 亚洲自拍偷拍色片视频| 黄色免费网站在线观看| 777xxx欧美| 日韩影院一区二区| 国产精品夜夜爽| 免费看欧美一级片| 97精品久久| 欧美精品激情在线| 人人妻人人澡人人爽久久av| 亚洲高清久久久| 麻豆精品国产传媒av| 一区久久精品| 久久本道综合色狠狠五月| 中文在线8资源库| 亚洲欧美在线磁力| 国产精品熟女视频| 国产欧美日韩三区| 亚洲国产日韩欧美在线观看| 婷婷综合伊人| 成人精品一二区| 狼人综合视频| 亚洲视频免费一区| 91成品人影院| 亚洲一区二区三区精品在线| 亚洲图片综合网| 天堂午夜影视日韩欧美一区二区| 日本一区视频在线观看免费| 九九热这里有精品| 欧美成人一二三| 婷婷在线免费观看| 在线欧美一区二区| 性生交大片免费全黄| 高清视频一区二区| 国产亚洲综合视频| 欧美码中文字幕在线| 91久热免费在线视频| 丰满大乳少妇在线观看网站| 亚洲女同精品视频| 国产精品女人久久久| 亚洲成人动漫在线观看| 中文字幕第4页| 国产综合色在线视频区| aa在线观看视频| 久久精品高清| 国产欧美精品一区二区三区| 成人在线视频播放| 九九热这里只有精品6| 日韩福利一区二区| 欧美一级在线视频| 久久久久久久久久久影院| 国产精品久久久久久久久久免费看| 夜夜爽久久精品91| 久久只有精品| 成人一区二区av| 禁断一区二区三区在线| 999热视频| 亚洲www啪成人一区二区| 色综合久久悠悠| jizz在线免费观看| 亚洲精品91美女久久久久久久| 最近中文字幕在线免费观看| 亚洲国产精品嫩草影院| 国产破处视频在线观看| 99久免费精品视频在线观看 | 成人国产在线观看| 免费涩涩18网站入口| 日韩午夜av| 中文字幕精品在线播放| 精品免费视频| 精品中文字幕一区| 日韩成人18| 成人黄色激情网| 日韩网站中文字幕| 97色在线视频观看| 日本无删减在线| 久久久国产成人精品| 川上优的av在线一区二区| 亚洲精品98久久久久久中文字幕| 国产视频在线观看视频| 欧美日韩一二三区| 永久免费无码av网站在线观看| 一区二区在线免费观看| 蜜桃视频最新网址| 国产欧美中文在线| 免费一级做a爰片久久毛片潮| 成人自拍视频在线观看| 亚洲午夜精品在线观看| 男女男精品视频| 青青在线免费观看视频| 亚洲欧美高清| 久久综合色视频| 99精品国产在热久久下载| 91网站在线观看免费| 亚洲欧美偷拍自拍| 一区中文字幕在线观看| 久久人人99| 亚洲激情一区二区三区| av一区二区高清| 视频一区视频二区视频三区视频四区国产 | aaa在线免费观看| 亚洲视频在线观看视频| 国产一二三区在线视频| 亚洲一区第一页| yourporn在线观看中文站| 伊是香蕉大人久久| av在线1区2区| 色偷偷91综合久久噜噜| 麻豆网站在线| 久久久国产一区二区| av在线导航| 欧美激情精品久久久久久蜜臀| 18网站在线观看| 午夜精品久久久久久久99黑人| av电影免费在线看| 97av视频在线| 韩国三级一区| 国产欧美精品日韩| 国产亚洲精aa在线看| 国产成人女人毛片视频在线| 欧美18xxxx| 日本黑人久久| 久久国产精品亚洲人一区二区三区 | 天堂www中文在线资源| aa级大片欧美| 亚洲人成人无码网www国产| 国产欧美一区二区三区网站| 美女福利视频网| 有坂深雪av一区二区精品| 国产在线视频卡一卡二| 欧美日韩亚洲精品内裤| 日本妇乱大交xxxxx| 91精品一区二区三区在线观看| www.中文字幕| 精品夜色国产国偷在线| 在线观看国产原创自拍视频| 欧美成年人视频网站欧美| 美女网站在线看| 国产精品一区二区久久国产| 亚洲精品v亚洲精品v日韩精品| 久久99精品久久久久久三级| 日韩一区二区在线| 欧美精品久久久久久久久久久| 老司机一区二区三区| av噜噜在线观看| 91免费国产在线| 亚洲女人久久久| 精品久久久久久久久中文字幕| 中文字幕乱码视频| 精品国产免费一区二区三区香蕉| 亚洲欧美日本在线观看| www.美女亚洲精品| 国产污视频在线播放| 国产美女主播一区| 亚洲天堂av资源在线观看| 青娱乐一区二区| 欧美激情综合色综合啪啪| 激情五月亚洲色图| 大美女一区二区三区| 日本午夜精品视频| 亚洲超碰精品一区二区| 一级特黄aa大片| 日韩精品极品在线观看播放免费视频| 91社区在线观看播放| 97香蕉久久超级碰碰高清版 | 日韩三级.com| 第九色区av在线| 91国自产精品中文字幕亚洲| 成人av在线播放| 色就是色欧美| 亚洲一区二区动漫| 麻豆免费在线观看视频| 中文字幕一区二区视频| 午夜婷婷在线观看| 亚洲国产精品yw在线观看| 91高清在线观看视频| 国产精品一区二区三区毛片淫片 | 亚洲国产精选| 日韩免费电影一区二区| 国产欧美91| 一级黄色电影片| 亚洲女人****多毛耸耸8| 中文在线观看免费高清| 亚洲欧美日韩爽爽影院| 午夜不卡影院| 国产一区在线观| 亚洲精品系列| 艳妇乳肉豪妇荡乳xxx| 亚洲精品水蜜桃| 99热这里只有精品在线| xx视频.9999.com| 日韩免费在线电影| 亚洲精品免费在线看| 日本欧美在线观看| 国产美女免费网站| 91久久精品一区二区三| 免费黄色在线视频网站| 国产成人精品一区二区在线| 奇米狠狠一区二区三区| 黑鬼大战白妞高潮喷白浆| 久久综合九色综合欧美98| 国产www在线| 亚洲精品中文字幕有码专区| 成人av观看| 日韩av高清在线播放| 国产亚洲激情| 波多野结衣一本| 91成人免费在线视频| 川上优的av在线一区二区| 国产欧美日韩高清| 久久影院100000精品| 国产乱女淫av麻豆国产| ㊣最新国产の精品bt伙计久久| 国产精品探花视频| 日韩亚洲欧美成人| 日韩一区二区三区精品视频第3页 日韩一区二区三区精品 | 欧美一区二区大胆人体摄影专业网站| 美女视频免费精品| 成人黄色片视频| 日本一二三四高清不卡| 一级黄色小视频| 欧美日本亚洲视频| 久久久免费毛片| 无码人妻丰满熟妇区毛片18| 国产精品色一区二区三区| 伊人网视频在线| 欧美成人精品在线| 欧美18xxxx| 污视频网站观看| 亚洲精品第1页| 四虎在线免费观看| 婷婷国产v国产偷v亚洲高清| 人妻少妇精品无码专区| 国产成人高潮免费观看精品| 久久网站免费观看| 亚洲熟女一区二区三区| 欧美午夜精品久久久久久浪潮| 国产精品免费观看| 成人在线播放av| 亚洲美女啪啪| 亚洲女人毛茸茸高潮| 欧美xxxx在线观看| 男人皇宫亚洲男人2020| 亚洲成年人专区| 91亚洲国产成人精品一区二三| 毛片在线免费播放| 久久久在线视频| 日本不卡二三区| 国产精品久久久久久久无码| 欧美日韩国产另类一区| 精灵使的剑舞无删减版在线观看| 蜜桃视频日韩| 国产精品一级片在线观看| 无码人妻av一区二区三区波多野 | 国产精品国产精品88| 亚洲福利在线播放| 玖玖精品在线| 国产91在线免费| 亚洲精品国产成人久久av盗摄| 男人的天堂在线| 豆国产97在线|