精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

負載均衡技術全解析:Pulsar 分布式系統的優秀實踐

開發 前端
對于無狀態的服務來說,理論上我們只需要做好負載算法即可(輪訓、一致性哈希、低負載優先等)就可以很好的平衡各個節點之間的負載。而對于有狀態的服務來說,負載均衡就是將負載較高節點中的數據轉移到負載低的節點中。

背景

Pulsar 有提供一個查詢 Broker 負載的接口:

/**
     * Get load for this broker.
     *
     * @return
     * @throws PulsarAdminException
     */
LoadManagerReport getLoadReport() throws PulsarAdminException;

public interface LoadManagerReport extends ServiceLookupData {  
  
    ResourceUsage getCpu();  
  
    ResourceUsage getMemory();  
  
    ResourceUsage getDirectMemory();  
  
    ResourceUsage getBandwidthIn();  
  
    ResourceUsage getBandwidthOut();
}

可以返回一些 broker 的負載數據,比如 CPU、內存、流量之類的數據。

我目前碰到的問題是目前會遇到部分節點的負債不平衡,導致資源占用不均衡,所以想要手動查詢所有節點的負載數據,然后人工進行負載。

理論上這些數據是在運行時實時計算的數據,如果對于單機的倒還好說,每次請求這個接口直接實時計算一次就可以了。

但對于集群的服務來說會有多個節點,目前 Pulsar 提供的這個接口只能查詢指定節點的負載數據,也就是說每次得傳入目標節點的 IP 和端口。

所以我的預期是可以提供一個查詢所有節點負載的接口,已經提了 issue,最近準備寫 Purpose 把這個需求解決了。

實現這個需求的方案有兩種:

  • 拿到所有 broker 也就是服務節點信息,依次遍歷調用接口,然后自己組裝信息。
  • 從 zookeeper 中獲取負載信息。

理論上第二種更好,第一種實現雖然更簡單,但每次都發起一次 http 請求,多少有些浪費。

第二種方案直接從源頭獲取負載信息,只需要請求一次就可以了。

而正好社區提供了一個命令行工具可以直接打印所有的 broker 負載數據:

pulsar-perf monitor-brokers --connect-string <zookeeper host:port>

分布式系統常用組件

提供的命令行工具其實就是直接從 zookeeper 中查詢的數據。

在分布式系統中需要一個集中的組件來管理各種數據,比如:

  • 可以利用該組件來選舉 leader 節點
  • 使用該組件來做分布式鎖
  • 為分布式系統同步數據
  • 統一的存放和讀取某些數據

可以提供該功能的組件其實也不少:

  • zookeeper
  • etcd
  • oxia

Zookeeper 是老牌的分布式協調組件,可以做 leader 選舉、配置中心、分布式鎖、服務注冊與發現等功能。

在許多中間件和系統中都有應用,比如:

  • Apache Pulsar 中作為協調中心
  • Kafka 中也有類似的作用。
  • 在 Dubbo 中作為服務注冊發現組件。

etcd 的功能與 zookeeper 類似,可以用作服務注冊發現,也可以作為 Key Value 鍵值對存儲系統;在 kubernetes 中扮演了巨大作用,經歷了各種考驗,穩定性已經非常可靠了。

Oxia 則是 StreamNative 開發的一個用于替換 Zookeeper 的中間件,功能也與 Zookeeper 類似;目前已經可以在 Pulsar 中替換 Zookeeper,只是還沒有大規模的使用。

Pulsar 中的應用

下面以 Pulsar 為例(使用 zookeeper),看看在這類大型分布式系統中是如何處理負載均衡的。

再開始之前先明確下負載均衡大體上會做哪些事情。

  • 首先上報自己節點的負載數據
  • Leader 節點需要定時收集所有節點的負載數據。
  1. CPU、堆內存、堆外內存等通用數據的使用量
  2. 流出、流入流量
  3. 一些系統特有的數據,比如在 Pulsar 中就是:
  4. 每個 broker 中的 topic、consumer、producer、bundle 等數據。
  5. 這些負載數據中包括:
  • 再由 leader 節點讀取到這些數據后選擇負載較高的節點,將數據遷移到負載較低的節點。

以上就是一個完整的負載均衡的流程,下面我們依次看看在 Pulsar 中是如何實現這些邏輯的。

在 Pulsar 中提供了多種負載均衡策略,以下是加載負載均衡器的邏輯:

static LoadManager create(final PulsarService pulsar) {  
    try {  
        final ServiceConfiguration conf = pulsar.getConfiguration();  
        // Assume there is a constructor with one argument of PulsarService.  
        final Object loadManagerInstance = Reflections.createInstance(conf.getLoadManagerClassName(),  
                Thread.currentThread().getContextClassLoader());  
        if (loadManagerInstance instanceof LoadManager) {  
            final LoadManager casted = (LoadManager) loadManagerInstance;  
            casted.initialize(pulsar);  
            return casted;  
        } else if (loadManagerInstance instanceof ModularLoadManager) {  
            final LoadManager casted = new ModularLoadManagerWrapper((ModularLoadManager) loadManagerInstance);  
            casted.initialize(pulsar);  
            return casted;  
        }  
    } catch (Exception e) {  
        LOG.warn("Error when trying to create load manager: ", e);  
    }  
    // If we failed to create a load manager, default to SimpleLoadManagerImpl.  
    return new SimpleLoadManagerImpl(pulsar);  
}

默認使用的是 ModularLoadManagerImpl, 如果出現異常那就會使用 SimpleLoadManagerImpl 作為兜底。

他們兩個的區別是 ModularLoadManagerImpl 的功能更全,可以做更為細致的負載策略。

接下來以默認的 ModularLoadManagerImpl 為例講解上述的流程。

上報負載數據

在負載均衡器啟動的時候就會收集節點數據然后進行上報:

public void start() throws PulsarServerException {
        try {

            String brokerId = pulsar.getBrokerId();
            brokerZnodePath = LoadManager.LOADBALANCE_BROKERS_ROOT + "/" + brokerId;
            // 收集本地負載數據
            updateLocalBrokerData();

   // 上報 zookeeper
            brokerDataLock = brokersData.acquireLock(brokerZnodePath, localData).join();
        } catch (Exception e) {
            log.error("Unable to acquire lock for broker: [{}]", brokerZnodePath, e);
            throw new PulsarServerException(e);
        }
    }

首先獲取到當前 broker 的 Id 然后拼接一個 zookeeper 節點的路徑,將生成的 localData 上傳到 zookeeper 中。

// 存放 broker 的節點信息
ls /loadbalance/brokers

[broker-1:8080, broker-2:8080]

// 根據節點信息查詢負載數據
get /loadbalance/brokers/broker-1:8080

上報的數據:

{"webServiceUrl":"http://broker-1:8080","pulsarServiceUrl":"pulsar://broker-1:6650","persistentTopicsEnabled":true,"nonPersistentTopicsEnabled":true,"cpu":{"usage":7.311714728372232,"limit":800.0},"memory":{"usage":124.0,"limit":2096.0},"directMemory":{"usage":36.0,"limit":256.0},"bandwidthIn":{"usage":0.8324254085661579,"limit":1.0E7},"bandwidthOut":{"usage":0.7155446715644209,"limit":1.0E7},"msgThroughputIn":0.0,"msgThroughputOut":0.0,"msgRateIn":0.0,"msgRateOut":0.0,"lastUpdate":1690979816792,"lastStats":{"my-tenant/my-namespace/0x4ccccccb_0x66666664":{"msgRateIn":0.0,"msgThroughputIn":0.0,"msgRateOut":0.0,"msgThroughputOut":0.0,"consumerCount":2,"producerCount":0,"topics":1,"cacheSize":0}},"numTopics":1,"numBundles":1,"numConsumers":2,"numProducers":0,"bundles":["my-tenant/my-namespace/0x4ccccccb_0x66666664"],"lastBundleGains":[],"lastBundleLosses":[],"brokerVersionString":"3.1.0-SNAPSHOT","protocols":{},"advertisedListeners":{"internal":{"brokerServiceUrl":"pulsar://broker-1:6650"}},"loadManagerClassName":"org.apache.pulsar.broker.loadbalance.impl.ModularLoadManagerImpl","startTimestamp":1690940955211,"maxResourceUsage":0.140625,"loadReportType":"LocalBrokerData"}

采集數據

public static SystemResourceUsage getSystemResourceUsage(final BrokerHostUsage brokerHostUsage) {  
    SystemResourceUsage systemResourceUsage = brokerHostUsage.getBrokerHostUsage();  
  
    // Override System memory usage and limit with JVM heap usage and limit  
    double maxHeapMemoryInBytes = Runtime.getRuntime().maxMemory();  
    double memoryUsageInBytes = Runtime.getRuntime().totalMemory() - Runtime.getRuntime().freeMemory();  
    double memoryUsage = memoryUsageInBytes / MIBI;  
    double memoryLimit = maxHeapMemoryInBytes / MIBI;  
    systemResourceUsage.setMemory(new ResourceUsage(memoryUsage, memoryLimit));  
  
    // Collect JVM direct memory  
    systemResourceUsage.setDirectMemory(new ResourceUsage((double) (getJvmDirectMemoryUsed() / MIBI),  
            (double) (DirectMemoryUtils.jvmMaxDirectMemory() / MIBI)));  
  
    return systemResourceUsage;  
}

會在運行時獲取一些 JVM 和 堆外內存的數據。

收集所有節點數據

作為 leader 節點還需要收集所有節點的負載數據,然后根據一些規則選擇將負載較高的節點移動到負債較低的節點中。

private void updateAllBrokerData() {
     // 從 zookeeper 中獲取所有節點
        final Set<String> activeBrokers = getAvailableBrokers();
        final Map<String, BrokerData> brokerDataMap = loadData.getBrokerData();
        for (String broker : activeBrokers) {
            try {
                String key = String.format("%s/%s", LoadManager.LOADBALANCE_BROKERS_ROOT, broker);
                // 依次讀取各個節點的負載數據
                Optional<LocalBrokerData> localData = brokersData.readLock(key).get();
                if (!localData.isPresent()) {
                    brokerDataMap.remove(broker);
                    log.info("[{}] Broker load report is not present", broker);
                    continue;
                }

                if (brokerDataMap.containsKey(broker)) {
                    // Replace previous local broker data.
                    brokerDataMap.get(broker).setLocalData(localData.get());
                } else {
                    // Initialize BrokerData object for previously unseen
                    // brokers.
                    // 將數據寫入到本地緩存
                    brokerDataMap.put(broker, new BrokerData(localData.get()));
                }
            } catch (Exception e) {
                log.warn("Error reading broker data from cache for broker - [{}], [{}]", broker, e.getMessage());
            }
        }
        // Remove obsolete brokers.
        for (final String broker : brokerDataMap.keySet()) {
            if (!activeBrokers.contains(broker)) {
                brokerDataMap.remove(broker);
            }
        }
    }

會從 zookeeper 的節點中獲取到所有的 broker 列表(broker 會在啟動時將自身的信息注冊到 zookeeper 中。)

然后依次讀取各自節點的負載數據,也就是在負載均衡器啟動的時候上報的數據。

篩選出所有 broker 中需要 unload 的 bundle

在 Pulsar 中 topic 是最核心的概念,而為了方便管理大量 topic,提出了一個 Bundle 的概念;Bundle 是一批 topic 的集合,管理 Bundle 自然會比 topic 更佳容易。

所以在 Pulsar 中做負載均衡最主要的就是將負載較高節點中的 bundle 轉移到低負載的 broker 中。

private void updateAllBrokerData() {
        final Set<String> activeBrokers = getAvailableBrokers();
        final Map<String, BrokerData> brokerDataMap = loadData.getBrokerData();
        for (String broker : activeBrokers) {
            try {
                String key = String.format("%s/%s", LoadManager.LOADBALANCE_BROKERS_ROOT, broker);
                Optional<LocalBrokerData> localData = brokersData.readLock(key).get();
                if (!localData.isPresent()) {
                    brokerDataMap.remove(broker);
                    log.info("[{}] Broker load report is not present", broker);
                    continue;
                }

                if (brokerDataMap.containsKey(broker)) {
                    // Replace previous local broker data.
                    brokerDataMap.get(broker).setLocalData(localData.get());
                } else {
                    // Initialize BrokerData object for previously unseen
                    // brokers.
                    brokerDataMap.put(broker, new BrokerData(localData.get()));
                }
            } catch (Exception e) {
                log.warn("Error reading broker data from cache for broker - [{}], [{}]", broker, e.getMessage());
            }
        }
        // Remove obsolete brokers.
        for (final String broker : brokerDataMap.keySet()) {
            if (!activeBrokers.contains(broker)) {
                brokerDataMap.remove(broker);
            }
        }
    }

負載均衡器在啟動的時候就會查詢所有節點的數據,然后寫入到 brokerDataMap 中。

同時也會注冊相關的 zookeeper 事件,當注冊的節點發生變化時(一般是新增或者刪減了 broker 節點)就會更新內存中緩存的負載數據。

之后 leader 節點會定期調用 org.apache.pulsar.broker.loadbalance.impl.ModularLoadManagerImpl#doLoadShedding 函數查詢哪些數據需要卸載,然后進行重新負載。

final Multimap<String, String> bundlesToUnload = loadSheddingStrategy.findBundlesForUnloading(loadData, conf);

最核心的就是調用這個 findBundlesForUnloading 函數,會返回需要卸載 bundle 集合,最終會遍歷這個集合調用 admin API 進行卸載和重平衡。

而這個函數會有多種實現,本質上就是根據傳入的各個節點的負載數據,然后根據自定義的規則返回一批需要卸載的數據。

以默認的 org.apache.pulsar.broker.loadbalance.impl.ThresholdShedder 規則為例:

它是根據帶寬、內存、流量等各個指標的權重算出每個節點的負載值,之后為整個集群計算出一個平均負載值。

以上圖為例:超過 ShedBundles 的數據就需要被卸載掉,然后轉移到低負載的節點中。

所以最左邊節點和超出的 bundle 部分就需要被返回。

具體的計算邏輯如下:

private void filterAndSelectBundle(LoadData loadData, Map<String, Long> recentlyUnloadedBundles, String broker,
                                       LocalBrokerData localData, double minimumThroughputToOffload) {
        MutableDouble trafficMarkedToOffload = new MutableDouble(0);
        MutableBoolean atLeastOneBundleSelected = new MutableBoolean(false);
        loadData.getBundleDataForLoadShedding().entrySet().stream()
                .map((e) -> {
                    String bundle = e.getKey();
                    BundleData bundleData = e.getValue();
                    TimeAverageMessageData shortTermData = bundleData.getShortTermData();
                    double throughput = shortTermData.getMsgThroughputIn() + shortTermData.getMsgThroughputOut();
                    return Pair.of(bundle, throughput);
                }).filter(e ->
                        !recentlyUnloadedBundles.containsKey(e.getLeft())
                ).filter(e ->
                        localData.getBundles().contains(e.getLeft())
                ).sorted((e1, e2) ->
                        Double.compare(e2.getRight(), e1.getRight())
                ).forEach(e -> {
                    if (trafficMarkedToOffload.doubleValue() < minimumThroughputToOffload
                            || atLeastOneBundleSelected.isFalse()) {
                        selectedBundlesCache.put(broker, e.getLeft());
                        trafficMarkedToOffload.add(e.getRight());
                        atLeastOneBundleSelected.setTrue();
                    }
                });
    }

從代碼里看的出來就是在一個備選集合中根據各種閾值和判斷條件篩選出需要卸載的 bundle。

而 SimpleLoadManagerImpl 的實現如下:

synchronized (currentLoadReports) {
 for (Map.Entry<ResourceUnit, LoadReport> entry : currentLoadReports.entrySet()) {
  ResourceUnit overloadedRU = entry.getKey();
  LoadReport lr = entry.getValue();
  // 所有數據做一個簡單的篩選,超過閾值的數據需要被 unload
  if (isAboveLoadLevel(lr.getSystemResourceUsage(), overloadThreshold)) {
   ResourceType bottleneckResourceType = lr.getBottleneckResourceType();
   Map<String, NamespaceBundleStats> bundleStats = lr.getSortedBundleStats(bottleneckResourceType);
   if (bundleStats == null) {
    log.warn("Null bundle stats for bundle {}", lr.getName());
    continue;

   }

就是很簡單的通過將判斷節點的負載是否超過了閾值 isAboveLoadLevel,然后做一個簡單的排序就返回了。

從這里也看得出來 SimpleLoadManagerImpl 和 ModularLoadManager 的區別,SimpleLoadManagerImpl 更簡單,并沒有提供多個 doLoadShedding 的篩選實現。

總結

總的來說對于無狀態的服務來說,理論上我們只需要做好負載算法即可(輪訓、一致性哈希、低負載優先等)就可以很好的平衡各個節點之間的負載。

而對于有狀態的服務來說,負載均衡就是將負載較高節點中的數據轉移到負載低的節點中。

其中的關鍵就是需要存儲各個節點的負載數據(業界常用的是存儲到 zookeeper 中),然后再由一個 leader 節點從這些節點中根據某種負載算法選擇出負載較高的節點以及負載較低的節點,最終把數據遷移過去即可。

責任編輯:姜華 來源: crossoverJie
相關推薦

2019-07-17 22:23:01

分布式系統負載均衡架構

2014-06-11 09:17:39

負載均衡

2014-05-23 10:30:25

負載均衡分布式架構

2019-07-12 09:14:07

分布式系統負載均衡

2025-07-21 01:00:00

2013-03-01 09:55:28

負載均衡分布式存儲集群

2025-06-12 09:48:46

2021-01-27 09:45:17

負載均衡

2017-09-26 15:24:48

分布式集群均衡

2023-11-03 08:13:35

ZAB協議負載均衡

2019-03-27 08:43:17

Nginx負載均衡服務器

2022-03-21 19:44:30

CitusPostgreSQ執行器

2024-07-08 07:30:47

2023-10-26 18:10:43

分布式并行技術系統

2024-09-27 09:19:30

2022-04-07 17:13:09

緩存算法服務端

2019-05-07 11:57:26

分布式架構負載均衡

2024-06-03 14:17:00

2019-10-10 09:16:34

Zookeeper架構分布式

2012-07-06 09:27:02

云計算分布式服務器負載均衡
點贊
收藏

51CTO技術棧公眾號

尤物网精品视频| 国产精品久久久网站| 中文字幕乱码久久午夜不卡| 国产精品海角社区在线观看| www成人啪啪18软件| 国产亚洲精彩久久| 亚洲欧美另类久久久精品| 97碰碰视频| 国产精品999在线观看| 精品不卡一区| 91精品在线观看入口| 狠狠精品干练久久久无码中文字幕| 亚洲国产成人一区二区| 国产精品亚洲综合久久| 中文字幕av一区二区三区谷原希美| 777视频在线| 美足av综合网| 久久婷婷国产综合精品青草| 91精品久久久久久久久久| 久久久精品人妻一区二区三区四| 亚洲动漫在线观看| 欧美美女视频在线观看| 久无码久无码av无码| 黄色片免费在线| 国产精品一二三四| 国产成人精品最新| 青青草激情视频| 精品一区在线| 日韩三级视频在线看| 成年人黄色片视频| 肉肉视频在线观看| 国产日韩欧美一区二区三区乱码 | 在线视频这里只有精品| 一区二区三区高清在线观看| 色狠狠一区二区三区香蕉| 小泽玛利亚av在线| 999在线视频| 97se亚洲国产综合自在线不卡| 成人黄色av播放免费| 欧美在线观看不卡| 国产一区亚洲| 久久久国产精品免费| 性高潮久久久久久久| 9l视频自拍九色9l视频成人| 欧美日韩aaaaa| 久久人妻精品白浆国产| 啊啊啊久久久| 一区二区三区免费在线观看| 亚洲国产一区二区精品视频| 飘雪影院手机免费高清版在线观看| 国产精品一区2区| 国产日韩欧美一二三区| 日韩精品成人免费观看视频| 亚洲日产国产精品| 久久99亚洲热视| 小泽玛利亚一区| 久久在线视频免费观看| 一区二区三区天堂av| 亚洲精品在线视频免费观看| 亚洲第一二区| 日韩一区二区免费电影| 中文字幕一区二区在线观看视频| 欧美日韩在线精品一区二区三区激情综合| 午夜精品一区在线观看| 国产精品成人久久电影| 黄网av在线| 亚洲一区二区三区在线播放| 欧美 亚洲 视频| 2024最新电影免费在线观看| 亚洲欧美日韩人成在线播放| 免费观看黄色大片| a在线免费观看| 亚洲精品国产品国语在线app| 亚洲成年人专区| 国产乱色在线观看| 一区二区在线观看视频 | 男人的天堂在线视频免费观看 | 欧日韩精品视频| 免费激情视频在线观看| 高清电影一区| 欧美在线观看视频一区二区| 99sesese| 久久av网站| 精品国产乱码久久久久久夜甘婷婷| 在线观看一区二区三区视频| 激情小说一区| 亚洲欧美日韩区| 欧美成人另类视频| 亚洲五月综合| 97精品一区二区视频在线观看| 天天干在线播放| 欧美bbbbb| 亚洲999一在线观看www| 亚洲国产www| 2014亚洲片线观看视频免费| 亚洲韩国在线| 污视频网站免费在线观看| 亚洲国产综合在线| 黄色a级片免费| 日韩在线你懂得| 亚洲成人久久一区| 亚洲综合第一区| 午夜欧美精品| 国产成人精品久久二区二区91| 一区二区三区日| 成人妖精视频yjsp地址| 欧美视频1区| 超碰人人在线| 一本到不卡精品视频在线观看| 污污网站在线观看视频| 都市激情久久| 中文字幕亚洲一区在线观看 | 国产日产精品一区二区三区四区的观看方式| 亚洲深夜福利网站| 久久久久久国产精品免费播放| 久久看片网站| 999在线观看免费大全电视剧| 天堂中文资源在线| 亚洲免费av网站| 美女网站免费观看视频| 日韩激情精品| 中文字幕久久亚洲| 中文字幕第15页| 国产精品1区二区.| 日韩欧美视频一区二区三区四区| 好看的中文字幕在线播放| 欧美亚洲国产一区在线观看网站| 国产免费a级片| 97视频精品| 日韩69视频在线观看| 亚洲va欧美va| 国产精品色在线观看| 波多野结衣50连登视频| 日韩精品视频一区二区三区| 最新69国产成人精品视频免费| 你懂的国产视频| 高清不卡一二三区| 四虎免费在线观看视频| 免费高清视频在线一区| 日韩福利在线播放| 精品一级少妇久久久久久久| 国产综合色在线| 亚洲草草视频| 成人影院大全| 日韩精品在线免费观看| 日干夜干天天干| 国产福利一区二区三区视频| 在线一区日本视频| 99只有精品| 亚洲欧洲一区二区三区在线观看| 亚洲精品www久久久久久| 国产激情精品久久久第一区二区| 亚洲欧洲日韩精品| 99只有精品| 中文字幕日韩在线播放| 在线观看你懂的网站| 国产亚洲污的网站| 麻豆传传媒久久久爱| 丝袜美腿综合| 欧美一区二区三区精品电影| 无码国产伦一区二区三区视频| 亚洲一区欧美一区| youjizz.com日本| 亚洲激情不卡| 国产欧美日韩综合一区在线观看| 女同一区二区免费aⅴ| 欧美mv日韩mv国产网站app| 日本妇女毛茸茸| 国产成人av影院| av无码久久久久久不卡网站| 精品少妇一区| 97超级碰碰碰久久久| 神马久久精品| 91久久国产综合久久| www中文在线| 国产一区二区久久| 国产午夜精品视频一区二区三区| 一区中文字幕| 5252色成人免费视频| 欧美孕妇性xxxⅹ精品hd| 91黄色免费观看| 久久久99999| 国产精品99久久久| 国产白丝袜美女久久久久| 国产成人手机高清在线观看网站| 国产精品久久久久久av下载红粉| 日本高清视频在线播放| 日韩一级免费一区| 国产成人亚洲精品自产在线| 国产三区在线成人av| www.国产福利| 亚洲国产高清一区二区三区| 麻豆精品视频| 久久天堂影院| 欧美精品激情blacked18| 欧美女子与性| 欧美日韩一区视频| 欧美日韩精品在线观看视频| 久久综合丝袜日本网| 日本中文字幕精品—区二区| 欧美激情视频一区二区三区在线播放| 国外成人在线视频网站| 91大神在线观看线路一区| 欧美大胆在线视频| 女人偷人在线视频| 8x8x8国产精品| 国产九色在线播放九色| 国产精品久久久久国产精品日日| 国产精品久久久久野外| 久久国产精品毛片| 亚洲五码在线观看视频| 国产成人黄色| 不卡一区二区三区视频| 97欧美成人| 97在线视频免费看| 日本电影在线观看网站| 亚洲精品美女视频| 99久久久国产精品无码网爆| 色偷偷成人一区二区三区91| 人妻久久一区二区| 国产欧美日韩不卡| 在线观看av中文字幕| 国产麻豆一精品一av一免费 | 蜜臀精品一区二区三区在线观看 | 伦伦影院午夜理论片| 久久影院亚洲| 2018中文字幕第一页| 欧美电影免费播放| 免费在线观看一区二区| 97一区二区国产好的精华液| 国产有码一区二区| 电影在线观看一区二区| 欧美亚洲另类制服自拍| 男女羞羞视频在线观看| 久久精品人人做人人爽| 国产精品久久久久一区二区国产| 精品国产免费人成在线观看| 国产精品热久久| 欧美中文字幕亚洲一区二区va在线| 国产精品a成v人在线播放| 亚洲欧洲一区二区三区| 色欲AV无码精品一区二区久久| 99re这里只有精品视频首页| 白丝校花扒腿让我c| 国产资源精品在线观看| 日本人69视频| 日本不卡不码高清免费观看| 成人综合视频在线| 99在线精品视频在线观看| 久久www视频| 中文不卡在线| 国产日韩第一页| 国产精品成久久久久| 亚洲视频欧美在线| 日本a口亚洲| 亚洲国产精品一区二区第四页av| 精品国产99| 日产国产精品精品a∨| 国产麻豆精品久久| 日韩欧美国产二区| 日本女优一区| 亚洲三级一区| 亚洲一区 二区 三区| 喜爱夜蒲2在线| 欧美天天视频| 毛片av在线播放| 伊人成年综合电影网| 久久久亚洲精品无码| 国产亚洲精品bv在线观看| 男人操女人免费软件| 久久精品一区| 超碰在线人人爱| 精品影院一区二区久久久| 天天av天天操| 国产白丝网站精品污在线入口| 欧美xxxxx少妇| 91蝌蚪porny成人天涯| 国产精品揄拍100视频| 国产日韩欧美精品综合| 91禁男男在线观看| 亚洲免费观看高清完整版在线| 免费在线一级片| 欧美日韩国产页| 国产在线一级片| 欧美丰满嫩嫩电影| 欧美熟妇乱码在线一区| 亚洲精品www久久久久久广东| 欧洲综合视频| 不卡av电影在线观看| 国产h片在线观看| 国产成人综合久久| 激情综合婷婷| 欧美久久在线| 91精品成人| www黄色日本| 久久99精品国产麻豆婷婷洗澡| 性高潮久久久久久| 久久综合精品国产一区二区三区| 刘亦菲国产毛片bd| 亚洲成人激情av| 中文字幕天堂在线| 精品美女在线播放| 成人亚洲性情网站www在线观看| 欧美成人免费大片| 欧美电影免费看| **亚洲第一综合导航网站| 日韩精品免费一区二区三区竹菊| 亚洲欧美精品| 国产偷自视频区视频一区二区| 亚洲一区二区在线视频观看| 99国产欧美另类久久久精品| 亚洲女人久久久| 精品毛片三在线观看| 国产精品污视频| 亚洲男人的天堂在线播放| 免费a级毛片在线播放| 91国产视频在线播放| 欧美综合影院| 欧美成熟毛茸茸复古| 欧美另类专区| 三上悠亚在线一区二区| 92国产精品观看| 久久久夜色精品| 欧美高清你懂得| 黄色的视频在线免费观看| 欧美人与性动交| 国产亚洲精彩久久| 日本福利一区二区三区| 亚洲精品精选| 国产sm在线观看| 亚洲日本在线a| 中文字幕1区2区3区| 亚洲美女精品久久| а√天堂资源官网在线资源| 91视频国产高清| 四季av一区二区三区免费观看| 国产亚洲天堂网| caoporn国产一区二区| 欧美精品久久久久性色| 欧美情侣在线播放| 91在线导航| 国产精品一区二区三区在线播放 | 亚洲一区二区三区欧美| 亚洲综合另类| 精品一区二区视频在线观看| 亚洲制服丝袜一区| 亚洲精品字幕在线观看| 欧美成人免费大片| 精品三级国产| 国内外成人激情免费视频| 精品一区二区久久| 美国黄色片视频| 91精品国模一区二区三区| 欧美高清视频| 成人春色激情网| 99久久婷婷国产综合精品电影√| 牛夜精品久久久久久久| 国产精品久久久久一区二区三区 | 国产欧美韩日| 亚洲小说欧美另类社区| 在线xxxxx| 香蕉av福利精品导航| 亚洲av电影一区| 欧洲成人在线观看| 国产欧美日韩精品一区二区免费| 无码人妻丰满熟妇区毛片| 国产欧美精品一区| 亚洲一区二区激情| 久热精品视频在线| 亚洲成人黄色| 欧美丰满熟妇bbbbbb百度| 26uuu成人网一区二区三区| 日本中文字幕第一页| 国产亚洲日本欧美韩国| 欧美成人免费全部网站| 不卡中文字幕在线| 国产传媒欧美日韩成人| www.av视频在线观看| 亚洲女人天堂av| 国产成人精品一区二区三区视频| 中文字幕一区二区三区最新 | 噜噜噜噜噜在线视频| 国产999在线| 99成人超碰| 蜜桃视频无码区在线观看| 午夜精品久久久久久久蜜桃app| 日韩私人影院| 成人国产在线激情| 亚洲乱码久久| 免费黄色在线网址| 日韩美女在线视频| xx欧美视频| 特级黄色录像片| 99热99精品| 亚洲一级在线播放| 欧美激情综合色| 日韩精品免费一区二区三区| 绯色av蜜臀vs少妇| 日本精品视频一区二区| av网站网址在线观看|