精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐 精華

發布于 2024-8-27 13:14
瀏覽
0收藏

一、背景

模型剪枝、蒸餾是傳統 AI 模型壓縮常用的方案,尤其是模型要用于端側部署的場景,相比模型量化,模型剪枝和蒸餾的代價比較高,而且往往在指標上也沒有特別明顯的優勢,因此真正落地的場景要少得多。當然,也傳言有些模型會蒸餾 OpenAI 的 ChatGPT,不過主要是用其生成高質量數據。本文中,我們介紹 NVIDIA 最近發布的 LLM 剪枝和蒸餾的最佳實踐。

對應的論文為:[2408.11796] LLM Pruning and Distillation in Practice: The Minitron Approach

我們之前也介紹過 NVIDIA 的兩篇相關文章,可以參考:

  • NVIDIA LLM 持續預訓練的最佳實踐
  • NVIDIA 開源 LLM:迷你杯 Nemotron-4 15B & 超大杯 Nemotron-340B

二、摘要

本文中,作者探索了兩種不同的 LLM 剪枝策略:(1)深度剪枝和(2)聯合 Hidden、Attention、MLP 的寬度剪枝,并使用 LM 評估框架 Harness 進行常見基準評估。然后將模型與 NeMo Aligner 對齊,并在 Instruct-tuned 版本中進行測試。使用提出的剪枝和蒸餾將 LLaMA 3.1 8B 和 Mistral NeMo 12B 模型分別壓縮為 4B 和 8B 參數的模型。此外,作者發現,在無法訪問原始數據的情況下,在蒸餾數據集上適當微調 Teacher 模型也有幫助。

PS:基于當前論文的工作還有許多可以嘗試的方案,比如:

  • 論文中寬度剪枝后每個 Transformer Block 層的參數還保持一致,而根據之前的研究(本文中也提到了),模型的最開始 2 層和最后 2 層可能更加的重要,是否可以通過某種方式實現只剪枝中間層,而保留最前 2 層和最后 2 層,效果是否會更好?
  • 如果使用 LLaMA 3.1 70B 作為 Teacher 模型,是否能將 4B 參數量規模的模型精度與 8B 模型對齊?

三、方案

3.1 概覽

如下圖 Figure 1 所示為本文方法的概覽,其包含 3 個階段:

  • Teacher 校正:在目標數據集(127B)上對預訓練模型進行微調,生成校正的 Teacher 模型,以便用于蒸餾。
  • 剪枝:應用剪枝技術壓縮模型,生成 Student 模型。(PS:需要說明的是,非結構化剪枝往往導致模型無法充分發揮 GPU 算力,所以在使用 GPU 推理的場景中相對較少,這里作者主要是使用的結構化剪枝,非常適合 GPU 運算)
  • 蒸餾:使用 Teacher 模型蒸餾 Student 模型,以恢復剪枝損失的模型準確性。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

3.2 剪枝

權重剪枝是一種強大且眾所周知的模型壓縮技術。本文中,作者重點介紹結構化剪枝(并不是為了適配 GPU 稀疏算力的 2:4 稀疏結構化剪枝,其可以參考附錄),也就是從模型中刪除 Block 或 Channel(PS:不是將其置為 0),包括 Neuron、Attention Head、Convolutional Filter 和深度剪枝。如下圖 Figure 2 所示,對于 LLM 而言,首先計算每個層、神經元、Head 和 Embedding 維度的重要性;然后對這些重要性分數進行排序;最后進行剪枝操作,并多次迭代。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

3.2.1 重要性預估

作者采用純粹基于激活的重要性評估策略,該策略使用小型校準數據集,通過前向推理來計算所有軸(深度、神經元、Head,嵌入通道)的靈敏度信息。此外,作者將深度修剪作為一種特殊情況,不會與其他壓縮維度結合使用。

具體來說,作者使用一個 1024 個 Sample 的小型校準數據集,通過分別檢查 MHA、MLP 和 LayerNorm 層產生的激活來計算每個 Head、神經元和 Channel 的重要性。

對于深度剪枝,作者使用 3 個指標評估 Layer 的重要性:

  • LM 驗證損失。
  • Block 重要性(BI)。
  • 下游任務的準確性。

對于基于 Loss 的排序,只需刪除單個或連續的 Block,并計算其對 LM Loss 的影響,這可以作為層的“重要性”或“敏感度”。BI 使用 Layer 或 Layer Blocks 的輸入和輸出之間的余弦距離來計算。作者注意到 BI 和 LM 損失指標高度相關,但并沒有在下游任務上生成最準確的剪枝模型。因此,作者使用 Winogrande 基準來評估 Layer 的重要性。

3.2.2 模型修剪

對于給定的模型,獲得每個軸的重要性排名之后,可以直接對相應的權重矩陣進行修剪。對于神經元和 Head 修剪,分別修剪 MLP 和 MHA 層權重;對于 Embedding Channel,修剪 MLP、MHA 和 LayerNorm 中權重矩陣的 Embedding 維度。

3.2.3 蒸餾訓練

對修剪后的模型進行 ReTraining 以恢復準確性。本文中,作者探索了兩種 ReTraining 策略:

  • 利用 Ground truth 標簽的常規訓練。
  • 使用未修剪模型(Teacher)進行監督知識蒸餾。

蒸餾的過程如下圖 Figure 3 所示,作者只在最后的 Logits 上添加 KL 散度損失。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

3.3 訓練詳情

3.3.1 預訓練

使用預訓練的 LLaMA 3.1 8B([2407.21783] The Llama 3 Herd of Models) 和 Mistral Nemo 12B 模型(Mistral NeMo | Mistral AI | Frontier AI in your hands)。

3.3.2 數據集

所有實驗使用 Nemotron-4 ([2402.16819] Nemotron-4 15B Technical Report 和 [2407.07263] Reuse, Don't Retrain: A Recipe for Continued Pretraining of Language Models)的 Continuous Training(CT) 數據集。

3.3.3 剪枝

作者采用的簡化剪枝方案來自 Minitron 論文([2407.14679] Compact Language Models via Pruning and Knowledge Distillation)中的最佳實踐。具體來說:

  • 寬度剪枝:

分別使用 l2-norm 和 mean 作為跨 Batch 和 Sequence 維度的聚合函數。

執行單次修剪,避免迭代方案。

  • 深度剪枝:
  • 遵循[2403.17887] The Unreasonable Ineffectiveness of the Deeper Layers 中的觀察結果,刪除一個連續 subgroup,該 subgroup 會使 Winogrande 的準確性下降最小。
  • 沒有采用 NAS 搜索的結構。

修剪后的 3 個模型參數如下圖所示,這里也可以看出,寬度剪枝后各層的超參數一致:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

3.3.4 蒸餾

Teacher 校正:直接使用 Mistral Nemo 12B 模型在作者自己的數據集上表現不佳,這是由于 Teacher 模型訓練的原始數據集與蒸餾數據集的分布不一致。為了解決這個問題,作者首先使用數據集中 >= 127B 的 Token 微調 Teacher 模型。如下圖 Figure 4 所示,使用經校正的 Teacher 模型蒸餾,Student 模型在驗證集上的 Loss 明顯低于使用原始 Teacher 模型。因此,作者將這種方案應用到了 Mistral-Nemo 和 LLaMA 3.1 Teacher 模型。當然,微調 Teacher 模型也會導致其在一些指標上有所提升,而在一些指標上有所下降:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

Retrining:根據 Minitron 中的方案,作者選擇僅 Logit 蒸餾(PS:之前很多工作也會蒸餾 Feature Map),最大限度減少 Teacher 和 Student 的 KL 散度損失,并完全忽略 LM 交叉熵損失。蒸餾的超參數如下圖 Table 4 所示,在 32 個 DGX H100 節點上訓練。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

指令微調:為了評估蒸餾模型的指令跟隨能力,作者使用 Nemo-Aligner 和用于 Nemotron-4 340B 的指令微調數據集對 LLaMA 3.1 Minitron 4B 模型進行 SFT,結果如下圖 Table 2 所示:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

四、分析和評估

4.1 分析

4.1.1 寬度和深度剪枝

如下圖 Figure 5 所示為根據寬度和深度剪枝的 LLaMA-3.1-Minitron-4B 的訓練曲線,可以看出,兩者具有相同的參數量,但是寬度剪枝對應的初始損失更小,并且始終優于深度剪枝。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.1.2 剪枝和蒸餾

如下圖 Figure 6 展示了剪枝和蒸餾方法的正交優勢。作者比較了下述 4 種方案,可以看出,與隨機初始化相比,剪枝的起點明顯更好,而基于蒸餾的訓練優于傳統的訓練方法,同時需要訓練的 Token 明顯減少:

  • Random Init + Distillation:隨機權重初始化和蒸餾。
  • Random Pruning + Distillation:隨機剪枝和蒸餾。其中的組件被隨機修剪而不是依賴重要性分數。
  • Pruning + LM Loss:使用本文的修剪方案,但使用基于交叉熵的 LM Loss 訓練。
  • Pruning + Distillation:本文的剪枝和蒸餾方案。LM 驗證損失最低。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.1.3 Teacher 校正

如下圖 Figure 7 所示,作者對比了兩種 Teacher 校正方法,結果表明,Teacher 校正并不影響剪枝的最優性,用校正后的 Teacher 至關重要。Teacher 校正也可以與蒸餾同時進行,以彌合差距:

  • Prune corrected teacher + distill corrected teacher:剪枝和蒸餾校正的 Teacher 模型。
  • Prune original teacher + distill continuously corrected teacher:剪枝原始的 Teacher 模型,并使用不斷校正的 Teacher 模型來蒸餾。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.1.4 深度剪枝度量

在檢查 LM 驗證損失如何隨著連續 Layer Block 的刪除而增加時,如下圖 Figure 8 所示,作者觀察到開始和結尾的層是最重要的。刪除非連續層可能導致更好的 LM 驗證損失。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

但是在評估下游任務時,上述結論不一定成立。如下圖 Figure 9 所示,根據每層重要性刪除 16 層,Winogrande 精度為 0.5,而連續刪除 16-31 層的精度為0.595。在基于蒸餾的 Retraining 中,差距仍然存在,作者選擇了后一種方法。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.2 評估

4.2.1 Base 模型評估

如下圖 Table 1 所示為 Base 模型的評估,與類似大小的模型相比,MN-Minitron8B 在各方面都表現出卓越的準確性,并且訓練 Token 數小 40x(380B vs 15T)。同樣,與 Teacher LLaMA 3.1 8B 模型相比,LLaMA-3.1 4B 模型表現良好,并且使用的訓練 Token 減少 150x(94B vs 15T)。剪枝后的 LLaMA-3.1 4B 也優于之前的 Minitron 4B。此外,從中也可以看出,基于寬度剪枝的變體優于基于深度剪枝的變體。這些結果充分表明了方案的有效性。

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

PS:不過從 8B -> 4B 的損失依然比較大,甚至和直接進行 AWQ(W4A16)的量化損失差不多。當然 8B AWQ 的推理效率可能不如 4B,然而一些 W8A8 的方案也能獲得相當的精度,詳情可以參見后文“附錄”的量化部分。此外,量化的成本可能遠低于剪枝+蒸餾。如下圖所示為 neuralmagic/Meta-Llama-3.1-8B-Instruct-quantized.w4a16 · Hugging Face 中使用 W4A16 的 Instruct 模型精度:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

4.2.2 Instruct 模型評估

如下圖 Table 2 所示為 LLaMA-3.1 Minitron 4B 指令微調的性能。可以看出,其寬度剪枝變體在所有指標上優于原始的 Minitron 4B:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

五、附錄

5.1 模型壓縮

模型壓縮有 4 種常見的方案:量化,剪枝,蒸餾,低秩分解。在 LLM 場景中,模型量化的方案非常多,比如 llm.int8()、AWQ、GPTQ、SmoothQuant 等等,其實現簡單,代價小,是最常見的方案。而其他幾種方案應用相對比較少,它們的區別如下圖 Figure 2 所示,圖片來自 [2308.07633] A Survey on Model Compression for Large Language Models:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

5.2 量化

量化是模型壓縮中最常用的技術,不同的量化方案會針對不同的精度、Tensor 類型等,比如有常見的 KV Cache Only 量化,Weight Only 量化,以及幾種方案的結合,具體如下圖所示:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

不同的量化方案在不同模型上的量化損失也會有所不同,但是大體上來說,壓縮后的 Bit 數越低損失越大。如下圖 Table 1 所示為 [2404.14047] An Empirical Study of LLaMA3 Quantization: From LLMs to MLLMs 中對 LLaMA3-8B 模型的量化評估(都使用 INT 類型,未使用 FP8/FP6/FP4),可以看出:

  • W8A16 的量化損失都比較小,幾乎無損
  • W4A16 和 W8A8 的損失相比 W8A16 會大一些,大部分情況也基本可以接受,但也和量化方法有關,比如,GPTQ 和 QuIP 的 W4A16 相比 AWQ 的損失會更大一些。
  • 更低 Bit 的量化損失會比較大,比如 W3A16 和 W2A16 的精度會明顯下降。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

NVIDIA 的 GPU 從 Hopper 架構開始可以支持 FP8 計算,使用 FP8 后其精度相比 SmoothQuant 的 INT8 以及其他的 W4A16 損失更小,更具有使用價值(數據來自 https://github.com/NVIDIA/TensorRT-LLM/blob/v0.9.0/docs/source/blogs/quantization-in-TRT-LLM.md):

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

那么這些量化方案的速度怎么樣呢,如下圖所示,在 [2404.14294] A Survey on Efficient Inference for Large Language Models 中作者評估了 TensorRT-LLM 和 LMDeploy 推理框架在不同場景的 W4A16 推理性能,使用的 GPU 為 NVIDIA A100,圖中的數據分別為 Prefill/Decoding/End2End 的加速比,可以看出,基本都可以實現 2 倍左右加速,當序列比較長或者 Batch size 比較大時會略低一些,當然兩個框架也各有千秋:

  • TensorRT-LLM 在 Batch size 比較小時優勢更明顯。
  • LMDeploy 在 Batch size 比較大時優勢更明顯。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

如下圖所示為使用 FP8 相比 FP16 可以加速 1.4-1.5 倍,這是比較早的數據,進一步優化后可以到 1.6-1.7 倍:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

如下表所示為 TensorRT-LLM 中作者對不同量化方案的總結,可以看出,如果 GPU 支持 FP8,則使用 FP8 是最理想的選擇,如果允許少量精度損失,則可以進一步使用 INT4-FP8 AWQ 的方案:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

5.3 剪枝

NVIDIA 在 Ampere 架構的 Tensor Core 中引入了稀疏矩陣乘法支持,理論最多可以提升 2 倍性能,實際上可能只有 1.5 倍,而且對稀疏化的方式有要求,如下圖所示,每 4 個 Weight 中需要有 2 個是 0 值,也就是可以剪掉的值:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

基本上稀疏化都會帶來一定的精度損失,如下圖 Table 2 所示,論文 [2310.15929] E-Sparse: Boosting the Large Language Model Inference through Entropy-based N:M Sparsity 中作者評估了 2:4 稀疏化對模型精度的影響,可以看出(PS:論文圖片中的部分數字有誤,比如 13B 模型上 Magnitude 平均精度達到了 57.71,實際平均只有 49.36):

  • 每種稀疏化方法都有一定的精度損失,即使最優的方案損失也比較大。
  • 不同規模的模型上精度損失差異比較大,小模型損失比較大。
  • 13B 模型稀疏化后的精度還不如原始的 7B 模型,那么 13B 模型的稀疏化基本沒有太大的意義。?

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

在這樣的損失下能帶來什么收益呢?其收益主要體現在速度的提升和顯存的節約,如下圖 Table 5 所示,其矩陣乘法可以加速 20%-30%,而端到端延時只能加速 16% 左右:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

當然,顯存的節約還是比較客觀的,基本可以節約 43% 左右的顯存空間,也許可以通過增加 Batch Size 來增加吞吐:

LLM 剪枝+蒸餾:NVIDIA 的最佳實踐-AI.x社區

六、參考鏈接

  1. https://arxiv.org/abs/2408.11796
  2. https://arxiv.org/abs/2407.21783
  3. https://mistral.ai/news/mistral-nemo/
  4. https://arxiv.org/abs/2402.16819
  5. https://arxiv.org/abs/2407.07263
  6. https://www.arxiv.org/abs/2407.14679
  7. https://arxiv.org/abs/2403.17887
  8. https://arxiv.org/abs/2308.07633
  9. https://arxiv.org/abs/2404.14047
  10. https://arxiv.org/abs/2404.14294
  11. https://arxiv.org/abs/2310.15929

本文轉載自 ??AI閑談??,作者: AI閑談

收藏
回復
舉報
回復
相關推薦
亚洲一二av| 污视频网站在线播放| 91精品精品| 精品久久国产字幕高潮| 亚洲国产精品久久久久爰色欲| 国产高清美女一级毛片久久| 国产一区二区精品久久91| 久久久久免费精品国产| 国产美女免费网站| 榴莲视频成人app| 欧美网站在线观看| 中文字幕精品—区二区日日骚| 亚洲精品成人电影| 日韩专区在线视频| 久久成人这里只有精品| 天天躁日日躁aaaxxⅹ| 亚洲伊人伊成久久人综合网| 性感美女久久精品| 宅男av一区二区三区| 婷婷综合激情网| 狠狠色2019综合网| 日本一区二区在线免费播放| 青青草原免费观看| 欧洲激情综合| 日韩高清有码在线| 久草福利在线观看| 久久精品xxxxx| 欧美日韩在线视频首页| 免费看污污视频| 搞黄视频免费在线观看| av一区二区久久| 99re国产在线播放| 国产又粗又长又黄| 日韩国产欧美在线观看| 88国产精品欧美一区二区三区| 麻豆天美蜜桃91| 精品视频亚洲| 日韩精品在线一区二区| 九九热免费在线观看| 日韩免费va| 欧美日韩一区二区三区| 国产女教师bbwbbwbbw| 1pondo在线播放免费| 国产亚洲精品aa午夜观看| 国产伦精品一区二区三区照片| 国产精品熟女久久久久久| 日一区二区三区| 日本欧美一级片| 五月婷婷中文字幕| 国产日韩欧美一区| 91成品人片a无限观看| av资源吧首页| 国内一区二区三区| 久久国产精品久久久久| 亚洲一级二级片| 国产精品二区不卡| 久久天堂电影网| 国产精品免费在线视频| 日韩在线综合| xxxx性欧美| 最新日韩免费视频| 国产精品麻豆久久| 九九九久久国产免费| 永久久久久久久| 亚洲影视一区| 九九久久国产精品| 精品一区二区三区四| 亚洲大胆在线| 欧美专区第一页| 欧美一区二区三区网站| 视频一区在线播放| 国产精品自产拍在线观看| 亚洲视频久久久| 精品一区在线看| 2014国产精品| 香蕉视频国产在线| 国产亚洲精品bt天堂精选| 亚洲精品9999| 香蕉成人app免费看片| 亚洲成人在线网站| 成人在线激情网| 99精品美女视频在线观看热舞| 日韩欧美在线网站| 少妇户外露出[11p]| 国产成人av| xvideos亚洲人网站| 国产一级特黄视频| 日韩综合小视频| 92看片淫黄大片欧美看国产片| 亚洲国产999| 久久老女人爱爱| 在线视频不卡国产| 国产伦理精品| 欧美三级电影一区| 秘密基地免费观看完整版中文 | 1024成人| 国产99在线|中文| 国产xxxx孕妇| 久久久久久久久久久久久女国产乱| 亚洲国产一区在线| av资源中文在线| 欧美午夜视频网站| 国产a级黄色片| 超碰成人久久| 97人人模人人爽人人喊中文字| 免费视频网站在线观看入口| 国产精品99久久久久久宅男| 久热这里只精品99re8久 | 久久理论片午夜琪琪电影网| 国产乱码77777777| 成人激情文学综合网| 亚洲.欧美.日本.国产综合在线 | 亚洲狠狠丁香婷婷综合久久久| 老太脱裤子让老头玩xxxxx| ww久久综合久中文字幕| 精品福利一区二区三区免费视频| 伊人影院综合网| 亚洲黄色精品| 亚洲精品欧美极品| jizz亚洲| 色婷婷亚洲综合| 超碰caoprom| 无需播放器亚洲| 国产极品jizzhd欧美| 天天操天天舔天天干| 亚洲色大成网站www久久九九| 999精品网站| 欧美日韩一区二区三区在线电影| 久久这里只有精品视频首页| 久久久国产免费| 91蜜桃网址入口| 日本男女交配视频| 亚洲一区二区三区免费| www.xxxx精品| 中文字幕人成人乱码亚洲电影| 91视频你懂的| 91免费黄视频| jazzjazz国产精品麻豆| 欧美另类精品xxxx孕妇| 国产情侣激情自拍| 自拍偷拍国产亚洲| 五月天婷婷亚洲| 久久一本综合| 国产精品久久久久久av下载红粉 | 国产免费一级视频| 91免费国产视频网站| 欧美日韩性生活片| 国产一区二区三区不卡av| 久久91亚洲人成电影网站| 99热这里只有精品1| 日韩码欧中文字| 三级一区二区三区| 亚洲影视一区二区三区| 99九九电视剧免费观看| 欧美1—12sexvideos| 日韩精品一区在线| 精品肉丝脚一区二区三区| 国产精品一区二区久激情瑜伽| 亚洲一区 在线播放| 奇米一区二区| 欧美国产第一页| 欧美特黄一级视频| 精品免费在线视频| japanese中文字幕| 美国毛片一区二区| 亚洲免费av网| 最新国产精品精品视频| 国语自产在线不卡| 日韩av成人| 欧美在线一区二区| 丰满少妇被猛烈进入一区二区| 久久av老司机精品网站导航| 中文字幕第一页亚洲| 国产麻豆一区二区三区| 高清视频欧美一级| 日韩在线视频第一页| 欧美性生交xxxxx久久久| 久久av无码精品人妻系列试探| 日韩精品一二三| www.黄色网址.com| 女人抽搐喷水高潮国产精品| 国产suv精品一区二区| 香蕉视频在线免费看| 欧美一三区三区四区免费在线看| 国产一级黄色av| www激情久久| 加勒比av中文字幕| 亚洲欧洲日本mm| 婷婷四房综合激情五月| 欧美影院视频| 日韩av日韩在线观看| 国产黄色在线网站| 日韩精品视频中文在线观看| 国产偷人爽久久久久久老妇app| 亚洲欧美日韩一区二区| 国产精品久久久免费观看| 久久精品久久精品| 成熟了的熟妇毛茸茸| 99久久婷婷| 精品中文字幕人| 一区在线不卡| 日本韩国在线不卡| av大大超碰在线| a√在线中文网新版址在线| 日本精品视频一区二区| 波多野结衣爱爱视频| 久久久久99精品一区| 夜夜爽久久精品91| 久久蜜桃精品| 欧美极品少妇无套实战| 青青草国产免费一区二区下载| 国产v亚洲v天堂无码| 国产精品伦一区二区| 91精品国产91久久久久久久久| 尤物在线视频| 亚洲男人的天堂网站| 动漫av一区二区三区| 欧美精品在线视频| 影音先锋在线国产| 亚洲亚洲精品在线观看| 在线观看黄网址| 久久久九九九九| 50一60岁老妇女毛片| 国产精选一区二区三区| 国产一级不卡毛片| 亚洲欧美日韩国产一区| 久久久久久久久久伊人| 欧美电影一二区| 日韩欧美精品一区二区| 天堂俺去俺来也www久久婷婷 | 99在线精品视频| 国产黄色一区二区三区| 免费看日韩精品| caopor在线视频| 国产免费成人| 久久久久久久久久网| 国产精品av一区二区| 欧洲美女和动交zoz0z| 国产精品久久久久久久久久10秀 | 天天操天天干天天综合网| 欧美片一区二区| 成人欧美一区二区三区视频网页| www.99热| 国产欧美日韩综合| 无码人妻aⅴ一区二区三区69岛| 99久久99久久久精品齐齐| 99久久久无码国产精品性波多 | 欧美日韩调教| 亚洲五码在线观看视频| 欧美精品国产一区二区| 一二三四中文字幕| 欧美日韩国产欧| 精品国产av无码一区二区三区| 欧美三级不卡| 久草视频国产在线| 日韩午夜免费| 97超碰青青草| 久久大逼视频| www.99在线| 久久国产精品99精品国产| 国产精品视频中文字幕| 经典三级在线一区| 成人在线短视频| 成人国产视频在线观看| 国产精品无码电影| 国产亚洲精品免费| 午夜精品久久久久99蜜桃最新版| 综合色中文字幕| 久久免费视频精品| 精品久久久国产| 最近中文字幕免费观看| 7777精品伊人久久久大香线蕉 | 麻豆一区二区三区精品视频| 午夜影视日本亚洲欧洲精品| 中文字幕第四页| 欧美三级午夜理伦三级中视频| 一二三区中文字幕| 日韩一区二区电影| 天天操天天爱天天干| 亚洲偷熟乱区亚洲香蕉av| 欧美私人网站| 国产+人+亚洲| 韩国精品主播一区二区在线观看 | 久久综合久久八八| 91黄页在线观看| 国产黑人绿帽在线第一区| 成人动漫视频在线观看| 国产精品久久久久久久免费大片 | 国产91精品在线观看| 久久午夜夜伦鲁鲁片| 国产精品二三区| 日本一二三区不卡| 欧美中文一区二区三区| 亚洲第一精品网站| 国产亚洲精品久久久久久| 成人ww免费完整版在线观看| 91超碰中文字幕久久精品| 婷婷精品久久久久久久久久不卡| 国产精品免费一区二区三区| 欧美美女一区| 女人帮男人橹视频播放| 日本不卡一区二区三区高清视频| 熟妇女人妻丰满少妇中文字幕| 久久亚洲综合色一区二区三区 | 五月婷婷色综合| 一级二级三级视频| 精品香蕉一区二区三区| 中文字幕在线三区| 国产精品盗摄久久久| 国产伦精品一区二区三区在线播放| 亚洲国产精品www| 国产亚洲午夜| 中文字幕第六页| 国产精品视频线看| 亚洲精品男人的天堂| 日韩欧美激情四射| 91在线观看| 69精品小视频| 99热这里只有精品首页| 日本午夜精品一区二区三区| 亚洲经典视频在线观看| 国产精品久久久久久9999| 国产欧美综合色| 99精品在线播放| 亚洲国产精品推荐| 欧美xxxx少妇| 51国偷自产一区二区三区| 色狮一区二区三区四区视频| 免费观看日韩毛片| 成人av在线影院| 九九视频免费观看| 91精品国产乱码久久蜜臀| 91短视频版在线观看www免费| 欧美夜福利tv在线| 久久国产精品色av免费看| 91免费国产精品| 国产精品一区免费在线观看| 亚洲aaa视频| 欧美视频自拍偷拍| 久久经典视频| 欧美在线观看一区二区三区| 欧美顶级毛片在线播放| 妞干网在线观看视频| 国产91精品久久久久久久网曝门 | 精品日韩美女的视频高清| 黄频在线免费观看| 国内免费久久久久久久久久久| 午夜视频在线观看精品中文| 国产四区在线观看| 国产精品一二三区在线| 亚洲国产精品免费在线观看| 91精品国产色综合久久久蜜香臀| 午夜在线小视频| 成人在线视频福利| 91精品天堂福利在线观看| 黄色片免费网址| 一区二区三区不卡在线观看 | 国产精品一级二级三级| 久草福利资源在线观看| 精品国产91亚洲一区二区三区婷婷| 国内在线免费视频| 国产伦精品一区二区三区视频黑人| 影音先锋中文字幕一区| 日本黄色录像片| 色偷偷一区二区三区| 成人在线高清视频| 成人精品一区二区三区| 欧美喷水视频| 黄色av网址在线观看| 日韩欧美在线视频观看| av在线播放网站| **亚洲第一综合导航网站| 好看的日韩av电影| 久久久无码人妻精品一区| 在线视频综合导航| 国产cdts系列另类在线观看| 粉嫩高清一区二区三区精品视频 | 在线黄色免费观看| 亚洲欧美偷拍卡通变态| 韩国av免费在线| 国产精品99久久久久久人| 99久久精品费精品国产风间由美| 亚洲成人av免费观看| 欧美日韩午夜激情| 午夜小视频在线| av日韩中文字幕| 久久影院亚洲| 麻豆精品国产免费| 亚洲精品av在线| 日韩一级特黄| 91成人在线观看喷潮教学| 国产精品欧美综合在线| 黄色av小说在线观看| 国产不卡在线观看| 中国成人一区| 日韩av在线看免费观看| 日韩欧美一区二区三区在线| 粉嫩一区二区三区| 亚洲国产一二三精品无码| 国产日本欧洲亚洲|