精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Sample Packing 綜述:LLM 效果與效率的 Tradeoff

發(fā)布于 2024-9-26 16:25
瀏覽
0收藏

本文中我們通過幾篇論文來具體介紹 Sample Packing 相關的方案和對應的各種問題,比如 GraphCore 的PackedBert、Meta 的 In-Context-Pretraining、智譜 AI 的 LongAlign、Amazon 的 Fewer Truncations 以及 IBM 的 Packing with FlashAttention。

一、背景

上一篇文章(???Sample Packing:長序列 LLM 訓練的 Attention 問題及優(yōu)化??)中我們簡單介紹了 Sample Packing 相關的問題和部分簡單實驗。本文中我們通過幾篇論文來具體介紹 Sample Packing 相關的方案和對應的各種問題,比如 GraphCore 的PackedBert、Meta 的 In-Context-Pretraining、智譜 AI 的 LongAlign、Amazon 的 Fewer Truncations 以及 IBM 的 Packing with FlashAttention。

二、方法

Sample Packing 可以看成是一個經(jīng)典的 Bin Packing 組合優(yōu)化(Combinatorial Optimization)問題,核心思想是將一組不同體積的物品放入容量固定的箱子中,目標是最小化所需箱子數(shù)量。

Bin Packing 是一個典型的 NP-Hard 問題,因此往往需要關注其效率。對于 N 個 Sample 的數(shù)據(jù)集,通常需要先排序,對應 O(N*logN) 的時間復雜度;然后 Packing,需要 O(N*logN) 的時間復雜度。不過由于 Sample 的長度通常比較有限,可以采用計數(shù)排序的方式進行優(yōu)化;此外,整個訓練集通常有多個數(shù)據(jù)子集組成,為了保證每個數(shù)據(jù)子集具有不同的采樣權重,往往一個 Sequence 中的 Sample 來自同一個數(shù)據(jù)子集,一個大的 Bin Packing 問題也變成了多個小的 Bin Packing 問題,可以進一步降低復雜度。本文中我們就不再具體介紹 Bin Packing 的優(yōu)化問題。

如果從物品順序角度考慮,Bin Packing 可以分為兩類:

  • Online Bin Packing:物品按順序到達,必須立即決定放入哪個箱子,無法預知后續(xù)物品的大小。對于 LLM 訓練而言,Online 方式依然可以實現(xiàn) Batch 內(nèi)(窗口內(nèi))的亂序,也可以通過梯度累加增加 Batch 的大小。
  • Offline Bin Packing:預先知道所有物品大小,可以全局排序。對于 LLM 訓練而言,相當于訓練前就預先知道所有序列的長度,并對所有 Sample 打包。

當然,Bin Packing 方案也可能有不同的約束條件:

  • 一次性 Packing:每個物品只能放進一個箱子,不允許拆分物品。對于 LLM 而言,可以理解為 Sample 不能截斷。
  • 多維 Packing:物品和箱子不僅有體積,還有其他屬性,比如重量、形狀,需要同時滿足多維約束。對于 LLM,可以約束同一個 Batch 內(nèi)不同 Sequence 的計算量盡量類似,以實現(xiàn)更好的負載均衡。

整體來說,對于 LLM 訓練可以從數(shù)據(jù)分布和計算效率的角度考慮相關的方案,數(shù)據(jù)分布可能影響模型訓練的效果,計算效率會影響訓練的速度,往往需要綜合考量。

影響數(shù)據(jù)分布的幾個因素:

  • 是否隨機采樣,比如排序機制可能引入分布的不一致。
  • 是否交叉污染,比如 Packing 是否采用 Document Level 的 Mask(Block Diagonal Mask,也可以通過 Position ID 區(qū)分)。
  • 是否有 Sample 的截斷。

影響計算效率的幾個因素:

  • 是否 Padding,Padding 是否參與計算。
  • Packing 是否采用 Document Level Mask。
  • 是否存在負載不均衡問題(主要是指稀疏度不同,計算量不同)。

三、GraphCore PackedBert

3.1 概述

GraphCore 在 2021 年 07 月的 [2107.02027] Efficient Sequence Packing without Cross-contamination: Accelerating Large Language Models without Impacting Performance 中已經(jīng)討論了 Sample Packing 導致的交叉污染(Cross Contamination)問題。作者研究了新的 Packing 算法,并通過修改 Attention Mask 和 Position ID 來避免交叉污染,提升 Bert 模型的訓練效率。

如下圖 Table 1 所示,不同的 Packing 方式有不同的 EFF(有效率),其中 Baseline 的 None 表示有 50% 左右的 Padding Token,而 SPFHP 和 NNLSHP(本文提出) 能獲得相對比較高的 EFF。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

3.2 結果

如下圖 Figure 4 所示可以看出,需要相應修改 Attention Mask 才能保證精度:

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

如下圖 Figure 5 所示,隨著 Accelerator 的增加,本文的方案能獲得比較穩(wěn)定的加速,非常接近理論速度(最上的藍線);而非 Padding 的方案可能隨著 Accelerator 的增加出現(xiàn)明顯的降速。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

四、Meta In-Context-Pretraining

4.1 概述

Meta 作者在 [2310.10638] In-context Pretraining: Language Modeling Beyond Document Boundaries 也關注了 Sample Packing 的問題。作者指出,之前的預訓練流程在訓練時將隨機的短文檔拼接起來形成輸入上下文,這些文檔之間沒有提供預測下一個文檔的信號,導致計算效率不高。因此作者提出了新的方案:In-context Pretraining,通過改變文檔的順序,使得每個上下文包含相關的文檔,從而明確鼓勵模型跨文檔邊界進行閱讀和推理。

4.2 方案

如下圖所示,在預訓練前會計算文檔的相似性,在 Packing 時利用上這種相似性,保證 Sequence 中文檔盡可能相關。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

4.3 結果

作者使用 CommonCrawl 數(shù)據(jù)集,預訓練了 0.3B 到 7B 參數(shù)量的多個模型,并在多種任務上評估,包括上下文學習、閱讀理解、對先前上下文的忠實度、長上下文推理和檢索增強等。與使用標準方法預訓練的模型相比,In-context Pretraining 方法訓練出的模型(ICLM)顯示出顯著的性能提升。

如下圖 Figure 3 所示,本文 ICLM 訓練的模型獲得了更低的困惑度:

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

如下圖 Table 1 所示,基于 ICLM 訓練的模型在下游 In-context Learning 任務上也獲得了更好的效果:

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

五、智譜 LongAlign

5.1 概述

智譜 AI 在 [2401.18058] LongAlign: A Recipe for Long Context Alignment of Large Language Models 中討論了部分 Sample Packing 相關問題。如下圖 Figure 3 左圖所示,Sequence 的長度各不相同,從 0 - 60K,如果采用 Naive Batching 方式,會導致明顯的 Bubble 問題(雖然 NoPadding 技術可以避免重復計算,但是如果采用 Data Parallelism 方式,比較快的設備需要等待比較慢的設備計算完成)。為了解決效率和效果問題,作者提出了 3 種解決方案:Packing、Loss Weighting 和 Sorted Batching。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

5.2 Packing

如 Figure 3 右上圖所示,就是我們之前介紹的 Sample Packing:將不同的 Sample 拼接在一個 Sequence 里,并且保證盡可能接近 Max Sequence Length,末尾的部分 Token 進行 Padding。然后通過 Block Diagonal Attention Mask 來區(qū)別不同的 Sample,以避免 Sample 之間的交叉污染,也就是 Document Level Attention。

PS:作者介紹,這里同樣是使用了 FlashAttention2 的 Varlen 特性。

5.3 Loss Weighting

假設訓練時的 Batch Size 為 K,總共包含 M 個 Sample,第 i 個 Sample 的 Token 數(shù)為 Ni,則對應的 Loss 如下圖所示:

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

然而,增加 Sample Packing 之后會引入一個問題,如下圖所示,一個 Sequence 中的不同 Sample 會被看成一個 Sample 來計算損失。當有些 Sample 比較長,其對應的 Token 很多,那么這個 Sample 對 Loss 的貢獻就更大,模型可能會在訓練時更傾向于優(yōu)化長 Sample 的表現(xiàn),進而可能會導致對短 Sample 的學習有所欠缺。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

為了解決這個問題,作者提出 Loss Weighting,也就是對不同 Sample 的 Loss 加權。如下圖所示,保證其和上述公式(2)等價。作者聲稱可以在下游任務上帶來 10% 左右的效果提升。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

PS:不過這里還會引入另外一個問題,因為采用了 Sample Packing,那么實際上不同 Step 中 Sample 的個數(shù)在不斷變化。比如一個 Batch 里都是短 Sample,那么對應的 M 會比較大;如果一個 Batch 里都是長 Sample,相應的 M 會比較小。這樣可能引入兩個問題,1. 相當于一個 Batch Size 在不斷變化;2. 同樣一個 Sample 可能會因為順序的原因被賦予不同的權重。因此需要盡量保證Batch 中 Sample 的平均個數(shù)比較穩(wěn)定。 

5.4 Sorted Batching

如上圖 Figure 3 右下圖所示,可以將所有 Sample 進行排序,在組 Batch 時盡量保證一個 Batch 中的 Sample 長度相同(沒有 Packing)。這樣可以保證不同設備的計算盡可能的均衡。然而,這種方式也不可避免地引入不同 Batch 的數(shù)據(jù)分布的偏差,有些 Batch 都是長序列,有些 Batch 都是短序列,對于 SGD 優(yōu)化來說可能并不友好。不過作者發(fā)現(xiàn)這種方式可以顯著加快訓練速度,而不會對效果產(chǎn)生明顯的負面影響。這可能是因為使用了大的梯度累加(Micro Batch 中長度類似,但整個 Batch 中包含各種長度的 Sample)。

PS:這種方式也就對應 Transformer 等工作中的 LengthGroupedSampler,如下圖所示,排序后可以有效降低無效計算(圖片參考 數(shù)據(jù)分組— XTuner 0.1.23 文檔)。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

5.5 結果

如下圖 Figure 5 所示,作者在 8xA800 GPU 上進行速度對比,可以看成,Packing 和 Sorted Batching 相比 Naive Batching 都有 2x-3x 的加速:

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

如下圖 Table 3 所示,作者基于 ChatGLM3-6B-64K 和 LLaMA-2-7B-64K 進行了相關效果驗證。可以看出,Loss Weighting 在 LongBench-Chat 上能帶來 5%-10% 的提升,但是在其他任務上并不明顯,并且這些方法看著都不是特別魯棒。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

5.6 Packing 負載均衡

智譜 AI 在訓練 GLM4(GLM Long: Scaling Pre-trained Model Contexts to Millions | by ChatGLM | Medium) 模型時進一步解決了 Packing 帶來的負載均衡問題。如下圖所示,雖然都 Packing 到了相同的長度,但是由于其中的 Sample 個數(shù)、長度不同,導致其稀疏度差距很大,計算量也相應差距很大。如果它們在不同的設備上執(zhí)行,同樣會存在計算不均導致的 Bubble 問題。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

如下表所示,我們在上一篇文章中的實驗也能說明這個問題,隨著 Sequence 中 Sample 分布的不同,計算的耗時甚至可能差 10x:

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

如下圖所示,作者發(fā)現(xiàn)訓練中每個 Step 的時間存在較大幅度的波動,這種現(xiàn)象在短文本的 Packing SFT 中并不明顯。這是因為短文本時 Attention 的計算占比并不高,而超長文本訓練中會尤其明顯。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

為了解決上述問題,作者進一步提出了 Sorted Packing。具體來說,作者在構建 Batch 數(shù)據(jù)時考慮了計算復雜度,以確保每個 Batch 中計算復雜度相似,從而減少 Bubble 時間。(PS:這里需要注意,計算復雜度不等于執(zhí)行速度,如果能針對預估計算速度來打包也許能獲得更優(yōu)的效果)

作者指出也使用了 layer accumulation 技術(PS:上述介紹的梯度累加?)來避免排序?qū)е碌钠脝栴}。

六、Amazon Fewer Truncations

6.1 概述

在 [2404.10830] Fewer Truncations Improve Language Modeling 中,作者探討了數(shù)據(jù)截斷問題對模型效果的影響。作者指出,截斷會損害數(shù)據(jù)完整性,從而阻礙模型學習基于完整上下文撰寫邏輯連貫且事實一致的內(nèi)容的能力。

為了解決這個問題,作者提出了 Best-fit Packing,通過長度感知組合優(yōu)化來 Packing,可以完全消除不必要的截斷,同時基本不影響訓練效率。通過文本和代碼預訓練的實驗結果表明,提出的方法可以在閱讀理解上相對提升 4.7%,上下文跟隨提升 16.8%,程序生成提升 9.2%。此外,也可以有效減少 58.3% 的封閉域幻覺問題。

PS:論文中對比實驗時 Baseline 的 Concatenation 方案中有截斷,并且沒有使用 Block Diagonal Mask;而 Best-Fit Packing 使用了 Block Diagonal Mask,且沒有截斷。

6.2 方案

如下圖 Figure 1 所示為本文 Best-Fit Packing 與傳統(tǒng)方案的對比。

  • 右圖所示為傳統(tǒng)方案:可以理解為將所有樣本排成一行,然后按照 Max Sequence Length 進行切割,會導致大量 Sample 被截斷。
  • 左圖為本文的方案:首先將所有 Document 按照 Max Sequence Length 截斷,然后使用 Best-Fit Decreasing 算法來進行組合優(yōu)化(Bin Packing 優(yōu)化)。?

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

如下圖 Table 2 所示,使用本文的 Best-Fit Packing 可以保證只增加不到 0.003% Sequence 數(shù)量,對訓練效率的影響也就微乎其微。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

6.3 結果

如下圖 Table 3 所示,作者訓練了 3 個不同規(guī)模、序列長度的模型:

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

如下圖 Table 4 所示,提出方案訓練出的模型的閱讀理解能力有明顯提升:

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

如下圖 Table 9 所示,幻覺問題也可以明顯降低:

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

如下圖 Table 10 所示,作者也針對 Attention Mask 進行了相關消融實驗,可以看出原始 Concatenation 方案加入 Block Diagonal Mask 后也有一定的提升。可以證明 Attention Mask 和截斷都會對效果有一定影響,不過 Packing(避免截斷) 的影響似乎更大一些。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

七、IBM Packing with FlashAttention2

7.1 概述

在 [2407.09105] Enhancing Training Efficiency Using Packing with Flash Attention 中,作者總結了不同 Packing 策略、Mask 方式及與 FlashAttention 結合的優(yōu)勢。此外,作者也將相關工作提交到了 Huggingface Transformer 中,提供了新的 DataCollatorWithFlattening,具體可以參考:通過打包Flash Attention 來提升Hugging Face 訓練效率。

7.2 相關方案

如下圖 Table 1 所示,作者分析了不同的 Packing 方案以及它們的影響,具體包含如下幾種方式:

  • RandomSampling + Padding:最傳統(tǒng)的隨機采樣,然后 Padding 的方式。存在冗余計算,并且占比很高。
  • GroupByLength+Padding:先排序,然后盡量保證每個 Batch 中的序列長度接近。可以減少 Padding 的占比。
  • RandomSampling + PosID:隨機采樣,但是不 Padding,而是通過 PosID 支持變長序列。幾乎沒有冗余計算,但可能存在明顯的負載不均衡(計算量)。
  • FixedLengthPacking:隨機采樣,隨機 Packing,并且最后一個Sample 可能截斷,保證填滿 Max Sequence Length。沒有區(qū)分不同 Sample,也就是 Causal Mask,沒有冗余計算,并且負載很均衡。
  • FixedLengthPacking + PosID:相比FixedLengthPacking多了 PosID,也就是可以區(qū)分不同 Sample,對應 Block Diagonal Mask。但依然會存在末尾截斷,并且可能負載不均衡。
  • MultiPack + PosID:使 Sequence 中的數(shù)據(jù)盡量接近 Batch 的 Max Sequence Length,降低 Sequence 中的長度不均衡,可以參考GitHub - imoneoi/multipack_sampler: Multipack distributed sampler for fast padding-free training of LLMs。需要對數(shù)據(jù)進行排序。
  • SortedPacking + PosID:通過排序,使同一個 Batch 中的計算復雜度盡量接近。可以盡可能降低計算負載不均衡問題。
  • RandomPacking + PosID:與FixedLengthPacking + PosID相比主要的區(qū)別就是最后一個 Sample不截斷,可能存在部分 Bubble。?

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

7.3 結果

作者通過微調(diào)任務對比了一系列模型使用不同方案的效果和速度,其中 Max Sequence Length(msl)為 4096,每個 GPU 的 Mini-Batch Size 為 4。對應配置如下:

  • no:表示最原始的RandomSampling + Padding,可以作為基線,冗余計算比較多,速度最慢,但是效果有保障。
  • yes:表示FixedLengthPacking,存在交叉污染。
  • flat:表示訓練前 Offline Packing 好,也就是引入了排序,并且使用 PosID 實現(xiàn) Document Level Mask。
  • mini:表示訓練中 mini batch 的 Online Packing,和 Random 類似,并且使用 PosID 實現(xiàn) Document Level Mask。

如下圖所示(PS:這里只是部分結果,全量請參考論文,結論基本一致,可以看出 yes 和 flat 都會對精度(VLoss)有比較大的影響,但速度(Tok/s)確實快了很多,可以達到 Baseline 的 3x-4x;而 mini 可以在保證精度的情況實現(xiàn)實現(xiàn) 2x 左右加速。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

作者使用 FLAN_20k 數(shù)據(jù)集在 Mistral-7B 上針對之前提到的幾種方案做了更多實驗(PS:這里只是部分,gas 表示梯度累加次數(shù)),看起來 Packing 的方案都能獲得不錯的速度,但是精度的影響因素就比較多。但整體來說 RandomPacking + PosID 的方案還不錯,看著似乎也不能有太多的梯度累加。

Sample Packing 綜述:LLM 效果與效率的 Tradeoff-AI.x社區(qū)

八、參考鏈接

  1. ??https://arxiv.org/abs/2107.02027??
  2. ??https://arxiv.org/abs/2310.10638??
  3. ??https://arxiv.org/abs/2401.18058??
  4. ??https://xtuner.readthedocs.io/zh-cn/latest/acceleration/length_grouped_sampler.html#length-grouped-sampler??
  5. ??https://medium.com/@ChatGLM/glm-long-scaling-pre-trained-model-contexts-to-millions-caa3c48dea85??
  6. ??https://arxiv.org/abs/2404.10830??
  7. ??https://arxiv.org/abs/2407.09105??
  8. ??https://huggingface.co/blog/zh/packing-with-FA2??
  9. ??https://github.com/imoneoi/multipack_sampler??

本文轉(zhuǎn)載自 ??AI閑談??,作者: AI閑談

收藏
回復
舉報
回復
相關推薦
精品视频在线播放色网色视频| 午夜成人免费视频| www.久久爱.cn| 伊人久久综合视频| 日产精品一区二区| 日韩欧美国产一区在线观看| 波多野结衣乳巨码无在线| 国产三级电影在线| 国产精品99久| 国产成人精品久久| 激情综合网五月天| 国产中文字幕一区二区三区| 欧美一区二区在线免费播放| 美女av免费在线观看| 日本a级在线| av成人老司机| 亚洲一区二区自拍| 黄色av网站免费| 激情综合自拍| 久久成年人视频| 国产精品三级久久久久三级| 日本高清视频免费观看| 无码粉嫩虎白一线天在线观看 | 国产精品一区二区在线播放| gratisvideos另类灌满| 日本泡妞xxxx免费视频软件| 天天躁夜夜躁狠狠是什么心态| 久久av日韩| 精品magnet| 日本特级黄色大片| 免费在线毛片| 99国产精品久久久久久久久久| 成人丝袜18视频在线观看| 中文字幕区一区二区三| 97人人在线视频| 国产成人精品免费网站| 国产精品视频区| 丰满少妇xoxoxo视频| 久久99高清| 国v精品久久久网| 国产深夜精品福利| 欧美日韩a v| 亚洲综合电影一区二区三区| 久久久亚洲欧洲日产国码aⅴ| 亚洲一区电影在线观看| 成人三级视频| 伊是香蕉大人久久| 美女脱光内衣内裤| 天天躁日日躁狠狠躁欧美| 亚洲成人精品av| 香蕉视频污视频| 综合视频一区| 亚洲精品一区二区三区精华液| 四川一级毛毛片| 精品麻豆剧传媒av国产九九九| 欧美精品一级二级三级| 视频二区在线播放| 六九午夜精品视频| 欧美高清视频一二三区| 亚洲天堂av一区二区三区| 欧美亚洲丝袜| 欧美性猛交xxxx乱大交蜜桃| 亚洲视频综合| 1区2区3区在线视频| 国产免费一区二区三区四区| 亚洲自拍偷拍一区二区三区| 亚洲一品av免费观看| 久久91亚洲人成电影网站| 色欲av无码一区二区三区| 亚洲国产合集| 亚洲欧洲第一视频| 色欲狠狠躁天天躁无码中文字幕| 精品美女久久久| 俺去亚洲欧洲欧美日韩| 18岁成人毛片| 亚洲欧洲一区二区天堂久久| 欧美性一区二区三区| 一区二区乱子伦在线播放| 久久精品国产99久久6| 亚洲综合日韩中文字幕v在线| 亚洲精品无码专区| 99国产精品99久久久久久| 五月天丁香综合久久国产| 日本中文字幕在线视频| 亚洲黄色片在线观看| 欧美日韩一道本| 91福利精品在线观看| 欧美一二三区在线| 亚洲熟女乱综合一区二区三区| 国产一区二区三区网| 久久综合九色九九| 欧美三级韩国三级日本三斤在线观看 | 亚洲免费视频一区二区三区| 亚洲精品日韩综合观看成人91| 国产免费黄色小视频| 成人国产精品| 亚洲成**性毛茸茸| 女人十八毛片嫩草av| 国产精品vip| 国产成人黄色av| 亚洲黄色小说网址| 中文字幕免费观看一区| 97超碰国产精品| 免费成人毛片| 亚洲精品久久久久中文字幕二区| 天天操天天干天天操天天干| 亚洲视频综合| 91夜夜揉人人捏人人添红杏| 日韩a在线观看| 亚洲男女毛片无遮挡| 国产主播在线看| 亚洲精品在线a| 在线观看欧美www| 中日韩黄色大片| 国产剧情在线观看一区二区| 日韩av不卡在线播放| 日韩成人伦理| 91麻豆精品国产91久久久久| a毛片毛片av永久免费| 欧美日一区二区在线观看 | 国产xxxxx视频| 91亚洲无吗| 久久成人精品视频| 伊人久久成人网| 久久精品男人的天堂| 久久久久久免费看| 视频二区欧美| 日韩在线观看免费全集电视剧网站| 欧美h在线观看| av在线一区二区| 欧美高清中文字幕| 亚洲高清在线一区| 久久综合免费视频| 中文字幕一区二区三区波野结| 久久嫩草精品久久久精品一| www.99热这里只有精品| 91精品导航| 欧美国产第一页| 999国产精品视频免费| 中文字幕一区二区5566日韩| 天天视频天天爽| 成人毛片免费看| 国产精品久在线观看| 国产系列在线观看| 色婷婷久久久亚洲一区二区三区| 国产+高潮+白浆+无码| 欧美日韩 国产精品| 亚洲xxxx做受欧美| 在线观看小视频| 日韩欧美自拍偷拍| 久久av高潮av无码av喷吹| 国产精品一区二区三区四区| 神马午夜伦理影院| 久久久91麻豆精品国产一区| 欧美成人自拍视频| 性一交一乱一透一a级| 亚洲精品中文字幕乱码三区 | 日本一区二区三区播放| 久久成人亚洲精品| 亚洲av无码国产综合专区| 亚洲国产美女搞黄色| 日本三级日本三级日本三级极| 亚洲免费精品| 欧洲精品一区色| 国产69精品久久久久按摩| 日韩中文字幕亚洲| www.香蕉视频| 欧美日韩久久久久| av手机在线播放| 激情五月播播久久久精品| 无码毛片aaa在线| 国产精品中文字幕制服诱惑| 欧美亚洲成人网| 91caoporn在线| 欧美一区日本一区韩国一区| 久久精品免费av| 久久先锋影音av鲁色资源网| 天天干天天爽天天射| 在线一区电影| 久久99精品久久久久久青青日本| 三上悠亚激情av一区二区三区| 色偷偷偷综合中文字幕;dd| 国产精品久久久久久免费| 亚洲午夜久久久久久久久电影网| 免费观看av网站| 国内精品国产三级国产a久久| 人人妻人人做人人爽| 免费欧美视频| 亚洲一区亚洲二区| 在线成人av观看| 欧美精品免费播放| 狠狠v欧美ⅴ日韩v亚洲v大胸| 欧美日韩色综合| 日本一级黄色大片| 国产精品丝袜一区| 性色av蜜臀av浪潮av老女人| 日本亚洲欧美天堂免费| 性一交一乱一伧国产女士spa| 你懂的一区二区三区| 91一区二区三区| 澳门av一区二区三区| 久久久亚洲天堂| 亚洲天天影视| 精品中文字幕久久久久久| 国产精品自拍第一页| 亚洲午夜电影网| 欧洲性xxxx| 91色综合久久久久婷婷| 四川一级毛毛片| 日本中文字幕一区二区视频| 人人妻人人添人人爽欧美一区| 亚洲激情久久| 天堂资源在线亚洲视频| 美女网站色精品尤物极品姐弟| 成人免费看吃奶视频网站| 欧美日韩视频免费观看| 97久久精品国产| 天堂av在线电影| 久久精品国产电影| 午夜视频成人| 在线视频免费一区二区| 日韩在线免费看| 日韩电影免费在线观看中文字幕| 国内精品国产成人国产三级| 欧美日韩免费观看一区三区| 蜜臀99久久精品久久久久小说| 亚洲成人精品一区| 久草视频免费在线| 亚洲精品福利视频网站| 女教师淫辱の教室蜜臀av软件| 久久蜜臀中文字幕| 自拍偷拍中文字幕| 99久久精品国产一区| 中文字幕99页| 成人免费观看视频| 国产精品偷伦视频免费观看了| 久久国产精品第一页| 国产又大又黄又粗又爽| 日韩电影在线观看电影| 少妇性饥渴无码a区免费| 国产精品永久| 国产又大又硬又粗| 国产精品色网| 青青在线视频观看| 噜噜噜在线观看免费视频日韩 | 九九热这里有精品| 国产精品吴梦梦| 亚洲精品伊人| 亚洲在线观看视频| av一级亚洲| 精品在线视频一区二区三区| 丝袜连裤袜欧美激情日韩| 久久99精品久久久久子伦| 欧美午夜寂寞| 日本公妇乱淫免费视频一区三区| 国产日产精品一区二区三区四区的观看方式 | 日本亚洲欧洲色| 精品123区| 成人精品视频99在线观看免费| 精品国产一区二区三区2021| 国产精品香蕉视屏| 清纯唯美亚洲经典中文字幕| 欧美日韩精品综合| 日韩久久精品| 9色porny| 首页国产欧美久久| 日本人视频jizz页码69| 国产一区二区三区久久悠悠色av| 国产精品偷伦视频免费观看了| www.亚洲色图| 日韩毛片无码永久免费看| 国产精品成人一区二区艾草| 欧美人妻精品一区二区三区 | 91女人18毛片水多国产| 制服丝袜在线91| 免费观看毛片网站| 亚洲色图欧美制服丝袜另类第一页| 91啦中文在线| 久久久久久国产精品| 周于希免费高清在线观看| 国产女人18毛片水18精品| 超碰成人97| 五月天久久狠狠| 欧美性久久久| 99福利在线观看| 激情综合亚洲精品| 亚洲精品女人久久久| 国产精品美女久久久久久久久 | 国产盗摄在线视频网站| 日本亚洲欧洲色α| 成人短视频软件网站大全app| 国产一区国产精品| 午夜激情久久| 干日本少妇首页| 国产精品小仙女| 午夜时刻免费入口| 亚洲一区二区精品3399| 中文字幕乱码无码人妻系列蜜桃| 日韩精品中文字幕在线一区| 粉嫩av在线播放| 久久久欧美一区二区| 日韩国产一二三区| 欧美精品成人一区二区在线观看| 亚洲美女视频| 成年人在线观看视频免费| 懂色av中文一区二区三区| 国产黄色录像视频| 日韩欧美在线视频日韩欧美在线视频| 精品国产乱码久久久久久蜜臀网站| 亚洲日韩欧美视频| 丁香花在线电影| 成人国产精品一区二区| 欧美日韩国产传媒| 噜噜噜久久亚洲精品国产品麻豆 | 少妇真人直播免费视频| 亚洲精品午夜久久久| 一级黄色片在线观看| 国产亚洲欧洲黄色| 麻豆mv在线看| 国产精品theporn88| 中文字幕人成人乱码| 亚洲综合日韩欧美| 国产欧美一区二区三区网站| 日本三级小视频| 亚洲电影免费观看高清完整版在线观看 | 亚洲日本国产精品| 欧美激情一区二区三区成人 | 蜜桃麻豆www久久国产精品| 欧美精品观看| 免费观看黄网站| 亚洲男人的天堂网| av观看在线免费| 久久香蕉国产线看观看网| 国模私拍国内精品国内av| 手机成人在线| 日韩中文字幕麻豆| 国产传媒国产传媒| 91福利在线导航| av网站在线播放| 国产精品久久久久9999| 欧洲杯半决赛直播| 男人搞女人网站| 中文字幕国产一区二区| 一本一道人人妻人人妻αv| 少妇av一区二区三区| 亚洲18在线| 婷婷视频在线播放| 国产一区二区精品久久| 国内偷拍精品视频| 欧美成人vps| av电影免费在线看| 精品国产乱码久久久久久88av| 亚洲三级视频| 亚洲av无码一区二区二三区| 91久久免费观看| 91caoporm在线视频| 91色视频在线观看| 女主播福利一区| 亚洲美女高潮久久久| 午夜a成v人精品| 黄色影院在线播放| 欧美一区二区三区婷婷月色 | xxav国产精品美女主播| 97人妻人人揉人人躁人人| 欧美日韩播放| 一本色道久久88精品综合| 美女av免费看| 激情文学一区| 日本精品一区二区三区在线播放视频| 尤物视频免费观看| 99亚洲伊人久久精品影院红桃| 一本色道久久综合狠狠躁篇的优点| www.自拍偷拍| 亚洲天天做日日做天天谢日日欢| 国产xxxxxx| 91国产一区在线| 欧美精品一二| 可以看的av网址| 天天影视色香欲综合网老头| 国产精品麻豆一区二区三区| 7777精品伊久久久大香线蕉语言 | 91老师片黄在线观看| 国产精华7777777| 欧美激情精品久久久| 久久99视频| 国产男女无遮挡猛进猛出| 调教+趴+乳夹+国产+精品| 在线免费观看黄色av| 国产66精品久久久久999小说| 久久亚洲综合| 久久久91视频| 一区二区在线视频| 综合成人在线| 欧美特级aaa| 疯狂欧美牲乱大交777| 看黄网站在线| 欧美亚州在线观看| 国产高清无密码一区二区三区| 不卡av电影在线| 欧美极品在线播放|