精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

不是大模型全局微調不起,只是LoRA更有性價比,教程已經準備好了

人工智能 新聞
這是作者 Sebastian Raschka 經過數百次實驗得出的經驗,值得一讀。

增加數據量和模型的參數量是公認的提升神經網絡性能最直接的方法。目前主流的大模型的參數量已擴展至千億級別,「大模型」越來越大的趨勢還將愈演愈烈。

這種趨勢帶來了多方面的算力挑戰。想要微調參數量達千億級別的大語言模型,不僅訓練時間長,還需占用大量高性能的內存資源。

為了讓大模型微調的成本「打下來」,微軟的研究人員開發了低秩自適應(LoRA)技術。LoRA 的精妙之處在于,它相當于在原有大模型的基礎上增加了一個可拆卸的插件,模型主體保持不變。LoRA 隨插隨用,輕巧方便。

對于高效微調出一個定制版的大語言模型來說,LoRA 是最為廣泛運用的方法之一,同時也是最有效的方法之一。

如果你對開源 LLM 感興趣,LoRA 是值得學習的基本技術,不容錯過。

來自威斯康星大學麥迪遜分校的數據科學教授 Sebastian Raschka 也對 LoRA 進行了全方位探索。在機器學習領域探索多年,他非常熱衷于拆解復雜的技術概念。在經歷數百次實驗后,Sebastian Raschka 總結出了使用 LoRA 微調大模型的經驗,并發布在 Ahead of AI 雜志上。

在保留作者原意的基礎上,機器之心對這篇文章進行了編譯:

上個月,我分享了一篇有關 LoRA 實驗的文章,主要基于我和同事在 Lightning AI 共同維護的開源 Lit-GPT 庫,討論了我從實驗中得出的主要經驗和教訓。此外,我還將解答一些與 LoRA 技術相關的常見問題。如果你對于微調定制化的大語言模型感興趣,我希望這些見解能夠幫助你快速起步。

簡而言之,我在這篇文章中討論的主要要點包含:

  1. 雖然 LLM 訓練(或者說在 GPU 上訓練出的所有模型)有著不可避免的隨機性,但多 lun 訓練的結果仍非常一致。
  2. 如果受 GPU 內存的限制,QLoRA 提供了一種高性價比的折衷方案。它以運行時間增長 39% 的代價,節省了 33% 的內存。
  3. 在微調 LLM 時,優化器的選擇不是影響結果的主要因素。無論是 AdamW、具有調度器 scheduler 的 SGD ,還是具有 scheduler 的 AdamW,對結果的影響都微乎其微。
  4. 雖然 Adam 經常被認為是需要大量內存的優化器,因為它為每個模型參數引入了兩個新參數,但這并不會顯著影響 LLM 的峰值內存需求。這是因為大部分內存將被分配用于大型矩陣的乘法,而不是用來保留額外的參數。
  5. 對于靜態數據集,像多輪訓練中多次迭代可能效果不佳。這通常會導致過擬和,使訓練結果惡化。
  6. 如果要結合 LoRA,確保它在所有層上應用,而不僅僅是 Key 和 Value 矩陣中,這樣才能最大限度地提升模型的性能。
  7. 調整 LoRA rank 和選擇合適的 α 值至關重要。提供一個小技巧,試試把 α 值設置成 rank 值的兩倍。
  8. 14GB RAM 的單個 GPU 能夠在幾個小時內高效地微調參數規模達 70 億的大模型。對于靜態數據集,想要讓 LLM 強化成「全能選手」,在所有基線任務中都表現優異是不可能完成的。想要解決這個問題需要多樣化的數據源,或者使用 LoRA 以外的技術。

另外,我將回答與 LoRA 有關的十個常見問題。

如果讀者有興趣,我會再寫一篇對 LoRA 更全面的介紹,包含從頭開始實現 LoRA 的詳細代碼。今天本篇文章主要分享的是 LoRA 使用中的關鍵問題。在正式開始之前,我們先來補充一點基礎知識。

LoRA 簡介

由于 GPU 內存的限制,在訓練過程中更新模型權重成本高昂。

例如,假設我們有一個 7B 參數的語言模型,用一個權重矩陣 W 表示。在反向傳播期間,模型需要學習一個 ΔW 矩陣,旨在更新原始權重,讓損失函數值最小。

權重更新如下:W_updated = W + ΔW。

如果權重矩陣 W 包含 7B 個參數,則權重更新矩陣 ΔW 也包含 7B 個參數,計算矩陣 ΔW 非常耗費計算和內存。

由 Edward Hu 等人提出的 LoRA 將權重變化的部分 ΔW 分解為低秩表示。確切地說,它不需要顯示計算 ΔW。相反,LoRA 在訓練期間學習 ΔW 的分解表示,如下圖所示,這就是 LoRA 節省計算資源的奧秘。

如上所示,ΔW 的分解意味著我們需要用兩個較小的 LoRA 矩陣 A 和 B 來表示較大的矩陣 ΔW。如果 A 的行數與 ΔW 相同,B 的列數與 ΔW 相同,我們可以將以上的分解記為 ΔW = AB。(AB 是矩陣 A 和 B 之間的矩陣乘法結果。)

這種方法節省了多少內存呢?還需要取決于秩 r,秩 r 是一個超參數。例如,如果 ΔW 有 10,000 行和 20,000 列,則需存儲 200,000,000 個參數。如果我們選擇 r=8 的 A 和 B,則 A 有 10,000 行和 8 列,B 有 8 行和 20,000 列,即 10,000×8 + 8×20,000 = 240,000 個參數,比 200,000,000 個參數少約 830 倍。

當然,A 和 B 無法捕捉到 ΔW 涵蓋的所有信息,但這是 LoRA 的設計所決定的。在使用 LoRA 時,我們假設模型 W 是一個具有全秩的大矩陣,以收集預訓練數據集中的所有知識。當我們微調 LLM 時,不需要更新所有權重,只需要更新比 ΔW 更少的權重來捕捉核心信息,低秩更新就是這么通過 AB 矩陣實現的。

LoRA 的一致性

雖然 LLM,或者說在 GPU 上被訓練的模型的隨機性不可避免,但是采用 LoRA 進行多次實驗,LLM 最終的基準結果在不同測試集中都表現出了驚人的一致性。對于進行其他比較研究,這是一個很好的基礎。

圖片

請注意,這些結果是在默認設置下,使用較小的值 r=8 獲得的。實驗細節可以在我的另一篇文章中找到。

文章鏈接:https://lightning.ai/pages/community/lora-insights/

QLoRA 計算 - 內存權衡

QLoRA 是由 Tim Dettmers 等人提出的量化 LoRA 的縮寫。QLoRA 是一種在微調過程中進一步減少內存占用的技術。在反向傳播過程中,QLoRA 將預訓練的權重量化為 4-bit,并使用分頁優化器來處理內存峰值。

我發現使用 LoRA 時可以節省 33% 的 GPU 內存。然而,由于 QLoRA 中預訓練模型權重的額外量化和去量化,訓練時間增加了 39%。

默認 LoRA 具有 16 bit 浮點精度:

  • 訓練時長:1.85 小時
  • 內存占用:21.33GB

具有 4 位正常浮點數的 QLoRA

  • 訓練時長為:2.79h
  • 內存占用為:14.18GB

此外,我發現模型的性能幾乎不受影響,這說明 QLoRA 可以作為 LoRA 訓練的替代方案,更進一步解決常見 GPU 內存瓶頸問題。

學習率調度器

學習率調度器會在整個訓練過程中降低學習率,從而優化模型的收斂程度,避免 loss 值過大。

余弦退火(Cosine annealing)是一種遵循余弦曲線調整學習率的調度器。它以較高的學習率作為起點,然后平滑下降,以類似余弦的模式逐漸接近 0。一種常見的余弦退火變體是半周期變體,在訓練過程中只完成半個余弦周期,如下圖所示。

在實驗中,我在 LoRA 微調腳本中添加了一個余弦退火調度器,它顯著地提高了 SGD 的性能。但是它對 Adam 和 AdamW 優化器的增益較小,添加之后幾乎沒有什么變化。

圖片

在下一節中,將討論 SGD 相對于 Adam 的潛在優勢。

Adam vs SGD

Adam 和 AdamW 優化器在深度學習中很受歡迎。如果我們正在訓練一個 7B 參數的模型,那使用 Adam 就能夠在訓練的過程中跟蹤額外的 14B 參數,相當于在其他條件不變的情況下,模型的參數量翻了一番。

SGD 不能在訓練過程中跟蹤附加的參數,所以相比于 Adam,SGD 在峰值內存方面有什么優勢呢?

在我的實驗中,使用 AdamW 和 LoRA(默認設置 r=8)訓練一個 7B 參數的 Llama 2 模型需要 14.18 GB 的 GPU 內存。用 SGD 訓練同一模型需要 14.15 GB 的 GPU 內存。相比于 AdamW,SGD 只節省了 0.03 GB 的內存,作用微乎其微。

為什么只節省了這么一點內存呢?這是因為使用 LoRA 時,LoRA 已經大大降低了模型的參數量。例如,如果 r=8,在 7B 的 Llama 2 模型的所有 6,738,415,616 個參數,只有 4,194,304 個可訓練的 LoRA 參數。

只看數字,4,194,304 個參數可能還是很多,但是其實這么多參數僅占用 4,194,304 × 2 × 16 位 = 134.22 兆位 = 16.78 兆字節。(我們觀察到了存在 0.03 Gb = 30 Mb 的差異,這是由于在存儲和復制優化器狀態時,存在額外的開銷。) 2 代表 Adam 存儲的額外參數的數量,而 16 位指的是模型權重的默認精度。

圖片

如果我們把 LoRA 矩陣的 r 從 8 拓展到 256,那么 SGD 相比 AdamW 的優勢就會顯現:


  • 使用 AdamW 將占用內存 17.86 GB
  • 使用 SGD 將占用 14.46 GB

因此,當矩陣規模擴大時,SGD 節省出的內存將發揮重要作用。由于 SGD 不需要存儲額外的優化器參數,因此在處理大模型時,SGD 相比 Adam 等其他優化器可以節省更多的內存。這對于內存有限的訓練任務來說是非常重要的優勢。

迭代訓練

在傳統的深度學習中,我們經常對訓練集進行多次迭代,每次迭代稱為一個 epoch。例如,在訓練卷積神經網絡時,通常會運行數百個 epoch。那么,多輪迭代訓練對于指令微調也有效果嗎?

答案是否定的,當我將數據量為 50k 的 Alpaca 示例指令微調數據集的迭代次數增加一倍,模型的性能下降了。

因此,我得出的結論是,多輪迭代可能不利于指令微調。我在 1k 的示例 LIMA 指令微調集中也觀察到了同樣的狀況。模型性能的下降可能是由過擬合造成的,具體原因仍需進一步探索。

在更多層中使用 LoRA

下表顯示了 LoRA 僅對選定矩陣(即每個 Transformer 中的 Key 和 Value 矩陣)起效的實驗。此外,我們還可以在查詢權重矩陣、投影層、多頭注意力模塊之間的其他線性層以及輸出層啟用 LoRA。

如果我們在這些附加層上加入 LoRA,那么對于 7B 的 Llama 2 模型,可訓練參數的數量將從 4,194,304 增加到 20,277,248,增加五倍。在更多層應用 LoRA,能夠顯著提高模型性能,但也對內存空間的需求量更高。

此外,我只對(1)僅啟用查詢和權重矩陣的 LoRA,(2)啟用所有層的 LoRA,這兩種設置進行了探索,在更多層的組合中使用 LoRA 會產生何種效果,值得深入研究。如果能知道在投影層使用 LoRA 對訓練結果是否有益,那么我們就可以更好地優化模型,并提高其性能。

平衡 LoRA 超參數:R 和 Alpha

正如提出 LoRA 的論文中所述,LoRA 引入了一個額外的擴展系數。這個系數用于在前向傳播過程中將 LoRA 權重應用于預訓練之中。擴展涉及之前討論過的秩參數 r,以及另一個超參數 α(alpha),其應用如下:

圖片

正如上圖中的公式所示,LoRA 權重的值越大,影響就越大。

在之前的實驗中,我采用的參數是 r=8,alpha=16,這導致了 2 倍的擴展。在用 LoRA 為大模型減重時,將 alpha 設置為 r 的兩倍是一種常見的經驗法則。但我很好奇這條規則對于較大的 r 值是否仍然適用。

我還嘗試了 r=32, r=64, r=128, and r=512,但為了清晰起見省略了此過程,不過 r=256 時,的確效果最佳。事實上,選擇 alpha=2r 確實提供了最優結果。

在單個 GPU 上訓練 7B 參數模型

LoRA 允許我們在單個 GPU 上微調 7B 參數規模的大語言模型。在這個特定情況下,采用最佳設置過的 QLoRA(r=256,alpha=512),使用 AdamW 優化器處理 17.86 GB(50k 訓練樣例)的數據在 A100 上大約需要 3 個小時(此處為 Alpaca 數據集)。

圖片

在本文的其余部分中,我將回答你可能遇到的其他問題。

10 個問題

Q1: 數據集有多重要?

數據集至關重要。我使用的是包含 50k 訓練示例的 Alpaca 數據集。我選擇 Alpaca 是因為它非常流行。由于本文篇幅已經很長,所以在更多數據集上的測試結果本文暫不討論。

Alpaca 是一個合成數據集,按照如今的標準,它可以已經有點落伍了。數據質量非常關鍵。例如,在六月份,我在一篇文章中討論了 LIMA 數據集,這是一個僅由一千個示例組成的精選數據集。

文章鏈接:https://magazine.sebastianraschka.com/p/ahead-of-ai-9-llm-tuning-and-dataset

正如提出 LIMA 的論文的標題所說:對于對齊來說,少即是多,雖然 LIMA 的數據量少于 Alpaca,但根據 LIMA 微調出的 65B Llama 模型優于 Alpaca 的結果。采用同樣的配置 (r=256, alpha=512) ,在 LIMA 上,我獲得了與數據量級是其 50 倍大的 Alpaca 類似的模型表現。

Q2:LoRA 是否適用于域自適應?

對于這個問題,我目前還沒有一個明確的答案。根據經驗,知識通常是從預訓練數據集中提取的。通常情況下,語言模型通常會從預訓練數據集中吸收知識,而指令微調的作用主要是幫助 LLM 更好地遵循指令。

既然算力緊張是限制大語言模型訓練的關鍵因素,LoRA 也可以被用于在特定領域的專用數據集,進一步預訓練現有的預訓練 LLM。

另外,值得注意的是,我的實驗中包括兩個算術基準測試。在這兩個基準測試中,使用 LoRA 進行微調的模型表現明顯比預訓練的基礎模型差。我推測這是由于 Alpaca 數據集沒有缺少相應的算術示例,導致模型「忘記了」算術知識。我們還需要進一步的研究來確定模型是「忘記」了算術知識,還是它對相應指令停止了響應。然而,在這里可以得出一條結論:「在微調 LLM 時,讓數據集包含我們所關心的每個任務的示例是一個好主意。」

Q3: 如何確定最佳 r 值?

對于這個問題,目前我還沒有比較好的解決方法。最佳 r 值的確定,需要根據每個 LLM 和每個數據集的具體情況,具體問題具體分析。我推測 r 值過大將導致過擬和,而 r 值過小,模型可能無法捕捉數據集中多樣化的任務。我懷疑數據集中的任務類型越多,所需 r 值就越大。例如,如果我僅需要模型執行基本的兩位數算術運算,那么一個很小的 r 值可能就已經滿足需要了。然而,這只是我的假設,需要進一步的研究來驗證。

Q4:LoRA 是否需要為所有層啟用?

我只對(1)僅啟用查詢和權重矩陣的 LoRA,(2)啟用所有層的 LoRA,這兩種設置進行了探索。在更多層的組合中使用 LoRA 會產生何種效果,值得深入研究。如果能知道在投影層使用 LoRA 對訓練結果是否有益,那么我們就可以更好地優化模型,并提高其性能。

如果我們考慮各種設置 (lora_query, lora_key, lora_value, lora_projection, lora_mlp, lora_head),就有 64 種組合可供探索。

Q5: 如何避免過擬和?

一般來說,較大的 r 更可能導致過擬合,因為 r 決定著可訓練參數的數量。如果模型存在過擬合問題,首先要考慮降低 r 值或增加數據集大小。此外,可以嘗試增加 AdamW 或 SGD 優化器的權重衰減率,或者增加 LoRA 層的 dropout 值。

我在實驗中沒有探索過 LoRA 的 dropout 參數(我使用了 0.05 的固定 dropout 率),LoRA 的 dropout 參數也是一個有研究價值的問題。

Q6: 還有其他優化器作為選擇嗎?

今年五月發布的 Sophia 值得嘗試,Sophia 是一種用于語言模型預訓練的可拓展的隨機二階優化器。根據以下這篇論文:《Sophia: A Scalable Stochastic Second-order Optimizer for Language Model Pre-training》,與 Adam 相比,Sophia 的速度快兩倍,還能獲得更優的性能。簡而言之,Sophia 和 Adam 一樣,都通過梯度曲率而不是梯度方差來實現歸一化。

論文鏈接:https://arxiv.org/abs/2305.14342

Q7: 還有影響內存使用的其他因素嗎?

除了精度和量化設置、模型大小、batch size 和可訓練 LoRA 參數數量之外,數據集也會影響內存使用。

 Llama 2 的 塊大小為 4048 個 token,這代表著 Llama 可以一次處理包含 4048 個 token 的序列。如果對后來的 token 加上掩碼,訓練序列就將變短,可以節省大量的內存。例如 Alpaca 數據集相對較小,最長的序列長度為 1304 個 token。

當我嘗試使用最長序列長度達 2048 個 token 的其他數據集時,內存使用量會從 17.86 GB 飆升至 26.96 GB。

Q8:與全微調、RLHF 相比,LoRA 有哪些優勢?

我沒有進行 RLHF 實驗,但我嘗試了全微調。全微調至少需要 2 個 GPU,每個 GPU 占用 36.66 GB,花費了 3.5 個小時才完成微調。然而,基線測試結果不好,可能是過擬合或次超優參數導致的。

Q9:LoRA 的權重可以組合嗎?

答案是肯定的。在訓練期間,我們將 LoRA 權重和預訓練權重分開,并在每次前向傳播時加入。

假設在現實世界中,存在一個具有多組 LoRA 權重的應用程序,每組權重對應著一個應用的用戶,那么單獨儲存這些權重,用來節省磁盤空間是很有意義的。同時,在訓練后也可以合并預訓練權重與 LoRA 權重,以創建一個單一模型。這樣,我們就不必在每次前向傳遞中應用 LoRA 權重。

weight += (lora_B @ lora_A) * scaling

我們可以采用如上所示的方法更新權重,并保存合并的權重。

同樣,我們可以繼續添加很多個 LoRA 權重集:

weight += (lora_B_set1 @ lora_A_set1) * scaling_set1
weight += (lora_B_set2 @ lora_A_set2) * scaling_set2
weight += (lora_B_set3 @ lora_A_set3) * scaling_set3
...

我還沒有做實驗來評估這種方法,但通過 Lit-GPT 中提供的 scripts/merge_lora.py 腳本已經可以實現。

腳本鏈接:https://github.com/Lightning-AI/lit-gpt/blob/main/scripts/merge_lora.py

Q10:逐層最優秩自適應表現如何?

為了簡單起見,在深度神經網絡中我們通常將為每層設置相同的學習率。學習率是我們需要優化的超參數,更進一步,我們可以為每一層選擇不同的學習率(在 PyTorch 中,這不是非常復雜的事)。

然而在實踐中很少這樣做,因為這種方法增加了額外的成本,并且在深度神經網絡中還有很多其他參數可調。類似于為不同層選擇不同的學習率,我們也可以為不同層選擇不同的 LoRA r 值。我還沒有動手嘗試,但有一篇詳細介紹這種方法的文獻:《LLM Optimization: Layer-wise Optimal Rank Adaptation (LORA)》。理論上,這種方法聽起來很有希望,為優化超參數提供了大量的拓展空間。

論文鏈接:https://medium.com/@tom_21755/llm-optimization-layer-wise-optimal-rank-adaptation-lora-1444dfbc8e6a

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-01-16 09:00:00

人工智能智能巡檢物聯網

2024-05-17 12:03:55

2011-01-11 15:06:02

Linux安裝準備

2011-05-25 10:15:47

開源

2016-07-08 15:54:00

創業

2014-06-04 12:50:43

轉型IT轉型

2019-05-20 10:28:29

IIoT邊緣計算物聯網設備

2016-05-31 16:50:33

2010-08-25 15:49:04

面試

2011-05-25 17:08:29

ibmdwLinux

2016-11-01 13:31:27

2017大數據

2015-10-15 17:11:47

賽思股份

2017-08-08 09:08:03

企業對象存儲

2016-11-21 17:39:08

云計算

2024-08-08 12:41:22

2013-06-05 15:39:21

大協同

2018-11-26 12:40:47

AI數據科技

2015-01-07 10:45:05

Dockerkubernetescontain

2019-04-18 15:32:45

Serverless騰訊云TVP

2018-10-11 17:43:15

人臉識別人工智能AI
點贊
收藏

51CTO技術棧公眾號

三级在线免费看| 91日本在线观看| 国产精品无码一区二区三区免费 | 一二三区精品视频| 久久久精彩视频| 91高潮大合集爽到抽搐| 黄色成人在线网站| 亚洲三级 欧美三级| 深爱五月综合网| 中文字幕在线视频网站| ...xxx性欧美| 国内精品久久国产| 一区二区www| 国产精品入口| 欧美成年人视频网站| 亚洲成人网在线播放| 日本久久伊人| 欧美性一二三区| 人妻无码久久一区二区三区免费| 成人免费在线电影| 国产+成+人+亚洲欧洲自线| 国产精品久久久久久久久久新婚| 久久亚洲AV无码| 欧美成人精品一区二区三区在线看| 亚洲大胆人体在线| 在线一区二区不卡| 精品日韩视频| 欧美日韩中文字幕| 久久这里只有精品8| 欧美jizz18hd性欧美| 久久亚洲综合色一区二区三区| 97免费高清电视剧观看| 97成人免费视频| 日日夜夜免费精品| 欧美综合国产精品久久丁香| 黄页网站免费观看| 欧美wwwww| 在线日韩中文字幕| 亚洲AV无码国产成人久久| 国产精品x8x8一区二区| 欧美一区二区国产| 一级网站在线观看| crdy在线观看欧美| 91精品国产综合久久久蜜臀图片 | 激情图片小说一区| 国产精品白嫩美女在线观看| 日韩三级一区二区三区| 精品成人久久| 97国产一区二区精品久久呦| www.xxxx日本| 欧美~级网站不卡| 美女黄色丝袜一区| 东方av正在进入| 一级毛片免费高清中文字幕久久网| 综合久久五月天| 久久一级免费视频| 国产精品二区不卡| 久久国产天堂福利天堂| 久草视频免费在线播放| 韩日成人av| 性亚洲最疯狂xxxx高清| 国产成人免费观看视频| 国产亚洲毛片| 国产成人一区二区| 波多野结衣mp4| 久久精品久久99精品久久| 成人精品一区二区三区电影黑人| 91午夜交换视频| 国产成人免费在线观看| 国模一区二区三区私拍视频| 欧美香蕉爽爽人人爽| 国产日韩精品一区| 精品少妇人妻av一区二区| 国产黄大片在线观看画质优化| 亚洲免费观看高清完整版在线观看 | 99国产精品久久久久久| 一区三区自拍| 日韩av最新在线| 天天躁夜夜躁狠狠是什么心态| 日本不卡免费一区| 美女av一区二区| 亚洲第一精品在线观看 | 欧美在线www| 在线视频1卡二卡三卡| 韩国v欧美v亚洲v日本v| 精品视频高清无人区区二区三区| 免费成人av电影| 国产精品不卡在线观看| 国产精品69久久久| 欧亚一区二区| 日韩精品中文字幕在线不卡尤物| 午夜久久久久久久| 99久久精品费精品国产| 97精品国产aⅴ7777| 日韩欧美一级大片| 成人综合婷婷国产精品久久蜜臀| 欧美美乳视频网站在线观看| 麻豆网站在线免费观看| 五月婷婷综合在线| 日本中文字幕观看| 天堂av一区二区三区在线播放 | 欧美电影免费提供在线观看| 毛茸茸多毛bbb毛多视频| 99精品在线| 日本国产欧美一区二区三区| 国产乱子伦精品无码码专区| 久久综合999| 欧美一级爱爱视频| 国产另类xxxxhd高清| 国产视频久久| 亚洲一区二区在线免费看| 国产精品无码人妻一区二区在线| 欧美与亚洲与日本直播| 亚洲第一精品福利| 蜜臀久久精品久久久用户群体| 欧美一级专区| 国产原创精品| 福利在线视频网站| 欧美午夜一区二区三区| 欧美精品欧美极品欧美激情| 午夜欧美视频| 成人性生交大片免费看小说| 国产在线观看高清视频| 性久久久久久久久久久久| 久久成年人网站| 精品国产欧美日韩| 欧美亚洲国产精品| 欧美视频久久久| 亚洲激情图片小说视频| 9l视频白拍9色9l视频| 亚洲系列另类av| 国模视频一区二区| 午夜精品久久久久久久99热黄桃 | 好吊色视频在线观看| 捆绑变态av一区二区三区| 日产精品一线二线三线芒果| 天堂电影一区| 日韩精品电影网| 国产精品成人久久| 成人综合激情网| 免费高清一区二区三区| gogo人体一区| 欧美激情视频在线观看| 国产aⅴ爽av久久久久成人| 国产精品国产三级国产aⅴ中文 | 欧美性大战久久久久xxx| 91蝌蚪精品视频| 成人午夜又粗又硬又大| 国产日韩欧美自拍| 欧美jizzhd69巨大| 欧美日韩成人综合| 一本一本久久a久久| 卡一卡二国产精品| 伊人久久大香线蕉成人综合网| 男女啪啪999亚洲精品| 色婷婷综合成人av| 国产日韩欧美一区二区东京热| 综合网在线视频| 91热视频在线观看| 中文精品久久| 国产精品露出视频| www.色在线| 亚洲精品视频久久| 国产精品久久久久久人| 久久精品亚洲国产奇米99| 最近免费中文字幕中文高清百度| 国产成人一区| 国产美女精品视频| 欧美日韩xx| 欧美sm美女调教| 日韩欧美国产亚洲| 欧美激情在线一区二区| 不卡中文字幕在线观看| 欧美日韩综合| 女同一区二区| 日韩精品一级毛片在线播放| 精品中文字幕在线2019| 天天操天天干天天插| 色婷婷一区二区三区四区| 国产精品视频看看| 粉嫩一区二区三区在线看| www国产精品内射老熟女| 国产探花在线精品| 95av在线视频| 亚洲欧美电影| 久久中文字幕在线| 亚洲av成人精品日韩在线播放| 91久久国产最好的精华液| 丝袜美腿小色网| 久久婷婷国产综合精品青草| 小明看看成人免费视频| 亚洲精品1234| 一区二区三区视频在线播放| 美女视频亚洲色图| 国产日韩精品在线播放| 高清电影在线观看免费| 一区二区三欧美| 99久久精品日本一区二区免费| 欧美亚洲黄色| 亚洲国产免费av| 在线观看国产成人| 欧美日韩国产一区二区| 青青青视频在线免费观看| 成人av电影在线| 免费黄频在线观看| 爽好多水快深点欧美视频| 日本男女交配视频| 色喇叭免费久久综合网| 九九九九九九精品| 欧美精品影院| 国产精品日韩专区| 毛片无码国产| 欧美激情精品久久久久| av网页在线| 国产视频久久久久| 蜜桃视频久久一区免费观看入口| 欧美日韩一区二区在线观看 | 伊人蜜桃色噜噜激情综合| 日韩在线电影一区| 亚洲激情77| 国内精品久久久久久久果冻传媒| 在线视频成人| 国产精品欧美激情| 欧美舌奴丨vk视频| 性欧美办公室18xxxxhd| 色呦呦在线视频| 久久亚洲精品一区二区| 日韩黄色影院| 中文字幕精品久久| 精品一二三区视频| 日韩电影大片中文字幕| 久操手机在线视频| 97在线超碰| 欧美乱大交xxxxx| 免费成人黄色| 色偷偷综合社区| 日本视频在线观看| 中文国产成人精品久久一| 成人免费黄色网页| 国产亚洲一区二区在线| 精华区一区二区三区| 亚洲精品一区二区在线| 五月天激情婷婷| 亚洲精美色品网站| 亚洲色图欧美视频| 亚洲免费小视频| 国产在线视频网站| 国产一区二区三区毛片| xxxxx日韩| 色先锋资源久久综合5566| 在线观看av黄网站永久| 日韩中文字幕网| 欧美69xxx| 久久久国产影院| 在线三级电影| 欧美高清在线视频观看不卡| 日本性爱视频在线观看| 久久久视频免费观看| 国产美女高潮在线观看| 欧美综合在线第二页| 婷婷激情一区| 成人黄色av播放免费| 人人爱人人干婷婷丁香亚洲| 国产精品毛片va一区二区三区| 农村少妇一区二区三区四区五区| 国产综合欧美在线看| 久久成人高清| 免费观看中文字幕| 国产精品二区影院| 337p粉嫩大胆噜噜噜鲁| 奇米精品一区二区三区在线观看| 亚洲成人福利在线| 日本免费在线观看视频| 亚洲一区二区三区爽爽爽爽爽| 全部毛片永久免费看| 欧美性受xxxx| 亚洲黄色a级片| 亚洲欧美一区二区三区情侣bbw| 成人网视频在线观看| 欧美日韩不卡合集视频| 免费成人在线电影| 国产日韩在线视频| 在线视频亚洲欧美中文| 日本婷婷久久久久久久久一区二区 | 欧美卡1卡2卡| 色呦呦视频在线| 中文字幕在线成人| 日本高清成人vr专区| 日韩av日韩在线观看| 久久久久久亚洲精品美女| 精品一区久久| 午夜欧美在线| 成人一级片网站| 国产精品中文字幕一区二区三区| 国产乱了高清露脸对白| 亚洲欧美在线视频观看| 九一国产在线观看| 56国语精品自产拍在线观看| 天天色棕合合合合合合合| 深夜福利一区二区| 久草在线中文最新视频| 91在线视频导航| 国产精品一区二区av日韩在线| 欧美人与动牲交xxxxbbbb| 日韩精彩视频在线观看| 免费看黄色片的网站| 国产精品夫妻自拍| 亚洲婷婷综合网| 精品欧美乱码久久久久久1区2区| aiai在线| 日韩av片电影专区| 女同另类激情重口| 日本福利视频网站| 久久66热re国产| 手机看片福利视频| 天天色 色综合| 亚洲国产福利视频| 久热精品视频在线观看| 福利一区二区| 欧美日韩一区在线视频| 亚洲另类黄色| 国产chinese中国hdxxxx| 最新不卡av在线| 一区二区三区亚洲视频| 一区二区成人av| 国产综合av| 欧美午夜精品理论片a级大开眼界 欧美午夜精品久久久久免费视 | 国产精品7777777| 精品乱人伦一区二区三区| 国产网友自拍视频导航网站在线观看| 日韩免费在线看| 九九视频精品全部免费播放| www插插插无码视频网站| 国产中文字幕一区| 亚洲色偷偷综合亚洲av伊人| 欧美亚洲日本一区| 超碰免费在线| 国产精品久久在线观看| 欧美日韩第一| 欧美三级理论片| 成人一区视频| 国内伊人久久久久久网站视频| 国产高清视频一区二区| 在线观看成人av电影| 久久成人免费电影| 免费中文字幕日韩| 欧美疯狂性受xxxxx喷水图片| 午夜在线小视频| 91精品久久久久久久久久久久久 | 亚洲天堂精品在线| 欧美大片免费高清观看| 欧美日韩亚洲免费| 日本在线不卡视频一二三区| 永久免费av无码网站性色av| 欧美日韩中文字幕一区二区| 在线观看av的网站| 91免费视频网站| 国产综合自拍| 屁屁影院国产第一页| 色综合天天综合网天天狠天天| 免费资源在线观看| 国产精品自拍小视频| 91精品精品| 小毛片在线观看| 色婷婷亚洲综合| 免费网站看v片在线a| 99视频免费观看| 噜噜噜在线观看免费视频日韩| 亚洲精品午夜视频| 欧美久久一区二区| 精灵使的剑舞无删减版在线观看| 国产亚洲福利社区| 老司机免费视频久久| 亚洲区一区二区三| 欧美精品一区二区在线播放| 中文字幕在线官网| 免费观看中文字幕| 91免费视频观看| 亚洲一区二区人妻| 欧美激情亚洲综合一区| 禁断一区二区三区在线| 天天做天天干天天操| 香蕉久久一区二区不卡无毒影院 | 亚洲天堂免费看| 欧美视频一二区| 国产精品久久视频| 午夜激情一区| 色一情一交一乱一区二区三区| 3d动漫精品啪啪一区二区竹菊| 国产美女高潮在线观看| 曰韩不卡视频| 91丨porny丨在线| 国产剧情久久久| 国产成人精品av在线| 亚洲性图久久| 国产黄色片在线| 日韩成人高清在线| 欧美国产亚洲精品| 午夜激情福利在线| 午夜精品久久久久影视|