精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

REGMIX: 作為語言模型預訓練的回歸數據配比 原創

發布于 2024-8-16 07:30
瀏覽
0收藏


REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

一、結論寫在前面

論文標題:RegMix: Data Mixture as Regression for Language Model Pre-training

論文鏈接:??https://arxiv.org/pdf/2407.01492??

代碼:??https://github.com/sail-sg/regmix??

大型語言模型預訓練中的數據配比對性能有顯著影響,但如何確定有效的配比仍不明確。論文提出REGMIX,通過將數據配比問題形式化為回歸任務,自動識別高性能的數據配比。REGMIX包括使用多種數據配比訓練一組小型模型,并擬合一個回歸模型來預測給定各自配比的模型的性能。利用擬合的回歸模型,論文模擬排名最高的配比,并使用它來訓練一個大規模模型,其計算量是之前的幾個數量級。

為了實證驗證REGMIX,論文訓練了512個具有1M參數的模型,用于1B個不同配比的token,以擬合回歸模型并找到最佳配比。使用這種配比,論文訓練了一個1B參數的模型,用于25B個token(即比之前大1000倍,長25倍),論文發現它在64個候選的1B參數模型中表現最佳,這些模型使用了其他配比。

為了驗證REGMIX,論文使用不同的數據配比訓練了1M和1B參數的模型。通過在1Btoken上訓練512個1M參數的模型,論文發現REGMIX優化的數據配比在64個1B參數模型(比1M參數大1000倍)和訓練時間長25倍(25Btoken)的模型中表現更優,如圖1所示。此外,使用REGMIX優化的數據配比產生的模型性能優于人工選擇,并且與旗艦DoReMi方法[64]的性能相當,盡管它需要的總計算量更少,并允許并行訓練。論文還發現:(1) 數據配比顯著影響下游性能,導致單任務性能差異高達14.6%;(2) 通用網絡語料庫(如CommonCrawl),而非維基百科,與下游任務性能提升的正相關性最強;(3) 領域間的交互復雜且常常與直覺相悖,突顯了像REGMIX這樣的自動化方法的必要性;(4) 數據配比效應超越了縮放定律,REGMIX通過綜合考慮所有領域來捕捉其復雜性。    

二、論文的簡單介紹

2.1 論文的背景

大規模公開數據集的可用性已成為創建大型語言模型(LLMs)的關鍵因素。大多數數據可在互聯網上獲取,包括學術論文(例如arXiv)、書籍(例如古騰堡計劃)和代碼配比(例如GitHub)。在創建首批LLMs之一,GPT-3 時,作者已經認識到選擇最佳訓練數據的重要性,因此他們決定增加維基百科的采樣比例,因其被認為具有高質量。然而,這種手動數據選擇不具備可擴展性,可能導致次優選擇。隨著用于LLM預訓練的數據規模和多樣性不斷增長,確定最優數據配比變得愈發具有挑戰性。這引發了一個關鍵的研究問題:論文如何以可擴展且高效的方式選擇最優數據配比?

先前的工作[64, 16, 2]采用小規模模型(“代理模型”)來預測大規模語言模型的領域權重。這些工作通過訓練具有大量token(例如,1000),有時甚至與用于訓練LLM的數量相同,并通過監控訓練動態來動態調整分配策略。然而,隨著用于預訓練LLM的訓練數據不斷增長,這些方法變得效率低下。為當前模型(如Llama-3)訓練代理模型,需要使用多達15T token,這在當前方法下可能過于昂貴且過于緩慢,不值得。    

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

圖1:左:論文假設數據配比在不同模型大小和訓練token數量下的秩不變性。利用這一假設,論文使用在較少token上訓練的小模型來預測用于訓練具有更多token的大型模型的有效數據配比。右:通過訓練512 x 1M模型,論文的方法在訓練64 x 1B模型之前識別出最佳數據配比。預測的最佳數據配比,用紅色星號表示,實現了最低的驗證損失。

論文認為在有限數量的token上訓練小型模型足以預測用于大型語言模型(LLM)訓練的有效數據配比。論文的關鍵假設是數據配比的秩不變性,即在不同模型大小和訓練token數量下,數據配比對模型性能影響的相對排名是一致的。在這一假設下,關鍵挑戰在于從近乎無限數量的潛在數據配比中發掘出排名最高的數據配比。為此,論文將數據配比選擇視為回歸任務。論文不是通過每一種可能的配比來窮盡地訓練小型模型,而是僅訓練一組小型模型,每個模型具有獨特的數據配比?;谶@些模型的性能及其配比,論文擬合一個回歸模型來預測其他數據配比的性能。論文的方法比先前的工作更具可擴展性,因為它允許并行訓練小型代理模型,而不是長時間訓練單個模型。此外,回歸模型提供了關于領域交互的洞察,有助于理解和數據整理。

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

圖2:使用Hacker News、GitHub和Philpapers作為訓練域,以StackExchange域上的損失作為目標(,展示論文的方法。通過使用小規模代理模型訓練日志擬合回歸模型,并用于預測模擬空間內最佳數據配比,從而直接預測大規模語言模型預訓練的數據配比

2.2 REGMIX:數據配比作為回歸

如圖2所示,論文的方法涉及四個關鍵步驟:(1)生成隨機數據配比并在此基礎上訓練小規模代理模型。(2)使用表1:Pile數據集概覽,其中因版權問題不再可用的數據集以灰色標記。在論文的實驗中,論文使用可獲得的17個領域來研究語言模型預訓練的數據配比作為特征,目標值作為標簽,擬合一個線性回歸模型。(3)在更大規模上模擬數據配比空間,并利用回歸模型識別目標值的最佳配比。(4)使用模擬的最佳數據配比訓練一個大規模模型。    

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

2.2.1 訓練小規模代理模型

第一步是在多個不同的數據配比上訓練一組小規模代理模型。為了減少所需的運行次數,論文的目標是選擇一系列涵蓋每個領域從0%到100%極端權重的多樣化數據配比。論文通過基于詞頻分布的Dirichlet分布來實現這一點,這使論文能夠采樣廣泛的范圍值,并將回歸模型暴露于各種極端情況。同時,基于詞頻分布確保了整體數據配比在統計上反映了數據的可用性。例如,這可以防止任何詞頻低于1%的領域被過度強調,這在大型訓練中是不可行的,因為該領域沒有足夠的可用詞頻。在實踐中,論文將詞頻分布乘以0.1到5.0之間的值,以構建各種稀疏和近似均勻的分布,然后將這些分布向量作為Dirichlet分布的超參數alpha。

在訓練小規模代理模型幾步之后,論文可以獲得幾個訓練良好的小模型。例如,在論文的主要實驗中,每個代理模型包含1M參數,并在1B詞頻上進行訓練。然后,論文可以選擇在領域或基準上評估這些訓練好的模型,以獲得論文想要優化的目標值。通常,目標值可以是某個領域的損失,如圖2所示的StackExchange領域。一旦論文獲得了這些目標值,論文就可以使用數據配比作為特征,目標值作為標簽來擬合一個回歸模型。

2.2.2 擬合回歸模型

第二步是使用數據配比作為特征,目標值作為標簽來擬合一個回歸模型?;貧w任務是一個傳統的監督學習任務,涉及基于輸入特征X=( x_1, x_2, ..., x_n )預測連續目標變量y。目標是找到一個函數f,該函數最好地將輸入特征映射到目標變量,使得y=f(X)+epsilon,其中epsilon表示數據中的誤差或噪聲。輸入特征X對應于數據配比的領域權重,而目標變量y是論文想要優化的值。使用這些數據,論文訓練回歸模型,學習一個函數來預測基于任意數據配比的目標值,而無需進一步訓練。    

線性回歸。線性回歸模型在回歸分析中應用廣泛。它假設輸入特征與目標變量之間存在線性關系,可以表示為:

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

其中,omega_0 是截距,omega=(omega_1, ..., omega_n) 是與相應輸入特征 x_1, ..., x_n 相關的系數。系數 omega 通常使用普通最小二乘法等技術進行估計,旨在最小化預測值與實際值之間的殘差平方和。

表2展示了論文基于512x 1M模型在1Btoken上訓練的結果來擬合回歸模型,并在未見過的數據配比上評估1M、60M和1B參數模型的表現。皮爾遜相關系數 r 和均方誤差(MSE)衡量損失預測性能,而斯皮爾曼相關系數 rho 比較預測值與實際值的排名。

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

LightGBM回歸。LightGBM 是一種強大的梯度提升算法,可用于回歸和分類任務。在回歸的背景下,LightGBM 學習一組決策樹來預測目標變量。該過程由基于梯度的優化算法指導,該算法最小化指定的損失函數(例如均方誤差)。此外,LightGBM 被設計為高效且可擴展,適合大型數據集。

2.2.3 模擬與預測

一旦論文訓練了回歸模型,論文就可以高效地探索整個可能的數據配比空間。通過使用訓練好的模型預測每個潛在數據配比的目標值,論文可以快速識別產生最佳目標值的輸入。這種基于模擬的優化相對廉價,因為模擬和回歸預測在計算上都很快。例如,對1,000,000個數據配比進行預測僅需不到10個CPU秒。    

2.2.4 大規模模型訓練

在通過模擬識別出最佳數據配比后,論文將排名靠前的數據配比推廣到包含更多token的大規模模型訓練中。如圖 2所示,論文直接使用最佳數據配比來訓練更大的模型。實際上,為了提高回歸預測的穩健性,論文選擇前100個配比并將其平均作為大規模訓練的數據配比。

2.3 回歸預測評估

論文評估REGMIX預測未見數據配比效果的能力。首先,論文使用小型(即1M參數)模型的訓練工件擬合回歸模型,并評估小型模型上的損失預測性能。然后,為了驗證論文的排名不變性假設,論文測試學習到的回歸模型在不同模型大小和token數量上預測排名的能力。

2.3.1 實驗設置

數據集和模型。論文使用表1中描繪的Pile數據集的domain進行實驗。由于版權問題,論文使用HuggingFace上不違反版權問題的17個子集。論文考慮線性回歸和LightGBM回歸模型,其中目標變量y設置為Pile-CC領域的驗證損失。

訓練與評估。該回歸模型利用512個512x 1M模型的訓練成果,基于10億個token進行擬合,并在256個未見過的數據配比體上對1M、60M模型(各自以10億個token訓練)以及64個未見過的數據配比體上對1B模型(各自以250億個token訓練)進行評估。

評估指標。論文采用三種不同指標來基準測試論文的回歸模型:(1) 斯皮爾曼等級相關系數(ρ)是一種非參數度量方法,用于評估兩個排序變量之間關聯的強度和方向。(2) 皮爾遜相關系數(I)則是衡量兩個變量間線性關系的相關性。(3)均方誤差(MSE)是一種常用指標,用于通過測量預測值與實際值之間的平均平方差來評估回歸模型。

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

   

圖 3:Spearman 秩相關系數 rho 在不同訓練token數量和不同代理模型數量下,線性回歸(左)和 LightGBM 回歸(右)預測秩與真實秩之間的相關性圖。如圖所示,增加代理模型數量顯著提升 rho,而增加更多訓練token則收益遞減。          

2.3.2 實驗結果

模型大小間的強相關性。如表 2 所示,LightGBM 模型在所有三個指標上均優于線性回歸模型,并且在對具有更多訓練token的大型模型進行評估時,其優勢變得更加明顯。同時,使用 1B token訓練的 1M 模型在未見過的 1B 模型與 25B token配比上達到 97.12% 的高相關性,直接驗證了論文的秩不變性假設。

代理模型數量優于訓練token數量。在相同的小規模訓練 FLOPs 預算下,論文可以增加token數量(即訓練token數量)或代理模型數量。因此,論文研究哪種方法會產生更好的性能。如圖 3 所示,增加代理模型的訓練token在約 0.25B token后飽和。相比之下,增加代理模型數量持續提升性能,尤其是對于 LightGBM 模型。值得注意的是,在 0.2B token上訓練的 512 個模型的性能超過了在 0.8B token上訓練的 128 個模型,表明增加代理模型數量比在超過某個token閾值后增加訓練token數量更為有效。

2.4 在下游任務上的評估

論文將方法應用于現實下游任務,以展示其有效性。在評估時,論文排除了根據先前工作 [36] 和論文的觀察報告的性能跟蹤中表現出較大性能差異 (例如,RIL) 的特定基準。最終,論文選擇了以下基準作為下游任務:Social IQA 、HellaSwag 、PiQA 、OpenBookQA 、Lambada 、SciQ 、ARC Easy 、COPA 、RACE、LogiQA 、QQP、WinoGrande 和 MultiRC。這些基準涵蓋了多樣化的任務,能夠全面評估 REGMIX 在現實世界中的影響。對于每個基準,如果 lm-eval-anrnss 提供歸一化準確率,則使用該指標,否則使用常規準確率。

2.4.1 數據配比顯著影響下游性能

最初,論文訓練了64個模型,每個模型具有10億參數,使用不同的數據配比。每個模型都在Pile數據集[18]的250億個詞元上進行訓練,詞元的分配基于其相應領域的權重。表3展示了每個下游任務中最差和最佳模型的性能。報告的性能是從零樣本到五樣本評估的平均值,使用lm-eval-harness評估框架[19, 4]進行評分。論文發現數據配比顯著影響下游性能,其中最大的性能\triangle在Lambada任務上達到14.6。這突顯了研究最優數據配比的重要性。    

表3:論文實驗了64個模型,每個模型具有10億參數,訓練于不同的數據配比,并在各種基準上評估它們的性能。每個任務的報告性能是從零樣本到五樣本設置的平均分數,遵循Muennighoff等人[41]。

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

圖4:64個10億參數模型在各領域驗證損失與下游性能的相關性。注意,在計算相關性時,論文取損失值的負值,因為這使得可視化更直觀。這同樣適用于圖6。    

2.4.2 網絡語料庫對下游任務性能的提升最為顯著

論文在圖4(a)中展示了論文64個1B模型在不同領域的驗證損失與其在各種下游任務上的表現之間的相關性。在可視化之前,論文假設維基百科(en)子集上的驗證損失會與大多數下游任務顯示出強烈的關聯,因為它是一個高質量的數據集,并且許多下游任務源自維基百科文本。同樣,先前的工作通常將WikiText [38]作為標準基準來指示語言模型的性能。

然而,出乎意料的是,Pile-CC數據集上的驗證損失與大多數下游任務顯示出最強的相關性。例如,HellaSwag任務與Pile-CC驗證損失之間的相關系數非常接近1.0。這一意外結果挑戰了傳統的假設,即WikiText是評估深度分布式模型(DDMs)最具代表性的數據集。此外,這一結果與先前研究[17, 24]的發現相符,這些研究發現網絡數據集上的驗證損失與下游性能密切相關。

此外,論文分析了模型在C4100Domain驗證集上的損失之間的相關性,該驗證集取自C4數據集[47],并被認為與Pile-CC共享相似的分布,因為它們都源自CommonCrawl語料庫。由于CommonCrawl是一個多樣化領域的集合,論文原本預期每個領域的損失與下游任務之間的相關性會有所不同。然而,令人驚訝的是,超過85%的領域都與Pile-CC表現出非常強的相關性(完整的相關性圖表見附錄D)。這一點在www.ign.com域名上得到了很好的例證,如圖4(b)所示,它與Pile-CC的整體相關性圖表非常相似。這也表明,Pile-CC與下游任務性能之間的高相關性可能歸因于它對各種主題和領域的廣泛覆蓋。

表4 不同數據選擇方法的性能比較。Human指的是The Pile[18]中提出的權重,Pile-CC Only表示僅在Pile-CC組件上進行訓練,而DoReMi則是指Xie et al.[64]中的權重。每個任務報告的性能是五個不同運行中從O-shot到5-shot設置的平均分數及標準差。論文估算了達到訓練數據配比所需計算量(以FLOPs衡量)。對于每個任務,顯著優于Human基線的分數以粗體突出顯示,顯著性由Cohen's確定。為了全面評估,論文還報告了使用LightEval的評估結果,遵循Penedo et al.[44]在附錄C.4中的設置。LightEval結果顯示,REGMIX略優于DoReMi和Pile-CC Only。    

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

2.4.3 通過REGMIX的數據配比提升下游性能

先前的工作表明,數據配比方法能夠通過使用較少的訓練token實現更小的驗證損失(或困惑度)來加速LLM預訓練[64]。然而,一個關鍵問題是應該優化哪個驗證損失?最直觀的方法,也是先前工作所采用的方法,是盡量減少所有領域的損失。然而,基于論文對100萬條訓練日志的研究,論文發現這在實踐中幾乎是不可能實現的。沒有任何數據配比能夠同時超越所有領域驗證損失上的人工選擇。這表明,簡單地最小化所有領域的損失很可能是不可行的。因此,論文選擇優化Pile-CC驗證損失,以期在下游任務上實現普遍性能提升,因為它與下游性能顯示出最高的相關性。

論文實施了兩種方法來確定數據配比。第一種方法依賴于人類的直覺。由于Pile-CC與其自身分布應該是最接近的匹配,論文假設僅在Pile-CC上進行預訓練可能會比基線產生更好的性能。第二種方法利用REGMIX,以Pile-CC驗證損失作為目標變量。論文采用LightGBM來預測能夠最小化Pile-CC驗證損失的數據配比。

論文比較了論文提出的方法與強基線的性能,包括由人類為Pile [18]進行的篩選,以及DoReMi [64]。對于DoReMi,論文直接從其報告的最佳域權重中獲取數據配比,并重新歸一化所有可用的\textbfI /域。這可能導致DoReMi的性能相對于原始報告結果有所下降。如表4所示,Pile-CC Only和REGMIX都顯示出與基線相比的強勁性能。在廣泛使用的HellaSwag基準測試中,REGMIX比人類選擇提高了6.8。此外,REGMIX在8項任務性能中擊敗了所有其他三種方法。    

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

圖5:左:預訓練語料庫中包含Pile-CC的不同方法在Pile-CC上的驗證損失。右:預訓練中排除Pile-CC的情況下,在Pile-CC上的驗證損失。

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

   

圖 6:使用線性回歸模型對不同目標域驗證損失與訓練域權重之間相關性的可視化。左側基于 Pile 數據集,右側基于 Stack 數據集。高度相關表明增加訓練域權重對降低目標域驗證損失有積極影響。

在 14 個案例中,Pile-CC Only 表現突出,平均得分最高。Pile-CC Only 的驚人強勁表現進一步強化了論文上一節的結論:網絡語料庫對下游性能有益。最終,REGMIX 超越了表 3 中的最佳模型,證明論文的自動數據配比方法比隨機搜索更高效。

盡管 Pile-C 驗證損失是下游性能的有益指標,但它可能不適用于所有感興趣的任務。有時論文無法假設驗證集與訓練集數據分布相似,而是面臨分布外場景。為驗證論文的方法在分布外場景中的有效性,論文完全排除 Pile-CC 域,并利用剩余域找到最小化 Pile-CC 驗證損失的最優數據配比。如圖 5(右)所示,論文提出的方法仍優于基線方法。這表明 REGMIX 無論目標域是否分布內或分布外都具有魯棒性。在此設置下,論文還提供了回歸評估結果,如圖 5 所示。

2.4.4 域間交互對人類理解具有挑戰性

為了理解不同域之間的影響,論文在圖 6 中可視化了線性回歸模型的系數 ( \omega)。該可視化揭示了各數據域如何相互貢獻,展示了它們之間的復雜交互。論文還展示了基于 Stack 數據集 [28] 訓練的每個 1M 代碼模型的代碼相關性圖。令人驚訝的是,無論是域交互可視化還是代碼相關性圖,都顯示了復雜的關系,這些關系對于人類專家來說難以完全理解。例如,Pile 數據集中的 PhilPapers 域似乎在線性回歸建模下為所有其他域帶來了增益,這是一個挑戰直覺的人類理解的非顯而易見發現。這些可視化突顯了確定最優數據配比的內在復雜性,強調了論文自動化 REGMIX 方法在高效識別高性能配比方面的價值,而非僅依賴人類直覺。    

REGMIX: 作為語言模型預訓練的回歸數據配比 -AI.x社區

圖 7:跨多種數據配比的1M訓練日志可視化。

2.4.5 數據配比效應超越縮放定律

近期研究[68, 20]證明了數據配比縮放定律的可行性。然而,論文在第5.4節的發現表明,域權重與驗證損失之間的關系比縮放定律所暗示的要復雜得多。為了可視化這種復雜性,論文在圖7中繪制了所有1M訓練日志的實驗點。如果數據配比的縮放定律成立,論文期望看到所有域之間存在明顯的對數-對數線性關系。然而,論文的結果揭示了一個更為細致的圖景。例如,DM Mathematics域,可能由于其與其他域相比的獨特分布,顯示出損失與域權重之間接近對數-對數線性關系。相比之下,大多數域如Pile-CC顯示出更復雜的模式,預測驗證損失變得不簡單。如圖所示,域間交互似乎很復雜,僅基于域在配比中的權重來預測驗證損失變得具有挑戰性。這些發現表明,盡管縮放定律提供了有價值的見解,但它們可能無法完全捕捉數據配比動態的復雜性。論文的方法通過將整個數據配比作為回歸模型的輸入來應對這一挑戰,提供了一個更全面的框架,用于理解和預測驗證損失,同時兼顧所有域權重。    


本文轉載自 ??AI帝國??,作者: 無影寺

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
標簽
已于2024-8-16 14:35:28修改
收藏
回復
舉報
回復
相關推薦
亚洲国产精品av| 欧美欧美天天天天操| 色欧美88888久久久久久影院| 欧美亚洲精品日韩| 91精品国产乱码久久久久| 欧美91福利在线观看| 亚洲精品按摩视频| 天堂一区在线观看| 波多野在线观看| 国产日韩欧美精品电影三级在线 | 日韩黄色在线播放| 日韩在线高清| 日韩av一区在线| 天天影视色综合| 免费高潮视频95在线观看网站| 欧美高清在线视频| 国产精品一区二| 亚洲综合免费视频| 日韩午夜一区| 久久视频免费在线播放| 蜜桃传媒一区二区亚洲av | 欧美三级电影一区| 国产精品裸体瑜伽视频| 国产在线一区二区视频| 久久中文字幕电影| 国产精品手机视频| 99热精品在线播放| 久久国产婷婷国产香蕉| 欧美孕妇毛茸茸xxxx| 欧美激情图片小说| 成人影视亚洲图片在线| 日韩av资源在线播放| 国产黄色一区二区三区| 国产精品传媒麻豆hd| 欧美日韩亚洲视频| 亚洲 自拍 另类小说综合图区| 精品176二区| 国产女人18毛片水真多成人如厕 | 一区二区久久久久| 亚洲一区不卡在线| 九色视频网站在线观看| 99久久综合精品| 国产成人精品免费视频大全最热 | 久久av喷吹av高潮av| 欧美日韩国产中文字幕在线| av一区二区不卡| 国产激情一区二区三区在线观看 | 亚洲精品久久久久久下一站 | 九九热99久久久国产盗摄| 日韩黄色中文字幕| 欧美一二区在线观看| 亚洲片在线资源| 亚洲午夜福利在线观看| 天天躁日日躁狠狠躁欧美| 亚洲高清在线观看| 美女露出粉嫩尿囗让男人桶| 国产一区二区三区免费在线| 91精品国产91久久久久久最新毛片| 最新天堂中文在线| 亚洲男人在线| 日韩一区二区不卡| 特级特黄刘亦菲aaa级| xxxxxhd亚洲人hd| 欧美精品一区二区三区高清aⅴ | 超碰97成人| 欧美本精品男人aⅴ天堂| 无套白嫩进入乌克兰美女| 激情久久免费视频| 欧美成人精精品一区二区频| 欧美做受高潮中文字幕| 啪啪国产精品| 亚洲色图偷窥自拍| 妖精视频在线观看免费| 91精品亚洲| 欧美国产视频一区二区| 日韩av在线播| 日韩黄色片在线观看| 国产精品自产拍在线观| 国产特级黄色片| av在线这里只有精品| 欧美精品一区二区三区在线四季| 97最新国自产拍视频在线完整在线看| 最新欧美精品一区二区三区| 嫩草影院中文字幕| 亚洲人成在线网站| 欧美日韩一级片在线观看| 亚洲欧美日韩一二三区| 美女视频免费精品| 中文字幕视频在线免费欧美日韩综合在线看 | 日韩系列欧美系列| 欧美激情久久久久| 国产精品xxxxxx| 国产一区二区三区在线看麻豆| 官网99热精品| 成人性爱视频在线观看| 亚洲国产一区二区在线播放| 国产黄色特级片| 精品久久免费| 亚洲精品影视在线观看| 日本黄色录像视频| 一本色道久久精品| 成人精品一区二区三区电影免费 | 真人抽搐一进一出视频| 国产综合av| 欧美xingq一区二区| 在线小视频你懂的| 激情久久一区| 国产精品视频精品| 天天干天天做天天操| 亚洲欧美综合色| 妞干网在线免费视频| 亚洲欧美日本国产| 中文字幕亚洲欧美日韩在线不卡| 国产在线一区视频| 老司机午夜精品99久久| 久久精品国产第一区二区三区最新章节 | 久久这里只有精品首页| 蜜臀av.com| 欧美日韩在线精品一区二区三区激情综合 | 欧美中文字幕不卡| 日韩综合第一页| 亚洲天堂一区二区三区四区| 国产精品igao视频| 婷婷在线免费观看| 亚洲精品成a人| 国产一区二区在线免费播放| 日本一区福利在线| 欧美第一黄网免费网站| 国产精品视频一二区| 欧美激情一区二区三区全黄| 精品久久一二三| 日韩三级网址| 久久久国产一区| 伊人久久成人网| 国产三级精品三级在线专区| 国精产品一区一区三区视频| 亚洲日本一区二区三区在线| 中文字幕日韩av电影| 久久久久久无码精品大片| 91蜜桃在线免费视频| 亚洲 高清 成人 动漫| 99国产精品免费网站| 欧美国产日韩xxxxx| 午夜美女福利视频| 尤物视频一区二区| 中文写幕一区二区三区免费观成熟| 91成人看片| 亚洲永久在线观看| 日韩免费影院| 精品美女在线播放| 日产精品久久久久| 99国产精品视频免费观看| 国产二区视频在线| 麻豆精品少妇| 日本伊人精品一区二区三区介绍| 青青草娱乐在线| 在线亚洲精品福利网址导航| 一级黄色片网址| 六月丁香婷婷久久| 一区不卡字幕| 欧美经典一区| 久久久久久久国产精品视频| 成人午夜福利视频| 欧美日韩在线一区| 最近中文字幕在线mv视频在线| 日韩精品亚洲一区| 最新精品视频| 99精品中文字幕在线不卡| 88国产精品欧美一区二区三区| 日本又骚又刺激的视频在线观看| 欧美性xxxx在线播放| 日本人亚洲人jjzzjjz| 久久成人免费网| 亚洲乱码日产精品bd在线观看| 麻豆精品在线| 性欧美亚洲xxxx乳在线观看| 欧美美女色图| 88在线观看91蜜桃国自产| 国产亚洲欧美精品久久久www| 91网站视频在线观看| 蜜臀视频一区二区三区| 真实国产乱子伦精品一区二区三区| 成人av影视在线| 亚洲成人不卡| 久久视频在线观看免费| 香蕉视频免费在线看| 欧美日韩精品欧美日韩精品一| 青青草偷拍视频| 久久精品一区二区三区四区| 五月天婷婷在线观看视频| 99亚洲精品| 四虎免费在线观看视频| 欧美久久香蕉| 91免费综合在线| 成人性生交大片免费观看网站| 日韩中文字幕免费视频| 人妻视频一区二区三区| 欧美日韩精品一区二区天天拍小说| 在线看成人av| 日韩毛片一二三区| 一本色道久久综合亚洲精品图片| 国产在线不卡视频| 欧美日韩大尺度| 99精品热6080yy久久| 最新欧美日韩亚洲| 欧美人妖在线| 国产麻豆日韩| 欧洲一区在线| 国产精品入口日韩视频大尺度| 蜜臀av国内免费精品久久久夜夜| 正在播放国产一区| 天天干天天插天天操| 日韩欧美激情在线| 中文字幕网址在线| 精品国产福利在线| 草视频在线观看| 国产精品美女www爽爽爽| 超碰caoprom| 国产乱理伦片在线观看夜一区| 超碰网在线观看| 亚洲片区在线| a天堂资源在线观看| 91精品一区国产高清在线gif| 日韩性感在线| 国产一区二区三区四区五区| 国产区二精品视| 中文字幕区一区二区三| 91亚洲人电影| 亚洲国产精选| 国产日产欧美a一级在线| 亚洲精品**中文毛片| 91av在线看| 激情黄产视频在线免费观看| 精品少妇v888av| 伊人影院在线视频| 久热爱精品视频线路一| 国产原创在线观看| xxxx性欧美| 米奇777四色精品人人爽| 最近2019中文字幕第三页视频| 黄色在线视频观看网站| 亚洲乱码一区av黑人高潮| 视频在线观看你懂的| 国产视频丨精品|在线观看| 亚洲av成人无码久久精品老人 | 中文字幕99页| 国产91高潮流白浆在线麻豆 | 亚洲一级黄色大片| 欧美日韩一区 二区 三区 久久精品| 天堂av免费在线观看| 日本精品免费观看高清观看| 久久精品五月天| 欧美日韩免费观看一区三区| 亚洲系列在线观看| 91精品国产综合久久久久久久| 国产精品无码专区av免费播放| 欧美高清你懂得| 国产高清视频免费| 精品少妇一区二区三区免费观看| 高清一区二区三区四区| 亚洲精品国产精品国自产观看浪潮| 性xxxx视频播放免费| 精品小视频在线| 91精彩在线视频| 不卡av电影在线观看| 久久久123| 538国产精品视频一区二区| 欧洲一级精品| 成人国产亚洲精品a区天堂华泰| 精品一区二区三区中文字幕| 国产精品久久久久久久久久久久午夜片| 91精品国产乱码久久久竹菊| 精品免费国产| 大片网站久久| 欧美狂野激情性xxxx在线观| 久久成人免费| 久久久久久久高清| 成人高清免费观看| 欧美做受xxxxxⅹ性视频| 亚洲欧洲精品成人久久奇米网| 国产精品111| 色8久久人人97超碰香蕉987| 亚洲综合一区中| 亚洲精品一区二区三区99| 猫咪在线永久网站| 裸体女人亚洲精品一区| 一根才成人网| 91久久偷偷做嫩草影院| 日韩三级毛片| 欧美亚洲视频一区| 夜久久久久久| mm131亚洲精品| 成人网在线播放| 91动漫免费网站| 激情av一区二区| 91黄色在线视频| 亚洲人成电影在线播放| 色婷婷在线播放| 国产精品电影在线观看| 涩爱av色老久久精品偷偷鲁| 欧美日韩国产一二| 欧美天天视频| 国产视频1区2区3区| 99久久夜色精品国产网站| 少妇高潮惨叫久久久久| 欧美视频一区二区三区…| 国产欧美综合视频| 亚洲性av在线| 韩日毛片在线观看| 3d蒂法精品啪啪一区二区免费| 九九视频免费观看视频精品| 18禁裸男晨勃露j毛免费观看| 蜜臀va亚洲va欧美va天堂| 精品中文字幕在线播放| 亚洲影视在线播放| 国产精品嫩草影院精东| 在线播放国产一区二区三区| 不卡专区在线| 99中文字幕| 91精品国产乱码久久久久久| 日韩精品你懂的| 久久久久久毛片| 国产免费观看av| 亚洲第一视频在线观看| 亚洲欧美成人影院| 91久久综合亚洲鲁鲁五月天| blacked蜜桃精品一区| 日本a级片免费观看| 成人丝袜高跟foot| 久草中文在线视频| 日韩欧美激情一区| 色yeye免费人成网站在线观看| 成人日韩av在线| 91精品一区二区三区综合在线爱| 可以看污的网站| 中文字幕一区在线| 91影院在线播放| 久久精品小视频| 玖玖玖电影综合影院| 日韩一二区视频| 国产成人av影院| 99免费在线观看| 日韩av有码在线| 亚洲美女炮图| 日本一区二区三区视频在线播放 | 黄色av网址在线观看| 亚洲妇熟xx妇色黄| 神马午夜精品95| 91成人在线视频| 免费看av成人| 国产嫩草在线观看| 国产精品久久久久永久免费观看| 中文字幕人妻互换av久久 | 久久精品国产一区二区三区不卡| av不卡在线看| 日本xxxxxxxxx18| 欧美日韩综合色| 成人免费网站在线观看视频| 97免费资源站| 国产欧美日本| 1024手机在线观看你懂的| 欧美三片在线视频观看| 九七电影韩国女主播在线观看| 北条麻妃高清一区| 99精品国产在热久久| 免费人成又黄又爽又色| 欧美日韩免费高清一区色橹橹 | 奇米影视亚洲狠狠色| 欧洲美女日日| 五月天婷婷影视| 亚洲大片在线观看| 蜜桃视频在线免费| 国产成人亚洲精品| 你懂的国产精品| 亚洲av片不卡无码久久| 欧美日韩夫妻久久| 日本欧美电影在线观看| 久久久99爱| 久久精品国产一区二区三| 欧美黄色一级网站| 亚洲精品在线看| 成人日韩视频| 黄色动漫在线免费看| 亚洲同性同志一二三专区| 色婷婷激情五月| 国产精品揄拍500视频| 国内自拍一区| 免费黄色在线网址| 欧美v日韩v国产v| 激情亚洲影院在线观看| 国产激情片在线观看| 久久久久99精品一区| av官网在线观看| 国产精品91在线观看| 国产在线欧美| 成人免费视频入口| 日韩久久精品电影| 欧美影院在线| 熟妇人妻无乱码中文字幕真矢织江| 亚洲激情在线激情|