精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

百萬美金煉出「調(diào)參秘籍」!階躍星辰開源LLM最優(yōu)超參工具

人工智能 新聞
研究團(tuán)隊坦言,盡管付出了很多的算力,和大量的精力來分析相關(guān)的實(shí)驗(yàn)。但是很多子 Topic 分析仍然是值得深究的。

近日,階躍星辰研究團(tuán)隊通過大規(guī)模實(shí)證探索,耗費(fèi)了近 100 萬 NVIDIA H800 GPU 小時(約百萬美元),從頭訓(xùn)練了 3,700 個不同規(guī)模,共計訓(xùn)了 100 萬億個 token,揭示了 LLM 超參數(shù)優(yōu)化的全新的普適性縮放規(guī)律,為更好地提升 LLM 性能,提供了開箱即用的工具。該研究也是第一個全面研究模型最優(yōu)超參隨著 Model Shape、Dense/MoE、預(yù)訓(xùn)練數(shù)據(jù)分布的變化,是否穩(wěn)定不變的工作。研究中凸顯出 Step Law 的魯棒性,大大增加了該工具的實(shí)用性和普適性。同時該團(tuán)隊正在逐步開源相關(guān)資料,包括模型、訓(xùn)練日志等,期待更多相關(guān)領(lǐng)域的人基于海量的實(shí)驗(yàn)結(jié)果作出更加深入的研究與解釋。

圖片


  • 論文標(biāo)題:Predictable Scale: Part Ⅰ — Optimal Hyperparameter Scaling Law in Large Language Model Pretraining
  • 論文鏈接:https://arxiv.org/abs/2503.04715
  • 工具鏈接:https://step-law.github.io/
  • 開源地址:https://github.com/step-law/steplaw
  • 訓(xùn)練過程:https://wandb.ai/billzid/predictable-scale

海量實(shí)驗(yàn),實(shí)證為王

研究團(tuán)隊從頭訓(xùn)練了 3,700 個不同規(guī)模、不同超參數(shù)組合、不同形狀、不同數(shù)據(jù)配比、不同稀疏度 (含 MoE、Dense) 的大語言模型(LLM),共訓(xùn)練了超 100 萬億個 token,對超參數(shù)進(jìn)行了全面的網(wǎng)格搜索,研究團(tuán)隊發(fā)現(xiàn)了一條普適的縮放法則 (簡稱 Step Law):最優(yōu)學(xué)習(xí)率隨模型參數(shù)規(guī)模與數(shù)據(jù)規(guī)模呈冪律變化,而最優(yōu)批量大小主要與數(shù)據(jù)規(guī)模相關(guān)。

圖片

圖片

圖一:在 400M 的 Dense LLM 上訓(xùn)練 40B Token(左)和在 1B 的 Dense LLM 上訓(xùn)練 100B Token(右)的超參 - 損失等高線圖,并且對業(yè)內(nèi)不同方法進(jìn)行比較,所有方法都轉(zhuǎn)換成了預(yù)測 Optimal Token Wise BatchSize。這里所有的等高線都是從頭訓(xùn)練的小模型所得的真實(shí)收斂后的 Train Smooth Loss。左右兩張圖的所有等高線,分別來自于兩組共 240 個采用不同超參(Grid Search)的端到端訓(xùn)練的小模型。Global Mimimum 是來 120 個小模型中最終 Train Smooth Loss 最小的那個。等高線表示距離 Global Mimimum 的從最終 loss 角度的相對距離。而超越 + 2% 的點(diǎn)位,并沒有體現(xiàn)在圖中。

值得關(guān)注的是,實(shí)驗(yàn)表明,在固定模型大小與數(shù)據(jù)規(guī)模時,超參數(shù)優(yōu)化的 Landscape 呈現(xiàn)出明顯的凸性特征,這意味著存在一個穩(wěn)定且易尋的最優(yōu)超參數(shù)區(qū)域。

圖片

圖二:Learning Rate 與 Batch Size 在 1B 模型訓(xùn)練 100BToken 上的損失分布:散點(diǎn)圖(左)與 3D 曲面(右)圖中的每一個實(shí)心點(diǎn)都是真實(shí)值,是 120 個從頭訓(xùn)練的一個小模型,在訓(xùn)練結(jié)束之后的收斂 Loss。為了展示這樣的凸性,研究員們構(gòu)造了如右圖一樣的 3 維空間,空間的橫軸為 Learning Rate,縱軸為 Batch-size,高度軸為 Loss。對于這個三維空間我們進(jìn)行橫面和豎面的切割,如左上圖得到固定不同的 Learning Rate 情況下,最終收斂的 Train Smoothed Loss 隨著 Batchsize 的變化。而左下圖是固定不同的 Batchsize 情況下,最終收斂的 Train Smoothed Loss 隨著 Learning Rate 的變化。可以顯著的觀測到一種凸性,且在凸性的底端,是一個相對平坦的區(qū)域。這意味著 Optimal Learning Rate 和 Batchsize 很可能是一個比較大區(qū)域。

為了便于學(xué)界和業(yè)界應(yīng)用,團(tuán)隊推出了一款通用的最優(yōu)超參數(shù)估算工具(https://step-law.github.io),其預(yù)測結(jié)果與窮舉搜索的全局最優(yōu)超參數(shù)相比,性能僅有 0.09% 的差距。同時,研究團(tuán)隊還在該網(wǎng)站上公開了所有超參數(shù)組合的 loss 熱力圖,以進(jìn)一步推動相關(guān)研究。

圖片

圖三:1B 模型、100BToken 訓(xùn)練上的 LR 與 BS 熱力圖。每一個點(diǎn)上的數(shù)字都是從頭訓(xùn)練的一個小模型(共訓(xùn)練了 120 個小模型),在訓(xùn)練結(jié)束之后的收斂真實(shí) Train Smoothed Loss。紅點(diǎn)是上述公式的預(yù)估值所對應(yīng)的 BS、LR 位置。其中空白的部分,是因?yàn)榉N種原因訓(xùn)練失敗的點(diǎn)位。所有熱力圖見https://step-law.github.io/

研究亮點(diǎn):Step Law 的普適性,從三個不同角度

相較于現(xiàn)有的大模型最優(yōu)超參數(shù)估算公式,團(tuán)隊的研究進(jìn)行了極其充分的、覆蓋模型參數(shù)規(guī)模(N)、訓(xùn)練數(shù)據(jù)規(guī)模(D)、批量大小(BS)和學(xué)習(xí)率(LR)的網(wǎng)格搜索,最終得到的 Step Law 則展現(xiàn)出顯著的優(yōu)越性,在適用性和準(zhǔn)確度方面均有大幅提升。

圖片

表一:不同方法的最佳超參數(shù)縮放定律比較,其中 Data Recipe 是指是否有在不同的預(yù)訓(xùn)練語料的配比下的最優(yōu)超參進(jìn)行研究。Model Sparsity 是指是否同時支持 MoE Model 和 Dense Model,以及不同的稀疏度下的 MoE 模型。LR 指的是 learning Schedule 中的峰值 Learning Rate,其中 BS 值得是 Token Wise 的 Batch Size。

角度一:跨模型形狀 (Model Shape) 的穩(wěn)定性

研究還深入探討了不同模型形狀(如寬度與深度的不同組合)對縮放規(guī)律的影響,發(fā)現(xiàn)無論模型是以寬度為主還是深度為主,抑或是寬深平衡的設(shè)計,Step Law 均表現(xiàn)出了高度的穩(wěn)定性。這表明,縮放規(guī)律不僅適用于特定類型的模型結(jié)構(gòu),在更廣泛的架構(gòu)設(shè)計空間中依然適用,為復(fù)雜模型架構(gòu)的設(shè)計和優(yōu)化提供了指導(dǎo)意義。

圖片

圖四:最優(yōu)超參在不同 Model Shape 下的拓?fù)洳蛔冃浴_@里的是固定了模型的非詞表參數(shù)量的大小,且固定了模型的訓(xùn)練 Token 數(shù),但研究團(tuán)隊使用了不同的 Model Shape。例如變換了層數(shù),從左到右分別是 14/10/8 層;變換了 Model Hidden Dimension,分別包括 1280/1536/2048 這三種;同時變換了 6 種不同的 FFN 倍數(shù) (FFN_media_dim/model_dim),從 1.1 倍到~6.25 倍。其中紅色五角星的點(diǎn)是 Step Law 預(yù)測的點(diǎn)位,可以觀察到 Step_law 在 6 個不同的 Shape 上都預(yù)測到了 Global Minimum 附近。然而也可以同時觀察到,不同的 Model Shape,Bottom 的一片區(qū)域的位置是會發(fā)生 shift 的。

角度二:跨模型架構(gòu)的泛化性

研究結(jié)果發(fā)現(xiàn),這一縮放規(guī)律不僅適用于 Dense 模型,還能很好地推廣到不同稀疏度的 MoE 模型(Mixture-of-Experts),展示了極強(qiáng)的泛化能力。

圖片

圖五:不同稀疏比下 MoE 模型的超參 - 損失等高線圖。左:低稀疏度(N_a/N=0.27),中間:中等稀疏度(N_a/N=0.58,D/N=10),右:中等稀疏度、較少訓(xùn)練 Token 數(shù)(N_a/N=0.58,D/N=4)。研究員們在不同稀疏度,不同 D/N 的 MoE 模型配置,每一種配置都從頭訓(xùn)練了 45 個小模型,來做最優(yōu)超參搜取。共計從頭訓(xùn)練了 495 個不同稀疏度、不同超參、不同 D/N 的 MoE 模型。從而得到了不同配置下的基于真實(shí)值的 Global Minimum Train Smoothed Loss。其中除了一組 D/N=1 的實(shí)驗(yàn),其余實(shí)驗(yàn) Step Law 預(yù)測位置都在 Global Minimum+0.5% 的范圍之內(nèi)。并且大多數(shù)配置下都在 Global Minimum+0.25% 的范圍之內(nèi)。充分的驗(yàn)證了 Step Law 的魯棒性。詳細(xì)結(jié)果可以參考論文的附錄部分。

角度三:跨數(shù)據(jù)分布的穩(wěn)定性

那么 Step Law 是否能兼容不同的預(yù)訓(xùn)練數(shù)據(jù)分布呢?研究團(tuán)隊進(jìn)一步驗(yàn)證了不同數(shù)據(jù)分布下的規(guī)律一致性:無論是英語主導(dǎo)、中英雙語、Code 和英語混合,還是代碼主導(dǎo)的數(shù)據(jù)分布,Step Law 都表現(xiàn)出了穩(wěn)定的性能。這為多語言、多任務(wù)場景下的實(shí)際應(yīng)用提供了可靠支持。

圖片

表二:實(shí)驗(yàn)的不同數(shù)據(jù)分布。其中 Baseline 是得出 Step Law 的訓(xùn)練 Recipe。而 Code-Math,是壓縮英文 web-data 的配比近一半,擴(kuò)大 code-math 的比例至近 40%。而 More Code-Math 比例更加極端,將英文 web-data 的配比壓縮為之前的 1/4,將 Code-math 擴(kuò)大為近 2/3。EN-CN 是下調(diào)英文 web-data 的配比近一半,將余量的部分都轉(zhuǎn)化為中文網(wǎng)頁數(shù)據(jù)。

圖片

圖六:不同數(shù)據(jù)分布下的超參 - 損失等高線。左:雙語數(shù)據(jù)(表格中 En-CN),中間:加入 Code 數(shù)據(jù)(表格中的 Code+Math),右:主要為 Code 數(shù)據(jù)(表格中的 More Code+Math)。每一個圖都是從頭訓(xùn)練了 45 個模型,每一個模型除了 Bs/lr 不同以外,其他設(shè)置完全相同。總共訓(xùn)練了 135 個在三種數(shù)據(jù)分布下的模型。其中 Global Minimum 是通過這種 grid search 的方法得到的最低 Final Train Smoothed Loss 的真實(shí)值。Step Law 預(yù)測出來的最優(yōu) Batch Size/Learning Rate 都在最低 Loss +0.125%/0.25% 的范圍內(nèi)。

 研究細(xì)節(jié)解讀

1. 學(xué)習(xí)率調(diào)度策略優(yōu)化

圖片

圖七:不同學(xué)習(xí)率策略的比較。藍(lán)色等高線 (傳統(tǒng)衰減策略): 學(xué)習(xí)率會從一個最大值 (max_lr) 逐漸減小到一個最小值 (min_lr,常是峰值的十分之一)。紅色等高線 (固定最終學(xué)習(xí)率策略): 保持一個固定的最小學(xué)習(xí)率 (min_lr = 1e-5),而不是像傳統(tǒng)方法那樣與最大學(xué)習(xí)率掛鉤。兩張圖都分別為 120 個從頭訓(xùn)練的模型,在相同的 batch size/learning rate 范圍內(nèi)做的 Grid Search。紅色和藍(lán)線的 Global Minimum 都是各自配置下的真值 - 最小的 Final Train Smoothed Loss。可以觀察到改成 max_lr/10 之后,藍(lán)點(diǎn)會向左上方偏移,即更小的 Learning Rate 和更大的 Batchsize。如果不是對比相對值,而是對比真值,min_lr=1e-5 的最終收斂 loss 普遍小于 max_lr/10。相關(guān)的真值將陸續(xù)開源。相關(guān)的真值開源在https://github.com/step-law/steplaw

研究團(tuán)隊通過對比分析發(fā)現(xiàn),學(xué)習(xí)率調(diào)度策略對最優(yōu)超參選擇產(chǎn)生顯著影響。研究揭示了傳統(tǒng)學(xué)習(xí)率衰減與固定最小學(xué)習(xí)率方案間的重要差異:

傳統(tǒng)學(xué)習(xí)率衰減方案將最小學(xué)習(xí)率設(shè)為最大值的十分之一 (max_lr/10),而團(tuán)隊提出的固定方案則采用恒定的絕對最小值 (1e-5)。等高線圖分析清晰表明,傳統(tǒng)衰減方法使得最優(yōu)學(xué)習(xí)率區(qū)域出現(xiàn)明顯的左偏分布 —— 即損失最小區(qū)域向較低學(xué)習(xí)率區(qū)間顯著偏移。

團(tuán)隊通過分析了傳統(tǒng)學(xué)習(xí)率(min_lr=max_lr/10)調(diào)度方案的局限性:采用較高初始峰值學(xué)習(xí)率時,其退火機(jī)制會同步抬升最低學(xué)習(xí)率閾值。這種耦合設(shè)計在訓(xùn)練末期會使學(xué)習(xí)率超出理想?yún)^(qū)間,過大的參數(shù)更新幅度引發(fā)損失函數(shù)在收斂階段持續(xù)振蕩。相比之下,固定最小學(xué)習(xí)率策略通過解耦初始學(xué)習(xí)率與終值學(xué)習(xí)率的關(guān)聯(lián),在訓(xùn)練后期始終維持符合梯度下降動態(tài)特性的更新步長。

此外,這種固定最終較小最終學(xué)習(xí)率的策略也與業(yè)界的訓(xùn)練經(jīng)驗(yàn)相匹配,更有實(shí)際應(yīng)用價值。

2. 訓(xùn)練損失與驗(yàn)證損失的最優(yōu)超參一致性

圖片

圖八:平滑訓(xùn)練損失(Final Train Smoothed Loss)的超參 - 損失等高線圖(左)和驗(yàn)證損失(Validation Loss of Final Checkpoint)的超參 - 損失等高線圖(右)。兩張圖都是在同一組實(shí)驗(yàn)下進(jìn)行,對于相同的模型尺寸,相同的訓(xùn)練 Token 數(shù),分別采用了 64 組不同的超參進(jìn)行 Grid Search。從而得到 64 個模型的 Final Train Smoothed Loss、和 Validation Loss。

在 429M 模型上訓(xùn)練 40B 的 Token 進(jìn)行驗(yàn)證,當(dāng)平滑訓(xùn)練損失達(dá)到最優(yōu)時,學(xué)習(xí)率為 1.95×10^-3,批量大小為 393,216,這一點(diǎn)與驗(yàn)證損失最優(yōu)時的超參數(shù)完全重合。此外,學(xué)習(xí)率和批量大小的變化趨勢在平滑訓(xùn)練損失和驗(yàn)證損失中表現(xiàn)出高度一致性。這一發(fā)現(xiàn)表明,平滑的訓(xùn)練損失曲線可以為實(shí)際超參數(shù)選擇提供可靠的指導(dǎo)。盡管采用 Train Smoothed Loss 可以降低實(shí)驗(yàn)成本(節(jié)省了 Final Checkpoint 在 Validation Set 上推理的算力),但仍然具有一定的局限性,例如訓(xùn)練數(shù)據(jù)不能重復(fù)。研究團(tuán)隊將會陸續(xù)開源這近 4000 個模型的 Final Checkpoint,供廣大研究員進(jìn)行進(jìn)一步的分析。

最優(yōu)超參的 Scaling Law 擬合

圖片

圖九:(a) 散點(diǎn)圖表示模型規(guī)模為 N 時,經(jīng)驗(yàn)最優(yōu)學(xué)習(xí)率與批量大小的關(guān)系;(b) 散點(diǎn)圖表示數(shù)據(jù)集規(guī)模為 D 時,經(jīng)驗(yàn)最優(yōu)學(xué)習(xí)率與批量大小的關(guān)系。曲線表示超參數(shù)縮放定律的預(yù)測結(jié)果,陰影區(qū)域表示基于采樣擬合策略得到參數(shù)不確定性范圍。圖上的每一個點(diǎn),背后都代表著 45~120 個采用了不同的超參的從頭訓(xùn)練的模型。圖上的每一個點(diǎn)位都在不同的 Model Size、Data Size 下通過 Grid Search 得到的最優(yōu)的超參 (Optimal Learning Rate,Optimal Batch Size)。這張圖總共涉及了 1912 個從頭訓(xùn)練的 LLM。擬合方法開源在https://github.com/step-law/steplaw

通過從頭訓(xùn)練了 1912 個 LLM,研究團(tuán)隊分析發(fā)現(xiàn):

  • 最優(yōu)學(xué)習(xí)率:隨模型規(guī)模增大而減小,隨數(shù)據(jù)規(guī)模增大而增大。
  • 最優(yōu)批量大小:隨數(shù)據(jù)規(guī)模增大而增大,與模型規(guī)模弱相關(guān)。

研究通過對數(shù)變換將冪律關(guān)系轉(zhuǎn)化為線性形式,采用最小二乘法擬合參數(shù),并通過 Bootstrap 采樣方法提升穩(wěn)健性。最終,團(tuán)隊提出了一套精確的預(yù)測公式,為大模型預(yù)訓(xùn)練的超參數(shù)設(shè)置提供了一個開箱即用的工具。據(jù)了解,在階躍星辰真正的研發(fā)過程中,他們已經(jīng)廣泛使用了 Step Law,主要是在大于 1B 的模型和非極端的 D/N 下適用。

討論與未來工作

研究團(tuán)隊坦言,盡管付出了很多的算力,和大量的精力來分析相關(guān)的實(shí)驗(yàn)。但是很多子 Topic 分析仍然是值得深究的。研究團(tuán)隊認(rèn)為他們的這份工作僅僅是一個開始,他們會陸續(xù)將實(shí)驗(yàn)的各個細(xì)節(jié)整理并且開源出來,供整個社區(qū)的研究人員進(jìn)行進(jìn)一步分析和深入的理論解釋。這些子 Topic 包括以下話題:

  • 在給定模型、訓(xùn)練 Token 數(shù)的情況下,(Loss,bs,lr) 這三維空間是否是真正的凸性。
  • 是否有更好的 optimal BS LR 的擬合方法,并且可以兼容 BS、LR 的內(nèi)在關(guān)系。
  • 盡管 Step Law 在不同 Model Shape、不同稀疏的 MoE 模型是魯棒的,但是次優(yōu)的區(qū)域是在不同配置下是變化的,有無更好的解釋方法。
  • 上文中這些基于海量 Grid Search 的數(shù)據(jù)驅(qū)動的結(jié)論的理論解釋。
  • 不同的超參、不同 Model Size、Model Shape、Model Sparsity 下的 Training Dynamic 研究。

為此研究團(tuán)隊公開了他們的開源計劃,以及 Predictable Scale 系列工作的發(fā)布節(jié)奏。據(jù)了解,Predictable Scale 系列后續(xù)可能進(jìn)一步討論超大模型性能預(yù)測、Code&Math Scaling 性質(zhì)、不同 Attention 類型的 Scaling 性質(zhì)等問題。非常值得期待。

圖片

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2022-08-30 00:31:12

機(jī)器學(xué)習(xí)超參數(shù)調(diào)優(yōu)算法

2020-04-28 15:25:39

復(fù)旦代碼神器

2024-03-11 06:00:00

OptunaPython超參數(shù)優(yōu)化

2024-04-01 12:10:48

數(shù)據(jù)訓(xùn)練

2016-12-09 10:11:40

機(jī)器學(xué)習(xí)算法庫Fregata

2024-06-06 10:08:32

2025-11-03 17:29:54

LeCun世界模型多模態(tài)

2023-05-23 08:00:00

數(shù)據(jù)集ImageNet算法

2019-03-04 08:32:01

DBA數(shù)據(jù)庫JDBC

2025-08-01 08:59:36

2024-11-21 09:58:12

2024-01-18 09:19:13

AI模型

2023-06-30 09:00:00

Falcon LLM開源

2021-03-15 10:10:56

算法AI技術(shù)

2017-08-19 08:36:25

貝葉斯優(yōu)化超參數(shù)函數(shù)

2025-09-10 15:28:06

AI模型開源

2019-06-13 14:52:59

谷歌Android開發(fā)者
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

91精品麻豆| 欧美伦理影视网| 欧美日韩亚洲一区二区三区在线| 日韩美女视频在线| 91成人在线观看喷潮教学| 韩国中文字幕2020精品| 国产一区二区中文字幕| 久久频这里精品99香蕉| 亚洲色成人网站www永久四虎| 亚洲三级电影| 精品人伦一区二区三区蜜桃免费| 日韩av免费电影| av片免费播放| 石原莉奈在线亚洲三区| 欧美国产日韩中文字幕在线| 免费污网站在线观看| 日韩在线观看一区二区三区| 色播五月激情综合网| 免费cad大片在线观看| 黄色小视频在线免费观看| 国产精品一卡二卡| 国产精品免费一区| 久久99精品波多结衣一区| 91精品亚洲| 一区二区三区天堂av| 国产xxxx视频| 国产日本亚洲| 欧美吻胸吃奶大尺度电影 | 天堂av2024| 精品中文字幕一区二区小辣椒| 欧美一性一乱一交一视频| 国产免费无码一区二区视频| 成人影院天天5g天天爽无毒影院| 日韩电影中文字幕| 99久久久无码国产精品性波多| 日韩在线激情| 欧美视频精品在线观看| 国模吧无码一区二区三区| 日本电影在线观看| 亚洲免费毛片网站| 亚洲一区3d动漫同人无遮挡 | aa在线免费观看| 国产美女情趣调教h一区二区| 中文字幕一区二区三区av| 日本最新一区二区三区视频观看| 亚洲 精品 综合 精品 自拍| www.日韩av| 国产精品免费区二区三区观看| 国产片高清在线观看| 精品亚洲成a人在线观看| 国产成人av网| 波多野结衣毛片| 久久蜜桃精品| 国产精品黄视频| wwwwww在线观看| 日本不卡免费在线视频| 国产精品久久久久久影视| 波多野结衣高清视频| 久久午夜电影| 国产精品丝袜高跟| 亚洲影院一区二区三区| 精品一区二区日韩| 91香蕉嫩草影院入口| 99久久国产热无码精品免费| 国产高清视频一区| 国产精品二区在线| 污污的视频网站在线观看| av在线不卡免费看| 欧美一区二区综合| 色视频在线免费观看| 国产精品国产a| 成人午夜免费剧场| 免费毛片在线看片免费丝瓜视频 | 78色国产精品| 青青国产在线视频| 久久99国产精品久久99| 99热在线国产| 神马精品久久| 中文幕一区二区三区久久蜜桃| 亚洲欧洲日本国产| 曰本三级在线| 日韩欧美一区二区在线| 欧美三级理论片| 日韩在线成人| 亚洲男人第一网站| 182在线观看视频| 亚洲激情网址| 国产精品久久中文| www.国产视频| 国产女主播视频一区二区| 日本三级福利片| 美女网站在线看| 欧美日韩在线播放一区| 亚洲少妇一区二区三区| 奇米亚洲欧美| 欧美国产中文字幕| 久久久蜜桃一区二区| 国产精品一级片| 欧美另类高清视频在线| av网站免费在线观看| 欧美色播在线播放| 日韩不卡的av| 欧美系列电影免费观看| 久久久久久中文字幕| 亚洲天堂视频在线播放| av高清不卡在线| 中文字幕av日韩精品| 亚洲精品**中文毛片| 欧美一区二区在线播放| 全黄一级裸体片| 国内精品99| 国产伦精品免费视频| 日本黄色一区二区三区| 亚洲欧美综合色| 成人免费观看毛片| 成人春色在线观看免费网站| 日韩在线观看免费全| 亚洲天堂一区在线观看| 国产成人久久精品77777最新版本| 欧美国产一区二区在线| 日韩三级免费| 69p69国产精品| 91成人精品一区二区| 国产精品久久久久9999高清| 91日韩久久| 黄色网址在线免费观看| 在线视频欧美精品| 蜜臀av一区二区三区有限公司| 综合av在线| 91精品视频免费| 国产女主播在线直播| 欧美性极品xxxx娇小| 中文字幕天堂av| 欧美亚洲不卡| 51国产成人精品午夜福中文下载| 国产高清视频在线观看| 日韩欧美国产黄色| 黄色网址在线视频| 亚洲精品字幕| 精品国产一区二区三区四区vr| 色呦呦在线免费观看| 欧美一区三区四区| 极品魔鬼身材女神啪啪精品| 精品一区二区三区av| 99亚洲精品视频| 成人av在线播放| 久久久精品国产| 国产麻豆一精品一男同| 亚洲视频1区2区| 在线观看中文av| 久久久久久免费视频| 亚洲专区在线视频| 天堂av最新在线| 精品国产污网站| 日本少妇全体裸体洗澡| proumb性欧美在线观看| 久久精品国产sm调教网站演员| 久久精品国产亚洲blacked| 亚州av一区二区| 国产在线高清| 欧美日韩国产一级二级| 麻豆视频在线免费看| 国产美女在线观看一区| 性高湖久久久久久久久aaaaa| 国产成人精品亚洲线观看| 97久久精品国产| 男人av在线| 欧美久久久久久蜜桃| 中文字幕av播放| 成人免费视频播放| 亚洲人成色77777| 成人精品视频| 51成人做爰www免费看网站| 九色porny丨国产首页在线| 精品视频中文字幕| 一本一道精品欧美中文字幕| 亚洲精品成a人| 天天插天天射天天干| 日日嗨av一区二区三区四区| 在线国产伦理一区| 国产精品网址| 国产精品久久久久一区二区| 羞羞网站在线看| 国产视频亚洲视频| 国产男男gay网站| 午夜精品国产更新| 国产三级在线观看完整版| 国产乱码精品一区二区三区忘忧草| 欧美人成在线观看| 精品久久精品| 国产精品v欧美精品v日韩| 婷婷激情一区| 欧美黑人xxxx| av网站在线播放| 日韩精品资源二区在线| 福利网址在线观看| 一区二区三区在线观看视频| 亚洲精品国产91| 成人免费毛片app| 91精品无人成人www| 亚洲高清在线| 一级黄色免费在线观看| 在线观看欧美理论a影院| 亚洲精品日韩av| 少妇精品视频一区二区免费看| 欧美韩日一区二区| 男人天堂久久久| 亚洲男人天堂网站| 黄色福利在线观看| 国产精品免费看| 亚洲日本一区二区三区在线不卡| 狠狠久久伊人| 亚洲自拍偷拍网址| 成人在线中文| 亲子乱一区二区三区电影 | 最新天堂中文在线| 亚洲欧美日韩国产综合精品二区 | 国产盗摄一区二区| xxxxxxxxx欧美| 国产一二三在线观看| 精品粉嫩aⅴ一区二区三区四区| 伊人免费在线观看高清版| 欧美日韩国产页| 亚洲国产精品久| 18欧美乱大交hd1984| 国产人妻大战黑人20p| av亚洲精华国产精华精华| 国产人妻精品久久久久野外| 青草av.久久免费一区| 国产a视频免费观看| 在线欧美三区| 成年人午夜视频在线观看| 午夜日韩av| 久久久天堂国产精品| 97精品中文字幕| 在线观看亚洲视频啊啊啊啊| 成人羞羞网站入口| 天天爽天天狠久久久| 久久综合色占| 日本一区视频在线观看| 亚洲综合图色| 欧美专区一二三| 精品一区毛片| 日韩少妇中文字幕| 第一社区sis001原创亚洲| 神马影院一区二区| 日韩1区2区| 致1999电视剧免费观看策驰影院| 久久中文字幕av| 一区二区不卡在线| 99精品美女| 婷婷视频在线播放| 欧美理论在线| 福利视频免费在线观看| 亚洲黄色毛片| 日韩免费毛片视频| 日本少妇一区二区| 91精品999| 国产成人午夜精品影院观看视频| 日本wwww色| 不卡一区中文字幕| 亚洲天堂视频一区| 国产精品免费免费| 中文字幕五月天| 亚洲二区在线观看| 国产原创视频在线| 欧美日韩在线直播| 亚洲国产精品久久久久久6q| 亚洲精品720p| 成人在线播放视频| 久久精品久久久久久| 欧美xxxx黑人又粗又长| 4k岛国日韩精品**专区| 超碰这里只有精品| 91久久伊人青青碰碰婷婷| 青青一区二区| 亚洲国产欧美一区二区三区不卡| 先锋资源久久| 男人天堂1024| 麻豆成人免费电影| 日本一级大毛片a一| 久久久久久久综合| www.av免费| 日韩欧美极品在线观看| 91久久国语露脸精品国产高跟| 欧美白人最猛性xxxxx69交| 欧洲视频在线免费观看| xxxxx91麻豆| 午夜欧美激情| 亚洲精品免费av| 夜色77av精品影院| 蜜臀av.com| 爽好多水快深点欧美视频| 黑人巨大猛交丰满少妇| 久久久国际精品| 伊人国产在线观看| 欧美日韩黄视频| 午夜福利理论片在线观看| 日韩一区二区三区xxxx| 在线女人免费视频| 99c视频在线| 日本精品黄色| 7777精品伊人久久久大香线蕉经典版下载 | 国产精品91一区二区| 四季av综合网站| 中文字幕在线观看不卡| 久久久久久久久久影院| 日韩一区二区免费在线观看| 黄色av网站在线| 午夜精品一区二区三区av| 亚洲精品大片| 日本一区二区免费看| 一区二区日本视频| 精人妻一区二区三区| 国产精品国模大尺度视频| 国产suv精品一区二区33| 亚洲国产天堂久久综合网| 超碰免费在线播放| 国产裸体写真av一区二区 | 国产亚洲精品日韩| 黑森林国产精品av| 动漫精品视频| 午夜国产一区| 中文字幕欧美视频| 中文字幕亚洲精品在线观看| 久久久久久久久久一级| 亚洲精品在线观看www| 69av成人| 国产在线精品一区二区三区》| 欧美在线日韩| 免费人成视频在线播放| 亚洲欧美影音先锋| 国产精品嫩草影院精东| 色伦专区97中文字幕| 亚洲精品555| 亚洲国产另类久久久精品极度| 日本亚洲欧美天堂免费| 日本一道本视频| 欧美在线观看一区二区| 国产精品麻豆一区二区三区 | 国产亚洲视频系列| 在线观看免费av片| 精品在线观看国产| 亚洲电影观看| 欧美久久久久久久| 久久国产免费| www.av欧美| 欧美性受极品xxxx喷水| 98在线视频| 最新热久久免费视频| 国产在线免费av| 欧美日韩成人综合| 黄色网在线免费看| 97久久精品午夜一区二区| 欧美在线不卡| 完美搭档在线观看| 欧美日韩中文字幕| 91精品国产综合久久久久久豆腐| 国产精品免费一区二区三区都可以| 三级电影一区| 杨幂一区二区国产精品| 亚洲成av人片在线| 日本大片在线观看| 国产精品三级在线| 在线观看国产精品入口| 老司机午夜免费福利| 狠狠躁夜夜躁人人爽天天天天97| 你懂的在线看| 成人国产精品日本在线| 国产精品theporn| 免费a级黄色片| 欧美日韩国产综合视频在线观看| 最新国产露脸在线观看| 国产综合欧美在线看| 首页亚洲欧美制服丝腿| 亚洲色图日韩精品| 亚洲成人av在线播放| 香蕉人妻av久久久久天天| 日韩暖暖在线视频| 91精品二区| 熟妇人妻久久中文字幕| 在线观看中文字幕不卡| 97超碰在线公开在线看免费| 国产亚洲情侣一区二区无 | 日本高清一区二区视频| 亚洲图片欧美色图| 成人激情电影在线看| αv一区二区三区| 久久久精品网| 草视频在线观看| 亚洲人成电影网站色| a√资源在线| 精品国产乱子伦一区| 免费一级肉体全黄毛片| 韩国v欧美v日本v亚洲v| 黄色一级大片在线免费观看| 亚洲精品aⅴ中文字幕乱码| 国产情侣一区二区三区| 黄页网站在线观看视频| 成人欧美一区二区三区黑人麻豆 |