精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

用無超參自動梯度下降訓(xùn)練ImageNet數(shù)據(jù)集

譯文 精選
開發(fā)
最近,我們團(tuán)隊推出了一種稱為自動梯度下降(AGD:automatic gradient descent)的優(yōu)化器,它可以在不使用超參數(shù)的情況下訓(xùn)練ImageNet數(shù)據(jù)集。基于這一優(yōu)化器算法,可以消除在模型訓(xùn)練時對昂貴且耗時的學(xué)習(xí)速率調(diào)整、學(xué)習(xí)速率衰減調(diào)度器等選項(xiàng)的需求。

譯者 | 朱先忠

審校 | 重樓

簡介

最近,我們團(tuán)隊推出了一種稱為自動梯度下降(AGD:automatic gradient descent)的優(yōu)化器,它可以在不使用超參數(shù)的情況下訓(xùn)練ImageNet數(shù)據(jù)集。基于這一優(yōu)化器算法,可以消除在模型訓(xùn)練時對昂貴且耗時的學(xué)習(xí)速率調(diào)整、學(xué)習(xí)速率衰減調(diào)度器等選項(xiàng)的需求。您可以在鏈接處找到我們發(fā)表的有關(guān)此算法的論文。

我與Jeremy Bernstein、Kevin Huang、Navid Azizan和Yisong Yue一起參與了這個項(xiàng)目。您可以參閱Jeremy先生的GitHub代碼庫以獲得一個干凈的Pytorch實(shí)現(xiàn),也可以參閱我的GitHub代碼庫以獲得具有更多功能的實(shí)驗(yàn)版本。下面的圖1總結(jié)了我們提出的AGD算法與Adam和SGD兩種優(yōu)化算法之間的對比情況。

圖1:實(shí)線顯示訓(xùn)練精度,虛線顯示測試精度

其中,左圖展示的是與我們的方法相反的具有默認(rèn)超參數(shù)的Adam和SGD算法在CIFAR-10數(shù)據(jù)集上的深度全連接網(wǎng)絡(luò)(FCN)上不理想的表現(xiàn)。中間圖展示的是Adam和SGD算法的學(xué)習(xí)率網(wǎng)格搜索對比情況。我們所開發(fā)的優(yōu)化器的性能與經(jīng)過充分調(diào)參后的Adam和SGD性能差不多。右圖展示了我們所開發(fā)的AGD算法將ImageNet數(shù)據(jù)集訓(xùn)練到相當(dāng)高的測試精度。

動機(jī)

任何訓(xùn)練過深度神經(jīng)網(wǎng)絡(luò)的人都可能有過不得不調(diào)整模型的學(xué)習(xí)速率的經(jīng)歷。這樣做的目的無處乎:(1)確保訓(xùn)練的最大效率;(2)找到正確的學(xué)習(xí)率可以顯著提高整體模型的泛化應(yīng)用能力。當(dāng)然,這個過程也會伴隨著開發(fā)人員的巨大代價的付出。

圖2:為什么學(xué)習(xí)率對模型優(yōu)化非常重要

為了最大限度地提高收斂速度,你總會想盡可能找到最佳學(xué)習(xí)率:這是很大的一個值!而且,目標(biāo)函數(shù)中的非線性項(xiàng)可能會把你折磨得“死去活來”。

然而,對于SGD算法來說,最佳學(xué)習(xí)率在很大程度上取決于正在訓(xùn)練的體系結(jié)構(gòu)。找到這個值通常需要一個代價高昂的網(wǎng)格搜索程序,需要涵蓋許多數(shù)量級內(nèi)容。此外,還需要選擇和調(diào)整其他超參數(shù),如動量和學(xué)習(xí)率衰減調(diào)度器。

為此,我們提出了一種稱為自動梯度下降(AGD)的優(yōu)化器,它不需要使用學(xué)習(xí)率就可以訓(xùn)練大范圍的架構(gòu)和數(shù)據(jù)集,可以在ImageNet數(shù)據(jù)集上從基礎(chǔ)模型一直擴(kuò)展訓(xùn)練到ResNet-50這樣的復(fù)雜模型。這種算法消除了對任何超參數(shù)調(diào)整的需要(因?yàn)榇怂惴ú恍枰治鲇行W(xué)習(xí)率和學(xué)習(xí)率衰減值),從而節(jié)省了計算成本,并大大加快了模型訓(xùn)練的過程。

為什么我們需要超參數(shù)呢?

究其原因,一個深度學(xué)習(xí)系統(tǒng)往往都是由許多相互關(guān)聯(lián)的組件組成:架構(gòu)、數(shù)據(jù)、損失函數(shù)和梯度等。這些組件的交互方式都是圍繞著一種結(jié)構(gòu)進(jìn)行的;但是,到目前為止,還沒有人確切地弄清楚這個結(jié)構(gòu)。所以,我們需要進(jìn)行大量的調(diào)整工作(例如學(xué)習(xí)率、初始化、調(diào)度器等),以確保快速收斂,并避免過度擬合。

然而,盡管完美地描述這些相互作用可以消除優(yōu)化過程中的所有自由度;但是,目前這些自由度都是通過手動超參數(shù)調(diào)整來實(shí)現(xiàn)的。二階方法中目前使用Hessian矩陣來表征目標(biāo)對權(quán)重擾動的敏感性,并以這種方式去除自由度——然而,這種方法可能計算密集,因此對于大型模型來說并不實(shí)用。

我們團(tuán)隊通過分析這些相互作用的特征,最終找到了AGD優(yōu)化方法:

  1. 對于給定的數(shù)據(jù)和架構(gòu),我們根據(jù)權(quán)重的變化來約束神經(jīng)網(wǎng)絡(luò)輸出的變化。
  2. 我們將目標(biāo)的變化(一次批運(yùn)算中所有輸入的總損失)與神經(jīng)網(wǎng)絡(luò)輸出的變化聯(lián)系起來。
  3. 我們將這些結(jié)果結(jié)合在一種所謂的多數(shù)最小化方法(majorise-minimise approach)中。我們對目標(biāo)進(jìn)行多數(shù)化——也就是說,我們推導(dǎo)出與目標(biāo)相切的目標(biāo)的上界。然后我們可以將這個上限降到最低,因?yàn)槲覀冎肋@會讓我們的算法加快收斂。如圖3所示,紅色曲線表示目標(biāo)函數(shù)的多數(shù)化,藍(lán)色曲線表示目標(biāo)函數(shù)。

圖3:左側(cè)面板顯示了多數(shù)最小化背后的基本思想

最小化目標(biāo)函數(shù)(藍(lán)色)是通過最小化一系列上限或多數(shù)(紅色)來實(shí)現(xiàn)的。右側(cè)面板顯示了權(quán)重的變化如何導(dǎo)致函數(shù)的變化,進(jìn)而導(dǎo)致單個數(shù)據(jù)點(diǎn)的損失的變化,從而導(dǎo)致目標(biāo)的變化。我們用?W來約束?L,并用它來構(gòu)建我們的多數(shù)化。

基于Pytorch框架的AGD算法實(shí)現(xiàn)

在本節(jié)中,我們將介紹我們所開發(fā)的AGD優(yōu)化算法的所有關(guān)鍵部分基于Pytorch框架的實(shí)現(xiàn)代碼。相應(yīng)的草圖推導(dǎo)可參考文后的附錄A。

參數(shù)操作

我們所使用的參數(shù)化與傳統(tǒng)PyTorch默認(rèn)值略有不同。AGD算法可以在不借助參數(shù)化支持的情況下即可完成;不過,使用參數(shù)化可以簡化分析過程。對于完全連接的層l,我們使用正交初始化,并進(jìn)行適當(dāng)?shù)目s放以便使奇異值具有大小:sqrt((l的輸入維度)/(l的輸出維度))。

import math
import torch
from torch.nn.init import orthogonal_

def singular_value(p):
 sv = math.sqrt(p.shape[0] / p.shape[1])
 if p.dim() == 4:
 sv /= math.sqrt(p.shape[2] * p.shape[3])
 return sv

class AGD:
 @torch.no_grad()
 def __init__(self, net, gain=1.0):

 self.net = net
 self.depth = len(list(net.parameters()))
 self.gain = gain #用于加速訓(xùn)練的可選用的超參數(shù)——在后面的任何實(shí)驗(yàn)中并不使用

 for p in net.parameters():
 if p.dim() == 1: raise Exception("Biases are not supported.")
 if p.dim() == 2: orthogonal_(p)
 if p.dim() == 4:
 for kx in range(p.shape[2]):
 for ky in range(p.shape[3]):
 orthogonal_(p[:,:,kx,ky])
 p *= singular_value(p)

在此,我們之所以使用這種規(guī)范化,是因?yàn)樗哂蠵yTorch默認(rèn)參數(shù)化所沒有的優(yōu)秀特征,包括寬度穩(wěn)定性、對激活函數(shù)中的抗爆炸式增長能力以及促進(jìn)特征學(xué)習(xí)。這與Greg Yang和Edward Hu二人開發(fā)的muP庫相似。

更新操作

這一步可以分成兩個單獨(dú)的部分。第一個是計算eta(η),即“自動學(xué)習(xí)率”,它實(shí)現(xiàn)對所有層的更新進(jìn)行縮放。注意,Eta對梯度范數(shù)有對數(shù)依賴性——當(dāng)梯度很小時,Eta近似為線性(就像標(biāo)準(zhǔn)優(yōu)化器一樣);但是,當(dāng)它們非常大時,對數(shù)會自動執(zhí)行一種梯度修剪。

@torch.no_grad()
 def step(self):
 G = 0
 for p in self.net.parameters():
 G += singular_value(p) * p.grad.norm(dim=(0,1)).sum()
 G /= self.depth
 eta = math.log(0.5 * (1 + math.sqrt(1 + 4*G)))

 for p in self.net.parameters():
 factor = singular_value(p) / p.grad.norm(dim=(0,1), keepdim=True)
 p -= self.gain * eta / self.depth * factor * p.grad

 return log

使用eta乘以層的權(quán)重范數(shù)、乘以歸一化梯度并除以深度來更新每個層。除以深度實(shí)現(xiàn)了按深度縮放。有趣的是,分析中沒有使用梯度歸一化,因?yàn)橄馎dam這樣的其他優(yōu)化器也啟發(fā)式地引入了類似的想法。

實(shí)驗(yàn)

進(jìn)行這些實(shí)驗(yàn)的目標(biāo)是為了測試AGD優(yōu)化算法的能力:(1)在廣泛的體系結(jié)構(gòu)和數(shù)據(jù)集上的收斂性能;以及(2)實(shí)現(xiàn)與調(diào)參后的Adam和SGD算法相當(dāng)?shù)臏y試精度。

接下來的圖4顯示了從完全連接網(wǎng)絡(luò)(FCN)到ResNet-50網(wǎng)絡(luò)的四種架構(gòu)在從CIFAR-10到ImageNet的數(shù)據(jù)集上的學(xué)習(xí)曲線。我們將實(shí)線所示的AGD優(yōu)化器與虛線所示的標(biāo)準(zhǔn)優(yōu)化器進(jìn)行比較(SGD基于ImageNet數(shù)據(jù)集,調(diào)優(yōu)后的Adam對應(yīng)于其他三種情況)。最上面一行顯示了訓(xùn)練目標(biāo)(損失)和自動學(xué)習(xí)率η。最下面一行顯示了訓(xùn)練和測試的準(zhǔn)確性。圖5展示了在8層FCN上進(jìn)行比較的AGD、調(diào)優(yōu)后的Adam與調(diào)優(yōu)后的SGD。我們看到所有三種算法的性能非常相似,達(dá)到了幾乎相同的測試精度。

圖6顯示,AGD在較寬的深度(2至32)和寬度(64至2048)范圍內(nèi)訓(xùn)練FCN。圖7顯示了AGD對批次大小(從32到4096)和4層FCN的依賴性。無論批量大小,它似乎都會收斂到一個很好的最優(yōu)值!

圖4——四種架構(gòu)上的AGD與Adam算法比較:CIFAR-10上的16層深的FCN、CIFAR-10的ResNet-18、CIFAR-100上的VGG-16和ImageNet-1k上的ResNet-50。AGD與超參數(shù)調(diào)優(yōu)后的Adam保持合理的速度(這需要網(wǎng)格搜索幾個數(shù)量級)!

這些實(shí)線表示AGD,虛線表示Adam(除了ImageNet,我們使用SGD)。最上面一行顯示了訓(xùn)練目標(biāo)(即損失)和訓(xùn)練期間自動學(xué)習(xí)率η的值。最下面一行顯示了訓(xùn)練和測試的準(zhǔn)確性。

圖5:具有均方誤差損失的深度為8的FCN網(wǎng)絡(luò)上的AGD、Adam與SGD算法比較

值得注意的是,Adam和SGD都調(diào)整了它們的學(xué)習(xí)率。在左邊圖形中,我們繪制了訓(xùn)練和測試目標(biāo)函數(shù)(即損失)。中間圖形顯示了訓(xùn)練和測試的準(zhǔn)確性。右邊圖形顯示了每個訓(xùn)練周期期間權(quán)重的平均值、最小值和最大值變化。

圖6:AGD算法在很大的深度和寬度范圍內(nèi)能夠自如地收斂。不過,較小的架構(gòu)往往缺乏實(shí)現(xiàn)低損耗的能力,但AGD仍可以訓(xùn)練它們!

圖7:為了檢查AGD算法不僅適用于批量大小128,這里還提供了一個深度為4的FCN模型的批量大小選擇

結(jié)論

總的來說,本文實(shí)現(xiàn)了一個“架構(gòu)感知”類型優(yōu)化器:自動梯度下降(AGD),它能夠在指定的批量范圍大小下訓(xùn)練成功從CIFAR-10數(shù)據(jù)集上的FCN等小型模型系統(tǒng)直到大型數(shù)據(jù)集ImageNet上的ResNet-50等大型模型系統(tǒng),而無需手動進(jìn)行超參數(shù)調(diào)整。

雖然使用AGD并沒有從機(jī)器學(xué)習(xí)中完全刪除所有的超參數(shù),但剩下的超參數(shù)——批量大小和體系結(jié)構(gòu)——通常能夠?qū)崿F(xiàn)均衡時間/計算方面的預(yù)算代價。

盡管如此,仍然有許多工作要做。例如,我們沒有明確考慮由于批次大小而引入梯度的隨機(jī)性。此外,我們也沒有研究像權(quán)重衰減這樣的規(guī)則化。雖然我們在增加對仿射參數(shù)(在批處理范數(shù)層中)和偏差項(xiàng)的支持方面做了一些工作,但我們還沒有對其進(jìn)行廣泛的測試,也沒有像本文引用的其他結(jié)果那樣從理論上證明它是合理的。

也許最重要的是,我們?nèi)匀恍枰M(jìn)行轉(zhuǎn)換器(Transformer)所需的分析,并在NLP任務(wù)中測試AGD。在OpenWebText2上對GPT-2進(jìn)行的初步實(shí)驗(yàn)表明,AGD在這種情況下也非常有效!

最后,如果你想嘗試使用AGD算法的話,請查看Jeremy的GitHub代碼以獲得一個干凈的版本,或者查看我的GitHub以獲得支持偏置和仿射參數(shù)的開發(fā)版本!我們希望你會覺得這個算法有用。

附錄A

最后,我們將在這里簡要介紹一下我們論文證明過程中的一些重要步驟。這是為那些想看看此算法的主要思想是如何結(jié)合在一起的人設(shè)計的,而不需要經(jīng)過我們論文中的完整證明。

其中,方程(1)明確規(guī)定了如何將數(shù)據(jù)集S上的總體目標(biāo)分解為各個數(shù)據(jù)點(diǎn)。L表示損失,x表示輸入,y表示目標(biāo),w表示權(quán)重。方程(2)顯示了目標(biāo)線性化誤差的分解——在權(quán)重Δw發(fā)生變化的情況下,高階項(xiàng)對損失ΔL(w)變化的貢獻(xiàn)。目標(biāo)的線性化誤差很重要,因?yàn)樗扔谠跈?quán)重w-bounding下擴(kuò)展的損失中的高階項(xiàng)的貢獻(xiàn),這將告訴我們在高階項(xiàng)變得重要之前我們可以移動多遠(yuǎn),并確保我們正在采取合理大小的步長實(shí)現(xiàn)收斂。

方程(2)中的RHS上的第一項(xiàng)是兩個高維向量、模型的線性化誤差和損耗相對于f(x)的導(dǎo)數(shù)之間的內(nèi)積。由于沒有明確的理由說明為什么這兩個向量應(yīng)該對齊,我們假設(shè)它們的內(nèi)積為零。

將L(W+ΔW)加到方程(2)的每一側(cè),并注意到損失的線性化誤差恰好是布雷格曼散度(Bregman Divergence),我們可以進(jìn)一步簡化符號表示:

Bregman散度是兩點(diǎn)之間距離的度量(在這種情況下,是神經(jīng)網(wǎng)絡(luò)兩個不同參數(shù)選擇的輸出),用嚴(yán)格凸函數(shù)定義——在這種情況中,即損失函數(shù)。

對于均方誤差損失來說,計算Bregman散度實(shí)際上是非常簡單的。并且,我們?nèi)菀椎贸鋈缦卤磉_(dá):

其中,d是網(wǎng)絡(luò)的輸出維度。我們現(xiàn)在可以斷言存在以下縮放表達(dá)式。盡管所有這些都有點(diǎn)武斷;但是,采用這種形式會使問題分析變得更加簡單。

我們對網(wǎng)絡(luò)輸出的大小使用以下兩個界限。其中,方程(5)限制了網(wǎng)絡(luò)輸出的大小,并且僅將(輸入縮放)和(權(quán)重縮放)應(yīng)用于完全連接的網(wǎng)絡(luò)。方程(6)限制了f(x)的最大變化與權(quán)重W的變化。(6)中的第二個不等式在大深度下最緊,但在任何深度下都成立。

現(xiàn)在,我們將方程(6)代入方程(4),并將所有項(xiàng)顯式展開,得到方程(7)。

在關(guān)于梯度條件的附加假設(shè)下,我們可以用方程(8)中定義的G代替方程(7)中的和,這在本文中進(jìn)行了詳細(xì)討論。最后,我們得到方程(9)——這是多數(shù)化——圖3中的紅線。我們通過對η進(jìn)行微分來最小化多數(shù)化,并在exp(η)中求解由此產(chǎn)生的二次方,保留正解。于是,我們有了以下新的表達(dá)形式:

至此,就完成了我們對自動梯度下降的推導(dǎo)介紹。如果您有任何意見、問題或其他類型的反饋,請告訴我們。

最后需要說明的是,本博客中的所有圖片都是由我們論文的作者制作的,圖2受鏈接https://www.jeremyjordan.me/nn-learning-rate/文章中的圖啟發(fā)而制作的。

譯者介紹

朱先忠,51CTO社區(qū)編輯,51CTO專家博客、講師,濰坊一所高校計算機(jī)教師,自由編程界老兵一枚。

原文標(biāo)題:Train ImageNet without Hyperparameters with Automatic Gradient Descent,作者:Chris Mingard

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2022-01-06 09:57:02

數(shù)據(jù)計算機(jī)神經(jīng)網(wǎng)絡(luò)

2025-04-10 09:15:03

2017-07-25 12:59:10

機(jī)器學(xué)習(xí)梯度下降算法

2019-03-28 07:31:03

2017-03-22 12:25:29

機(jī)器學(xué)習(xí)梯度下降法

2022-07-04 15:09:55

超大數(shù)據(jù)集數(shù)據(jù)分析瘦身

2017-08-28 18:41:34

PythonLogistic回歸隨機(jī)梯度下降

2023-05-17 11:33:45

梯度下降機(jī)器學(xué)習(xí)

2018-04-26 13:41:57

深度學(xué)習(xí)人工智能機(jī)器學(xué)習(xí)

2022-03-03 10:49:46

Python自動追蹤代碼

2018-07-20 14:58:16

深度學(xué)習(xí)梯度下降損失函數(shù)

2025-10-27 09:04:00

2021-04-21 20:42:42

Nadam梯度優(yōu)化

2014-06-19 14:14:35

機(jī)器學(xué)習(xí)

2017-03-13 09:48:04

神經(jīng)網(wǎng)絡(luò)算法函數(shù)

2020-07-02 14:25:06

數(shù)據(jù)庫工具技術(shù)

2025-02-24 08:40:00

神經(jīng)網(wǎng)絡(luò)模型矩陣變換

2023-07-23 17:30:36

論文模型

2022-12-31 14:12:58

神經(jīng)網(wǎng)絡(luò)訓(xùn)練

2024-09-14 13:50:00

AI訓(xùn)練
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

久久福利一区| 国产免费人做人爱午夜视频| 日本精品www| 亚洲无码精品国产| 欧美日韩一本| 一区二区成人在线视频| 中文字幕在线日韩| 国产 日韩 亚洲 欧美| 国产精品免费无遮挡| 精品久久精品| 日本精品视频一区二区| 精品久久久久久综合日本| 在线观看亚洲网站| 日韩免费在线电影| 欧美国产日韩一二三区| 欧美激情视频在线| 国产伦精品一区二区三区妓女下载| 888av在线| 妖精视频一区二区三区| 午夜影院在线观看欧美| 国产精品乱码一区二区三区| 男女性高潮免费网站| 午夜精品久久久久久毛片| 亚洲一本大道在线| 国产精品二区三区四区| 国产亚洲欧美久久久久| 91精品日本| 一区二区三区在线不卡| 91日本在线视频| 日本高清一二三区| 亚洲另类av| 精品国产伦一区二区三区观看方式| 国产欧美123| 亚洲av无码乱码国产精品| 国产精品hd| 亚洲福利精品在线| 成人综合视频在线| 黄色片免费在线| 蜜桃91丨九色丨蝌蚪91桃色| 精品国产一区久久久| 无人码人妻一区二区三区免费| 18视频在线观看网站| 成人av网站免费观看| 2020欧美日韩在线视频| 草草影院第一页| 亚洲日本网址| 亚洲欧美日韩国产另类专区| 国产精品对白刺激久久久| 国产女无套免费视频| 国产精品久久| 亚洲激情电影中文字幕| 男女爽爽爽视频| 日本中文字幕视频在线| 成人自拍视频在线观看| 日本高清不卡在线| 午夜国产福利一区二区| 欧美顶级大胆免费视频| 精品国产一区二区三区久久久蜜月| 天堂av手机在线| 国产乱码午夜在线视频| 中文字幕第一区综合| 欧美在线播放一区| 国产国语亲子伦亲子| 一区二区三区福利| 色av中文字幕一区| 国产免费一区二区三区最新6| 超碰一区二区| 一区二区三区在线观看国产| 国产91在线亚洲| 欧美精品videossex少妇| 国产亚洲欧美中文| 国产高清在线精品一区二区三区| 亚洲精品久久久久久无码色欲四季| 国产精品99久久久久久似苏梦涵| 欧美一级视频在线观看| 亚洲欧美日韩激情| 精品动漫3d一区二区三区免费版 | 日韩极品视频在线观看| 亚洲三级中文字幕| 国产在线国偷精品产拍免费yy| 欧美国产日韩一区二区在线观看 | 国产在线视频欧美| 天堂网av手机版| 婷婷久久一区| 亚洲女人天堂色在线7777| 亚洲色图欧美自拍| av综合网页| 欧美日韩免费高清一区色橹橹| 日韩欧美不卡在线| 国产视频在线播放| 亚洲国产精品国自产拍av| 亚洲欧美日韩另类精品一区二区三区| 婷婷视频在线观看| 国产九色精品成人porny| 国产精品网站入口| 亚洲欧美偷拍一区| 亚洲日本激情| 欧美激情免费看| 亚洲欧美综合另类| 999亚洲国产精| 国产精品精品久久久久久| 一级片视频在线观看| 麻豆精品视频在线| 国产精品私拍pans大尺度在线| 国产偷拍一区二区| 91麻豆.com| 精品午夜一区二区三区| 97电影在线看视频| 亚洲妇熟xx妇色黄| 亚洲精品无码国产| a级片免费在线观看| 一区二区三区在线影院| 欧美激情成人网| 蜜桃在线一区| 欧美一卡2卡三卡4卡5免费| 污视频网站观看| jizzjizz少妇亚洲水多| 欧美日韩一区二区三区高清| 国产又大又黄又粗的视频| 久久综合给合| 国产一区av在线| gv天堂gv无码男同在线观看| 精品视频免费| 久久久久久网址| 国产中文字字幕乱码无限| 激情欧美日韩一区| 国产精品视频yy9099| 一区精品在线观看| 黄一区二区三区| 亚洲最大福利网站| 国产 日韩 欧美 精品| www.日韩精品| 欧美日韩一区二| 最新97超碰在线| 婷婷综合在线观看| 亚洲人成色77777| 精品三级av在线导航| 亚洲欧美另类自拍| 日韩久久精品视频| 日本伊人午夜精品| 亚洲精品免费av| 日本黄视频在线观看| 久久久亚洲欧洲日产国码αv| 四虎永久国产精品| 成人影院www在线观看| 亚洲777理论| 伊人久久一区二区三区| 一本一本久久a久久综合精品| 久久久久久久久久久网站| 国产乱人乱偷精品视频a人人澡| 欧美激情一区二区三区全黄| 亚洲中文字幕久久精品无码喷水| 亚洲三级精品| 青青a在线精品免费观看| 瑟瑟在线观看| 最新国产精品久久精品| heyzo亚洲| 日韩成人一级| 美日韩在线视频| 国产超碰人人爽人人做人人爱| 成人精品小蝌蚪| 黄色片网址在线观看| 日韩欧美黄色| 日本精品视频在线观看| 99精品久久久久久中文字幕| 亚洲视频在线观看三级| 国产av无码专区亚洲精品| 亚洲精品亚洲人成在线观看| 日本欧美精品在线| 69xxxx欧美| 欧美一级片在线观看| 欧美 日韩 成人| 一区免费视频| 免费在线观看一区二区| 色婷婷av在线| 欧美日韩精品一二三区| 四虎地址8848| 日韩电影在线一区二区| 国产精品视频免费观看| 在线天堂资源www在线污| 日韩欧美黄色影院| а天堂中文在线资源| 国产美女视频一区| 成人在线观看你懂的| 国产成人ay| 5278欧美一区二区三区| eeuss影院www在线播放| 日韩欧美国产视频| 成年女人免费视频| 中文字幕一区二区三区欧美日韩| 成人免费观看网站| 欧美人与性动交xxⅹxx| 日韩高清人体午夜| 91精品国产高潮对白| 久久久国产一区二区三区四区小说| 性生活免费在线观看| 亚洲私人影院| 亚洲免费视频一区| 男人的天堂久久| 成人午夜两性视频| 韩国中文字幕在线| 精品亚洲一区二区三区在线观看| 日韩成人高清视频| 欧美国产乱子伦| www.四虎精品| 经典三级在线一区| 国产av无码专区亚洲精品| 欧美成人国产| 亚洲影院高清在线| 成人看片网站| 午夜精品福利在线观看| 天天操天天干天天| 欧美日韩久久一区二区| 日韩免费视频一区二区视频在线观看| 国产精品福利一区| 最新av免费在线观看| 欧美freesextv| 久久99精品久久久久子伦| 神马午夜在线视频| 国产亚洲a∨片在线观看| 亚洲国产av一区二区| 欧美三级电影在线看| 五月婷婷开心网| 亚洲午夜羞羞片| 中文字幕第69页| 国产色婷婷亚洲99精品小说| 第四色在线视频| 老司机久久99久久精品播放免费| 日本在线免费观看一区| 91大神在线观看线路一区| 91国产精品视频在线| 国产乱子伦三级在线播放| 欧美色综合网站| 国产精品久免费的黄网站| 亚洲va国产天堂va久久en| 五月天色婷婷丁香| 成av人片一区二区| 熟妇无码乱子成人精品| 精品一区二区在线免费观看| 9色视频在线观看| 成人三级av在线| 91传媒视频免费| 996久久国产精品线观看| 久久久久久久av| 亚洲羞羞网站| 欧美另类在线观看| 黄色电影免费在线看| 日韩av综合网| 三级做a全过程在线观看| 日韩精品极品毛片系列视频| 天堂av在线免费| 亚洲国产成人精品电影| 四虎精品一区二区三区| 偷拍欧美精品| 久久久久999| 国产精品久久麻豆| 欧美裸体xxxx极品少妇| 黄色美女视频在线观看| 亚洲精品日韩久久久| 天天综合在线视频| 日韩精品在线播放| 岛国在线视频免费看| 深夜精品寂寞黄网站在线观看| av中文天堂在线| 国产亚洲精品高潮| 日本天堂在线观看| 欧美日韩国产123| 久久99亚洲网美利坚合众国| 98精品在线视频| 男人皇宫亚洲男人2020| 国产精品揄拍500视频| www.欧美视频| 99re热精品| 久久伊人国产| 久久久亚洲天堂| 日本综合在线| 美女久久久久久久| 草草在线视频| 国产精品久久久久久亚洲调教| 成人国产精品一区二区网站| 国产成人精品在线播放| 91www在线| 国产精品91在线观看| 欧美性www| 国产精品裸体一区二区三区| 亚洲宅男网av| 日本免费在线视频观看| 欧美日韩在线播放视频| 中文字幕久久综合| av亚洲免费| 狠狠干视频网站| 午夜在线一区| 精品久久久久久久久久中文字幕| 久久久青草婷婷精品综合日韩| 午夜视频在线网站| 蜜臀av性久久久久蜜臀aⅴ流畅| 久久综合桃花网| 久久夜色精品国产噜噜av| 成人手机在线免费视频| 欧美国产精品中文字幕| 国产无遮挡又黄又爽| 欧美亚洲精品一区| 成人一级免费视频| 91福利国产精品| 亚洲精品网站在线| 在线日韩欧美视频| aiai在线| 午夜精品www| 高清一区二区| 日韩久久久久久久久久久久久| 国产精品黄色| 午夜大片在线观看| 国产人妖乱国产精品人妖| 日韩av无码中文字幕| 欧美精品电影在线播放| 国产视频在线一区| 国产午夜精品免费一区二区三区| 欧洲精品二区| 亚洲va电影大全| 成人羞羞视频在线看网址| 在线视频不卡一区二区| 免费欧美日韩| 国产草草浮力影院| 久久综合九色综合久久久精品综合 | 中文在线8资源库| 国产精品国产精品国产专区蜜臀ah| 日韩欧美中文| 亚洲欧洲日夜超级视频| 久久精品观看| 亚洲 欧美 日韩在线| 亚洲一区二区视频在线观看| av中文字幕观看| 久久成人在线视频| www视频在线观看| 91一区二区三区| 一本一本久久a久久综合精品| 日韩爱爱小视频| 成人午夜又粗又硬又大| 午夜精品一区二区三区视频| 欧美日韩国产天堂| 午夜伦全在线观看| 国产精品丝袜久久久久久不卡| 欧美特黄一级大片| 黄色片一级视频| 2021国产精品久久精品| 亚洲婷婷综合网| 亚洲欧美国产日韩中文字幕| 高清不卡av| 日本一区不卡| 日韩中文字幕区一区有砖一区| 成人免费无遮挡无码黄漫视频| 亚洲视频一区二区在线| 亚洲一区在线观| 久久影院中文字幕| 日韩精品一区二区三区中文| 欧美日韩国产免费一区二区三区| 亚洲欧美久久| 欧美性猛交xxxx乱| 欧美日韩亚洲另类| 麻豆传媒视频在线| 欧美一区二三区| 国产精品日韩精品中文字幕| 少妇激情一区二区三区| 成人免费在线播放视频| 精品国产亚洲av麻豆| 国产亚洲日本欧美韩国| 久久青草视频| 日本道在线视频| 成人91在线观看| 超碰在线观看91| 久久九九有精品国产23| 亚洲国产中文在线| 久久美女福利视频| 国产精品久久午夜夜伦鲁鲁| 在线观看免费av片| 亚洲性生活视频在线观看| 国产91亚洲精品久久久| 四虎精品欧美一区二区免费| 成人aaaa免费全部观看| 99re热视频| 亚洲社区在线观看| 久草在线资源福利站| 日本成人黄色免费看| 精一区二区三区| 日韩精品一区三区| 中文字幕日韩av| 99re热精品视频| 久久综合伊人77777麻豆最新章节| 亚洲天堂av一区| 同心难改在线观看| 午夜欧美大片免费观看| 精品国产一区二区三区av片| 国产男女无遮挡猛进猛出| 欧美日韩国产精品一区| 日韩一级片免费看| 国产精品男女猛烈高潮激情| 国内精品美女在线观看| 亚洲av成人无码久久精品| 日韩精品一区二区在线观看| 日韩欧美精品一区二区综合视频|