精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

機(jī)器學(xué)習(xí)的七大謠傳,這都是根深蒂固的執(zhí)念吧

開發(fā) 開發(fā)工具 機(jī)器學(xué)習(xí)
在本文中,作者總結(jié)了機(jī)器學(xué)習(xí)研究中常見的七大謠傳,他們很多都是我們以前的固有概念,而最近又有新研究對它們提出質(zhì)疑。所以在為機(jī)器學(xué)習(xí)填坑的生涯中,快自檢這七個言傳吧。

在學(xué)習(xí)深度學(xué)習(xí)的過程中,我們常會遇到各種謠傳,也會遇到各種想當(dāng)然的「執(zhí)念」。在本文中,作者總結(jié)了機(jī)器學(xué)習(xí)研究中常見的七大謠傳,他們很多都是我們以前的固有概念,而最近又有新研究對它們提出質(zhì)疑。所以在為機(jī)器學(xué)習(xí)填坑的生涯中,快自檢這七個言傳吧。

所以下面七個問題是你的「執(zhí)念」嗎?

  • TensorFlow 是個張量運(yùn)算庫?
  • 不聽不聽,還是要用測試集調(diào)試調(diào)試模型的……
  • 訓(xùn)練數(shù)據(jù)大概對模型訓(xùn)練都是有用的吧。
  • 訓(xùn)練超深殘差網(wǎng)絡(luò)怎么少得了批標(biāo)準(zhǔn)化(BN)!
  • 注意力機(jī)制難道不是卷積網(wǎng)絡(luò)的替代品嗎?
  • 不管怎么說,圖像數(shù)據(jù)集應(yīng)該都是接近真實(shí)分布的吧。
  • 主導(dǎo)分類的局部輸入,難道不正是解釋了神經(jīng)網(wǎng)絡(luò)嗎?

謠傳一:TensorFlow 是一個張量運(yùn)算庫

事實(shí)上,TensorFlow 是矩陣而不是張量運(yùn)算庫,這兩者的區(qū)別非常大。

在 NeurIPS 2018 的論文 Computing Higher Order Derivatives of Matrix and Tensor Expressions 中,研究者表明,他們基于張量微積分(Tensor Calculus)所建立的新自動微分庫具有明顯更緊湊(compact)的表達(dá)式樹(expression trees)。這是因?yàn)椋瑥埩课⒎e分使用了索引標(biāo)識,進(jìn)而使前向模式和反向模式的處理方式相同。

與此相反,矩陣微積分出于標(biāo)識方便的考慮隱藏了索引,這也通常會導(dǎo)致自動微分的表達(dá)式樹顯得過于復(fù)雜。

若有矩陣的乘法運(yùn)算:C=AB。在前向模式中,有,而在反向模式中,則有。為了正確完成乘法計算,我們需要注意乘法的順序和轉(zhuǎn)置的使用。對于機(jī)器學(xué)習(xí)開發(fā)者而言,這只是在標(biāo)識上的一點(diǎn)困惑,但對于程序而言,這是一個計算上的開銷。

以下是另一個例子,毫無疑問意義更大一些:對于求行列式 c=det(A)。在前向模式中,有,而在反向模式中,則有。這里可以明顯看出,無法使用同一個表達(dá)式樹來表示兩種模式,因?yàn)槎呤怯刹煌\(yùn)算組成的。

總的來說,TensorFlow 和其他庫(如 Mathematica、Maple、 Sage、SimPy、ADOL-C、TAPENADE、TensorFlow, Theano、PyTorch 和 HIPS autograd)實(shí)現(xiàn)的自動微分方法,會在前向模式和反向模式中,得出不同的、低效的表達(dá)式樹。而在張量微積分中,通過索引標(biāo)識保留了乘法的可交換性,進(jìn)而輕松避免了這些問題(具體的實(shí)現(xiàn)原理,請閱讀論文原文)

研究者通過反向傳播,在三個不同問題上,測試了反向模式自動微分新方法的性能,并度量了其計算 Hessian 矩陣所消耗的時間。

頭一個問題是優(yōu)化一個形如 xAx 的二次函數(shù);第二個問題是求解一個邏輯回歸;第三個問題是求解矩陣分解。

在 CPU 上,新方法與當(dāng)下流行的 TensorFlow、Theano、PyTorch 和 HIPS autograd 等自動微分庫相比,要快兩個數(shù)量級。

在 GPU 上,研究者發(fā)現(xiàn),新方法的提速更加明顯,超出流行庫的速度近似三個數(shù)量級。

意義:利用目前的深度學(xué)習(xí)庫完成對二次或更高階函數(shù)的求導(dǎo),所花費(fèi)的成本比本應(yīng)消耗的更高。這包含了計算諸如 Hessian 的通用四階張量(例:在 MAML 中,以及二階牛頓法)。幸運(yùn)的是,在「深度」學(xué)習(xí)中,二階函數(shù)并不常見。但在「傳統(tǒng)」機(jī)器學(xué)習(xí)中,它們卻廣泛存在:SVM對偶問題、最小二乘回歸、LASSO,高斯過程……

謠傳二:機(jī)器學(xué)習(xí)研究者并不使用測試集進(jìn)行驗(yàn)證

在機(jī)器學(xué)習(xí)的頭一門課中,我們會學(xué)習(xí)到將數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證集以及測試集。將在訓(xùn)練集上訓(xùn)練得到模型,在驗(yàn)證集上進(jìn)行效果評估,得出的效果用以指導(dǎo)開發(fā)者調(diào)節(jié)模型,以求在真實(shí)場景下獲得效果非常好的模型。直到模型調(diào)節(jié)好之后,才應(yīng)該使用測試集,提供模型在真實(shí)場景下實(shí)際表現(xiàn)的無偏估計。如果開發(fā)者「作弊」地在訓(xùn)練或驗(yàn)證階段使用了測試集,那么模型就很可能遇到對數(shù)據(jù)集偏差產(chǎn)生過擬合的風(fēng)險:這類偏差信息是無法在數(shù)據(jù)集外泛化得到的。

在機(jī)器學(xué)習(xí)研究高度競爭的環(huán)境下,對新算法/模型的評估,通常都會使用其在測試集上的表現(xiàn)。因此對于研究者而言,沒有理由去寫/提交一篇測試集效果不 SOTA 的論文。這也說明在機(jī)器學(xué)習(xí)研究領(lǐng)域,總體而言,使用測試集進(jìn)行驗(yàn)證是一個普遍現(xiàn)象。

這種「作弊」行為的影響是什么?

在論文 Do CIFAR-10 Classifiers Generalize to CIFAR-10? 中,研究者們通過在 CIFAR-10 上建立了一個新的測試集,來研究此問題。為此,他們解析標(biāo)注了來自 Tiny Images 庫的圖像,就像最初的數(shù)據(jù)采集過程一樣。

常用測試集帶來過擬合?你真的能控制自己不根據(jù)測試集調(diào)參嗎

研究者們之所以選擇 CIFAR-10,是因?yàn)樗菣C(jī)器學(xué)習(xí)界使用最廣泛的數(shù)據(jù)集之一,也是 NeurIPS 2017 中第二受歡迎的數(shù)據(jù)集(在 MNIST 之后)。CIFAR-10 數(shù)據(jù)集的創(chuàng)建過程也有完善公開的文檔記錄。而龐大的 Tiny Images 庫中,也有足夠的細(xì)粒度標(biāo)簽數(shù)據(jù),進(jìn)而使得在盡量不引起分布偏移的情況下重建一個測試集成為了可能。

機(jī)器學(xué)習(xí)

研究者發(fā)現(xiàn),很多神經(jīng)網(wǎng)絡(luò)模型在從原來的測試集切換到新測試集的時候,都出現(xiàn)了明顯的準(zhǔn)確率下降(4% - 15%)。但各模型的相對排名依然相對穩(wěn)定。

機(jī)器學(xué)習(xí)

總的來說,相較于表現(xiàn)較差的模型,表現(xiàn)較好模型的準(zhǔn)確率下降程度也相對更小。這是一個振奮人心的消息,因?yàn)橹辽僭?CIFAR-10 上,隨著研究社區(qū)發(fā)明出更好機(jī)器學(xué)習(xí)模型/方法,由于「作弊」得到的泛化損失,也變得更加輕微。

謠傳三:神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程會使用訓(xùn)練集中的所有數(shù)據(jù)點(diǎn)。

有這樣一個常見說法,數(shù)據(jù)是新的原油(財富),數(shù)據(jù)量越大,我們就能將數(shù)據(jù)相對不足的、過參數(shù)化的深度學(xué)習(xí)模型訓(xùn)練得越好。

在 ICLR 2019 的一篇論文 An Empirical Study of Example Forgetting During Deep Neural Network Learning 中,研究者們表示在多個常見的較小圖像數(shù)據(jù)集中,存在顯著冗余。令人震驚的是,在 CIFAR-10 中,我們可以在不顯著影響測試集準(zhǔn)確率的情況下剔除 30% 的數(shù)據(jù)點(diǎn)。

機(jī)器學(xué)習(xí)

當(dāng)神經(jīng)網(wǎng)絡(luò)在 t+1 時刻給出誤分類、而在 t 時刻給出了準(zhǔn)確的分類時,就稱為發(fā)生了遺忘事件(forgetting event)。這里的「時刻」是指訓(xùn)練網(wǎng)絡(luò)的隨機(jī)梯度下降(SGD)的更新次數(shù)。為了讓記錄遺忘事件變得可行,研究者每次只在用于完成 SGD 更新的小批量數(shù)據(jù)上運(yùn)行神經(jīng)網(wǎng)絡(luò),而不是在數(shù)據(jù)集的單個樣本上運(yùn)行。對于不會經(jīng)歷遺忘事件的樣本,稱之為不可遺忘樣本(unfogettable example)。

研究者發(fā)現(xiàn),MNIST 中 91.7%、permutedMNIST 中 75.3%、CIFAR-10 中 31.3% 以及 CIFAR-100 中 7.62% 的數(shù)據(jù)屬于不可遺忘樣本。這符合直觀理解,因?yàn)殡S著圖像數(shù)據(jù)集的多樣性和復(fù)雜性上升,神經(jīng)網(wǎng)絡(luò)理應(yīng)遺忘更多的樣本。

機(jī)器學(xué)習(xí)

相較于不可遺忘樣本,可遺忘樣本似乎表現(xiàn)了更多不尋常的獨(dú)特特征。研究者將其類比于 SVM 中的支持向量,因?yàn)樗鼈兯坪鮿澐至藳Q策邊界。

機(jī)器學(xué)習(xí)

與此相反,不可遺忘樣本則編碼了絕大部分的冗余信息。如果將樣本按其不可遺忘性(unforgettability)進(jìn)行排序,就可以通過刪除絕大部分的不可遺忘樣本,而對數(shù)據(jù)集完成壓縮。

在 CIFAR-10 中,30% 的數(shù)據(jù)可以在不影響測試集準(zhǔn)確率的情況下移除,而刪除 35% 的數(shù)據(jù)則會產(chǎn)生 0.2% 的微小測試準(zhǔn)確率下降。如果所移除的 30% 數(shù)據(jù)是隨機(jī)挑選而非基于不可遺忘性,那么就會導(dǎo)致約 1% 的顯著下降。

機(jī)器學(xué)習(xí)

與此類似,在 CIFAR-100 上,8% 的數(shù)據(jù)可以在不影響測試集準(zhǔn)確率的情況下移除。

這些發(fā)現(xiàn)表明,在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中,存在明顯的數(shù)據(jù)冗余,就像 SVM 的訓(xùn)練中,非支持向量的數(shù)據(jù)可以在不影響模型決策的情況下移除。

意義:如果在開始訓(xùn)練之前,就能確定哪些樣本是不可遺忘的,那么我們就可以通過刪除這些數(shù)據(jù)來節(jié)省存儲空間和訓(xùn)練時間。

謠傳四:我們需要批標(biāo)準(zhǔn)化來訓(xùn)練超深度殘差網(wǎng)絡(luò)。

長久以來,人們都相信「通過隨機(jī)初始參數(shù)值和梯度下降,直接優(yōu)化有監(jiān)督目標(biāo)函數(shù)(如:正確分類的對數(shù)概率)來訓(xùn)練深度網(wǎng)絡(luò),效果不會很好。」

從那時起,就有很多聰明的隨機(jī)初始化方法、激活函數(shù)、優(yōu)化方法以及其他諸如殘差連接的結(jié)構(gòu)創(chuàng)新,來降低利用梯度下降訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的難度。

但真正的突破來自于批標(biāo)準(zhǔn)化(batch normalization)的引入(以及其他的后續(xù)標(biāo)準(zhǔn)化技術(shù)),批標(biāo)準(zhǔn)化通過限制深度網(wǎng)絡(luò)每層的激活值尺度,來緩和梯度消失、爆炸等問題。

值得注意的是,在今年的論文 Fixup Initialization: Residual Learning Without Normalization 中,研究表明在不引入任何標(biāo)準(zhǔn)化方法的情況下,通過使用 vanilla SGD,可以有效地訓(xùn)練一個 10,000 層的深度網(wǎng)絡(luò)。

機(jī)器學(xué)習(xí)

研究者比較了在 CIFAR-10 上,不同深度殘差網(wǎng)絡(luò)訓(xùn)練一個 epoch 的結(jié)果。并發(fā)現(xiàn),雖然標(biāo)準(zhǔn)初始化方法在 100 層的網(wǎng)絡(luò)上失敗了,但 Fixup 和批標(biāo)準(zhǔn)化都在 10,000 層的網(wǎng)絡(luò)上成功了。

機(jī)器學(xué)習(xí)

研究者通過理論分析,證明了「特定神經(jīng)層的梯度范數(shù),以某個隨網(wǎng)絡(luò)深度增加而增大的數(shù)值為期望下界」,即梯度爆炸問題。

為避免此問題,F(xiàn)ixup 中的核心思想是在每 L 個殘差分支上,對 m 個神經(jīng)層的權(quán)重,使用同時依賴于 L 和 m 的因子進(jìn)行調(diào)整。」

機(jī)器學(xué)習(xí)

Fixup 使得能夠在 CIFAR-10 上以高學(xué)習(xí)速率訓(xùn)練一個 110 層的深度殘差網(wǎng)絡(luò),得到的測試集表現(xiàn)和利用批標(biāo)準(zhǔn)化訓(xùn)練的同結(jié)構(gòu)網(wǎng)絡(luò)效果相當(dāng)。

機(jī)器學(xué)習(xí)

機(jī)器學(xué)習(xí)

研究者也進(jìn)一步展示了在沒有任何標(biāo)準(zhǔn)化處理下,基于 Fixup 得到的神經(jīng)網(wǎng)絡(luò)在 ImageNet 數(shù)據(jù)集和英語-德語機(jī)器翻譯任務(wù)上相當(dāng)?shù)臏y試結(jié)果。

謠傳五:注意力>卷積

在機(jī)器學(xué)習(xí)領(lǐng)域,有一個正得到認(rèn)同的說法,認(rèn)為注意力機(jī)制是卷積的更優(yōu)替代。重要的是 Vaswani et al 注意到「一個可分離卷積的計算成本,和一個自注意力層與一個逐點(diǎn)前饋層結(jié)合后的計算成本一致」。

即使是新的 GAN 網(wǎng)絡(luò),也展示出自注意力相較于標(biāo)準(zhǔn)卷積,在對長期、多尺度依賴性的建模上效果更好。

在 ICLR 2019 的論文 Pay Less Attention with Lightweight and Dynamic Convolutions 中,研究者對自注意力機(jī)制在長期依賴性的建模中,參數(shù)的有效性和效率提出了質(zhì)疑,他們表示一個受自注意力啟發(fā)而得到的卷積變體,其參數(shù)效率更高。

機(jī)器學(xué)習(xí)

輕量級卷積(lightweight convolutions)是深度可分離(depthwise-separable)的,它在時間維度上進(jìn)行了 softmax 標(biāo)準(zhǔn)化,通道維度上共享權(quán)重,且在每個時間步上重新使用相同權(quán)重(類似于 RNN 網(wǎng)絡(luò))。動態(tài)卷積(dynamic convolutions)則是在每個時間步上使用不同權(quán)重的輕量級卷積。

這些技巧使得輕量級卷積和動態(tài)卷積相較于傳統(tǒng)的不可分卷積,在效率上優(yōu)越幾個數(shù)量級。

機(jī)器學(xué)習(xí)

機(jī)器學(xué)習(xí)

研究者也證明,在機(jī)器翻譯、語言建模和抽象總結(jié)等任務(wù)上,這些新卷積能夠使用數(shù)量相當(dāng)或更少的參數(shù),達(dá)到或超過基于自注意力的基準(zhǔn)效果。

謠傳六:圖像數(shù)據(jù)集反映了自然世界真實(shí)圖像分布

我們可能會認(rèn)為,如今的神經(jīng)網(wǎng)絡(luò)在目標(biāo)識別任務(wù)上,效果已經(jīng)超出真人水平。這并不正確。在 ImageNet 等篩選出來的圖像數(shù)據(jù)集上,它們的效果可能確實(shí)優(yōu)于真人。但對于自然世界的真實(shí)圖像,它們在目標(biāo)識別上絕對無法比正常成年人做得更加出色。這是因?yàn)椋瑥哪壳暗膱D像數(shù)據(jù)集中抽取的圖像,和從真實(shí)世界整體中抽取的圖像并不一樣,二者分布并不相同。

這里有一篇 2011 年比較老的論文: Unbiased Look at Dataset Bias,其中,研究者根據(jù) 12 個流行的圖像數(shù)據(jù)集,嘗試通過訓(xùn)練一個分類器用以判斷一個給定圖像來自于哪個數(shù)據(jù)集,來探索是否存在數(shù)據(jù)集偏差。

機(jī)器學(xué)習(xí)

隨機(jī)猜測的正確率應(yīng)該是 1/12 = 8%,而實(shí)驗(yàn)結(jié)果的準(zhǔn)確率高于 75%。

機(jī)器學(xué)習(xí)

研究者在 HOG 特征上訓(xùn)練了一個 SVM,并發(fā)現(xiàn)其正確率達(dá)到 39%,高于隨機(jī)猜測水平。如今,如果使用先進(jìn)的 CNN 來復(fù)現(xiàn)這一實(shí)驗(yàn),很可能得到更好的分類器效果。

如果圖像數(shù)據(jù)集確實(shí)能夠表征來自自然世界的真實(shí)圖像,就不應(yīng)能夠分辨出某個特定圖像是來自于哪個數(shù)據(jù)集的。

機(jī)器學(xué)習(xí)

但數(shù)據(jù)中的偏差,使得每個數(shù)據(jù)集變得可識別。例如,在 ImageNet 中,有非常多的「賽車」,不能認(rèn)為這代表了通常意義上「汽車」的理想概念。

研究者在某數(shù)據(jù)集訓(xùn)練分類器,并在其他數(shù)據(jù)集上評估表現(xiàn)效果,進(jìn)一步度量數(shù)據(jù)集的價值。根據(jù)這個指標(biāo),LabelMe 和 ImageNet 是偏差最小的數(shù)據(jù)集,在「一籃子貨幣(basket of currencies)」上得分 0.58。所有數(shù)據(jù)集的得分都小于 1,表明在其他數(shù)據(jù)集上訓(xùn)練的模型都給出了更低的準(zhǔn)確度。在沒有數(shù)據(jù)集偏差的理想情況下,應(yīng)該有一些得分是高于 1 的。

謠傳七:顯著圖(saliency maps)是解釋神經(jīng)網(wǎng)絡(luò)的一個穩(wěn)健方法。

雖然神經(jīng)網(wǎng)絡(luò)通常被認(rèn)為是黑箱模型,現(xiàn)在還是已經(jīng)有了有非常多對其進(jìn)行解釋的探索。顯著圖,或其他類似對特征或訓(xùn)練樣本賦予重要性得分的方法,是其中非常受歡迎的形式。

能夠?qū)D像進(jìn)行特定分類的理由,總結(jié)為圖像特定部分對模型決策過程中起的作用,是一個非常誘人的課題。已有的幾種計算顯著圖的方法,通常都基于神經(jīng)網(wǎng)絡(luò)在特定圖像上的激活情況,以及網(wǎng)絡(luò)中所傳播的梯度。

在 AAAI 2019 的一篇論文 Interpretation of Neural Networks is Fragile 中,研究者表明,可以通過引入一個無法感知的擾動,來破壞一個特定圖像的顯著圖。

機(jī)器學(xué)習(xí)

「帝王蝶之所以被分類為帝王蝶,并不是因?yàn)槌岚虻膱D案樣式,而是因?yàn)楸尘吧弦恍┎恢匾木G色樹葉。」

高維圖像通常都位于深度神經(jīng)網(wǎng)絡(luò)所建立的決策邊界附近,因此很容易受到對抗攻擊的影響。對抗攻擊會將圖像移動至決策邊界的另一邊,而對抗解釋攻擊則是將圖像在相同決策區(qū)域內(nèi),沿著決策邊界等高線移動。

機(jī)器學(xué)習(xí)

為實(shí)現(xiàn)此攻擊,研究者所使用的基本方法是 Goodfellow 提出的 FGSM(fast gradient sign method)方法的變體,這是最早的一種為實(shí)現(xiàn)有效對抗攻擊而引入的方法。這也表明,其他更近的、更復(fù)雜的對抗攻擊也可以用于攻擊神經(jīng)網(wǎng)絡(luò)的解釋性。

機(jī)器學(xué)習(xí)

意義:隨著深度學(xué)習(xí)越來越普遍地應(yīng)用于高風(fēng)險場景,如醫(yī)學(xué)成像,對于如何解釋神經(jīng)網(wǎng)絡(luò)所做的結(jié)論也越發(fā)重要。例如,雖然 CNN 網(wǎng)絡(luò)將 MRI 圖像上的小點(diǎn)識別為惡性致癌腫瘤是非常好的事情,但如果它們是基于非常脆弱的解釋方法,那么也不應(yīng)姑妄信之。

原文鏈接:https://crazyoscarchang.github.io/2019/02/16/seven-myths-in-machine-learning-research/

【本文是51CTO專欄機(jī)構(gòu)“機(jī)器之心”的原創(chuàng)譯文,微信公眾號“機(jī)器之心( id: almosthuman2014)”】 

戳這里,看該作者更多好文

 

責(zé)任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2017-03-17 20:07:57

人臉識別技術(shù)

2019-07-04 14:25:53

機(jī)器學(xué)習(xí)金融大數(shù)據(jù)

2009-12-01 14:35:06

Linux忠告

2009-04-01 17:24:14

多核四核服務(wù)器

2020-09-28 14:25:05

代碼開發(fā)工具

2018-04-11 14:13:29

物聯(lián)網(wǎng)信息技術(shù)互聯(lián)網(wǎng)

2020-12-22 09:55:55

IT首席信息官CIO

2015-07-08 08:51:11

SDN

2020-12-18 10:35:27

IT技術(shù)領(lǐng)導(dǎo)者

2022-05-23 08:09:42

物聯(lián)網(wǎng)IOT

2019-12-16 10:27:10

機(jī)器學(xué)習(xí)人工智能AI

2010-05-24 13:04:53

jQueryJavaScript

2011-06-09 13:26:27

編程程序員

2015-09-17 10:07:05

私有云ZStack偽需求

2015-06-10 11:38:55

數(shù)據(jù)加密云端數(shù)據(jù)加密

2020-11-23 18:39:54

容器Kubernetes架構(gòu)

2018-03-13 07:05:10

區(qū)塊鏈中心化比特幣

2009-08-04 11:36:55

2021-12-02 06:02:51

物聯(lián)網(wǎng)IOT物聯(lián)網(wǎng)技術(shù)

2009-09-17 10:59:59

虛擬化
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

日韩精品在线视频免费观看| 国产成人自拍视频在线观看| 伊人久久久久久久久| jizzjizz中国精品麻豆| www.色精品| 日本亚洲欧美成人| 黄色一级大片在线免费观看| 8848成人影院| 欧美在线一区二区三区| 免费日韩在线观看| 久久国产精品高清一区二区三区| 久久99精品久久久久久动态图 | 精品久久久久久国产| 欧洲视频一区二区三区| 国产精品无码在线播放| 在线成人av| 久久精品久久久久久| 国产夫妻性爱视频| 精品一区91| 色香蕉成人二区免费| 日韩中文字幕在线不卡| 国产在线91| 国产99精品国产| 国产精品偷伦一区二区| 美日韩一二三区| 中出一区二区| 最近更新的2019中文字幕| 国产精品嫩草av| 精品国产麻豆| 欧美三级欧美一级| 亚洲人成无码网站久久99热国产| 日本三级在线视频| 99国产精品99久久久久久| 91香蕉亚洲精品| 超碰在线97观看| 亚洲男人影院| 亚州成人av在线| 久久久久成人精品无码| 亚洲欧洲日韩| 日韩中文视频免费在线观看| 免费观看av网站| 国产精品一线| 欧美videos中文字幕| 国产精品igao网网址不卡| 成人国产一区| 欧美亚洲高清一区| 乱子伦视频在线看| 中文在线最新版地址| 亚洲成人av在线电影| 久久久久久久久影视| av在线看片| 亚洲色图在线视频| 免费观看黄色大片| 麻豆视频在线免费观看| 日韩一区在线看| 亚洲视频欧美在线| 三区四区电影在线观看| 中文字幕成人网| 亚洲永久激情精品| 麻豆网站视频在线观看| 亚洲欧洲在线观看av| 一区二区日本| 老司机精品影院| 亚洲欧美激情插| 视色,视色影院,视色影库,视色网| 欧美尤物美女在线| 亚洲特级片在线| 亚洲色婷婷久久精品av蜜桃| 污网站在线免费看| 亚洲成人精品一区| aaa毛片在线观看| 午夜av成人| 欧美麻豆精品久久久久久| caoporm在线视频| 日本99精品| 亚洲激情在线观看| 免费看污片网站| 日韩精品首页| 九九精品在线视频| 91视频免费网址| 美女国产精品| 成人黄色影片在线| 黄色片网站免费在线观看| 97se狠狠狠综合亚洲狠狠| 欧美资源一区| 免费网站成人| 性欧美大战久久久久久久久| 黑鬼大战白妞高潮喷白浆| 黄色成人在线视频| 日韩一区二区在线播放| 日本少妇色视频| 日韩.com| 欧美激情视频一区二区三区不卡| 国产午夜在线播放| 久久精品国产精品亚洲红杏 | 久久九九热re6这里有精品| 亚洲日韩欧美视频一区| 久久人妻无码aⅴ毛片a片app| 欧美日韩18| 日韩美女免费视频| 精品国自产拍在线观看| 国产亚洲一二三区| 国产激情片在线观看| 日韩免费va| 日韩欧美国产系列| 亚洲日本精品视频| 亚洲一级高清| 国产精品青青在线观看爽香蕉| 亚洲国产精品久久久久久久| 国产网红主播福利一区二区| 野外做受又硬又粗又大视频√| 日韩欧美2区| 日韩精品免费视频| 18岁成人毛片| 日韩成人午夜电影| 国产日韩亚洲精品| 精品176二区| 色中色一区二区| 亚洲免费观看在线| 欧美独立站高清久久| 欧美一区第一页| 亚洲精品久久久久久无码色欲四季 | 影音先锋中文字幕一区| 综合色一区二区| 欧美高清一级片在线| 又色又爽又黄18网站| 成久久久网站| 欧美亚洲在线观看| 精品国产乱码久久久久久蜜臀网站| 久久久久久一二三区| 欧美日韩福利在线| 亚洲精品国产九九九| 久久网福利资源网站| 国产又大又粗又爽| 不卡在线视频中文字幕| 黄色一级片av| 国产精品igao视频网网址不卡日韩 | 欧美激情精品久久久久久免费印度 | 精品国产制服丝袜高跟| 91香蕉视频在线播放| 人人爽香蕉精品| 亚洲人亚洲人成电影网站色| 亚洲一区二区三区乱码aⅴ蜜桃女| 黄色电影免费在线看| 黑人巨大精品欧美一区免费视频 | 成人涩涩免费视频| 中文字幕日韩精品无码内射| 96sao精品免费视频观看| 色婷婷**av毛片一区| 精品乱码一区内射人妻无码| 久久久不卡网国产精品二区| 奇米影视亚洲色图| 久久久久久毛片免费看| 97色在线观看免费视频| 色呦呦免费观看| 婷婷久久综合九色综合伊人色| 性欧美丰满熟妇xxxx性久久久| 一区二区亚洲精品| 国产一区二区三区四区五区在线 | 国产欧美精品一区二区三区-老狼 国产欧美精品一区二区三区介绍 国产欧美精品一区二区 | 性xxxxbbbb| 岛国av一区二区| 久久国产精品影院| 久久av一区| 日本一区二区三区视频在线观看| 欧美日韩亚洲国产| 色噜噜狠狠狠综合曰曰曰88av| 中文字幕男人天堂| 波多野结衣的一区二区三区| 日韩欧美成人网| 91精品人妻一区二区三区| 日本最新不卡在线| 中文字幕中文字幕99| 精品一区二区三区中文字幕| 久久久免费在线观看| 亚洲 欧美 激情 另类| 欧美最猛黑人xxxxx猛交| 国产wwwwxxxx| 成人午夜私人影院| 亚洲熟妇av一区二区三区漫画| 欧美极品在线观看| 国产欧美一区二区三区四区 | 久久久日本电影| 男人的天堂在线视频| 欧美日韩五月天| 国产一级免费观看| 国产欧美日本一区二区三区| 中文字幕55页| 另类天堂av| 影音先锋亚洲视频| 欧美交a欧美精品喷水| 国产精品欧美一区二区| 蜜臀av在线| 在线电影中文日韩| 亚洲国产精品欧美久久| 色88888久久久久久影院野外| 黄色香蕉视频在线观看| 91玉足脚交白嫩脚丫在线播放| 天天操天天摸天天爽| 亚洲天堂黄色| 亚洲自拍三区| 小说区图片区色综合区| 91午夜理伦私人影院| 韩国美女久久| 欧美激情精品久久久久久变态| 91涩漫在线观看| 亚洲国产精品福利| 国产精品玖玖玖| 色偷偷成人一区二区三区91| 久久久久成人精品无码| 中文字幕av一区二区三区免费看| 日批免费观看视频| 日日狠狠久久偷偷综合色| 欧美性生交xxxxxdddd| 四虎影视一区二区| www国产亚洲精品久久麻豆| 欧美成人三级电影在线| 天天干天天舔天天操| 成人激情动漫在线观看| 91pony九色| 免费成人在线影院| 老熟妇仑乱视频一区二区| 国语自产精品视频在线看8查询8| 一区二区三区四区欧美| 妖精一区二区三区精品视频 | 亚洲视频图片小说| 无码人妻精品一区二区中文| 成人久久视频在线观看| 午夜诱惑痒痒网| 久久精品久久综合| www.日本xxxx| 天堂一区二区在线| 妺妺窝人体色www在线小说| 欧美激情1区2区| 国产高清精品软男同| 99国产精品一区二区| 日韩影院一区| 国内精品久久久久久久久电影网| 久久99精品国产99久久| 极品国产人妖chinesets亚洲人妖| 亚洲一区二区三区xxx视频| 成人免费观看49www在线观看| 国产精品高清在线观看| 偷拍中文亚洲欧美动漫| 欧美性受xxx| videos性欧美另类高清| 日本aⅴ大伊香蕉精品视频| 丁香花在线影院| 久久久亚洲欧洲日产国码aⅴ| 青春草视频在线观看| 欧美激情国产高清| 草美女在线观看| 欧美性受xxxx黑人猛交| 久草免费在线视频| 欧美在线中文字幕| 99re66热这里只有精品4| 国产99久久精品一区二区 夜夜躁日日躁 | 九九视频免费观看视频精品| 欧美下载看逼逼| 欧美日韩有码| 亚洲欧美一二三| 欧美日本一区二区视频在线观看| 欧美中日韩在线| 亚洲精品麻豆| 国产精品69页| 精品一区二区久久| 人妻av一区二区三区| 成人性生交大片免费看中文网站| 91视频啊啊啊| 欧美国产一区在线| 久久久久久久麻豆| 亚洲一二三专区| 免费观看成人毛片| 欧美日本韩国一区| 亚洲第一页综合| 亚洲精品视频网上网址在线观看| 国产在线观看免费| 粗暴蹂躏中文一区二区三区| 国产深夜视频在线观看| 欧美有码在线观看视频| 精品国产黄a∨片高清在线| 亚洲中国色老太| 外国成人在线视频| 亚洲欧洲久久| 在线观看不卡| 国产精品一区二区羞羞答答| 国内成人精品2018免费看| 三级视频网站在线观看| 久久九九国产精品| 中文字幕在线观看成人| 婷婷激情综合网| 国产精品自产拍| 日韩国产精品一区| a视频在线观看| 国产成人精品免费视频| 美女久久精品| 日本一区二区三区免费看| 欧美91精品| 精品久久久久av| 成人一道本在线| eeuss中文字幕| 婷婷一区二区三区| av手机免费看| 在线看国产精品| 欧美aa一级| 亚洲自拍偷拍色图| 精品久久不卡| 2018国产在线| 国产在线精品视频| 成人无码av片在线观看| 香蕉加勒比综合久久| 一级做a爱片久久毛片| 日韩黄色在线免费观看| 日韩另类在线| 国产中文字幕亚洲| 蜜桃tv一区二区三区| 亚洲 欧美 综合 另类 中字| 另类小说一区二区三区| 一卡二卡三卡四卡| 偷拍日韩校园综合在线| av网站在线免费看| 中文字幕在线亚洲| 香蕉久久免费电影| 久久99精品国产一区二区三区| 永久亚洲成a人片777777| 91视频免费版污| 久久只精品国产| 国产成人无码精品久久久久| 欧美刺激午夜性久久久久久久| 天天综合视频在线观看| 97欧美精品一区二区三区| 国产精品18hdxxxⅹ在线| 亚洲色图都市激情| 极品少妇一区二区三区精品视频| 国产探花视频在线播放| 色综合欧美在线| 色视频在线看| 2019中文字幕免费视频| 另类ts人妖一区二区三区| 男人天堂a在线| 高清av一区二区| 久久久精品99| 日韩三级在线免费观看| a黄色片在线观看| 91黄在线观看| 欧美日一区二区三区在线观看国产免| 第一区免费在线观看| 日韩一区有码在线| 国产毛片一区二区三区va在线 | 美女高潮视频在线看| 国产丝袜不卡| 亚洲一区区二区| 免费在线观看污| 欧美日韩亚州综合| 国产激情在线| 国产精品二区三区四区| 亚洲激情社区| 人人妻人人澡人人爽人人精品| 日韩欧美在线视频观看| 黄色av免费在线观看| 国产精品欧美一区二区| 国产高清一区二区| 三上悠亚 电影| 午夜久久久久久久久| 天天av综合网| 国产精品第3页| 51精产品一区一区三区| 一本色道久久hezyo无码| 精品福利在线视频| 国模吧精品人体gogo| 国产美女91呻吟求| 欧美日韩1区| 欧美性xxxx图片| 欧美挠脚心视频网站| 欧美高清另类hdvideosexjaⅴ | 日韩中文欧美| aaaaa黄色片| 欧美午夜视频一区二区| 中文字幕日本在线观看| 99视频免费观看| 久久精品毛片| 国产精品丝袜一区二区| 亚洲精品久久久一区二区三区| 欧美动物xxx| 亚洲AV无码成人精品一区| 成人免费毛片a| 精品黑人一区二区三区| 久久中文字幕在线视频| 亚洲国产最新| 日本中文字幕影院| 欧美日韩国产在线播放| 国产成人天天5g影院在线观看| 亚洲一区二区日本| 久久精品日韩欧美| 欧美日韩在线视频免费播放| 亚洲精品有码在线| 秋霞影院一区| 天天干天天草天天| 精品久久久精品| av片在线观看永久免费|