精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

小小幾張圖,把深度學習講透徹

人工智能 深度學習
吳恩達在推特上展示了一份由 TessFerrandez 完成的深度學習專項課程信息圖,這套信息圖優美地記錄了深度學習課程的知識與亮點。因此它不僅僅適合初學者了解深度學習,還適合機器學習從業者和研究者復習基本概念。這不僅僅是一份課程筆記,同時還是一套信息圖與備忘錄。

 吳恩達在推特上展示了一份由 TessFerrandez 完成的深度學習專項課程信息圖,這套信息圖優美地記錄了深度學習課程的知識與亮點。因此它不僅僅適合初學者了解深度學習,還適合機器學習從業者和研究者復習基本概念。這不僅僅是一份課程筆記,同時還是一套信息圖與備忘錄。

  本文將從深度學習基礎、卷積網絡和循環網絡三個方面介紹該筆記。

  一、深度學習基礎

  1. 深度學習基本概念

  2. Logistic回歸

  3. 淺層網絡的特點

  4. 深度神經網絡的特點

  5. 偏差與方差

  6. 正則化

  7. 最優化

  8. 超參數

  9. 結構化機器學習過程

  10. 誤差分析

  11. 訓練集、開發集與測試集

  12. 其它學習方法

  二、卷積網絡

  13. 卷積神經網絡基礎

  14. 經典卷積神經網絡

  15. 特殊卷積神經網絡

  16. 實踐建議

  17. 目標檢測算法

  18. 人臉識別

  19. 風格遷移

  三、循環網絡

  20. 循環神經網絡基礎

  21. NLP 中的詞表征

  22. 序列到序列

  一、深度學習基礎

  1. 深度學習基本概念

 監督學習: 所有輸入數據都有確定的對應輸出數據,在各種網絡架構中,輸入數據和輸出數據的節點層都位于網絡的兩端,訓練過程就是不斷地調整它們之間的網絡連接權重。

  左上: 列出了各種不同網絡架構的監督學習,比如標準的神經網絡(NN)可用于訓練房子特征和房價之間的函數,卷積神經網絡(CNN)可用于訓練圖像和類別之間的函數,循環神經網絡(RNN)可用于訓練語音和文本之間的函數。

  左下: 分別展示了 NN、CNN 和 RNN 的簡化架構。這三種架構的前向過程各不相同,NN 使用的是權重矩陣(連接)和節點值相乘并陸續傳播至下一層節點的方式;CNN 使用矩形卷積核在圖像輸入上依次進行卷積操作、滑動,得到下一層輸入的方式;RNN 記憶或遺忘先前時間步的信息以為當前計算過程提供長期記憶。

  右上:NN 可以處理結構化數據(表格、數據庫等)和非結構化數據(圖像、音頻等)。

  右下: 深度學習能發展起來主要是由于大數據的出現,神經網絡的訓練需要大量的數據;而大數據本身也反過來促進了更大型網絡的出現。深度學習研究的一大突破是新型激活函數的出現,用 ReLU 函數替換sigmoid 函數可以在反向傳播中保持快速的梯度下降過程,sigmoid 函數在正無窮處和負無窮處會出現趨于零的導數,這正是梯度消失導致訓練緩慢甚至失敗的主要原因。要研究深度學習,需要學會「idea—代碼—實驗—idea」的良性循環。

  2. Logistic回歸

左上:logistic 回歸主要用于二分類問題,如圖中所示,logistic 回歸可以求解一張圖像是不是貓的問題,其中圖像是輸入(x),貓(1)或非貓(0)是輸出。我們可以將 logistic 回歸看成將兩組數據點分離的問題,如果僅有線性回歸(激活函數為線性),則對于非線性邊界的數據點(例如,一組數據點被另一組包圍)是無法有效分離的,因此在這里需要用非線性激活函數替換線性激活函數。在這個案例中,我們使用的是 sigmoid 激活函數,它是值域為(0, 1)的平滑函數,可以使神經網絡的輸出得到連續、歸一(概率值)的結果,例如當輸出節點為(0.2, 0.8)時,判定該圖像是非貓(0)。

  左下:神經網絡的訓練目標是確定最合適的權重 w 和偏置項 b,那這個過程是怎么樣的呢?

  這個分類其實就是一個優化問題,優化過程的目的是使預測值 y hat 和真實值 y 之間的差距最小,形式上可以通過尋找目標函數的最小值來實現。所以我們首先確定目標函數(損失函數、代價函數)的形式,然后用梯度下降逐步更新 w、b,當損失函數達到最小值或者足夠小時,我們就能獲得很好的預測結果。

  右上:損失函數值在參數曲面上變化的簡圖,使用梯度可以找到最快的下降路徑,學習率的大小可以決定收斂的速度和最終結果。學習率較大時,初期收斂很快,不易停留在局部極小值,但后期難以收斂到穩定的值;學習率較小時,情況剛好相反。一般而言,我們希望訓練初期學習率較大,后期學習率較小,之后會介紹變化學習率的訓練方法。

  右下:總結整個訓練過程,從輸入節點 x 開始,通過前向傳播得到預測輸出 y hat,用 y hat 和 y 得到損失函數值,開始執行反向傳播,更新 w 和 b,重復迭代該過程,直到收斂。

  3. 淺層網絡的特點

左上: 淺層網絡即隱藏層數較少,如圖所示,這里僅有一個隱藏層。

  左下: 這里介紹了不同激活函數的特點:

  sigmoid:sigmoid 函數常用于二分分類問題,或者多分類問題的最后一層,主要是由于其歸一化特性。sigmoid 函數在兩側會出現梯度趨于零的情況,會導致訓練緩慢。

  tanh:相對于 sigmoid,tanh 函數的優點是梯度值更大,可以使訓練速度變快。

  ReLU:可以理解為閾值激活(spiking model 的特例,類似生物神經的工作方式),該函數很常用,基本是默認選擇的激活函數,優點是不會導致訓練緩慢的問題,并且由于激活值為零的節點不會參與反向傳播,該函數還有稀疏化網絡的效果。

  Leaky ReLU:避免了零激活值的結果,使得反向傳播過程始終執行,但在實踐中很少用。

  右上: 為什么要使用激活函數呢?更準確地說是,為什么要使用非線性激活函數呢?

  上圖中的實例可以看出,沒有激活函數的神經網絡經過兩層的傳播,最終得到的結果和單層的線性運算是一樣的,也就是說,沒有使用非線性激活函數的話,無論多少層的神經網絡都等價于單層神經網絡(不包含輸入層)。

  右下: 如何初始化參數 w、b 的值?

  當將所有參數初始化為零的時候,會使所有的節點變得相同,在訓練過程中只能學到相同的特征,而無法學到多層級、多樣化的特征。解決辦法是隨機初始化所有參數,但僅需少量的方差就行,因此使用 Rand(0.01)進行初始化,其中 0.01 也是超參數之一。

  4. 深度神經網絡的特點

 左上:神經網絡的參數化容量隨層數增加而指數式地增長,即某些深度神經網絡能解決的問題,淺層神經網絡需要相對的指數量級的計算才能解決。

  左下:CNN 的深度網絡可以將底層的簡單特征逐層組合成越來越復雜的特征,深度越大,其能分類的圖像的復雜度和多樣性就越大。RNN 的深度網絡也是同樣的道理,可以將語音分解為音素,再逐漸組合成字母、單詞、句子,執行復雜的語音到文本任務。

  右邊:深度網絡的特點是需要大量的訓練數據和計算資源,其中涉及大量的矩陣運算,可以在 GPU 上并行執行,還包含了大量的超參數,例如學習率、迭代次數、隱藏層數、激活函數選擇、學習率調整方案、批尺寸大小、正則化方法等。

  5. 偏差與方差

  那么部署你的機器學習模型需要注意些什么?下圖展示了構建 ML 應用所需要的數據集分割、偏差與方差等問題。

如上所示,經典機器學習和深度學習模型所需要的樣本數有非常大的差別,深度學習的樣本數是經典 ML 的成千上萬倍。因此訓練集、開發集和測試集的分配也有很大的區別,當然我們假設這些不同的數據集都服從同分布。

  偏差與方差問題同樣是機器學習模型中常見的挑戰,上圖依次展示了由高偏差帶來的欠擬合和由高方差帶來的過擬合。一般而言,解決高偏差的問題是選擇更復雜的網絡或不同的神經網絡架構,而解決高方差的問題可以添加正則化、減少模型冗余或使用更多的數據進行訓練。

  當然,機器學習模型需要注意的問題遠不止這些,但在配置我們的 ML 應用中,它們是最基礎和最重要的部分。其它如數據預處理、數據歸一化、超參數的選擇等都在后面的信息圖中有所體現。

  6. 正則化

  正則化是解決高方差或模型過擬合的主要手段,過去數年,研究者提出和開發了多種適合機器學習算法的正則化方法,如數據增強、L2 正則化(權重衰減)、L1 正則化、Dropout、Drop Connect、隨機池化和提前終止等。

如上圖左列所示,L1 和 L2 正則化也是是機器學習中使用最廣泛的正則化方法。L1 正則化向目標函數添加正則化項,以減少參數的絕對值總和;而 L2 正則化中,添加正則化項的目的在于減少參數平方的總和。根據之前的研究,L1 正則化中的很多參數向量是稀疏向量,因為很多模型導致參數趨近于 0,因此它常用于特征選擇設置中。此外,參數范數懲罰 L2 正則化能讓深度學習算法「感知」到具有較高方差的輸入 x,因此與輸出目標的協方差較小(相對增加方差)的特征權重將會收縮。

  在中間列中,上圖展示了 Dropout 技術,即暫時丟棄一部分神經元及其連接的方法。隨機丟棄神經元可以防止過擬合,同時指數級、高效地連接不同網絡架構。一般使用了 Dropout 技術的神經網絡會設定一個保留率 p,然后每一個神經元在一個批量的訓練中以概率 1-p 隨機選擇是否去掉。在最后進行推斷時所有神經元都需要保留,因而有更高的準確度。

  Bagging 是通過結合多個模型降低泛化誤差的技術,主要的做法是分別訓練幾個不同的模型,然后讓所有模型表決測試樣例的輸出。而 Dropout 可以被認為是集成了大量深層神經網絡的 Bagging 方法,因此它提供了一種廉價的 Bagging 集成近似方法,能夠訓練和評估值數據數量的神經網絡。

  最后,上圖還描述了數據增強與提前終止等正則化方法。數據增強通過向訓練數據添加轉換或擾動來人工增加訓練數據集。數據增強技術如水平或垂直翻轉圖像、裁剪、色彩變換、擴展和旋轉通常應用在視覺表象和圖像分類中。而提前終止通常用于防止訓練中過度表達的模型泛化性能差。如果迭代次數太少,算法容易欠擬合(方差較小,偏差較大),而迭代次數太多,算法容易過擬合(方差較大,偏差較小)。因此,提前終止通過確定迭代次數解決這個問題。

  7. 最優化

  最優化是機器學習模型中非常非常重要的模塊,它不僅主導了整個訓練過程,同時還決定了最后模型性能的好壞和收斂需要的時長。以下兩張信息圖都展示了最優化方法需要關注的知識點,包括最優化的預備和具體的最優化方法。

以上展示了最優化常常出現的問題和所需要的操作。首先在執行最優化前,我們需要歸一化輸入數據,而且開發集與測試集歸一化的常數(均值與方差)與訓練集是相同的。上圖也展示了歸一化的原因,因為如果特征之間的量級相差太大,那么損失函數的表面就是一張狹長的橢圓形,而梯度下降或最速下降法會因為「鋸齒」現象而很難收斂,因此歸一化為圓形有助于減少下降方向的震蕩。

  后面的梯度消失與梯度爆炸問題也是十分常見的現象。「梯度消失」指的是隨著網絡深度增加,參數的梯度范數指數式減小的現象。梯度很小,意味著參數的變化很緩慢,從而使得學習過程停滯。梯度爆炸指神經網絡訓練過程中大的誤差梯度不斷累積,導致模型權重出現很大的更新,在極端情況下,權重的值變得非常大以至于出現 NaN 值。

  梯度檢驗現在可能用的比較少,因為我們在 TensorFlow 或其它框架上執行最優化算法只需要調用優化器就行。梯度檢驗一般是使用數值的方法計算近似的導數并傳播,因此它能檢驗我們基于解析式算出來的梯度是否正確。

  下面就是具體的最優化算法了,包括最基本的小批量隨機梯度下降、帶動量的隨機梯度下降和 RMSProp 等適應性學習率算法。

小批量隨機梯度下降(通常 SGD 指的就是這種)使用一個批量的數據更新參數,因此大大降低了一次迭代所需的計算量。這種方法降低了更新參數的方差,使得收斂過程更為穩定;它也能利用流行深度學習框架中高度優化的矩陣運算器,從而高效地求出每個小批數據的梯度。通常一個小批數據含有的樣本數量在 50 至 256 之間,但對于不同的用途也會有所變化。

  動量策略旨在加速 SGD 的學習過程,特別是在具有較高曲率的情況下。一般而言,動量算法利用先前梯度的指數衰減滑動平均值在該方向上進行修正,從而更好地利用歷史梯度的信息。該算法引入了變量 v 作為參數在參數空間中持續移動的速度向量,速度一般可以設置為負梯度的指數衰減滑動平均值。

  上圖后面所述的 RMSProp 和 Adam 等適應性學習率算法是目前我們最常用的最優化方法。RMSProp 算法(Hinton,2012)修改 AdaGrad 以在非凸情況下表現更好,它改變梯度累積為指數加權的移動平均值,從而丟棄距離較遠的歷史梯度信息。RMSProp 是 Hinton 在公開課上提出的最優化算法,其實它可以視為 AdaDelta 的特例。但實踐證明 RMSProp 有非常好的性能,它目前在深度學習中有非常廣泛的應用。

  Adam 算法同時獲得了 AdaGrad 和 RMSProp 算法的優點。Adam 不僅如 RMSProp 算法那樣基于一階矩均值計算適應性參數學習率,它同時還充分利用了梯度的二階矩均值(即有偏方差/uncentered variance)。

  8. 超參

  以下是介紹超參數的信息圖,它在神經網絡中占據了重要的作用,因為它們可以直接提升模型的性能。

  眾所周知學習率、神經網絡隱藏單元數、批量大小、層級數和正則化系數等超參數可以直接影響模型的性能,而怎么調就顯得非常重要。目前最常見的還是手動調參,開發者會根據自身建模經驗選擇「合理」的超參數,然后再根據模型性能做一些小的調整。而自動化調參如隨機過程或貝葉斯優化等仍需要非常大的計算量,且效率比較低。不過近來關于使用強化學習、遺傳算法和神經網絡等方法搜索超參數有很大的進步,研究者都在尋找一種高效而準確的方法。

  目前的超參數搜索方法有:

  依靠經驗: 聆聽自己的直覺,設置感覺上應該對的參數然后看看它是否工作,不斷嘗試直到累趴。

  網格搜索: 讓計算機嘗試一些在一定范圍內均勻分布的數值。

  隨機搜索: 讓計算機嘗試一些隨機值,看看它們是否好用。

  貝葉斯優化: 使用類似 MATLAB bayesopt 的工具自動選取最佳參數——結果發現貝葉斯優化的超參數比你自己的機器學習算法還要多,累覺不愛,回到依靠經驗和網格搜索方法上去。

  因為篇幅有限,后面的展示將只簡要介紹信息圖,相信它們對各位讀者都十分有幫助。

  9. 結構化機器學習過程

 我們需要按過程或結構來設定我們的機器學習系統,首先需要設定模型要達到的目標,例如它的預期性能是多少、度量方法是什么等。然后分割訓練、開發和測試集,并預期可能到達的優化水平。隨后再構建模型并訓練,在開發集和測試集完成驗證后就可以用于推斷了。

  10. 誤差分析

  在完成訓練后,我們可以分析誤差的來源而改進性能,包括發現錯誤的標注、不正確的損失函數等。

  11. 訓練集、開發集與測試集

上圖展示了三個分割數據集及其表現所需要注意的地方,也就是說如果它們間有不同的正確率,那么我們該如何修正這些「差別」。例如訓練集的正確率明顯高于驗證集與測試集表明模型過擬合,三個數據集的正確率都明顯低于可接受水平可能是因為欠擬合。

  12. 其它學習方法

 機器學習和深度學習當然不止監督學習方法,還有如遷移學習、多任務學習和端到端的學習等。

  二、卷積網絡

  13. 卷積神經網絡基礎

計算機視覺任務涉及的數據體量是特別大的,一張圖像就有上千個數據點,更別提高分辨率圖像和視頻了。這時用全連接網絡的話,參數數量太大,因而改用卷積神經網絡(CNN),參數數量可以極大地減小。CNN 的工作原理就像用檢測特定特征的過濾器掃描整張圖像,進行特征提取,并逐層組合成越來越復雜的特征。這種「掃描」的工作方式使其有很好的參數共享特性,從而能檢測不同位置的相同目標(平移對稱)。

  卷積核對應的檢測特征可以從其參數分布簡單地判斷,例如,權重從左到右變小的卷積核可以檢測到黑白豎條紋的邊界,并顯示為中間亮,兩邊暗的特征圖,具體的相對亮暗結果取決于圖像像素分布和卷積核的相對關系。卷積核權重可以直接硬編碼,但為了讓相同的架構適應不同的任務,通過訓練得到卷積核權重是更好的辦法。

  卷積運算的主要參數:

padding:直接的卷積運算會使得到的特征圖越來越小,padding 操作會在圖像周圍添加 0 像素值的邊緣,使卷積后得到的特征圖大小和原圖像(長寬,不包括通道數)相同。

  常用的兩個選項是:『VALID』,不執行 padding;『SAME』,使輸出特征圖的長寬和原圖像相同。

  stride:兩次卷積操作之間的步長大小。

  一個卷積層上可以有多個卷積核,每個卷積核運算得到的結果是一個通道,每個通道的特征圖的長寬相同,可以堆疊起來構成多通道特征圖,作為下一個卷積層的輸入。

  深度卷積神經網絡的架構:

深度卷積神經網絡的架構主要以卷積層、池化層的多級堆疊,最后是全連接層執行分類。池化層的主要作用是減少特征圖尺寸,進而減少參數數量,加速運算,使其目標檢測表現更加魯棒。

  14. 經典卷積神經網絡

  LeNet·5:手寫識別分類網絡,這是第一個卷積神經網絡,由 Yann LeCun 提出。

  AlexNet:圖像分類網絡,首次在 CNN 引入 ReLU 激活函數。

  VGG-16:圖像分類網絡,深度較大。

  15. 特殊卷積神經網絡

ResNet:引入殘差連接,緩解梯度消失和梯度爆炸問題,可以訓練非常深的網絡。

  Network in Network:使用 1x1 卷積核,可以將卷積運算變成類似于全連接網絡的形式,還可以減少特征圖的通道數,從而減少參數數量。

  Inception Network:使用了多種尺寸卷積核的并行操作,再堆疊成多個通道,可以捕捉多種規模的特征,但缺點是計算量太大,可以通過 1x1 卷積減少通道數。

  16. 實踐建議

使用開源實現:從零開始實現時非常困難的,利用別人的實現可以快速探索更復雜有趣的任務。

  數據增強:通過對原圖像進行鏡像、隨機裁剪、旋轉、顏色變化等操作,增加訓練數據量和多樣性。

  遷移學習:針對當前任務的訓練數據太少時,可以將充分訓練過的模型用少量數據微調獲得足夠好的性能。

  基準測試和競賽中表現良好的訣竅:使用模型集成,使用多模型輸出的平均結果;在測試階段,將圖像裁剪成多個副本分別測試,并將測試結果取平均。

  17. 目標檢測算法

使用開源實現:從零開始實現時非常困難的,利用別人的實現可以快速探索更復雜有趣的任務。

  數據增強:通過對原圖像進行鏡像、隨機裁剪、旋轉、顏色變化等操作,增加訓練數據量和多樣性。

  遷移學習:針對當前任務的訓練數據太少時,可以將充分訓練過的模型用少量數據微調獲得足夠好的性能。

  基準測試和競賽中表現良好的訣竅:使用模型集成,使用多模型輸出的平均結果;在測試階段,將圖像裁剪成多個副本分別測試,并將測試結果取平均。

  17. 目標檢測算法

人臉識別有兩大類應用:人臉驗證(二分分類) 和人臉識別(多人分類)。

  當樣本量不足時,或者不斷有新樣本加入時,需要使用 one-shot learning,解決辦法是學習相似性函數,即確定兩張圖像的相似性。比如在 Siamese Network 中學習人臉識別時,就是利用兩個網絡的輸出,減少同一個人的兩個輸出的差別,增大不同人的兩個輸出之間的差別。

  19. 風格遷移

 風格遷移是一個熱門話題,它會在視覺上給人耳目一新的感覺。例如你有一副圖,然后將另一幅圖的風格特征應用到這幅圖上,比如用一位著名畫家或某一副名畫的風格來修改你的圖像,因此我們可以獲得獨特風格的作品。

  三、循環網絡

  20. 循環神經網絡基礎

如上所示,命名實體識別等序列問題在現實生活中占了很大的比例,而隱馬爾可夫鏈等傳統機器學習算法只能作出很強的假設而處理部分序列問題。但近來循環神經網絡在這些問題上有非常大的突破,RNN 隱藏狀態的結構以循環形的形式成記憶,每一時刻的隱藏層的狀態取決于它的過去狀態,這種結構使得 RNN 可以保存、記住和處理長時期的過去復雜信號。

  循環神經網絡(RNN)能夠從序列和時序數據中學習特征和長期依賴關系。RNN 具備非線性單元的堆疊,其中單元之間至少有一個連接形成有向循環。訓練好的 RNN 可以建模任何動態系統;但是,訓練 RNN 主要受到學習長期依賴性問題的影響。

  以下展示了 RNN 的應用、問題以及變體等:

循環神經網絡在語言建模等序列問題上有非常強大的力量,但同時它也存在很嚴重的梯度消失問題。因此像 LSTM 和 GRU 等基于門控的 RNN 有非常大的潛力,它們使用門控機制保留或遺忘前面時間步的信息,并形成記憶以提供給當前的計算過程。

  21. NLP 中的詞表征

 詞嵌入在自然語言處理中非常重要,因為不論執行怎樣的任務,將詞表征出來都是必須的。上圖展示了詞嵌入的方法,我們可以將詞匯庫映射到一個 200 或 300 維的向量,從而大大減少表征詞的空間。此外,這種詞表征的方法還能表示詞的語義,因為詞義相近的詞在嵌入空間中距離相近。

  除了以上所述的 Skip Grams,以下還展示了學習詞嵌入的常見方法:

GloVe 詞向量是很常見的詞向量學習方法,它學到的詞表征可進一步用于語句分類等任務。

  22. 序列到序列

 序列到序列的方法使用最多的就是編碼器解碼器框架,其它還有束搜索等模塊的介紹。

  編碼器解碼器架構加上注意力機制可以解決非常多的自然語言處理問題,以下介紹了 BLEU 分值和注意力機制。它們在機器翻譯的架構和評估中都是不能缺少的部分。

以上是所有關于吳恩達深度學習專項課程的信息圖,由于它們包含的信息較多,我們只介紹了一部分,還有很多內容只是簡單的一筆帶過。所以各位讀者最好可以下載該信息圖,并在后面的學習過程中慢慢理解與優化。

責任編輯:梁菲 來源: 互聯網
相關推薦

2020-06-23 09:10:55

Linux零拷貝場景

2022-11-02 15:35:35

Condition代碼線程

2022-07-04 09:43:46

RabbitMQ消息消息隊列

2019-02-13 19:00:01

深度學習機器學習人工神經

2022-11-16 14:02:44

2023-01-04 17:19:21

MQ消息中間件

2010-04-29 17:13:25

2021-04-27 08:31:06

event loopJavaScriptsetTimeout函

2023-07-03 08:11:48

java字節碼字段

2020-10-16 14:59:32

機器學習人工智能神經網絡

2024-08-07 08:19:13

2025-02-17 13:09:59

深度學習模型壓縮量化

2019-04-08 12:14:59

Elasticsear程序員Lucene

2025-03-03 01:50:00

深度學習微調遷移學習

2021-02-23 08:10:18

Nginx反向代理負載均衡器

2015-11-11 11:39:27

51CTO學院雙十一精品視頻

2022-06-02 07:34:09

機器學習CNN深度學習

2014-03-19 13:58:47

canvasHTML5

2014-12-22 09:32:58

微信

2018-01-03 10:00:39

深度學習摳圖消除背景
點贊
收藏

51CTO技術棧公眾號

屁屁影院国产第一页| 欧美a级免费视频| 91久久精品国产91性色69| 天天色天天射综合网| 精品国产网站在线观看| 欧美 日韩 国产一区| 亚洲人与黑人屁股眼交| 国产精品一区二区精品| 精品久久久久久久久久久| 特级西西444www大精品视频| 国产一级免费av| 美女网站一区| 日韩免费一区二区| 欧美综合在线观看视频| h视频在线免费观看| 成人国产在线观看| 国产女精品视频网站免费| 久久亚洲AV无码| 成人黄色小视频| 精品88久久久久88久久久| 91制片厂毛片| 永久免费毛片在线播放| 亚洲男女一区二区三区| 日本一区二区三区四区在线观看 | 91gao视频| 夜夜爽妓女8888视频免费观看| 国产精品magnet| 啊v视频在线一区二区三区 | 亚洲男人天堂一区| 日韩精品一线二线三线| 成人免费看片98| 久久国产电影| 欧美日韩国产综合一区二区| 少妇特黄a一区二区三区| 国产综合视频在线| 久草在线在线精品观看| 国产精品69久久| 免费黄色网址在线| 亚洲美女网站| 久久免费观看视频| 欧美人妻一区二区| 亚洲精品国产首次亮相| 少妇高潮久久久久久潘金莲| 熟女俱乐部一区二区视频在线| 激情视频极品美女日韩| 精品国产sm最大网站| 欧美精品色视频| 国产探花在线观看| 亚洲女同女同女同女同女同69| 丝袜足脚交91精品| yourporn在线观看视频| 久久精品国产**网站演员| 日韩av手机在线看| 欧美a视频在线观看| 国产精品日韩久久久| 日韩激情视频在线| 亚洲一区二区在线免费| xxxxx性欧美特大| 欧美日韩性生活视频| 亚洲熟妇av日韩熟妇在线| 国产在线观看www| 国产精品天美传媒沈樵| 日韩视频在线播放| 永久免费在线观看视频| 国产精品国产三级国产a| 亚洲欧美日韩国产yyy| 色网站免费在线观看| 自拍偷拍国产亚洲| 91免费版看片| 91超碰国产在线| 中文一区二区完整视频在线观看| 日本日本精品二区免费| 成年人视频在线观看免费| 国产精品精品国产色婷婷| 国产av不卡一区二区| 亚洲夜夜综合| 精品国产电影一区| 丰满少妇在线观看| 高清国产一区二区三区四区五区| 日韩免费观看高清完整版在线观看| 国产精品91av| 日日狠狠久久偷偷综合色| 亚洲人成在线观| sm捆绑调教视频| 欧美激情四色| 欧美专区日韩视频| 国产精品久久无码一三区| 国产999精品久久| 久久亚洲精品欧美| 伊人免费在线| 亚洲国产日韩av| 不卡av免费在线| 日韩激情欧美| 亚洲一级黄色av| 欧美国产精品一二三| 国产精品婷婷| 成人免费直播live| 四虎影视在线观看2413| 国产精品国产三级国产专播品爱网 | 国产精品天美传媒沈樵| 给我免费播放片在线观看| 成人免费网站www网站高清| 欧美一区二区福利在线| 日本黄色特级片| 最新国产精品| 国产精品激情av在线播放| 亚洲高清在线观看视频| 中文字幕不卡三区| 欧美极品欧美精品欧美| 国产精品色婷婷在线观看| 亚洲欧美视频在线| 九九九久久久久| 免费在线成人网| 久久免费看av| 日本孕妇大胆孕交无码| 欧美视频一二三区| 日本一区二区三区网站| 在线精品自拍| 最近2019中文免费高清视频观看www99| 精品少妇一二三区| 激情久久五月天| 日韩电影大全在线观看| √8天堂资源地址中文在线| 欧美日韩精品一区二区在线播放| 熟女丰满老熟女熟妇| 欧美日韩一区自拍 | 亚洲熟妇无码一区二区三区| 色8久久久久| 在线看日韩av| 蜜臀尤物一区二区三区直播| 99精品在线观看视频| 香港三级日本三级a视频| 色综合视频一区二区三区44| 国产亚洲精品一区二区| 高清乱码免费看污| 91在线porny国产在线看| 97在线免费视频观看| 亚洲伊人精品酒店| 亚洲美女自拍视频| 日韩 欧美 综合| 亚洲欧美日韩在线观看a三区| 91视频婷婷| 91麻豆免费在线视频| 91精品国产丝袜白色高跟鞋| 搜索黄色一级片| 久久av老司机精品网站导航| 亚洲欧美日韩另类精品一区二区三区 | 污色网站在线观看| 欧美精选视频在线观看| 国产精品欧美亚洲777777| 国产女主播在线直播| 欧美最新大片在线看| 51妺嘿嘿午夜福利| 日本欧洲一区二区| 91久久久久久久久久久| 在线免费av电影| 欧美日韩dvd在线观看| 美女网站视频色| 狠狠色丁香婷婷综合| 在线观看18视频网站| 日韩一区二区三区精品| 国模极品一区二区三区| 天天在线女人的天堂视频| 日韩欧美一区二区三区| 精品成人无码一区二区三区| 免费精品视频最新在线| 黄瓜视频免费观看在线观看www| 不卡的国产精品| 久久久亚洲成人| 色播色播色播色播色播在线| 欧美综合视频在线观看| 国产尤物在线播放| 成人一级黄色片| 国产aaa一级片| 136福利精品导航| 韩剧1988在线观看免费完整版| 精品人妻伦一二三区久久| 香蕉加勒比综合久久| xxx在线播放| 九九国产精品视频| 被灌满精子的波多野结衣| 国产成人三级| 91中文字幕一区| 多野结衣av一区| 中文字幕日韩高清| 亚洲免费成人在线| 日本道在线观看一区二区| 久草手机视频在线观看| 波多野洁衣一区| 亚洲精品怡红院| 黄色亚洲在线| 色噜噜一区二区| xxxx日韩| 国产欧美日韩精品丝袜高跟鞋| 欧美韩日亚洲| 中文字幕成人精品久久不卡| 亚洲国产精品国自产拍久久| 91久久国产综合久久| 久久精品视频免费在线观看| 久久久国际精品| 绯色av蜜臀vs少妇| 免费在线一区观看| 黄色影院一级片| 中文字幕人成人乱码| 日本不卡久久| 老司机在线精品视频| 成人黄色网免费| 欧美成人资源| 亚洲美女视频网| www.黄色片| 欧美日韩在线精品一区二区三区激情| 国产精品a成v人在线播放| 18成人在线视频| 欧美熟妇激情一区二区三区| av亚洲精华国产精华精华| 久久久久久久久久久久久久久国产| 一区二区福利| 激情六月天婷婷| 久久综合av| 久久99影院| 136导航精品福利| 51蜜桃传媒精品一区二区| 91在线亚洲| 国产不卡av在线| 人狥杂交一区欧美二区| 久久久久久亚洲精品不卡| 天天干天天插天天操| 6080国产精品一区二区| 中文字幕丰满人伦在线| 亚洲欧洲成人精品av97| 精品无人区无码乱码毛片国产| 波多野结衣中文字幕一区| 日本xxxx免费| 国产精品一区久久久久| 岛国av免费在线| 九九久久精品视频| 欧美一级xxxx| 九九九久久久精品| www.51色.com| 国产精品影视网| 色哟哟在线观看视频| 国产一区二区美女| 久久6免费视频| 国产一区二区三区av电影| 国产又黄又猛的视频| 久久精品免费观看| 永久免费的av网站| 精品一区二区在线播放| 国产乱码一区二区三区四区| 精品一区二区三区免费观看| 成人综合久久网| 国产最新精品精品你懂的| 手机免费av片| 国内精品伊人久久久久av影院| 99国产精品久久久久久| 国产在线精品国自产拍免费| 久久综合桃花网| 懂色中文一区二区在线播放| 成年女人免费视频| 99久久伊人精品| b站大片免费直播| 欧美极品美女视频| 女性裸体视频网站| 亚洲综合无码一区二区| 日本三级一区二区| 91九色最新地址| 国产精品久久欧美久久一区| 欧美成va人片在线观看| 国产精品久久久久久久久夜色| 日本精品免费观看高清观看| 中文字幕 欧美激情| 制服丝袜亚洲精品中文字幕| 亚洲国产精品二区| 亚洲欧美中文另类| 午夜视频在线观看免费视频| 久99九色视频在线观看| а√在线中文在线新版| 国产精品久久久久999| 疯狂欧洲av久久成人av电影| 国模精品娜娜一二三区| 欧美午夜在线播放| 国产精品一区免费观看| 国产精品视频一区二区三区四蜜臂| 亚洲日本精品| 精品理论电影在线| 在线无限看免费粉色视频| 在线一区视频| 天天操天天干天天做| 成人ar影院免费观看视频| 亚洲天堂岛国片| 亚洲成在线观看| 精品国产www| 亚洲国产成人精品女人久久久| 国产小视频在线| 操日韩av在线电影| 欧美大胆成人| 成人欧美一区二区三区视频xxx | 日韩成人激情视频| 午夜小视频在线| 欧美一级大片在线观看| 日韩成人久久| 一本一生久久a久久精品综合蜜| 尤物精品在线| 成人免费黄色av| 国产精品污www在线观看| 欧美三级一区二区三区| 宅男噜噜噜66一区二区66| 四虎在线免费观看| 欧美激情视频在线免费观看 欧美视频免费一| 欧产日产国产精品视频| 亚洲va欧美va国产综合剧情| 精品freesex老太交| 青青青免费在线| 国产老肥熟一区二区三区| 蜜乳av中文字幕| 精品久久久中文| 亚洲成人久久精品| 久久精品国产久精国产一老狼| 在线观看av黄网站永久| 欧美亚洲国产视频小说| 亚洲精品高潮| 中文字幕の友人北条麻妃| 免费看欧美女人艹b| 国产精品密蕾丝袜| 欧美日韩日本国产| 天堂在线资源库| 欧美激情网友自拍| 日韩免费一级| 91九色国产ts另类人妖| 久久精品国产精品亚洲综合| 手机看片福利视频| 在线视频欧美精品| 黄色影院在线播放| 青草热久免费精品视频 | 日本一区二区在线| 中文日韩在线| 亚洲一区二区三区四区五区六区| 亚洲自拍与偷拍| 亚洲成a人片77777精品| 欧美大片在线看免费观看| 麻豆国产一区| 国产精品无码电影在线观看| 国产一二三精品| 538任你躁在线精品视频网站| 91精品福利在线一区二区三区 | 国产狼人综合免费视频| 国内精品久久久久久久影视简单| 精品99在线视频| 久久女同精品一区二区| 在线精品免费视| 在线视频欧美日韩精品| 六九午夜精品视频| 中文字幕免费在线不卡| 精品一区二区三区不卡| 精品国产欧美日韩不卡在线观看 | 国产成人精品久久久| 国产精品密蕾丝视频下载| 欧美精品aaaa| 18涩涩午夜精品.www| 亚洲国产福利视频| 97超级碰碰碰久久久| 国产一区二区三区四区五区| 亚洲高清在线免费观看| 亚洲欧洲美洲综合色网| 亚洲AV午夜精品| 欧美怡红院视频一区二区三区 | 国产一区二区三区直播精品电影 | 欧美成人r级一区二区三区| 国产福利在线免费观看| 久久一区二区精品| 蜜桃久久久久久久| 亚洲成人生活片| 日韩激情视频在线播放| 成人国产综合| 妺妺窝人体色777777| 久久一区二区三区四区| 一级欧美一级日韩| 欧美精品videos| 欧美禁忌电影网| 北条麻妃亚洲一区| 精品福利一区二区| 三区四区在线视频| 国产精品免费一区二区三区观看| 久久婷婷影院| 亚洲熟女www一区二区三区| 日韩精品在线观看一区| 欧美成人毛片| 乱人伦xxxx国语对白| 中文字幕av一区二区三区免费看 | 99久久er热在这里只有精品15| 中文字幕 亚洲视频| 久久久久久久一区二区三区| 欧美最新另类人妖| 无码国产69精品久久久久网站| 欧洲一区二区三区免费视频| 肉体视频在线| 亚洲欧洲一区二区在线观看| 成人动漫在线一区| 91国内精品视频| 日韩美女写真福利在线观看|