精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

100行Python代碼,輕松搞定神經(jīng)網(wǎng)絡(luò)

開發(fā) 后端
用tensorflow,pytorch這類深度學(xué)習(xí)庫來寫一個(gè)神經(jīng)網(wǎng)絡(luò)早就不稀奇了??墒?,你知道怎么用python和numpy來優(yōu)雅地搭一個(gè)神經(jīng)網(wǎng)絡(luò)嘛?

[[264277]]

大數(shù)據(jù)文摘出品

來源:eisenjulian

編譯:周家樂、錢天培

用tensorflow,pytorch這類深度學(xué)習(xí)庫來寫一個(gè)神經(jīng)網(wǎng)絡(luò)早就不稀奇了。

可是,你知道怎么用python和numpy來優(yōu)雅地搭一個(gè)神經(jīng)網(wǎng)絡(luò)嘛?

現(xiàn)如今,有多種深度學(xué)習(xí)框架可供選擇,他們帶有自動(dòng)微分、基于圖的優(yōu)化計(jì)算和硬件加速等各種重要特性。對人們而言,似乎享受這些重要特性帶來的便利已經(jīng)是理所當(dāng)然的事兒了。但其實(shí),瞧一瞧隱藏在這些特性下的東西,能更好的幫助你理解這些網(wǎng)絡(luò)究竟是如何工作的。

所以今天,文摘菌就來手把手教大家搭一個(gè)神經(jīng)網(wǎng)絡(luò)。原料就是簡單的python和numpy代碼!

文章中的所有代碼可以都在這兒獲取。

https://colab.research.google.com/github/eisenjulian/slides/blob/master/NN_from_scratch/notebook.ipynb

符號說明

在計(jì)算反向傳播時(shí), 我們可以選擇使用函數(shù)符號、變量符號去記錄求導(dǎo)過程。它們分別對應(yīng)了計(jì)算圖中的邊和節(jié)點(diǎn)來表示它們。

給定R^n→R和x∈R^n, 那么梯度是由偏導(dǎo)∂f/∂j(x)組成的n維行向量。

如果f:R^n→R^m 和x∈R^n,那么 Jacobian矩陣是下列函數(shù)組成的一個(gè)m×n的矩陣。

對于給定的函數(shù)f和向量a和b如果a=f(b)那么我們用∂a/∂b 表示Jacobian矩陣,當(dāng)a是實(shí)數(shù)時(shí)則表示梯度。

鏈?zhǔn)椒▌t

給定三個(gè)分屬于不同向量空間的向量a∈A及c∈C和兩個(gè)可微函數(shù)f:A→B及g:B→C使得f(a)=b和g(b)=c,我們能得到復(fù)合函數(shù)的Jacobian矩陣是函數(shù)f和g的jacobian矩陣的乘積:

這就是大名鼎鼎的鏈?zhǔn)椒▌t。提出于上世紀(jì)60、70年代的反向傳播算法就是應(yīng)用了鏈?zhǔn)椒▌t來計(jì)算一個(gè)實(shí)函數(shù)相對于其不同參數(shù)的梯度的。

要知道我們的最終目標(biāo)是通過沿著梯度的相反方向來逐步找到函數(shù)的最小值 (當(dāng)然***是全局最小值), 因?yàn)橹辽僭诰植縼碚f, 這樣做將使得函數(shù)值逐步下降。當(dāng)我們有兩個(gè)參數(shù)需要優(yōu)化時(shí), 整個(gè)過程如圖所示:

反向模式求導(dǎo)

假設(shè)函數(shù)fi(ai)=ai+1由多于兩個(gè)函數(shù)復(fù)合而成,我們可以反復(fù)應(yīng)用公式求導(dǎo)并得到:

可以有很多種方式計(jì)算這個(gè)乘積,最常見的是從左向右或從右向左。

如果an是一個(gè)標(biāo)量,那么在計(jì)算整個(gè)梯度的時(shí)候我們可以通過先計(jì)算∂an/∂an-1并逐步右乘所有的Jacobian矩陣∂ai/∂ai-1來得到。這個(gè)操作有時(shí)被稱作VJP或向量-Jacobian乘積(Vector-Jacobian Product)。

又因?yàn)檎麄€(gè)過程中我們是從計(jì)算∂an/∂an-1開始逐步計(jì)算∂an/∂an-2,∂an/∂an-3等梯度到***,并保存中間值,所以這個(gè)過程被稱為反向模式求導(dǎo)。最終,我們可以計(jì)算出an相對于所有其他變量的梯度。

相對而言,前向模式的過程正相反。它從計(jì)算Jacobian矩陣如∂a2/∂a1開始,并左乘∂a3/∂a2來計(jì)算∂a3/∂a1。如果我們繼續(xù)乘上∂ai/∂ai-1并保存中間值,最終我們可以得到所有變量相對于∂a2/∂a1的梯度。當(dāng)∂a2/∂a1是標(biāo)量時(shí),所有乘積都是列向量,這被稱為Jacobian向量乘積(或者JVP,Jacobian-Vector Product )。

你大概已經(jīng)猜到了,對于反向傳播來說,我們更偏向應(yīng)用反向模式——因?yàn)槲覀兿胍鸩降玫綋p失函數(shù)對于每層參數(shù)的梯度。正向模式雖然也可以計(jì)算需要的梯度, 但因?yàn)橹貜?fù)計(jì)算太多而效率很低。

計(jì)算梯度的過程看起來像是有很多高維矩陣相乘, 但實(shí)際上,Jacobian矩陣常常是稀疏、塊或者對角矩陣,又因?yàn)槲覀冎魂P(guān)心將其右乘行向量的結(jié)果,所以就不需要耗費(fèi)太多計(jì)算和存儲資源。

在本文中, 我們的方法主要用于按順序逐層搭建的神經(jīng)網(wǎng)絡(luò), 但同樣的方法也適用于計(jì)算梯度的其他算法或計(jì)算圖。

關(guān)于反向和正向模式的詳盡描述可以參考這里☟:

http://colah.github.io/posts/2015-08-Backprop/

深度神經(jīng)網(wǎng)絡(luò)

在典型的監(jiān)督機(jī)器學(xué)習(xí)算法中, 我們通常用到一個(gè)很復(fù)雜函數(shù),它的輸入是存有標(biāo)簽樣本數(shù)值特征的張量。此外,還有很多用于描述模型的權(quán)重張量。

損失函數(shù)是關(guān)于樣本和權(quán)重的標(biāo)量函數(shù), 它是衡量模型輸出與預(yù)期標(biāo)簽的差距的指標(biāo)。我們的目標(biāo)是找到最合適的權(quán)重讓損失最小。在深度學(xué)習(xí)中, 損失函數(shù)被表示為一串易于求導(dǎo)的簡單函數(shù)的復(fù)合。所有這些簡單函數(shù)(除了***一個(gè)函數(shù)),都是我們指的層, 而每一層通常有兩組參數(shù): 輸入 (可以是上一層的輸出) 和權(quán)重。

而***一個(gè)函數(shù)代表了損失度量, 它也有兩組參數(shù): 模型輸出y和真實(shí)標(biāo)簽y^。例如, 如果損失度量l為平方誤差, 則∂l/∂y為 2 avg(y-y^)。損失度量的梯度將是應(yīng)用反向模式求導(dǎo)的起始行向量。

Autograd

自動(dòng)求導(dǎo)背后的思想已是相當(dāng)成熟了。它可以在運(yùn)行時(shí)或編譯過程中完成,但如何實(shí)現(xiàn)會(huì)對性能產(chǎn)生巨大影響。我建議你能認(rèn)真閱讀 HIPS autograd的 Python 實(shí)現(xiàn),來真正了解autograd。

核心想法其實(shí)始終未變。從我們在學(xué)校學(xué)習(xí)如何求導(dǎo)時(shí), 就應(yīng)該知道這一點(diǎn)了。如果我們能夠追蹤最終求出標(biāo)量輸出的計(jì)算, 并且我們知道如何對簡單操作求導(dǎo) (例如加法、乘法、冪、指數(shù)、對數(shù)等等), 我們就可以算出輸出的梯度。

假設(shè)我們有一個(gè)線性的中間層f,由矩陣乘法表示(暫時(shí)不考慮偏置):

為了用梯度下降法調(diào)整w值,我們需要計(jì)算梯度∂l/∂w。這里我們可以觀察到,改變y從而影響l是一個(gè)關(guān)鍵。

每一層都必須滿足下面這個(gè)條件: 如果給出了損失函數(shù)相對于這一層輸出的梯度, 就可以得到損失函數(shù)相對于這一層輸入(即上一層的輸出)的梯度。

現(xiàn)在應(yīng)用兩次鏈?zhǔn)椒▌t得到損失函數(shù)相對于w的梯度:

相對于x的是:

因此, 我們既可以后向傳遞一個(gè)梯度, 使上一層得到更新并更新層間權(quán)重, 以優(yōu)化損失, 這就行啦!

動(dòng)手實(shí)踐

先來看看代碼, 或者直接試試Colab Notebook:

https://colab.research.google.com/github/eisenjulian/slides/blob/master/NN_from_scratch/notebook.ipynb

我們從封裝了一個(gè)張量及其梯度的類(class)開始。

現(xiàn)在我們可以創(chuàng)建一個(gè)layer類,關(guān)鍵的想法是,在前向傳播時(shí),我們返回這一層的輸出和可以接受輸出梯度和輸入梯度的函數(shù),并在過程中更新權(quán)重梯度。

然后, 訓(xùn)練過程將有三個(gè)步驟, 計(jì)算前向傳遞, 然后后向傳遞, ***更新權(quán)重。這里關(guān)鍵的一點(diǎn)是把更新權(quán)重放在***, 因?yàn)闄?quán)重可以在多個(gè)層中重用,我們更希望在需要的時(shí)候再更新它。

  1. class Layer: 
  2.   def __init__(self): 
  3.     self.parameters = [] 
  4.  
  5.   def forward(self, X): 
  6.     """ 
  7.     Override me! A simple no-op layer, it passes forward the inputs 
  8.     """ 
  9.     return X, lambda D: D 
  10.  
  11.   def build_param(self, tensor): 
  12.     """ 
  13.     Creates a parameter from a tensor, and saves a reference for the update step 
  14.     """ 
  15.     param = Parameter(tensor) 
  16.     self.parameters.append(param) 
  17.     return param 
  18.  
  19.   def update(self, optimizer): 
  20.     for param in self.parameters: optimizer.update(param) 

標(biāo)準(zhǔn)的做法是將更新參數(shù)的工作交給優(yōu)化器, 優(yōu)化器在每一批(batch)后都會(huì)接收參數(shù)的實(shí)例。最簡單和最廣為人知的優(yōu)化方法是mini-batch隨機(jī)梯度下降。

  1. class SGDOptimizer(): 
  2.   def __init__(self, lr=0.1): 
  3.     self.lr = lr 
  4.  
  5.   def update(self, param): 
  6.     param.tensor -self.lr * param.gradient 
  7.     param.gradient.fill(0) 

在此框架下, 并使用前面計(jì)算的結(jié)果后, 線性層如下所示:

  1. class Linear(Layer): 
  2.   def __init__(self, inputs, outputs): 
  3.     super().__init__() 
  4.     tensor = np.random.randn(inputs, outputs) * np.sqrt(1 / inputs) 
  5.     selfself.weights = self.build_param(tensor) 
  6.     selfself.bias = self.build_param(np.zeros(outputs)) 
  7.  
  8.   def forward(self, X): 
  9.     def backward(D): 
  10.       self.weights.gradient += X.T @ D 
  11.       self.bias.gradient += D.sum(axis=0
  12.       return D @ self.weights.tensor.T 
  13.     return X @ self.weights.tensor +  self.bias.tensor, backward 

接下來看看另一個(gè)常用的層,激活層。它們屬于點(diǎn)式(pointwise)非線性函數(shù)。點(diǎn)式函數(shù)的 Jacobian矩陣是對角矩陣, 這意味著當(dāng)乘以梯度時(shí), 它是逐點(diǎn)相乘的。

  1. class ReLu(Layer): 
  2.   def forward(self, X): 
  3.     mask = X > 0 
  4.     return X * mask, lambda D: D * mask 

計(jì)算Sigmoid函數(shù)的梯度略微有一點(diǎn)難度,而它也是逐點(diǎn)計(jì)算的:

  1. class Sigmoid(Layer): 
  2.   def forward(self, X): 
  3.     S = 1 / (1 + np.exp(-X)) 
  4.     def backward(D): 
  5.       return D * S * (1 - S) 
  6.     return S, backward 

當(dāng)我們按序構(gòu)建很多層后,可以遍歷它們并先后得到每一層的輸出,我們可以把backward函數(shù)存在一個(gè)列表內(nèi),并在計(jì)算反向傳播時(shí)使用,這樣就可以直接得到相對于輸入層的損失梯度。就是這么神奇:

  1. class Sequential(Layer): 
  2.   def __init__(self, *layers): 
  3.     super().__init__() 
  4.     self.layers = layers 
  5.     for layer in layers: 
  6.       self.parameters.extend(layer.parameters) 
  7.  
  8.   def forward(self, X): 
  9.     backprops = [] 
  10.     Y = X 
  11.     for layer in self.layers: 
  12.       Y, backprop = layer.forward(Y) 
  13.       backprops.append(backprop) 
  14.     def backward(D): 
  15.       for backprop in reversed(backprops): 
  16.         D = backprop(D) 
  17.       return D 
  18.     return Y, backward 

正如我們前面提到的,我們將需要定義批樣本的損失函數(shù)和梯度。一個(gè)典型的例子是MSE,它被常用在回歸問題里,我們可以這樣實(shí)現(xiàn)它:

  1. def mse_loss(Yp, Yt): 
  2.   diff = Yp - Yt 
  3.   return np.square(diff).mean(), 2 * diff / len(diff) 

就差一點(diǎn)了!現(xiàn)在,我們定義了兩種層,以及合并它們的方法,下面如何訓(xùn)練呢?我們可以使用類似于scikit-learn或者Keras中的API。

  1. class Learner(): 
  2.   def __init__(self, model, loss, optimizer): 
  3.     self.model = model 
  4.     self.loss = loss 
  5.     self.optimizer = optimizer 
  6.  
  7.   def fit_batch(self, X, Y): 
  8.     Y_, backward = self.model.forward(X) 
  9.     L, D = self.loss(Y_, Y) 
  10.     backward(D) 
  11.     self.model.update(self.optimizer) 
  12.     return L 
  13.  
  14.   def fit(self, X, Y, epochs, bs): 
  15.     losses = [] 
  16.     for epoch in range(epochs): 
  17.       p = np.random.permutation(len(X)) 
  18.       X, Y = X[p], Y[p] 
  19.       loss = 0.0 
  20.       for i in range(0, len(X), bs): 
  21.         loss += self.fit_batch(X[i:i + bs], Y[i:i + bs]) 
  22.       losses.append(loss) 
  23.     return losses 

這就行了!如果你跟隨著我的思路,你可能就會(huì)發(fā)現(xiàn)其實(shí)有幾行代碼是可以被省掉的。

這代碼能用不?

現(xiàn)在可以用一些數(shù)據(jù)測試下我們的代碼了。

  1. X = np.random.randn(100, 10) 
  2. w = np.random.randn(10, 1) 
  3. b = np.random.randn(1) 
  4. Y = X @ W + B 
  5.  
  6. model = Linear(10, 1) 
  7. learner = Learner(model, mse_loss, SGDOptimizer(lr=0.05)) 
  8. learner.fit(X, Y, epochs=10bs=10

我一共訓(xùn)練了10輪。

我們還能檢查學(xué)到的權(quán)重和真實(shí)的權(quán)重是否一致。

  1. print(np.linalg.norm(m.weights.tensor - W), (m.bias.tensor - B)[0]) 
  2. > 1.848553648022619e-05 5.69305886743976e-06 

好了,就這么簡單。讓我們再試試非線性數(shù)據(jù)集,例如y=x1x2,并且再加上一個(gè)Sigmoid非線性層和另一個(gè)線性層讓我們的模型更復(fù)雜些。像下面這樣:

  1. X = np.random.randn(1000, 2) 
  2. Y = X[:, 0] * X[:, 1] 
  3.  
  4. losses1 = Learner
  5.     Sequential(Linear(2, 1)), 
  6.     mse_loss, 
  7.     SGDOptimizer(lr=0.01) 
  8. ).fit(X, Y, epochs=50bs=50
  9.  
  10. losses2 = Learner
  11.     Sequential( 
  12.         Linear(2, 10), 
  13.         Sigmoid(), 
  14.         Linear(10, 1) 
  15.     ), 
  16.     mse_loss, 
  17.     SGDOptimizer(lr=0.3) 
  18. ).fit(X, Y, epochs=50bs=50
  19.  
  20. plt.plot(losses1) 
  21. plt.plot(losses2) 
  22. plt.legend(['1 Layer', '2 Layers']) 
  23. plt.show() 

比較單一層vs兩層模型在使用sigmoid激活函數(shù)的情況下的訓(xùn)練損失。

***

希望通過搭建這個(gè)簡單的神經(jīng)網(wǎng)絡(luò),你已經(jīng)掌握了用python和numpy實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的基本思路。

在這篇文章中,我們只定義了三種類型的層和一個(gè)損失函數(shù), 所以還有很多事情可做,但基本原理都相似。感興趣的同學(xué)可以試著實(shí)現(xiàn)更復(fù)雜的神經(jīng)網(wǎng)絡(luò)哦!

References:

  • Thinc Deep Learning Library:https://github.com/explosion/thinc
  • PyTorch Tutorial:https://pytorch.org/tutorials/beginner/nn_tutorial.html
  • Calculus on Computational Graphs:http://colah.github.io/posts/2015-08-Backprop/
  • HIPS Autograd:https://github.com/HIPS/autograd

相關(guān)報(bào)道:https://eisenjulian.github.io/deep-learning-in-100-lines/

【本文是51CTO專欄機(jī)構(gòu)大數(shù)據(jù)文摘的原創(chuàng)文章,微信公眾號“大數(shù)據(jù)文摘( id: BigDataDigest)”】

     大數(shù)據(jù)文摘二維碼

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2019-07-25 08:20:37

代碼開發(fā)神經(jīng)網(wǎng)絡(luò)

2023-03-07 18:55:05

代碼機(jī)器學(xué)習(xí)

2020-04-20 13:45:32

神經(jīng)網(wǎng)絡(luò)模型代碼

2017-09-18 08:08:33

JavaScript神經(jīng)網(wǎng)絡(luò)代碼

2017-09-15 13:35:11

JavaScript神經(jīng)網(wǎng)絡(luò)

2020-04-24 12:16:48

Python 圖像分類實(shí)戰(zhàn)

2021-01-08 05:26:31

ServerlessPython 預(yù)測

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2019-05-07 19:12:28

機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)Python

2020-03-16 10:16:19

代碼開發(fā)工具

2017-08-29 09:40:26

JavaScript代碼神經(jīng)網(wǎng)絡(luò)

2023-05-04 07:34:37

Rust代碼CPU

2021-08-18 15:48:03

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2021-04-07 13:43:07

PythonDash數(shù)據(jù)庫

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化

2025-02-25 14:13:31

2018-01-24 10:48:34

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)前端

2024-06-12 15:59:59

前端JavaScrip識別

2021-11-11 23:02:16

電腦垃圾軟件

2022-04-19 07:45:40

代碼Python美圖秀秀
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

成人在线免费视频| 久久久精品视频免费观看| 成人短视频app| 亚洲高清成人| 亚洲一区二区黄| 免费网站在线观看黄| 国产理论电影在线| 国产欧美日韩另类视频免费观看| 国产精品久久久久久久久久免费| 波多野结衣家庭教师| 欧美三级自拍| 欧美日本不卡视频| 北条麻妃在线视频观看| 黄色免费在线看| 久久九九99视频| 成人在线观看av| 中文字幕码精品视频网站| 影音先锋亚洲电影| xvideos亚洲人网站| 日本黄色网址大全| 91精品啪在线观看国产爱臀| 欧美oldwomenvideos| 精品亚洲成a人| 欧美一区二区三区免费观看| 少妇aaaaa| 欧美少妇xxxx| 亚洲男女自偷自拍图片另类| 欧美图片自拍偷拍| 在线高清欧美| 欧美日韩精品福利| 日本美女高潮视频| 一区二区电影免费观看| 亚洲一二三区视频在线观看| 中文字幕欧美日韩一区二区三区| 欧美挠脚心网站| 粉嫩av一区二区三区| 国产日韩视频在线观看| 天天爽夜夜爽人人爽| 亚洲美女一区| 久久久女女女女999久久| 麻豆明星ai换脸视频| 欧美裸体在线版观看完整版| 日韩不卡在线观看| 亚洲色图欧美日韩| 亚洲国产精品免费视频| 欧美精品黑人性xxxx| 成人免费在线观看视频网站| 日韩电影网站| 色视频成人在线观看免| 少妇性饥渴无码a区免费| 91老司机福利在线| 亚州成人在线电影| 丝袜人妻一区二区三区| 波多野结衣中文在线| 亚洲综合999| 亚洲 自拍 另类小说综合图区| 肉体视频在线| 亚洲mv在线观看| 欧美精品久久久久久久自慰| 超清av在线| 香蕉久久一区二区不卡无毒影院| 每日在线观看av| 蜜臀久久精品| 色婷婷亚洲婷婷| 国产免费视频传媒| 国产一区二区三区四区五区3d| 欧美日韩中文字幕精品| 57pao国产成永久免费视频| 亚洲精品无播放器在线播放| 91精品综合久久久久久| 国产香蕉精品视频| 美女视频免费精品| 国产亚洲精品久久久| 亚洲最大成人综合网| 欧美wwwww| 欧美第一黄色网| 69成人免费视频| 免费观看日韩av| 91日本在线视频| 人妻妺妺窝人体色www聚色窝| 波多野结衣中文一区| 欧美另类视频在线| 色开心亚洲综合| 亚洲一区二区免费视频| 成人黄色片视频| 亚洲伦理网站| 亚洲国产另类 国产精品国产免费| 久久偷拍免费视频| 91综合久久| 久久久免费电影| 中文字幕av在线免费观看| 国产美女久久久久| 久久艳妇乳肉豪妇荡乳av| 亚洲欧美视频一区二区| 午夜欧美大尺度福利影院在线看| 日日碰狠狠躁久久躁婷婷| 日韩毛片免费看| 亚洲精品国产欧美| 二区三区四区视频| 国产一级一区二区| 成人精品aaaa网站| 青青草在线播放| 亚洲男同性恋视频| 成年人网站大全| 亚洲国产aⅴ精品一区二区| 国产亚洲欧洲在线| 国产精品成人网站| 久久国产精品99久久久久久老狼| 国产伦精品一区二区三区免| 午夜视频成人| 色婷婷综合久久久中文字幕| 91精品人妻一区二区三区四区| 你微笑时很美电视剧整集高清不卡| 久久精视频免费在线久久完整在线看| 男女啊啊啊视频| 国产一区在线看| 日本一区不卡| av中文字幕在线观看第一页| 91麻豆精品国产91久久久久| 精品无码人妻一区二区免费蜜桃| 狠狠爱成人网| 亚洲一区二区久久久久久| 九色视频成人自拍| 亚洲国产精品精华液网站| 亚洲怡红院在线| 欧美日韩激情在线一区二区三区| 97碰在线观看| 性色av蜜臀av| 亚洲欧美综合另类在线卡通| 熟女少妇精品一区二区| 美国十次av导航亚洲入口| 欧美人在线视频| 国产又大又长又粗| 日本一区二区成人在线| 免费在线激情视频| 中文字幕日韩在线| 久久国产精品影片| 国产女人18毛片水18精| 国产精品久久午夜| 美女黄色片视频| 欧美日韩一区二区三区视频播放| 欧美在线视频播放| 青青草视频在线观看| 欧美色播在线播放| 插我舔内射18免费视频| 激情亚洲成人| 99热在线国产| 国产三区视频在线观看| 色婷婷av一区二区三区软件| 亚洲成人福利视频| 亚洲欧美综合久久久| 国产精品91一区| 激情小说 在线视频| 欧美日韩免费看| 亚洲精品视频大全| 国产精品日本欧美一区二区三区| 精品国产一区二区三区久久久久久| 一区二区三区伦理| 精品美女在线播放| 久久久香蕉视频| 成a人片国产精品| aa视频在线播放| 欧美综合精品| 国产成人久久精品| eeuss影院www在线播放| 欧美放荡的少妇| 久久精品国产亚洲AV无码男同| 丁香婷婷深情五月亚洲| 成人一对一视频| 视频一区在线观看| 国产精品亚洲美女av网站| 黄视频在线观看网站| 欧美一区二区不卡视频| 亚州国产精品视频| 久久久久久久久伊人| 色哟哟精品视频| 亚洲精品成人| 国产原创精品| 九色成人搞黄网站| 精品综合久久久久久97| 日韩永久免费视频| 欧美在线综合视频| 欧美日韩精品亚洲精品| 99久久婷婷国产综合精品| 国模杨依粉嫩蝴蝶150p| 91成人精品视频| 国内一区在线| 亚洲最大的免费视频网站| 欧美国产日韩精品| 欧美男男激情freegay| 欧美日韩激情一区| 日本特黄特色aaa大片免费| 久久久国产精品不卡| 日韩视频在线观看一区二区三区| 9久re热视频在线精品| 色99中文字幕| 136国产福利精品导航网址应用| 欧美资源在线观看| 国产在线观看av| 国产婷婷色综合av蜜臀av| 91精品国产乱码久久久| 狠狠色狠色综合曰曰| 久久人妻无码aⅴ毛片a片app| aaa国产一区| 中文字幕1234区| 免费日韩精品中文字幕视频在线| 三年中国中文在线观看免费播放| 欧美日韩精品一区二区三区在线观看| 国产精品自拍小视频| 色综合影院在线观看| 高清久久一区| 国产精品狠色婷| 国产精品电影| 美乳少妇欧美精品| 国产精品久久久久久久龚玥菲 | 久久九九免费视频| 天堂网www中文在线| 91麻豆精品久久久久蜜臀| 日韩特级黄色片| 亚洲精品国产成人久久av盗摄| 熟女俱乐部一区二区| 成人免费观看视频| 日本人dh亚洲人ⅹxx| 久久国产精品色| 日本黄网站免费| 亚洲精品麻豆| 4444亚洲人成无码网在线观看| 欧美高清在线| 日本一区二区三区视频在线观看| 成人av影音| 91麻豆精品秘密入口| 四虎影视国产精品| 国产精品久久久久一区二区| 天天综合av| 欧美性资源免费| 涩涩av在线| 91av在线国产| 国产美女一区视频| 欧美精品电影免费在线观看| 成人毛片av在线| 米奇精品一区二区三区在线观看| 欧美18一19xxx性| 自拍亚洲一区欧美另类| 韩国中文字幕2020精品| 精品呦交小u女在线| 国产一区二区免费在线观看| 国产精品亚洲d| 国产成人精品优优av| 456亚洲精品成人影院| 国产99久久精品一区二区| 中文在线资源| 日本乱人伦a精品| 成人做爰视频www网站小优视频| 91精品国产91久久久| 色戒汤唯在线观看| 日本久久久久久久久| 日韩网站中文字幕| 国产欧美中文字幕| 国产精品一区二区三区www| 91美女高潮出水| 午夜视频在线观看精品中文| 97人人香蕉| 国产乱人伦精品一区| 蜜桃成人免费视频| 国内精品伊人久久久| 亚洲精品高清视频| 午夜精品一区二区三区国产| 成人毛片100部免费看| 亚洲国产精品一区| 无码无遮挡又大又爽又黄的视频| 日韩精品久久久久久| 亚洲免费av一区| 成人永久免费视频| 素人fc2av清纯18岁| 国产午夜三级一区二区三| 亚洲欧美中文另类| 美女久久久久久久久久| 国产日韩精品视频一区| 91ts人妖另类精品系列| 伊人色综合久久天天人手人婷| 国产在线视频第一页| 精品国产1区2区| 免费看av在线| 日韩精品一区二区三区视频| 婷婷在线免费视频| 在线国产精品视频| 欧美色图天堂| 日韩免费在线视频| 日韩一二三区| 欧美极品视频一区二区三区| 国产精品99久久精品| 免费观看国产精品视频| 蜜臀精品久久久久久蜜臀| 中文字幕avav| 久久精品亚洲精品国产欧美kt∨| 国产尤物在线播放| 狠狠久久亚洲欧美专区| 国产福利视频导航| 亚洲人午夜精品免费| a毛片在线观看| 日本一区二区在线播放| 午夜视频在线观看精品中文| 色播五月综合| 亚洲精品免费观看| 免费成年人高清视频| 91蝌蚪porny| 青青草在线观看视频| 欧美日韩一二区| 视频二区在线| 精品中文字幕视频| 欧美高清免费| 欧洲一区二区在线| 99精品视频免费观看视频| 玖玖爱视频在线| 久久久精品天堂| 日韩少妇高潮抽搐| 欧美一区二区三区爱爱| 91精品专区| 欧美一区二区色| 国产精品久久久久久久久久白浆| 亚洲aⅴ天堂av在线电影软件| 性一交一乱一区二区洋洋av| 国产成人精品一区二区在线小狼| 国产精品久久久久精k8| 波多野结衣激情视频| 日韩久久精品成人| 24小时免费看片在线观看| 亚洲精品日韩av| 一区二区三区午夜视频| 国产精品一区二区小说| 国产午夜精品美女毛片视频| 天天做天天爱夜夜爽| 亚洲国产三级网| sm性调教片在线观看| 国产91免费视频| 欧美视频亚洲视频| 国产伦精品一区二区三区妓女下载| 国产精品狼人久久影院观看方式| 中文字幕免费高清网站| 亚洲欧美日韩一区二区在线| 伊人久久在线| 欧美精品欧美精品系列c| 亚洲免费网址| 亚洲一区二区三区日韩| 欧美日韩一区二区免费在线观看| 涩爱av在线播放一区二区| 欧美亚洲一区在线| 欧美日韩精品一区二区三区在线观看| 妞干网在线观看视频| a级高清视频欧美日韩| 国产 日韩 欧美 在线| 精品香蕉一区二区三区| 久久sese| 色大师av一区二区三区| 蜜桃视频一区二区| 在线日韩国产网站| 91精品黄色片免费大全| www.在线视频| 国产精品久久久久av福利动漫| 在线欧美日韩| 扒开jk护士狂揉免费| 欧美日韩一区三区| www免费在线观看| 丁香婷婷久久久综合精品国产 | 日韩在线小视频| 精品午夜视频| 国产精品国产亚洲精品看不卡| 99re6这里只有精品视频在线观看| 女人十八岁毛片| 最好看的2019年中文视频| 欧美2区3区4区| 国产a级片网站| 欧美激情综合五月色丁香小说| 一二三区中文字幕| 九九热精品视频| 日韩三级av| 国产免费中文字幕| 亚洲福利一区二区三区| 精品成人一区二区三区免费视频| 国产在线日韩在线| 在线播放精品| 欧美黄色一级生活片| 69堂亚洲精品首页| 超碰99在线| 久久免费看毛片| av成人免费在线观看| 91激情在线观看| 97视频在线观看视频免费视频| 日韩精品欧美| 在线观看免费视频国产| 欧美中文字幕一区| 白白色在线观看| 亚洲日本精品国产第一区| 成人污视频在线观看| 做爰无遮挡三级| 久久人人爽人人| 国产精品国产三级国产在线观看| 一级黄色片毛片| 欧美另类videos死尸| 超碰资源在线|