精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

機器學習 | PyTorch簡明教程上篇

人工智能 機器學習
前面幾篇文章介紹了特征歸一化和張量,接下來開始寫兩篇PyTorch簡明教程,主要介紹PyTorch簡單實踐。

前面幾篇文章介紹了特征歸一化和張量,接下來開始寫兩篇PyTorch簡明教程,主要介紹PyTorch簡單實踐。

1、四則運算

import torch

a = torch.tensor([2, 3, 4])
b = torch.tensor([3, 4, 5])
print("a + b: ", (a + b).numpy())
print("a - b: ", (a - b).numpy())
print("a * b: ", (a * b).numpy())
print("a / b: ", (a / b).numpy())

加減乘除就不用多解釋了,輸出為:

a + b:  [5 7 9]
a - b:  [-1 -1 -1]
a * b:  [ 6 12 20]
a / b:  [0.6666667 0.75      0.8      ]

2、線性回歸

線性回歸是找到一條直線盡可能接近已知點,如圖:

圖1圖1

import torch
from torch import optim

def build_model1():
    return torch.nn.Sequential(
        torch.nn.Linear(1, 1, bias=False)
    )

def build_model2():
    model = torch.nn.Sequential()
    model.add_module("linear", torch.nn.Linear(1, 1, bias=False))
    return model

def train(model, loss, optimizer, x, y):
    model.train()
    optimizer.zero_grad()
    fx = model.forward(x.view(len(x), 1)).squeeze()
    output = loss.forward(fx, y)
    output.backward()
    optimizer.step()
    return output.item()

def main():
    torch.manual_seed(42)
    X = torch.linspace(-1, 1, 101, requires_grad=False)
    Y = 2 * X + torch.randn(X.size()) * 0.33
    print("X: ", X.numpy(), ", Y: ", Y.numpy())
    model = build_model1()
    loss = torch.nn.MSELoss(reductinotallow='mean')
    optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)
    batch_size = 10

    for i in range(100):
        cost = 0.
        num_batches = len(X) // batch_size
        for k in range(num_batches):
            start, end = k * batch_size, (k + 1) * batch_size
            cost += train(model, loss, optimizer, X[start:end], Y[start:end])
        print("Epoch = %d, cost = %s" % (i + 1, cost / num_batches))

    w = next(model.parameters()).data
    print("w = %.2f" % w.numpy())

if __name__ == "__main__":
    main()

(1)先從main函數開始,torch.manual_seed(42)用于設置隨機數生成器的種子,以確保在每次運行時生成的隨機數序列相同,該函數接受一個整數參數作為種子,可以在訓練神經網絡等需要隨機數的場景中使用,以確保結果的可重復性;

(2)torch.linspace(-1, 1, 101, requires_grad=False)用于在指定的區間內生成一組等間隔的數值,該函數接受三個參數:起始值、終止值和元素個數,返回一個張量,其中包含了指定個數的等間隔數值;

(3)build_model1內部實現:

  • torch.nn.Sequential(torch.nn.Linear(1, 1, bias=False))中使用nn.Sequential類的構造函數,將線性層作為參數傳遞給它,然后返回一個包含該線性層的神經網絡模型;
  • build_model2和build_model1功能一樣,使用add_module()方法向其中添加了一個名為linear的子模塊;

(4)torch.nn.MSELoss(reductinotallow='mean')定義損失函數;

(5)optim.SGD(model.parameters(), lr=0.01, momentum=0.9)實現隨機梯度下降(Stochastic Gradient Descent,SGD)優化算法;

(6)通過batch_size將訓練集拆分,循環100次;

(7)接下來是訓練函數train,用于訓練一個神經網絡模型,具體來說,該函數接受以下參數:

  • model:神經網絡模型,通常是一個繼承自nn.Module的類的實例;
  • loss:損失函數,用于計算模型的預測值與真實值之間的差異;
  • optimizer:優化器,用于更新模型的參數;
  • x:輸入數據,是一個torch.Tensor類型的張量;
  • y:目標數據,是一個torch.Tensor類型的張量;

(8)train是PyTorch訓練步驟的通用方法,步驟如下:

  • 將模型設置為訓練模式,即啟用dropout和batch normalization等訓練時使用的特殊操作;
  • 將優化器的梯度緩存清零,以便進行新一輪的梯度計算;
  • 將輸入數據傳遞給模型,計算模型的預測值,并將預測值與目標數據傳遞給損失函數,計算損失值;
  • 對損失值進行反向傳播,計算模型參數的梯度;
  • 使用優化器更新模型參數,以最小化損失值;
  • 返回損失值的標量值;

(9)print("Epoch = %d, cost = %s" % (i + 1, cost / num_batches))最后打印當前訓練的輪次和損失值,上述的代碼輸出如下:

...
Epoch = 95, cost = 0.10514946877956391
Epoch = 96, cost = 0.10514946877956391
Epoch = 97, cost = 0.10514946877956391
Epoch = 98, cost = 0.10514946877956391
Epoch = 99, cost = 0.10514946877956391
Epoch = 100, cost = 0.10514946877956391
w = 1.98

3、邏輯回歸

邏輯回歸即用一根曲線近似表示一堆離散點的軌跡,如圖:

圖2圖2

import numpy as np
import torch
from torch import optim
from data_util import load_mnist

def build_model(input_dim, output_dim):
    return torch.nn.Sequential(
        torch.nn.Linear(
            input_dim, output_dim, bias=False)
    )

def train(model, loss, optimizer, x_val, y_val):
    model.train()
    optimizer.zero_grad()
    fx = model.forward(x_val)
    output = loss.forward(fx, y_val)
    output.backward()
    optimizer.step()
    return output.item()

def predict(model, x_val):
    model.eval()
    output = model.forward(x_val)
    return output.data.numpy().argmax(axis=1)

def main():
    torch.manual_seed(42)
    trX, teX, trY, teY = load_mnist(notallow=False)
    trX = torch.from_numpy(trX).float()
    teX = torch.from_numpy(teX).float()
    trY = torch.tensor(trY)

    n_examples, n_features = trX.size()
    n_classes = 10
    model = build_model(n_features, n_classes)
    loss = torch.nn.CrossEntropyLoss(reductinotallow='mean')
    optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)
    batch_size = 100

    for i in range(100):
        cost = 0.
        num_batches = n_examples // batch_size
        for k in range(num_batches):
            start, end = k * batch_size, (k + 1) * batch_size
            cost += train(model, loss, optimizer,
                          trX[start:end], trY[start:end])
        predY = predict(model, teX)
        print("Epoch %d, cost = %f, acc = %.2f%%"
              % (i + 1, cost / num_batches, 100. * np.mean(predY == teY)))


if __name__ == "__main__":
    main()

(1)先從main函數開始,torch.manual_seed(42)上面有介紹,在此略過;

(2)load_mnist是自己實現下載mnist數據集,返回trX和teX是輸入數據,trY和teY是標簽數據;

(3)build_model內部實現:torch.nn.Sequential(torch.nn.Linear(input_dim, output_dim, bias=False))用于構建一個包含一個線性層的神經網絡模型,模型的輸入特征數量為input_dim,輸出特征數量為output_dim,且該線性層沒有偏置項,其中n_classes=10表示輸出10個分類;

(4)其他的步驟就是定義損失函數,梯度下降優化器,通過batch_size將訓練集拆分,循環100次進行train;

(5)optim.SGD(model.parameters(), lr=0.01, momentum=0.9)實現隨機梯度下降(Stochastic Gradient Descent,SGD)優化算法;

(6)每一輪訓練完成后,執行predict,該函數接受兩個參數model(訓練好的模型)和teX(需要預測的數據),步驟如下:

  • model.eval()模型設置為評估模式,這意味著模型將不會進行訓練,而是僅用于推理;
  • 將output轉換為NumPy數組,并使用argmax()方法獲取每個樣本的預測類別;

(7)print("Epoch %d, cost = %f, acc = %.2f%%" % (i + 1, cost / num_batches, 100. * np.mean(predY == teY)))最后打印當前訓練的輪次,損失值和acc,上述的代碼輸出如下(執行很快,但是準確率偏低):

...
Epoch 91, cost = 0.252863, acc = 92.52%
Epoch 92, cost = 0.252717, acc = 92.51%
Epoch 93, cost = 0.252573, acc = 92.50%
Epoch 94, cost = 0.252431, acc = 92.50%
Epoch 95, cost = 0.252291, acc = 92.52%
Epoch 96, cost = 0.252153, acc = 92.52%
Epoch 97, cost = 0.252016, acc = 92.51%
Epoch 98, cost = 0.251882, acc = 92.51%
Epoch 99, cost = 0.251749, acc = 92.51%
Epoch 100, cost = 0.251617, acc = 92.51%

4、神經網絡

一個經典的LeNet網絡,用于對字符進行分類,如圖:

圖3圖3

  • 定義一個多層的神經網絡
  • 對數據集的預處理并準備作為網絡的輸入
  • 將數據輸入到網絡
  • 計算網絡的損失
  • 反向傳播,計算梯度
import numpy as np
import torch
from torch import optim
from data_util import load_mnist

def build_model(input_dim, output_dim):
    return torch.nn.Sequential(
        torch.nn.Linear(input_dim, 512, bias=False),
        torch.nn.Sigmoid(),
        torch.nn.Linear(512, output_dim, bias=False)
    )

def train(model, loss, optimizer, x_val, y_val):
    model.train()
    optimizer.zero_grad()
    fx = model.forward(x_val)
    output = loss.forward(fx, y_val)
    output.backward()
    optimizer.step()
    return output.item()

def predict(model, x_val):
    model.eval()
    output = model.forward(x_val)
    return output.data.numpy().argmax(axis=1)

def main():
    torch.manual_seed(42)
    trX, teX, trY, teY = load_mnist(notallow=False)
    trX = torch.from_numpy(trX).float()
    teX = torch.from_numpy(teX).float()
    trY = torch.tensor(trY)

    n_examples, n_features = trX.size()
    n_classes = 10
    model = build_model(n_features, n_classes)
    loss = torch.nn.CrossEntropyLoss(reductinotallow='mean')
    optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)
    batch_size = 100

    for i in range(100):
        cost = 0.
        num_batches = n_examples // batch_size
        for k in range(num_batches):
            start, end = k * batch_size, (k + 1) * batch_size
            cost += train(model, loss, optimizer,
                          trX[start:end], trY[start:end])
        predY = predict(model, teX)
        print("Epoch %d, cost = %f, acc = %.2f%%"
              % (i + 1, cost / num_batches, 100. * np.mean(predY == teY)))

if __name__ == "__main__":
    main()

(1)以上這段神經網絡的代碼與邏輯回歸沒有太多的差異,區別的地方是build_model,這里是構建一個包含兩個線性層和一個Sigmoid激活函數的神經網絡模型,該模型包含一個輸入特征數量為input_dim,輸出特征數量為output_dim的線性層,一個Sigmoid激活函數,以及一個輸入特征數量為512,輸出特征數量為output_dim的線性層;

(2)print("Epoch %d, cost = %f, acc = %.2f%%" % (i + 1, cost / num_batches, 100. * np.mean(predY == teY)))最后打印當前訓練的輪次,損失值和acc,上述的代碼輸入如下(執行時間比邏輯回歸要長,但是準確率要高很多):

...
Epoch 91, cost = 0.054484, acc = 97.58%
Epoch 92, cost = 0.053753, acc = 97.56%
Epoch 93, cost = 0.053036, acc = 97.60%
Epoch 94, cost = 0.052332, acc = 97.61%
Epoch 95, cost = 0.051641, acc = 97.63%
Epoch 96, cost = 0.050964, acc = 97.66%
Epoch 97, cost = 0.050298, acc = 97.66%
Epoch 98, cost = 0.049645, acc = 97.67%
Epoch 99, cost = 0.049003, acc = 97.67%
Epoch 100, cost = 0.048373, acc = 97.68%


責任編輯:華軒 來源: 周末程序猿
相關推薦

2023-11-02 14:30:25

機器學習

2013-12-03 13:05:30

Lua腳本語言

2014-06-20 10:51:35

Linux LVM邏輯卷

2011-06-03 08:49:54

Java

2023-10-20 14:08:35

digDNS

2010-05-26 10:42:20

SVN1.5配置

2021-01-05 09:55:46

TmateLinux命令

2009-08-06 17:45:08

C# Webservi

2010-12-15 12:48:26

VirtualBox

2009-09-02 17:38:19

C#開發GIS

2011-08-17 09:55:45

Objective-CCategory

2021-05-08 09:02:48

KubeBuilderOperatork8s

2021-05-11 09:31:31

kustomizeoperator kubernetes

2010-05-25 16:11:25

Git-SVN

2011-08-17 10:00:12

Objective-CProperty

2010-01-26 08:25:06

F#語法F#教程

2025-06-05 01:40:00

2009-07-03 13:45:48

JSP簡明教程組件為中心

2021-03-03 12:55:30

Python列表推導式代碼

2014-03-21 12:48:08

Java8Java8教程
點贊
收藏

51CTO技術棧公眾號

日韩一区二区三区四区| 国产精品日日摸夜夜摸av| 欧美贵妇videos办公室| 182在线视频| av久久网站| 亚洲精品视频一区二区| 狠狠色噜噜狠狠狠狠色吗综合| 成人公开免费视频| 综合一区av| 亚洲精品永久免费精品| 亚洲欧美天堂在线| 在线手机中文字幕| 亚洲男人天堂av网| 欧美精品一区二区三区在线看午夜 | 激情综合网站| 精品国产乱码久久久久久免费| 激情内射人妻1区2区3区| 色女人在线视频| 国产精品午夜久久| 九九九九久久久久| 国产熟女一区二区三区四区| 日韩精品色哟哟| 国内精品久久久久| 国产午夜手机精彩视频| 欧美精品久久久久久| 亚洲电影在线观看| 日日夜夜精品视频免费观看| 91精品国产66| 色天使色偷偷av一区二区 | 亚洲欧美日韩视频二区| 久久人人爽人人爽爽久久| 色一情一交一乱一区二区三区| av不卡一区| 欧美成人三级电影在线| 欧美日韩理论片| 国产精品原创视频| 欧洲av一区二区嗯嗯嗯啊| 人妻熟妇乱又伦精品视频| 色爱综合区网| 一区二区在线免费观看| 天天综合中文字幕| 亚洲欧美视频一区二区| 国产亚洲综合色| 国产伦精品一区二区三区视频免费| 国产永久免费视频| 久久国产精品区| 国产精品亚洲综合天堂夜夜| 无码人妻精品一区二区| 香蕉久久国产| 57pao成人国产永久免费| 日韩精品视频免费播放| 亚洲精品美女| 91sa在线看| 四虎成人永久免费视频| 久久黄色影院| 国产精品igao视频| 国产精品乱码一区二区视频| 狂野欧美性猛交xxxx巴西| 国产成人小视频在线观看| 天天干,天天干| 琪琪一区二区三区| 国产美女搞久久| 国产免费黄色网址| 国产高清成人在线| 高清一区二区三区视频| 人妻一区二区三区| 26uuu色噜噜精品一区| 欧洲精品亚洲精品| 91激情在线| 亚洲免费在线观看视频| 日本一本中文字幕| 免费成人在线电影| 欧美专区亚洲专区| 五月天中文字幕在线| 玖玖玖视频精品| 亚洲国产精品久久| brazzers精品成人一区| 色综合久久网| 欧美精品久久一区二区| 精品人妻一区二区色欲产成人| 日韩成人伦理电影在线观看| 成人做爽爽免费视频| 亚洲AV无码精品国产| 久久一二三国产| 亚洲精品乱码视频| 麻豆福利在线观看| 欧洲国产伦久久久久久久| 婷婷激情小说网| 国产精品45p| 自拍视频国产精品| 日本一区二区免费在线观看| 日日骚欧美日韩| 操一操视频一区| 亚洲色图欧美视频| 亚洲欧洲99久久| 欧美成人一区二区在线观看| 欧美成人福利| 亚洲精品国产品国语在线| 精品手机在线视频| 99精品视频免费观看| 国产噜噜噜噜噜久久久久久久久| 免费观看黄色一级视频| 亚洲国产精品v| 欧美 丝袜 自拍 制服 另类| av在线播放一区二区| 亚洲精品小视频| 黄色一级片在线免费观看| 日韩国产成人精品| 国产亚洲精品久久飘花| 黄网站视频在线观看| 五月天激情小说综合| 欧美xxxxxbbbbb| 国产欧美日韩在线一区二区| 九九视频直播综合网| 五月激情丁香网| 91香蕉国产在线观看软件| 影音先锋男人的网站| 亚洲mmav| 日韩久久精品电影| 精品小视频在线观看| 久久99国产精品免费| 欧美日韩亚洲一区二区三区在线观看 | 六九午夜精品视频| 亚洲欧洲国产伦综合| 亚洲国产综合久久| 国产美女一区二区| 亚洲欧美精品在线观看| 免费亚洲电影| 亚洲精品二三区| 国产福利久久久| 国产精品18久久久久久久网站| 亚洲一区二三| 美女色狠狠久久| 亚洲天堂男人天堂女人天堂| 欧美一区二区激情视频| 99久久久国产精品免费蜜臀| 狠狠干视频网站| 伊人久久精品| 久久亚洲精品小早川怜子66| 91精品国产乱码久久| 欧美极品美女视频| 密臀av一区二区三区| 国产亚洲电影| 国产精品91久久久| 国产青青草在线| 欧美在线视频日韩| 亚洲а∨天堂久久精品2021| 日本中文字幕一区二区有限公司| 色一情一乱一伦一区二区三区丨| 日韩电影av| 一区二区三欧美| 国产91av在线播放| 国产精品久久久久久久久免费桃花 | 一级性生活免费视频| 精品一区二区三区久久| 一区二区三区四区久久| 日韩一区二区三区精品视频第3页| 久久九九国产精品怡红院| 国产毛片毛片毛片毛片| 一区二区三区在线观看视频| 欧美久久久久久久久久久| 亚洲一级特黄| 欧美精品七区| 中文字幕日韩亚洲| 欧美大片欧美激情性色a∨久久| 亚洲美女性生活| 欧美午夜精品久久久久久浪潮 | 天天干视频在线观看| 欧美日韩在线视频一区| 麻豆精品免费视频| 免费一区二区视频| 日本a级片在线播放| 激情小说一区| 国产精品入口日韩视频大尺度| 麻豆视频免费在线观看| 精品福利在线导航| www.av88| 夜色激情一区二区| 免费毛片视频网站| 久久电影网电视剧免费观看| 国产中文字幕乱人伦在线观看| 任我爽精品视频在线播放| 国产精品美女www| 欧美性猛片xxxxx免费中国| 日韩国产精品视频| 一级片免费网站| 精品久久久久久久久久久久久 | 久久视频在线| 国产综合第一页| 小说区图片区亚洲| 97热在线精品视频在线观看| 在线国产91| 亚洲精品国产精品乱码不99按摩| 亚洲一区精品在线观看| 天天影视涩香欲综合网| xxxx日本少妇| 久久久另类综合| www.四虎在线| 久久99最新地址| 久久久免费视频网站| 久久久久久久久久久久久久| 久久精品国产第一区二区三区最新章节| 青青草国产一区二区三区| 26uuu亚洲国产精品| 超碰在线观看免费版| 亚洲视频在线播放| 日本激情视频网站| 91精品国产欧美一区二区18| 中文字幕 国产精品| 亚洲不卡在线观看| 天天天天天天天天操| 中文字幕精品在线不卡| 亚洲av无码一区二区二三区| 国产sm精品调教视频网站| 欧美精品久久久久久久久25p| 国产精品久久久久久久免费软件| 伊人再见免费在线观看高清版| 日韩av在线中文字幕| 欧美高清性xxxxhdvideosex| 第四色在线一区二区| 亚洲xxxx视频| 国色天香久久精品国产一区| 国产精品久久久久999| 日韩欧美视频免费观看| 久久免费少妇高潮99精品| 桃花岛成人影院| 亚洲欧美色婷婷| 国精产品乱码一区一区三区四区| 欧美片网站yy| 在线观看亚洲黄色| 一本一道久久a久久精品| 中文字幕第28页| 一区二区免费视频| 国产美女网站视频| 国产精品国产三级国产aⅴ入口| 一道本在线观看| 久久精品男人天堂av| 波多野结衣办公室33分钟| 99久久综合国产精品| 免费不卡的av| 成人性生交大合| 五月天丁香社区| 国产精品一区三区| 性生交大片免费看l| 国产精品996| 香蕉视频免费网站| 成人免费视频视频在线观看免费| wwwxxxx在线观看| 国产盗摄一区二区三区| 久久久久久久穴| 99久久er热在这里只有精品15| 屁屁影院国产第一页| 久久亚洲一区二区三区四区| 欧美丰满少妇人妻精品| 久久影院视频免费| 女女互磨互喷水高潮les呻吟| 日本一区二区三区国色天香| 99久久99久久精品免费看小说.| 中文字幕精品综合| 国产真实乱在线更新| 亚洲一级二级三级在线免费观看| 国产极品美女高潮无套嗷嗷叫酒店| 亚洲成年人影院| 伊人手机在线视频| 欧美在线综合视频| 国产乱码久久久久| 精品国产麻豆免费人成网站| 亚欧洲精品视频| 国产一区二区三区在线视频| 男人天堂久久久| 久久久久久久久久久亚洲| 一区二区乱码| 国产日韩在线免费| jizz国产精品| 欧美日本亚洲| 亚洲深深色噜噜狠狠爱网站| 少妇人妻大乳在线视频| 久久久久久穴| 中文字幕一二三区| 91视视频在线观看入口直接观看www | 亚洲视频一区二区在线| 国产精品不卡av| 欧美中文字幕一二三区视频| www.久久成人| 国产一区二区三区丝袜| 羞羞污视频在线观看| 欧美中文字幕视频在线观看| 婷婷久久免费视频| 精品一卡二卡三卡四卡日本乱码| 久久亚洲在线| 日韩精品xxxx| 精品一区二区av| 国产精品一区二区入口九绯色| 亚洲色图一区二区| 成人午夜视频在线播放| 91麻豆精品国产无毒不卡在线观看| 少妇av在线播放| 久久久精品久久| 韩国美女久久| 国产精品麻豆免费版| 久久中文字幕二区| 免费高清在线观看免费| 国产福利精品一区二区| 成人黄色a级片| 亚洲成人免费在线观看| 国产又粗又猛又爽| 亚洲精选一区二区| 国产在线xxx| 国产在线视频一区| 久久91精品| 精品视频在线观看一区| 国产在线不卡一区| 五月激情四射婷婷| 狠狠操狠狠色综合网| www.久久成人| 欧美成年人网站| 亚洲欧美在线人成swag| 欧美日韩精品久久| 国产日韩欧美高清免费| 91人妻一区二区| 亚洲精品国产精品乱码不99| 亚洲熟女乱色一区二区三区久久久 | www.污网站| 亚洲国产精品成人久久综合一区| 毛片在线免费视频| 亚洲大胆人体视频| 亚洲图区一区| 亚洲综合色av| 91精品高清| 免费观看黄网站| 亚洲欧美国产高清| 夜夜嗨aⅴ一区二区三区| 亚洲性xxxx| 亚洲精品555| 图片区小说区区亚洲五月| 天堂资源在线中文精品| 久久久久9999| 色诱视频网站一区| 黄色在线网站| 国产精品美女主播| 欧美亚洲高清| 天天干天天操天天做| 国产精品视频线看| 在线免费看91| 俺也去精品视频在线观看| 国产高清亚洲| 国产欧美123| 国产91丝袜在线播放| 久久久精品人妻一区二区三区四| 精品女同一区二区| segui88久久综合9999| 久久国产一区二区| 久久精品一区| 美国黄色片视频| 日韩一区二区高清| 国产一二在线播放| 久久久久网址| 免费在线视频一区| 手机在线免费看毛片| 欧美成人精品1314www| cao在线视频| 日韩久久久久久久| 久久66热偷产精品| 久久久久久久国产精品毛片| 亚洲第一网中文字幕| 吞精囗交69激情欧美| 一区在线电影| 成人午夜电影久久影院| www.国产com| 日韩性生活视频| 成人av综合网| 国产精品拍拍拍| 亚洲男人的天堂网| 青青操视频在线| 成人两性免费视频| 亚洲美女少妇无套啪啪呻吟| 成人在线一级片| 日韩视频一区二区在线观看| 美女搞黄视频在线观看| 亚洲精蜜桃久在线| 不卡一区中文字幕| 怡春院在线视频| 久久人人97超碰精品888| 精品成av人一区二区三区| 奇米777在线视频| 色综合激情五月| 一色桃子av在线| 欧美一进一出视频| 国产成人亚洲综合色影视| 久久精品视频5| 欧美另类99xxxxx| 精品久久影视| 四虎永久免费观看| 欧美日韩午夜影院| av老司机免费在线| 美国av在线播放| 国产日韩精品一区二区三区 | 91美女在线观看| 国产青青草视频| 国产精品99久久久久久久久久久久|