精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

在 CIFAR10 數據集上訓練 Vision Transformer (ViT)

開發 后端
在這篇文章中,我將構建一個簡單的 ViT 并將其訓練在 CIFAR 數據集上,我們從訓練 CIFAR 數據集上的模型的樣板代碼開始

在這篇簡短的文章中,我將構建一個簡單的 ViT 并將其訓練在 CIFAR 數據集上。

訓練循環

我們從訓練 CIFAR 數據集上的模型的樣板代碼開始。我們選擇批量大小為64,以在性能和 GPU 資源之間取得平衡。我們將使用 Adam 優化器,并將學習率設置為0.001。與 CNN 相比,ViT 收斂得更慢,所以我們可能需要更多的訓練周期。此外,根據我的經驗,ViT 對超參數很敏感。一些超參數會使模型崩潰并迅速達到零梯度,模型的參數將不再更新。因此,您必須測試與模型大小和形狀本身以及訓練超參數相關的不同超參數。

transform_train = transforms.Compose([
    transforms.Resize(32),
    transforms.ToTensor(),
    transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),
])

transform_test = transforms.Compose([
    transforms.Resize(32),
    transforms.ToTensor(),
    transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),
])

train_set = CIFAR10(root='./datasets', train=True, download=True, transform=transform_train)
test_set = CIFAR10(root='./datasets', train=False, download=True, transform=transform_test)

train_loader = DataLoader(train_set, shuffle=True, batch_size=64)
test_loader = DataLoader(test_set, shuffle=False, batch_size=64)
n_epochs = 100
lr = 0.0001

optimizer = Adam(model.parameters(), lr=lr)
criterion = CrossEntropyLoss()

for epoch in range(n_epochs):
    train_loss = 0.0
    for i,batch in enumerate(train_loader):
        x, y = batch
        x, y = x.to(device), y.to(device)
        y_hat, _ = model(x)
        loss = criterion(y_hat, y)

        batch_loss = loss.detach().cpu().item()
        train_loss += batch_loss / len(train_loader)

        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        if i%100==0:
          print(f"Batch {i}/{len(train_loader)} loss: {batch_loss:.03f}")
    
    print(f"Epoch {epoch + 1}/{n_epochs} loss: {train_loss:.03f}")

構建 ViT

如果您熟悉注意力和transforms塊,ViT 架構就很容易理解。簡而言之,我們將使用 Pytorch 提供的多頭注意力,視覺transforms的第一部分是將圖像分割成相同大小的塊。如您所知,transforms作用于標記,而不是像在 CNN 中那樣卷積特征。在我們的例子中,圖像塊充當標記。

有很多方法可以對圖像進行分塊。有些人手動進行,這不符合 Python 的風格。其他人使用卷積。還有些人使用 Pytorch 提供的張量操作工具。我們將使用 Pytorch nn 模塊提供的 unfold 層作為我們 Patcher 模塊的核心。

該模塊作用于形狀為 (N, 3, 32, 32) 的張量。其中 N 是每批圖像的數量。3 是通道數,因為我們處理的是 RGB 圖像。32 是圖像的大小,因為我們處理的是 CIFAR10 數據集。我們可以測試我們的模塊,以確保它將上述形狀轉換為分塊張量。新張量的形狀取決于補丁大小。如果我們選擇補丁大小為4,輸出形狀將是 (N, 64, 3, 4, 4),其中 64 是每張圖像的補丁數量。

class Patcher(nn.Module):
  def __init__(self, patch_size):
    super(Patcher, self).__init__()

    self.patch_size=patch_size

    self.unfold = torch.nn.Unfold(kernel_size=patch_size, stride=patch_size)

  def forward(self, images):
    batch_size, channels, height, width = images.shape

    patch_height, patch_width = [self.patch_size, self.patch_size]
    assert height % patch_height == 0 and width % patch_width == 0, "Height and width must be divisible by the patch size."

    patches = self.unfold(images) #bs (cxpxp) N
    patches = patches.view(batch_size, channels, patch_height, patch_width, -1).permute(0, 4, 1, 2, 3) # bs N C P P

    return patches
x = torch.rand((10, 3, 32, 32))
x = Patcher(patch_size=4)(x)
x.shape
# torch.Size([10, 64, 3, 4, 4])

在語言處理中,標記通過詞嵌入投影到 d 維向量中。這個超參數 d 是transforms模型的特征,選擇合適的維度大小對于模型的轉換很重要。太大,模型會崩潰。太小,模型將無法很好地訓練。因此,到目前為止,我們的 ViT 模塊形狀將如下所示:

class ViT_RGB(nn.Module):
  def __init__(self, img_size, patch_size, model_dim= 100):
    super().__init__()

    self.img_size = img_size
    self.patch_size = patch_size
    self.n_patches = (self.img_size // self.patch_size) ** 2
    self.model_dim = model_dim

    # 1) Patching
    self.patcher = Patcher(patch_size=self.patch_size)

    # 2) Linear Prjection
    self.linear_projector = nn.Linear( 3 * self.patch_size ** 2, self.model_dim)

  def forward(self, x):

    x = self.patcher(x)

    x = x.flatten(start_dim=2)

    x = self.linear_projector(x)

    return x

我們將圖像 (N, 3, 32, 32) 分割成大小為4的補丁 (N, 64, 3, 4, 4),然后我們將它們展平為 (N, 64, 344=48)。之后,我們使用 Pytorch 的 Linear 模塊將它們投影到大小為 (N, 64, 100)。

即使在將輸入喂入transforms塊之后,整個模塊的輸出大小也將是 (N, n_patches, model_dim)。現在我們有很多投影和關注的補丁,應該使用哪個補丁進行預測?一種常見的方法是計算所有補丁的平均值,然后使用平均向量進行預測。然而,對于transforms,現在正在廣泛使用另一種技巧。那就是添加一個 [cls] 一個新的標記到輸入中。輔助標記最終將用于預測。它將作用于模型對整個圖像的理解。該標記只是一個大小為 (1, model_dim) 的參數向量。現在,整個模塊的輸出將是 (N, n_patches+1, model_dim)。

class ViT_RGB(nn.Module):
  def __init__(self, img_size, patch_size, model_dim= 100):
    super().__init__()
    self.img_size = img_size
    self.patch_size = patch_size
    self.n_patches = (self.img_size // self.patch_size) ** 2
    self.model_dim = model_dim

    # 1) Patching
    self.patcher = Patcher(patch_size=self.patch_size)

    # 2) Linear Prjection
    self.linear_projector = nn.Linear( 3 * self.patch_size ** 2, self.model_dim)

    # 3) Class Token
    self.class_token = nn.Parameter(torch.rand(1, self.model_dim))


  def forward(self, x):

    x = self.patcher(x)

    x = x.flatten(start_dim=2)

    x = self.linear_projector(x)

    batch_size = x.shape[0]
    class_token = self.class_token.expand(batch_size, -1, -1)
    x = torch.cat((class_token, x), dim=1)

    return x

在添加了類標記之后,我們仍然需要添加位置編碼部分。transforms操作在一系列標記上,它們對序列順序視而不見。為了確保在訓練中加入順序,我們手動添加位置編碼。因為我們處理的是大小為 model_dim 的向量,我們不能簡單地添加順序 [0, 1, 2, …],位置應該是模型固有的,這就是為什么我們使用所謂的位置編碼。這個向量可以手動設置或訓練。在我們的例子中,我們將簡單地訓練一個位置嵌入,它只是一個大小為 (1, n_patches+1, model_dim) 的向量。我們將這個向量添加到完整的補丁序列中,以及類標記。如前所述,為了計算模型的輸出,我們簡單地對嵌入的第一個標記(類標記)應用一個帶有 SoftMax 層的 MLP,以獲得類別的對數幾率。

class ViT_RGB(nn.Module):
  def __init__(self, img_size, patch_size, model_dim= 100,n_classes=10):
    super().__init__()
    self.img_size = img_size
    self.patch_size = patch_size
    self.n_patches = (self.img_size // self.patch_size) ** 2
    self.model_dim = model_dim

    # 1) Patching
    self.patcher = Patcher(patch_size=self.patch_size)

    # 2) Linear Prjection
    self.linear_projector = nn.Linear( 3 * self.patch_size ** 2, self.model_dim)

    # 3) Class Token
    self.class_token = nn.Parameter(torch.rand(1, 1, self.model_dim))

    # 4) Positional Embedding
    self.positional_embedding = nn.Parameter(torch.rand(1,(img_size // patch_size) ** 2 + 1, model_dim))

    # 6) Classification MLP
    self.mlp = nn.Sequential(
            nn.Linear(self.model_dim, self.n_classes),
            nn.Softmax(dim=-1)
      )

  def forward(self, x):

    x = self.patcher(x)

    x = x.flatten(start_dim=2)
    x = self.linear_projector(x)

    batch_size = x.shape[0]
    class_token = self.class_token.expand(batch_size, -1, -1)
    x = torch.cat((class_token, x), dim=1)

    x = x + self.positional_embedding

    latent = x[:, 0]
    logits = self.mlp(latent)

    return logits

transforms塊

之前的代碼沒有包括非常重要的transforms塊。transforms塊是大小保持塊,它們通過交叉組成序列的標記本身來豐富信息序列。transforms塊的核心模塊是注意力模塊(同樣,您可以查看我關于注意力的帖子)。為了使模型更豐富地處理信息,我們通常使用多頭注意力。為了使模型吸收越來越抽象的信息,我們應用了幾個transforms塊。使用的頭數和transforms塊的數量是transforms模型的特征。我們稱使用的transforms塊數量為模型的 depth。

class TransformerBlock(nn.Module):
    def __init__(self, model_dim, num_heads, mlp_ratio=4.0, dropout=0.1):
        super(TransformerBlock, self).__init__()
        self.norm1 = nn.LayerNorm(model_dim)
        self.attn = nn.MultiheadAttention(model_dim, num_heads, dropout=dropout)
        self.norm2 = nn.LayerNorm(model_dim)

        # Feedforward network
        self.mlp = nn.Sequential(
            nn.Linear(model_dim, int(model_dim * mlp_ratio)),
            nn.GELU(),
            nn.Linear(int(model_dim * mlp_ratio), model_dim),
            nn.Dropout(dropout),
        )

    def forward(self, x):
        # Self-attention
        x = self.norm1(x)
        attn_out, _ = self.attn(x, x, x)
        x = x + attn_out

        # Feedforward network
        x = self.norm2(x)
        mlp_out = self.mlp(x)
        x = x + mlp_out

        return x
class ViT_RGB(nn.Module):
  def __init__(self, img_size, patch_size, model_dim= 100, num_heads=3, num_layers=2, n_classes=10):
    super().__init__()
    self.img_size = img_size
    self.patch_size = patch_size
    self.n_patches = (self.img_size // self.patch_size) ** 2
    self.model_dim = model_dim
    self.num_layers = num_layers
    self.num_heads= num_heads
    self.n_classes = n_classes

    # 1) Patching
    self.patcher = Patcher(patch_size=self.patch_size)

    # 2) Linear Prjection
    self.linear_projector = nn.Linear( 3 * self.patch_size ** 2, self.model_dim)

    # 3) Class Token
    self.class_token = nn.Parameter(torch.rand(1, 1, self.model_dim))

    # 4) Positional Embedding
    self.positional_embedding = nn.Parameter(torch.rand(1,(img_size // patch_size) ** 2 + 1, model_dim))

    # 5) Transformer blocks
    self.blocks = nn.ModuleList([
        TransformerBlock( self.model_dim,  self.num_heads) for _ in range(num_layers)
    ])

    # 6) Classification MLPk
    self.mlp = nn.Sequential(
            nn.Linear(self.model_dim, self.n_classes),
            nn.Softmax(dim=-1)
        )

  def forward(self, x):

    x = self.patcher(x)

    x = x.flatten(start_dim=2)
    x = self.linear_projector(x)

    batch_size = x.shape[0]
    class_token = self.class_token.expand(batch_size, -1, -1)
    x = torch.cat((class_token, x), dim=1)

    x = x + self.positional_embedding

    for block in self.blocks:
      x = block(x)

    latent = x[:, 0]
    logits = self.mlp(latent)

    return logits

最后,我們為訓練和測試準備好了模型,并放置了所有必要的組件。然而,在實踐中,我無法通過在類標記上應用 MLP 層使模型收斂。我不確定為什么——如果你知道,請告訴我。相反,我在整個圖像補丁的平均向量上應用了 MLP。

責任編輯:趙寧寧 來源: 小白玩轉Python
相關推薦

2024-12-18 08:00:00

2023-08-14 07:42:01

模型訓練

2023-02-02 13:22:40

AICIFAR數據集

2024-07-17 09:27:28

2022-07-06 13:13:36

SWIL神經網絡數據集

2024-11-21 16:06:02

2018-04-11 09:30:41

深度學習

2024-06-20 08:52:10

2022-02-08 15:43:08

AITransforme模型

2022-05-30 11:39:55

論文谷歌AI

2021-09-10 16:53:28

微軟瀏覽器Windows

2023-09-12 13:59:41

OpenAI數據集

2022-09-20 23:42:15

機器學習Python數據集

2021-10-29 14:14:26

AI數據人工智能

2025-04-08 13:12:49

2025-03-10 09:30:00

2025-07-03 15:37:32

2024-07-01 12:55:50

2024-12-05 08:30:00

2021-07-13 17:59:13

人工智能機器學習技術
點贊
收藏

51CTO技術棧公眾號

成人黄页在线观看| 四季av一区二区三区免费观看| 亚洲午夜av在线| 狠狠综合久久av| 99久久久无码国产精品免费蜜柚| 国产一区2区| 欧美一区国产二区| 精品毛片乱码1区2区3区| 色综合色狠狠天天综合色| 精品国产一区二区三区久久久久久| 丰满少妇xoxoxo视频| 99视频精品全国免费| 精品久久久久香蕉网| 久久午夜夜伦鲁鲁一区二区| 免费av在线| 99re成人精品视频| 91精品久久久久久久久久另类| 免费视频网站www| 精品国产91| 精品久久久久久久久久久院品网 | 欧美日韩美女视频| 一区二区av| 男人天堂资源在线| 国产成人99久久亚洲综合精品| 国产成人精品视频在线| 妺妺窝人体色www在线下载| 欧美激情在线精品一区二区三区| 日韩一区二区不卡| 久热精品在线观看视频| 国产激情在线播放| 一区二区三区中文字幕电影 | 欧洲免费在线视频| 国产aⅴ精品一区二区三区色成熟| 国产成人精品久久久| 久久久.www| 99热国内精品| 最近2019中文字幕mv免费看| 亚洲国产综合视频| 亚洲精品在线播放| 欧美高清一级片在线| 爱情岛论坛vip永久入口| 精精国产xxxx视频在线播放| 亚洲自拍偷拍九九九| 亚洲国产欧美日韩| 精品视频一二区| 91麻豆视频网站| 国产一区二区三区高清视频| 国产aⅴ一区二区三区| 久久国产精品一区二区| 国产精品久久97| 四虎精品永久在线| 男女av一区三区二区色多| 午夜免费久久久久| 国产无套粉嫩白浆内谢| 欧美日韩专区| 欧美高清第一页| 久久午夜无码鲁丝片午夜精品| 91精品福利| 欧美www在线| 破处女黄色一级片| 亚洲精品成人影院| 九九精品视频在线| 国产又黄又爽免费视频| 日韩一区二区三区不卡| 国产精品资源在线看| 亚洲一区久久久| 精品区在线观看| 国产一区二区在线电影| 51国产成人精品午夜福中文下载 | 免费观看国产成人| 欧美精品少妇| 国产日韩欧美不卡| 一本一道久久a久久综合精品| 午夜视频在线| 成人欧美一区二区三区小说| 91精品一区二区三区四区| 2020国产在线视频| 午夜精品久久久久久久蜜桃app| 人妻无码久久一区二区三区免费| 国产h片在线观看| 日本韩国一区二区三区| 婷婷免费在线观看| 欧美一级片网址| 欧美精品一区二区久久久| 999精品免费视频| 蜜乳av综合| 日韩有码视频在线| 久久精品国产亚洲av香蕉| av成人激情| 国产精品美女午夜av| 国产农村妇女毛片精品| 不卡的av网站| 亚洲日本精品| 999精品网| 欧美午夜精品久久久久久超碰| 国产成人强伦免费视频网站| 欧美黑白配在线| 色av中文字幕一区| 日韩精品视频免费播放| 日韩电影一区二区三区四区| 成人免费淫片aa视频免费| 欧日韩在线视频| 国产精品美女久久久久久久久| 日本xxx免费| 中文字幕乱码中文乱码51精品| 欧美日韩精品三区| 中文字幕免费在线播放| 欧美成人直播| 欧美一级黑人aaaaaaa做受| 一级黄色片在线看| 91啪亚洲精品| 黄色网zhan| 春暖花开亚洲一区二区三区| 日韩一级免费一区| 免费网站在线高清观看| 黄色亚洲大片免费在线观看| 国产精品亚洲综合天堂夜夜| 天堂在线中文网| 亚洲美女偷拍久久| 九九九在线观看视频| 久久99精品久久久久久欧洲站| 日韩视频一区在线| 国产精品一区无码| 成人黄色小视频在线观看| 在线观看成人av电影| 日韩av中字| 亚洲精品一区二区三区精华液 | 午夜视频1000| 亚洲精品成人在线| 一区二区在线免费看| 免费看av成人| 国语自产在线不卡| www.av黄色| 亚洲私人影院在线观看| 99热这里只有精品在线播放| 人人香蕉久久| 欧美精品videosex性欧美| 国产美女永久免费| 中文字幕一区二区三| 美女一区二区三区视频| 国产精品一国产精品| 欧美性做爰毛片| 天堂成人在线视频| 午夜欧美大尺度福利影院在线看| 欧美人与性动交α欧美精品| 国产精品久久久久久麻豆一区软件| 国产精品成人一区二区三区吃奶| 欧美一区二区少妇| 欧美午夜精品在线| 18禁裸乳无遮挡啪啪无码免费| 99av国产精品欲麻豆| 国产三区精品| 成人ssswww在线播放| 亚洲第一免费播放区| 国产乡下妇女做爰| 波多野结衣中文字幕一区 | 奇米888四色在线精品| 欧美日韩亚洲一区二区三区在线观看 | 国产午夜精品一区二区三区视频 | 三妻四妾完整版在线观看电视剧 | 性猛交ⅹxxx富婆video| 久久综合狠狠| 色噜噜一区二区| jizz欧美| 超碰97人人做人人爱少妇| 国产色综合视频| 亚洲成人激情综合网| 一级特黄a大片免费| 久久婷婷亚洲| 一本久道久久综合狠狠爱亚洲精品| 国产精成人品2018| 久久精品福利视频| www日本高清视频| 五月天国产精品| 尤物视频最新网址| 麻豆成人久久精品二区三区小说| 国产又大又长又粗又黄| 在线精品视频一区| 人人澡人人澡人人看欧美| 精品乱码一区二区三四区视频| 欧美视频在线播放| 国产三级国产精品国产国在线观看| 风间由美性色一区二区三区| 蜜桃传媒一区二区三区| jlzzjlzz亚洲女人| 亚洲影视中文字幕| 中文一区一区三区高中清不卡免费| 夜夜嗨av色一区二区不卡| 国产影视一区二区| 五月综合激情婷婷六月色窝| 蜜桃久久精品成人无码av| 国产精品亚洲第一区在线暖暖韩国| 国产午夜福利100集发布| 欧美日韩有码| 国产精品日韩欧美一区二区| 欧美aaa视频| 欧美黑人极品猛少妇色xxxxx| 欧美一区二区三区少妇| 欧美一区二区免费观在线| 亚洲男人的天堂在线视频| 国产精品国产三级国产普通话99| 人妻 丝袜美腿 中文字幕| 日韩电影在线一区二区| 欧美午夜小视频| 久久精品av| 蜜桃视频日韩| 亚洲2区在线| 国产精品日日摸夜夜添夜夜av| 国产精品探花在线| 中文字幕v亚洲ⅴv天堂| 神马久久久久久久久久| 91精品国产综合久久福利| 欧美超碰在线观看| 亚洲成人免费看| 欧美爱爱免费视频| 国产亲近乱来精品视频| 黄色av网址在线观看| 国产麻豆精品95视频| 超碰av在线免费观看| 日韩亚洲在线| 国产一区二区三区播放| 97在线精品| 日韩精品欧美专区| 天堂俺去俺来也www久久婷婷| 亚洲一区久久久| 亚洲最大的免费视频网站| 日韩免费黄色av| 日本免费一区二区六区| 色综合久久精品亚洲国产| 伊人免费在线| 色噜噜久久综合伊人一本| 久久电影中文字幕| 日韩精品在线免费观看视频| 亚洲精品一区二区三区四区| 91精品国产欧美一区二区18| 中文字幕丰满人伦在线| 日本黄色一区二区| 亚洲精品91天天久久人人| 色婷婷综合久久久久中文| 久久久久久久久久免费视频| 亚洲成人免费视| 国产无码精品视频| 五月天激情小说综合| 成年人免费看毛片| 精品国产成人在线| a v视频在线观看| 偷拍日韩校园综合在线| 亚洲精品视频在线观看免费视频| 亚洲成人午夜影院| 国产精品500部| 欧美视频在线视频| 老熟妇仑乱一区二区av| 色婷婷av一区二区三区gif | 美国一级黄色录像| 国产精品污污网站在线观看| 人妻互换一区二区激情偷拍| 国产精品久久久久久久蜜臀| 在线观看免费黄色网址| 最新日韩av在线| 久久久久亚洲AV成人| 亚洲一区国产视频| 久久久久久久久久免费视频| 色域天天综合网| 影音先锋国产在线| 欧美一区在线视频| 蜜桃视频久久一区免费观看入口| 亚洲电影av在线| 男同在线观看| 久久久国产成人精品| 超碰中文在线| 人人澡人人澡人人看欧美| 欧美美女福利视频| 99超碰麻豆| 亚洲尤物av| 中文字幕免费高| 亚洲性视频h| 日日摸天天爽天天爽视频| 免费不卡在线观看| 成人三级做爰av| 久久久久久电影| 99久久久免费精品| 欧美日韩激情视频8区| 看黄色一级大片| 日韩欧美综合一区| 欧美69xxxxx| 久久精品国产亚洲7777| ****av在线网毛片| 国产在线精品成人一区二区三区| 一区中文字幕电影| 日本一区高清不卡| 午夜精品婷婷| 热久久精品免费视频| 国产精品77777竹菊影视小说| 国产精品福利导航| 亚洲桃色在线一区| 秋霞精品一区二区三区| 日韩欧美在线观看一区二区三区| 天堂av网在线| 精品中文字幕在线2019| 欧美精品资源| 国产视频在线观看一区| 日韩欧美视频| 中国丰满人妻videoshd| 国产麻豆精品在线| 欧美日韩生活片| 精品久久久久久久久久久久久久| 一级黄色片视频| 亚洲人在线观看| ririsao久久精品一区| 国产中文字幕91| 国产va免费精品观看精品视频| 日韩亚洲欧美一区二区| 免费观看30秒视频久久| 亚洲欧美在线不卡| 一区二区三区日本| 一区二区三区免费在线| 精品在线欧美视频| heyzo高清在线| 91在线视频成人| 日韩欧美不卡| 三年中国国语在线播放免费| 99r精品视频| 精品一级少妇久久久久久久| 7799精品视频| av午夜在线| 国产精品com| 五月天亚洲色图| 国产黄色一级网站| 大胆亚洲人体视频| 欧美极品aaaaabbbbb| 5566中文字幕一区二区电影| 成人午夜电影在线观看| 青草青草久热精品视频在线观看| 精品视频在线你懂得| av网站大全免费| 国产成人午夜电影网| 欧美三级 欧美一级| 91麻豆精品国产91久久久久久 | 不卡av一区二区| 可以免费在线看黄的网站| 91在线观看下载| 天天操天天干视频| 日韩高清中文字幕| 亚洲第一av| 欧美亚洲免费高清在线观看 | 欧洲亚洲精品视频| 欧美自拍大量在线观看| 色综合www| 国产成人无码av在线播放dvd| wwwwxxxxx欧美| www毛片com| 亚洲一区www| 色综合天天色| 一区二区三区的久久的视频| 久久精品99国产国产精| 国产又粗又硬又长又爽| 欧美一级久久久久久久大片| 国产在线激情| 国产 高清 精品 在线 a| 狠狠综合久久av一区二区老牛| 丰满岳乱妇一区二区| 色综合天天狠狠| 天天在线视频色| 91免费国产视频| 激情亚洲成人| 大黑人交xxx极品hd| 色屁屁一区二区| 国产成人l区| 国产伦精品一区二区三区在线 | 三级在线观看| 国产精品白嫩美女在线观看| 欧美国产一级| 国产精品偷伦视频免费观看了| 天天综合天天做天天综合| 久热av在线| 91精品在线一区| 亚洲人成在线影院| 99久久精品免费视频| 欧美精品少妇一区二区三区| 日本动漫同人动漫在线观看| 六十路精品视频| 国产综合色产在线精品| 日韩女优在线观看| www.久久色.com| 国产精品宾馆| 日本久久精品一区二区| 一区二区三区欧美日韩| 欧美性孕妇孕交| 91久久精品国产91久久性色| 亚洲精华国产欧美| 貂蝉被到爽流白浆在线观看| 精品99久久久久久| 亚洲综合av一区二区三区| 高清无码视频直接看| 国产日韩在线不卡| 亚洲成人中文字幕在线| 国产aaa精品| 激情久久久久久| 国精产品视频一二二区| 亚洲激情小视频|