精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

如何基于TensorFlow使用LSTM和CNN實現時序分類任務

企業動態
在本文中,我們將討論如何使用深度學習方法對時序數據進行分類。我們使用的案例是 UCI 項目中的人體活動識別(HAR)數據集。

時序數據經常出現在很多領域中,如金融、信號處理、語音識別和醫藥。傳統的時序問題通常首先需要人力進行特征工程,才能將預處理的數據輸入到機器學習算法中。并且這種特征工程通常需要一些特定領域內的專業知識,因此也就更進一步加大了預處理成本。例如信號處理(即 EEG 信號分類),特征工程可能就涉及到各種頻帶的功率譜(power spectra)、Hjorth 參數和其他一些特定的統計學特征。本文簡要地介紹了使用 CNN 和 LSTM 實現序列分類的方法,詳細代碼請查看 Github。

Github 項目地址:https://github.com/healthDataScience/deep-learning-HAR

傳統圖像分類中也是采用的手動特征工程,然而隨著深度學習的出現,卷積神經網絡已經可以較為***地處理計算機視覺任務。使用 CNN 處理圖像不需要任何手動特征工程,網絡會一層層自動從最基本的特征組合成更加高級和抽象的特征,從而完成計算機視覺任務。

在本文中,我們將討論如何使用深度學習方法對時序數據進行分類。我們使用的案例是 UCI 項目中的人體活動識別(HAR)數據集。該數據集包含原始的時序數據和經預處理的數據(包含 561 個特征)。本文將對比用特征工程的機器學習算法和兩種深度學習方法(卷積神經網絡和循環神經網絡),試驗***表明深度學習方法超越了傳統使用特征工程的方法。

作者使用 TensorFlow 和實現并訓練模型,文中只展示了部分代碼,更詳細的代碼請查看 Github。

卷積神經網絡(CNN)

首先***步就是將數據饋送到 Numpy 中的數組,且數組的維度為 (batch_size, seq_len, n_channels),其中 batch_size 為模型在執行 SGD 時每一次迭代需要的數據量,seq_len 為時序序列的長度(本文中為 128),n_channels 為執行檢測(measurement)的通道數。本文案例中通道數為 9,即 3 個坐標軸每一個有 3 個不同的加速檢測

(acceleration measurement)。我們有六個活動標簽,即每一個樣本屬于 LAYING、STANDING、SITTING、WALKING_DOWNSTAIRS、WALKING_UPSTAIRS 或 WALKING。

下面,我們首先構建計算圖,其中我們使用占位符為輸入數據做準備:

  1. graph = tf.Graph()  
  2. with graph.as_default(): 
  3.     inputs_ = tf.placeholder(tf.float32, [None, seq_len, n_channels], 
  4.         name = 'inputs'
  5.     labels_ = tf.placeholder(tf.float32, [None, n_classes], name = 'labels'
  6.     keep_prob_ = tf.placeholder(tf.float32, name = 'keep'
  7.     learning_rate_ = tf.placeholder(tf.float32, name = 'l 

其中 inputs_是饋送到計算圖中的輸入張量,***個參數設置為「None」可以確保占位符***個維度可以根據不同的批量大小而適當調整。labels_是需要預測的 one-hot 編碼標簽,keep_prob_為用于 dropout 正則化的保持概率,learning_rate_ 為用于 Adam 優化器的學習率。

我們使用在序列上移動的 1 維卷積核構建卷積層,圖像一般使用的是 2 維卷積核。序列任務中的卷積核可以充當為訓練中的濾波器。在許多 CNN 架構中,層級的深度越大,濾波器的數量就越多。每一個卷積操作后面都跟隨著池化層以減少序列的長度。下面是我們可以使用的簡單 CNN 架構。

簡單 CNN 架構

上圖描述的卷積層可用以下代碼實現:

  1. with graph.as_default(): 
  2.     # (batch, 128, 9) -> (batch, 32, 18) 
  3.     conv1 = tf.layers.conv1d(inputs=inputs_filters=18kernel_size=2strides=1
  4.         padding='same'activation = tf.nn.relu) 
  5.     max_pool_1 = tf.layers.max_pooling1d(inputs=conv1pool_size=4strides=4padding='same'
  6.   
  7.     # (batch, 32, 18) -> (batch, 8, 36) 
  8.     conv2 = tf.layers.conv1d(inputs=max_pool_1filters=36kernel_size=2strides=1
  9.     padding='same'activation = tf.nn.relu) 
  10.     max_pool_2 = tf.layers.max_pooling1d(inputs=conv2pool_size=4strides=4padding='same'
  11.   
  12.     # (batch, 8, 36) -> (batch, 2, 72) 
  13.     conv3 = tf.layers.conv1d(inputs=max_pool_2filters=72kernel_size=2strides=1
  14.     padding='same'activation = tf.nn.relu) 
  15.     max_pool_3 = tf.layers.max_pooling1d(inputs=conv3, po 

一旦到達了***一層,我們需要 flatten 張量并投入到有適當神經元數的分類器中,在上圖中為 144 個神經元。隨后分類器輸出 logits,并用于以下兩種案例:

  1. 計算 softmax 交叉熵函數,該損失函數在多類別問題中是標準的損失度量。
  2. 在***化概率和準確度的情況下預測類別標簽。

下面是上述過程的實現:

  1. with graph.as_default(): 
  2.     # Flatten and add dropout 
  3.     flat = tf.reshape(max_pool_3, (-1, 2*72)) 
  4.     flat = tf.nn.dropout(flat, keep_prob=keep_prob_
  5.   
  6.     # Predictions 
  7.     logits = tf.layers.dense(flat, n_classes) 
  8.   
  9.     # Cost function and optimizer 
  10.     cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logitslogits=logits, 
  11.         labels=labels_))    optimizer = tf.train.AdamOptimizer(learning_rate_).minimize(cost) 
  12.   
  13.     # Accuracy 
  14.     correct_pred = tf.equal(tf.argmax(logits, 1), tf.argmax 

剩下的實現部分就比較典型了,讀者可查看 GitHub 中的完整代碼和過程。前面我們已經構建了計算圖,后面就需要將批量訓練數據饋送到計算圖進行訓練,同時我們還要使用驗證集來評估訓練結果。***,完成訓練的模型將在測試集上進行評估。我們在該實驗中 batch_siza 使用的是 600、learning_rate 使用的是 0.001、keep_prob 為 0.5。在 500 個 epoch 后,我們得到的測試精度為 98%。下圖顯示了訓練準確度和驗證準確度隨 epoch 的增加而顯示的變化:

訓練準確度和驗證準確度隨 epoch 的增加而顯示的變化

長短期記憶網絡(LSTM)

LSTM 在處理文本數據上十分流行,它在情感分析、機器翻譯、和文本生成等方面取得了十分顯著的成果。因為本問題涉及相似分類的序列,所以 LSTM 是比較優秀的方法。

下面是能用于該問題的神經網絡架構:

能用于該問題的神經網絡架構

為了將數據饋送到網絡中,我們需要將數組分割為 128 塊(序列中的每一塊都會進入一個 LSTM 單元),每一塊的維度為(batch_size, n_channels)。隨后單層神經元將轉換這些輸入并饋送到 LSTM 單元中,每一個 LSTM 單元的維度為 lstm_size,一般該參數需要選定為大于通道數量。這種方式很像文本應用中的嵌入層,其中詞匯從給定的詞匯表中嵌入為一個向量。后面我們需要選擇 LSTM 層的數量(lstm_layers),我們可以設定為 2。

對于這一個實現,占位符的設定可以和上面一樣。下面的代碼段實現了 LSTM 層級:

  1. with graph.as_default(): 
  2.     # Construct the LSTM inputs and LSTM cells 
  3.     lstm_in = tf.transpose(inputs_, [1,0,2]) # reshape into (seq_len, N, channels) 
  4.     lstm_in = tf.reshape(lstm_in, [-1, n_channels]) # Now (seq_len*N, n_channels) 
  5.   
  6.     # To cells 
  7.     lstm_in = tf.layers.dense(lstm_in, lstm_size, activation=None
  8.   
  9.     # Open up the tensor into a list of seq_len pieces 
  10.     lstm_in = tf.split(lstm_in, seq_len, 0) 
  11.   
  12.     # Add LSTM layers 
  13.     lstm = tf.contrib.rnn.BasicLSTMCell(lstm_size) 
  14.     drop = tf.contrib.rnn.DropoutWrapper(lstm, output_keep_prob=keep_prob_
  15.     cell = tf.contrib.rnn.MultiRNNCell([drop] * lstm_layers) 
  16.     initial_state = cell.zero_state(batch_size, tf.floa 

上面的代碼段是十分重要的技術細節。我們首先需要將數組從 (batch_size, seq_len, n_channels) 重建維度為 (seq_len, batch_size, n_channels),因此 tf.split 將在每一步適當地分割數據(根據第 0 個索引)為一系列 (batch_size, lstm_size) 數組。剩下的部分就是標準的 LSTM 實現了,包括構建層級和初始狀態。

下一步就是實現網絡的前向傳播和成本函數。比較重要的技術點是我們引入了梯度截斷,因為梯度截斷可以在反向傳播中防止梯度爆炸而提升訓練效果。

下面是我們定義前向傳播和成本函數的代碼:

  1. with graph.as_default(): 
  2.     outputs, final_state = tf.contrib.rnn.static_rnn(cell, lstm_in, dtype=tf.float32, 
  3.         initial_stateinitial_state = initial_state) 
  4.   
  5.     # We only need the last output tensor to pass into a classifier 
  6.     logits = tf.layers.dense(outputs[-1], n_classes, name='logits'
  7.   
  8.     # Cost function and optimizer 
  9.     cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logitslogits=logits, labels=labels_)) 
  10.   
  11.     # Grad clipping 
  12.     train_op = tf.train.AdamOptimizer(learning_rate_)  
  13.     gradients = train_op.compute_gradients(cost)    capped_gradients = [(tf.clip_by_value(grad, -1., 1.), var) for grad, var in gradients]    optimizer = train_op.apply_gradients(capped_gradients) 
  14.   
  15.     # Accuracy 
  16.     correct_pred = tf.equal(tf.argmax(logits, 1), tf.argmax 

注意我們只使用了 LSTM 頂層輸出序列的***一個元素,因為我們每個序列只是嘗試預測一個分類概率。剩下的部分和前面我們訓練 CNN 的過程相似,我們只需要將數據饋送到計算圖中進行訓練。其中超參數可選擇為 lstm_size=27、lstm_layers=2、batch_size=600、learning_rate=0.0005 和 keep_prob=0.5,我們在測試集中可獲得大約 95% 的準確度。這一結果要比 CNN 還差一些,但仍然十分優秀。可能選擇其它超參數能產生更好的結果,讀者朋友也可以在 Github 中獲取源代碼并進一步調試。

對比傳統方法

前面作者已經使用帶 561 個特征的數據集測試了一些機器學習方法,性能***的方法是梯度提升樹,如下梯度提升樹的準確度能到達 96%。雖然 CNN、LSTM 架構與經過特征工程的梯度提升樹的精度差不多,但 CNN 和 LSTM 的人工工作量要少得多。

HAR 任務經典機器學習方法:

https://github.com/bhimmetoglu/talks-and-lectures/tree/master/MachineLearning/HAR

梯度提升樹:https://rpubs.com/burakh/har_xgb

結語

在本文中,我們試驗了使用 CNN 和 LSTM 進行時序數據的分類,這兩種方法在性能上都有十分優秀的表現,并且最重要的是它們在訓練中會一層層學習獨特的特征,它們不需要成本昂貴的特征工程。

本文所使用的序列還是比較小的,只有 128 步。可能會有讀者懷疑如果序列變得更長(甚至大于 1000),是不是訓練就會變得十分困難。其實我們可以結合 LSTM 和 CNN 在這種長序列任務中表現得更好。總的來說,深度學習方法相對于傳統方法有非常明顯的優勢。

【本文是51CTO專欄機構“機器之心”的原創譯文,微信公眾號“機器之心( id: almosthuman2014)”】

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2017-11-23 14:35:36

2024-12-16 08:06:42

2022-12-09 14:50:51

機器學習時間序列預測

2018-08-30 09:36:10

編程語言Python機器學習

2022-06-29 09:00:00

前端圖像分類模型SQL

2020-10-27 09:37:43

PyTorchTensorFlow機器學習

2017-05-12 16:25:44

深度學習圖像補全tensorflow

2024-12-17 15:39:33

2018-04-16 11:30:32

深度學習

2018-04-17 09:40:22

深度學習

2018-04-11 09:30:41

深度學習

2023-05-14 22:35:24

TensorFlowKeras深度學習

2023-01-11 07:28:49

TensorFlow分類模型

2025-05-23 09:18:25

2022-06-29 14:06:54

canvas鴻蒙

2010-06-10 09:49:38

UML時序圖

2023-11-22 09:00:00

NLP語言模型LSTM

2017-05-22 13:15:45

TensorFlow深度學習

2018-07-04 15:17:07

CNNNLP模型

2016-12-06 08:51:48

深度學習TensorFlow機器學習
點贊
收藏

51CTO技術棧公眾號

亚洲综合视频1区| 日韩av网站导航| 一级黄色免费在线观看| 精品国产av一区二区| 99精品国产99久久久久久福利| 亚洲男人天堂网| jizzzz日本| 乱馆动漫1~6集在线观看| 国产三区在线成人av| 91影视免费在线观看| 日韩不卡视频在线| 国产精品精品国产一区二区| 日韩av有码在线| 激情在线观看视频| 国产成人精品123区免费视频| 中文字幕在线不卡| 欧美一二三四五区| 亚洲精品18在线观看| 美国毛片一区二区| 91干在线观看| 久久久久久久中文字幕| 欧美亚洲高清| 国产偷国产偷亚洲清高网站| av影片在线播放| 久久亚洲人体| 色又黄又爽网站www久久| 成人免费在线视频播放| 麻豆网站在线| 国产亚洲成aⅴ人片在线观看| 成人欧美视频在线| 国产精品无码白浆高潮| 日本在线不卡视频一二三区| 欧美一级淫片aaaaaaa视频| 欧美日韩国产精品综合| 欧美国产小视频| 伊人青青综合网站| 亚洲福利视频二区| 欧美不卡1区2区3区| 亚洲免费成人在线| 国产一区二区三区香蕉| 国产精品青青在线观看爽香蕉| 国产做受高潮漫动| 亚洲福利一区| 欧美精品精品精品精品免费| 91日韩中文字幕| 93在线视频精品免费观看| 在线精品91av| 三区四区在线观看| 青青草成人影院| 一本色道久久综合狠狠躁篇怎么玩 | 日韩欧美国产成人| 欧美精品久久久久久久自慰| 天堂成人av| 亚洲精品乱码久久久久久黑人| 中文字幕一区二区三区乱码| 永久免费在线观看视频| 中文字幕二三区不卡| 亚洲成色www久久网站| av在线资源网| 国产精品嫩草久久久久| 一区二区av| а√天堂在线官网| 一区二区三区高清不卡| 久久人人爽人人爽人人av| 麻豆av在线免费观看| 亚洲va欧美va国产va天堂影院| 韩日视频在线观看| 在线观看福利电影| 在线精品视频免费播放| 女同激情久久av久久| 精品一区二区三区中文字幕| 日韩视频免费观看高清完整版在线观看| 在线视频日韩欧美| 亚洲成人影音| 亚洲精品天天看| www亚洲色图| 午夜欧美在线| 欧美激情精品久久久久| 天天综合网入口| 视频一区国产视频| 成人在线视频网站| 日本美女一级片| 久久嫩草精品久久久精品| 日本婷婷久久久久久久久一区二区| 91福利在线视频| 亚洲激情六月丁香| 北条麻妃69av| 在线视频成人| 日韩精品福利网站| 91视频免费看片| 伊人久久亚洲热| 国产精品激情自拍| 午夜精品久久久久久久第一页按摩| 99精品欧美一区二区蜜桃免费| 日韩hmxxxx| 色婷婷在线播放| 色综合天天做天天爱| 中文字幕成人免费视频| 日韩精品免费一区二区夜夜嗨 | 久久综合激情| 91在线观看免费高清| 亚洲欧美日韩免费| 综合久久久久综合| 狠狠爱免费视频| 天堂av一区| 色狠狠av一区二区三区香蕉蜜桃| 国产精品.www| 久久精品国产精品亚洲综合| 精品高清视频| jizzjizz亚洲| 欧美性色黄大片手机版| 手机免费看av片| 久久国产电影| 日韩av黄色在线观看| 亚洲欧美强伦一区二区| 国产精品素人视频| 六月激情综合网| jazzjazz国产精品久久| 日韩一区二区av| 黄色av网站免费| 99热在这里有精品免费| 三级在线免费观看| 先锋影音网一区二区| 亚洲人成毛片在线播放| 日韩特黄一级片| 精品欧美一区二区精品少妇| 亚洲美女色禁图| 成人在线视频网| 激情小视频在线观看| 五月综合激情日本mⅴ| 人妻精品久久久久中文字幕69| 成人羞羞动漫| 热久久这里只有精品| 日韩一级在线播放| 亚洲综合在线五月| 日日夜夜精品视频免费观看| 婷婷综合社区| 国产日韩av高清| 高清国产福利在线观看| 一本大道久久a久久综合婷婷 | 日本一区二区三区dvd视频在线| 日韩a∨精品日韩在线观看| 视频精品一区| 欧美激情中文网| 亚洲av无码国产精品久久不卡| 亚洲女人****多毛耸耸8| 亚洲美女爱爱视频| 999久久久免费精品国产| 国产精品国产自产拍高清av水多 | 91资源在线视频| ㊣最新国产の精品bt伙计久久| 一起操在线视频| 午夜激情久久| 99精品国产一区二区| 人妖欧美1区| 亚洲国产91色在线| 在线精品免费视| 国产午夜精品福利| 亚洲老女人av| 91久久高清国语自产拍| 亚洲va国产va天堂va久久| 日本无删减在线| 亚洲精品黄网在线观看| 精产国品一区二区| 国产精品蜜臀av| 污视频网址在线观看| 你懂的亚洲视频| 国产高清一区视频| 午夜久久中文| 在线电影中文日韩| 国产欧美久久久精品免费| 亚洲精品ww久久久久久p站| 国产不卡一二三| 日韩国产精品久久久久久亚洲| 亚洲国产一区二区在线 | 国产欧美日韩伦理| 色尼玛亚洲综合影院| xxx一区二区| 欧美少妇bbw| 欧美综合一区二区| 国产麻豆视频在线观看| av亚洲精华国产精华| 国产自偷自偷免费一区 | 欧美成人免费全部| 亚洲av成人无码网天堂| 欧美日韩三级在线| 精品少妇久久久| 国产欧美日韩不卡| 超碰人人cao| 日韩高清在线不卡| 日本男女交配视频| 精品久久久久久久久久久aⅴ| 亚洲一区二区免费| 成人片免费看| 欧美高清第一页| 成人在线免费观看| 亚洲第一区第一页| 国产精品特级毛片一区二区三区| 精品日本美女福利在线观看| 亚洲人与黑人屁股眼交| 26uuu亚洲综合色| 欧美国产在线一区| 三级在线观看一区二区| 全黄性性激高免费视频| 色天天综合网| 欧美凹凸一区二区三区视频| 欧美另类中文字幕| 国产精品视频内| 国产v日韩v欧美v| 久久这里只有精品视频首页| 男男激情在线| 精品国产成人在线影院 | 亚洲国产精品字幕| 99精品免费观看| 欧美性色欧美a在线播放| 日本午夜视频在线观看| 亚洲一区影音先锋| 综合五月激情网| 国产精品美女久久福利网站| 亚洲国产欧美视频| 丁香婷婷综合网| 奇米777在线视频| 六月丁香综合在线视频| 亚洲五月天综合| 美女视频一区免费观看| 日韩a∨精品日韩在线观看| 国产精品扒开腿做爽爽爽软件| 亚洲一二三区精品| 精品久久不卡| 性做久久久久久免费观看| 日韩久久久久久久久久久久| 98精品视频| 亚洲三级一区| 日韩午夜电影网| 日韩中文字幕av在线| 女人av一区| 免费在线成人av电影| 日韩欧美黄色| 欧美xxxx黑人又粗又长精品| 丝袜美腿综合| 蜜桃臀一区二区三区| 伊人久久大香线蕉综合网蜜芽| 国产专区一区二区| 台湾色综合娱乐中文网| 精品乱色一区二区中文字幕| 九色丨蝌蚪丨成人| 精品久久sese| 加勒比久久综合| 先锋影音一区二区三区| 欧美激情欧美| 日日噜噜噜夜夜爽爽| 婷婷亚洲五月色综合| 亚洲五码在线观看视频| 欧美在线视屏| 成人免费视频91| 另类av一区二区| 久久久精品麻豆| 国精产品一区一区三区mba桃花| 国产精品嫩草影视| 丁香婷婷综合五月| 无码人妻精品一区二区三区温州 | 综合 欧美 亚洲日本| 国产精品久久久久久亚洲毛片| 911国产在线| 一区二区三区精品| 成人毛片18女人毛片| 欧美性猛片xxxx免费看久爱| 亚洲资源在线播放| 欧美一二三区在线观看| 日批免费在线观看| 国产亚洲欧美一区| 久久99精品久久久久久野外| 欧美日韩福利视频| 末成年女av片一区二区下载| 国产成人精品综合久久久| 亚洲毛片在线免费| 国产精品亚洲综合| 欧美日韩第一| 屁屁影院ccyy国产第一页| 性8sex亚洲区入口| www.超碰97.com| 99在线精品视频| 美国美女黄色片| 亚洲午夜电影在线| 中文文字幕一区二区三三| 日韩午夜在线观看视频| 男女视频在线观看| 欧美成人免费全部| 欧美大胆成人| 99在线首页视频| 欧美日韩高清| www.好吊操| 免费av成人在线| 国产十八熟妇av成人一区| 久久久久国产精品免费免费搜索 | 午夜在线电影亚洲一区| 欧美激情一区二区三区免费观看 | 黑人狂躁日本妞一区二区三区 | 夜夜爽www精品| 在线成人h网| 女人高潮一级片| wwww国产精品欧美| 国产精品.www| 5566中文字幕一区二区电影| 可以直接在线观看的av| 欧美美女操人视频| 国产精品亚洲成在人线| 激情久久av| 欧美不卡高清| 中日韩av在线播放| 久久精品一区二区三区不卡| 精品小视频在线观看| 在线播放91灌醉迷j高跟美女| 四虎在线免费看| 欧美精品videosex牲欧美| 欧美成人黄色| 欧美日韩综合精品| 中文在线不卡| 亚洲日本久久久| 亚洲激情中文1区| 国产精品主播一区二区| 一色桃子一区二区| 伊人色综合一区二区三区影院视频| 国产高清一区二区三区| 亚洲精品一二三区区别| 国产色视频在线播放| 国产午夜一区二区三区| 欧美三级韩国三级日本三斤在线观看| 日韩一区二区三区免费看 | 国产伦精品一区二区三区精品| 国产精品久久网站| 免费观看日批视频| 亚洲欧洲美洲在线综合| 极品在线视频| 国产一区二区三区色淫影院| 欧美 日韩 国产 一区| 午夜免费看毛片| 国产精品视频在线看| 中文字幕欧美色图| 色婷婷久久av| 国产精品成人**免费视频| 亚洲黄色网址在线观看| 国产精品中文有码| 免费一级a毛片夜夜看| 精品国产乱码久久| 国产高清视频色在线www| 精品一区日韩成人| 国产精品日韩| 人妻熟女aⅴ一区二区三区汇编| 狠狠爱在线视频一区| 四虎在线免费观看| 国产mv久久久| 狠狠做六月爱婷婷综合aⅴ | 亚洲国产成人精品激情在线| 精品性高朝久久久久久久| 另类专区亚洲| 亚洲精品永久www嫩草| 日韩黄色在线观看| 久久精品一区二区三区四区五区| 日韩午夜精品电影| 黄色在线观看www| 日本一区二区视频| 激情欧美一区二区| 免费在线看黄网址| 日韩av在线看| 激情中国色综合| 欧美日韩激情四射| caoporn国产精品| 国产一级片av| 久久九九国产精品怡红院| 日韩视频在线直播| 激情综合在线观看| 国产精品美女久久福利网站| 精品久久久无码中文字幕| 午夜免费在线观看精品视频| 亚洲警察之高压线| 老司机久久精品| 五月婷婷激情综合| 成人不用播放器| 成人3d动漫一区二区三区91| 另类激情亚洲| 极品盗摄国产盗摄合集| 亚洲精品一区久久久久久| 亚洲天堂网站| 国产特级淫片高清视频| 国产精品每日更新在线播放网址| 不卡的日韩av| 日韩美女写真福利在线观看| 亚洲一区二区| 中文字字幕码一二三区| 欧美一区二区黄| 最新欧美电影| 日韩国产小视频| 国产精品理论在线观看| 五月婷婷六月丁香综合| 91精品啪在线观看麻豆免费| 久久久久国产一区二区| 激情五月婷婷在线| 中文字幕日韩精品在线| 日韩欧美影院|