精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

深度學(xué)習(xí)利器:TensorFlow與NLP模型

人工智能 深度學(xué)習(xí)
自然語(yǔ)言處理(簡(jiǎn)稱(chēng)NLP),是研究計(jì)算機(jī)處理人類(lèi)語(yǔ)言的一門(mén)技術(shù),NLP技術(shù)讓計(jì)算機(jī)可以基于一組技術(shù)和理論,分析、理解人類(lèi)的溝通內(nèi)容。傳統(tǒng)的自然語(yǔ)言處理方法涉及到了很多語(yǔ)言學(xué)本身的知識(shí),而深度學(xué)習(xí),是表征學(xué)習(xí)(representation learning)的一種方法,在機(jī)器翻譯、自動(dòng)問(wèn)答、文本分類(lèi)、情感分析、信息抽取、序列標(biāo)注、語(yǔ)法解析等領(lǐng)域都有廣泛的應(yīng)用。

[[200204]]

前言

自然語(yǔ)言處理(簡(jiǎn)稱(chēng)NLP),是研究計(jì)算機(jī)處理人類(lèi)語(yǔ)言的一門(mén)技術(shù),NLP技術(shù)讓計(jì)算機(jī)可以基于一組技術(shù)和理論,分析、理解人類(lèi)的溝通內(nèi)容。傳統(tǒng)的自然語(yǔ)言處理方法涉及到了很多語(yǔ)言學(xué)本身的知識(shí),而深度學(xué)習(xí),是表征學(xué)習(xí)(representation learning)的一種方法,在機(jī)器翻譯、自動(dòng)問(wèn)答、文本分類(lèi)、情感分析、信息抽取、序列標(biāo)注、語(yǔ)法解析等領(lǐng)域都有廣泛的應(yīng)用。

2013年末谷歌發(fā)布的word2vec工具,將一個(gè)詞表示為詞向量,將文字?jǐn)?shù)字化,有效地應(yīng)用于文本分析。2016年谷歌開(kāi)源自動(dòng)生成文本摘要模型及相關(guān)TensorFlow代碼。2016/2017年,谷歌發(fā)布/升級(jí)語(yǔ)言處理框架SyntaxNet,識(shí)別率提高25%,為40種語(yǔ)言帶來(lái)文本分割和詞態(tài)分析功能。2017年谷歌官方開(kāi)源tf-seq2seq,一種通用編碼器/解碼器框架,實(shí)現(xiàn)自動(dòng)翻譯。本文主要結(jié)合TensorFlow平臺(tái),講解TensorFlow詞向量生成模型(Vector Representations of Words);使用RNN、LSTM模型進(jìn)行語(yǔ)言預(yù)測(cè);以及TensorFlow自動(dòng)翻譯模型。

Word2Vec數(shù)學(xué)原理簡(jiǎn)介

我們將自然語(yǔ)言交給機(jī)器學(xué)習(xí)來(lái)處理,但機(jī)器無(wú)法直接理解人類(lèi)語(yǔ)言。那么首先要做的事情就是要將語(yǔ)言數(shù)學(xué)化,Hinton于1986年提出Distributed Representation方法,通過(guò)訓(xùn)練將語(yǔ)言中的每一個(gè)詞映射成一個(gè)固定長(zhǎng)度的向量。所有這些向量構(gòu)成詞向量空間,每個(gè)向量可視為空間中的一個(gè)點(diǎn),這樣就可以根據(jù)詞之間的距離來(lái)判斷它們之間的相似性,并且可以把其應(yīng)用擴(kuò)展到句子、文檔及中文分詞。

Word2Vec中用到兩個(gè)模型,CBOW模型(Continuous Bag-of-Words model)和Skip-gram模型(Continuous Skip-gram Model)。模型示例如下,是三層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,包括輸入層,投影層和輸出層。

 

 

 

其中score(wt, h),表示在的上下文環(huán)境下,預(yù)測(cè)結(jié)果是的概率得分。上述目標(biāo)函數(shù),可以轉(zhuǎn)換為極大化似然函數(shù),如下所示:

 

求解上述概率模型的計(jì)算成本是非常高昂的,需要在神經(jīng)網(wǎng)絡(luò)的每一次訓(xùn)練過(guò)程中,計(jì)算每個(gè)詞在他的上下文環(huán)境中出現(xiàn)的概率得分,如下所示:

 

然而在使用word2vec方法進(jìn)行特性學(xué)習(xí)的時(shí)候,并不需要計(jì)算全概率模型。在CBOW模型和skip-gram模型中,使用了邏輯回歸(logistic regression)二分類(lèi)方法進(jìn)行的預(yù)測(cè)。如下圖CBOW模型所示,為了提高模型的訓(xùn)練速度和改善詞向量的質(zhì)量,通常采用隨機(jī)負(fù)采樣(Negative Sampling)的方法,噪音樣本w1,w2,w3,wk…為選中的負(fù)采樣。

 

TensorFlow近義詞模型

本章講解使用TensorFlow word2vec模型尋找近義詞,輸入數(shù)據(jù)是一大段英文文章,輸出是相應(yīng)詞的近義詞。比如,通過(guò)學(xué)習(xí)文章可以得到和five意思相近的詞有: four, three, seven, eight, six, two, zero, nine。通過(guò)對(duì)大段英文文章的訓(xùn)練,當(dāng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練到10萬(wàn)次迭代,網(wǎng)絡(luò)Loss值減小到4.6左右的時(shí)候,學(xué)習(xí)得到的相關(guān)近似詞,如下圖所示:

 

下面為T(mén)ensorFlow word2vec API 使用說(shuō)明:

構(gòu)建詞向量變量,vocabulary_size為字典大小,embedding_size為詞向量大小

  1. embeddings = tf.Variable(tf.random_uniform([vocabulary_size, embedding_size], -1.0, 1.0)) 

定義負(fù)采樣中邏輯回歸的權(quán)重和偏置

  1. nce_weights = tf.Variable(tf.truncated_normal 
  2.  
  3. ([vocabulary_size, embedding_size], stddev=1.0 / math.sqrt(embedding_size))) 
  4.  
  5. nce_biases = tf.Variable(tf.zeros([vocabulary_size]))  

定義訓(xùn)練數(shù)據(jù)的接入

  1. train_inputs = tf.placeholder(tf.int32, shape=[batch_size]) 
  2.  
  3. train_labels = tf.placeholder(tf.int32, shape=[batch_size, 1])  

定義根據(jù)訓(xùn)練數(shù)據(jù)輸入,并尋找對(duì)應(yīng)的詞向量

  1. embed = tf.nn.embedding_lookup(embeddings, train_inputs) 

基于負(fù)采樣方法計(jì)算Loss值

  1. loss = tf.reduce_mean( tf.nn.nce_loss 
  2.  
  3. (weights=nce_weights, biases=nce_biases, labels=train_labels, 
  4.  
  5. inputs=embed, num_sampled=num_sampled, num_classes=vocabulary_size))  

定義使用隨機(jī)梯度下降法執(zhí)行優(yōu)化操作,最小化loss值

  1. optimizer = tf.train.GradientDescentOptimizer(learning_rate=1.0).minimize(loss) 

通過(guò)TensorFlow Session Run的方法執(zhí)行模型訓(xùn)練

  1. for inputs, labels in generate_batch(...): 
  2.  
  3. feed_dict = {train_inputs: inputs, train_labels: labels} 
  4.  
  5. _, cur_loss = session.run([optimizer, loss], feed_dict=feed_dict)  

TensorFlow語(yǔ)言預(yù)測(cè)模型

本章主要回顧RNN、LSTM技術(shù)原理,并基于RNN/LSTM技術(shù)訓(xùn)練語(yǔ)言模型。也就是給定一個(gè)單詞序列,預(yù)測(cè)最有可能出現(xiàn)的下一個(gè)單詞。例如,給定[had, a, general] 3個(gè)單詞的LSTM輸入序列,預(yù)測(cè)下一個(gè)單詞是什么?如下圖所示:

 

RNN技術(shù)原理

循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是一類(lèi)用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別在于,卷積網(wǎng)絡(luò)是適用于處理網(wǎng)格化數(shù)據(jù)(如圖像數(shù)據(jù))的神經(jīng)網(wǎng)絡(luò),而循環(huán)神經(jīng)網(wǎng)絡(luò)是適用于處理序列化數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。例如,你要預(yù)測(cè)句子的下一個(gè)單詞是什么,一般需要用到前面的單詞,因?yàn)橐粋€(gè)句子中前后單詞并不是獨(dú)立的。RNN之所以稱(chēng)為循環(huán)神經(jīng)網(wǎng)路,即一個(gè)序列當(dāng)前的輸出與前面的輸出也有關(guān)。具體的表現(xiàn)形式為網(wǎng)絡(luò)會(huì)對(duì)前面的信息進(jìn)行記憶并應(yīng)用于當(dāng)前輸出的計(jì)算中,即隱藏層之間的節(jié)點(diǎn)不再無(wú)連接而是有連接的,并且隱藏層的輸入不僅包括輸入層的輸出還包括上一時(shí)刻隱藏層的輸出。如下圖所示:

 

 

LSTM技術(shù)原理

RNN有一問(wèn)題,反向傳播時(shí),梯度也會(huì)呈指數(shù)倍數(shù)的衰減,導(dǎo)致經(jīng)過(guò)許多階段傳播后的梯度傾向于消失,不能處理長(zhǎng)期依賴(lài)的問(wèn)題。雖然RNN理論上可以處理任意長(zhǎng)度的序列,但實(shí)習(xí)應(yīng)用中,RNN很難處理長(zhǎng)度超過(guò)10的序列。為了解決RNN梯度消失的問(wèn)題,提出了Long Short-Term Memory模塊,通過(guò)門(mén)的開(kāi)關(guān)實(shí)現(xiàn)序列上的記憶功能,當(dāng)誤差從輸出層反向傳播回來(lái)時(shí),可以使用模塊的記憶元記下來(lái)。所以 LSTM 可以記住比較長(zhǎng)時(shí)間內(nèi)的信息。常見(jiàn)的LSTM模塊如下圖所示:

 

 

 

output gate類(lèi)似于input gate同樣會(huì)產(chǎn)生一個(gè)0-1向量來(lái)控制Memory Cell到輸出層的輸出,如下公式所示: 

 

三個(gè)門(mén)協(xié)作使得 LSTM 存儲(chǔ)塊可以存取長(zhǎng)期信息,比如說(shuō)只要輸入門(mén)保持關(guān)閉,記憶單元的信息就不會(huì)被后面時(shí)刻的輸入所覆蓋。

使用TensorFlow構(gòu)建單詞預(yù)測(cè)模型

首先下載PTB的模型數(shù)據(jù),該數(shù)據(jù)集大概包含10000個(gè)不同的單詞,并對(duì)不常用的單詞進(jìn)行了標(biāo)注。

首先需要對(duì)樣本數(shù)據(jù)集進(jìn)行預(yù)處理,把每個(gè)單詞用整數(shù)標(biāo)注,即構(gòu)建詞典索引,如下所示:

讀取訓(xùn)練數(shù)據(jù)

  1. data = _read_words(filename)  
  2. #按照單詞出現(xiàn)頻率,進(jìn)行排序  
  3. counter = collections.Counter(data)  
  4. count_pairs = sorted(counter.items(), key=lambda x: (-x1, x[0]))  
  5. #構(gòu)建詞典及詞典索引  
  6. words, _ = list(zip(*count_pairs))  
  7. word_to_id = dict(zip(words, range(len(words))))  

接著讀取訓(xùn)練數(shù)據(jù)文本,把單詞序列轉(zhuǎn)換為單詞索引序列,生成訓(xùn)練數(shù)據(jù),如下所示:

讀取訓(xùn)練數(shù)據(jù)單詞,并轉(zhuǎn)換為單詞索引序列

  1. data = _read_words(filename) data = [word_to_id[word] for word in data if word in word_to_id] 

生成訓(xùn)練數(shù)據(jù)的data和label,其中epoch_size為該epoch的訓(xùn)練迭代次數(shù),num_steps為L(zhǎng)STM的序列長(zhǎng)度 

  1. i = tf.train.range_input_producer(epoch_size, shuffle=False).dequeue()  
  2. x = tf.strided_slice(data, [0, i * num_steps], [batch_size, (i + 1) * num_steps])  
  3. x.set_shape([batch_size, num_steps])  
  4. y = tf.strided_slice(data, [0, i * num_steps + 1], [batch_size, (i + 1) * num_steps + 1])  
  5. y.set_shape([batch_size, num_steps])  

構(gòu)建LSTM Cell,其中size為隱藏神經(jīng)元的數(shù)量

  1. lstm_cell = tf.contrib.rnn.BasicLSTMCell(size
  2.  
  3. forget_bias=0.0, state_is_tuple=True 

如果為訓(xùn)練模式,為保證訓(xùn)練魯棒性,定義dropout操作

  1. attn_cell = tf.contrib.rnn.DropoutWrapper(lstm_cell, 
  2.  
  3. output_keep_prob=config.keep_prob)  

根據(jù)層數(shù)配置,定義多層RNN神經(jīng)網(wǎng)絡(luò)

  1. cell = tf.contrib.rnn.MultiRNNCell( [ attn_cell for _ in range(config.num_layers)], 
  2.  
  3. state_is_tuple=True 

根據(jù)詞典大小,定義詞向量

  1. embedding = tf.get_variable("embedding"
  2.  
  3. [vocab_size, size], dtype=data_type())  

根據(jù)單詞索引,查找詞向量,如下圖所示。從單詞索引找到對(duì)應(yīng)的One-hot encoding,然后紅色的weight就直接對(duì)應(yīng)了輸出節(jié)點(diǎn)的值,也就是對(duì)應(yīng)的embedding向量。

  1. inputs = tf.nn.embedding_lookup(embedding, input_.input_data) 

 

定義RNN網(wǎng)絡(luò),其中state為L(zhǎng)STM Cell的狀態(tài),cell_output為L(zhǎng)STM Cell的輸出

  1. for time_step in range(num_steps): 
  2.  
  3. if time_step > 0: tf.get_variable_scope().reuse_variables() 
  4.  
  5. (cell_output, state) = cell(inputs[:, time_step, :], state) 
  6.  
  7. outputs.append(cell_output)  

定義訓(xùn)練的loss值就,如下公式所示。

 

 

  1. softmax_w = tf.get_variable("softmax_w", [size, vocab_size], dtype=data_type())  
  2. softmax_b = tf.get_variable("softmax_b", [vocab_size], dtype=data_type())  
  3. logits = tf.matmul(output, softmax_w) + softmax_b  

Loss值

  1. loss = tf.contrib.legacy_seq2seq.sequence_loss_by_example([logits], 
  2.  
  3. [tf.reshape(input_.targets, [-1])], [tf.ones([batch_size * num_steps], dtype=data_type())])  

定義梯度及優(yōu)化操作

  1. cost = tf.reduce_sum(loss) / batch_size 
  2.  
  3. tvars = tf.trainable_variables() 
  4.  
  5. grads, _ = tf.clip_by_global_norm(tf.gradients(cost, tvars), config.max_grad_norm) 
  6.  
  7. optimizer = tf.train.GradientDescentOptimizer(self._lr)  

單詞困惑度eloss

  1. perplexity = np.exp(costs / iters) 

TensorFlow語(yǔ)言翻譯模型

本節(jié)主要講解使用TensorFlow實(shí)現(xiàn)RNN、LSTM的語(yǔ)言翻譯模型。基礎(chǔ)的sequence-to-sequence模型主要包含兩個(gè)RNN網(wǎng)絡(luò),一個(gè)RNN網(wǎng)絡(luò)用于編碼Sequence的輸入,另一個(gè)RNN網(wǎng)絡(luò)用于產(chǎn)生Sequence的輸出。基礎(chǔ)架構(gòu)如下圖所示 

 

上圖中的每個(gè)方框表示RNN中的一個(gè)Cell。在上圖的模型中,每個(gè)輸入會(huì)被編碼成固定長(zhǎng)度的狀態(tài)向量,然后傳遞給解碼器。2014年,Bahdanau在論文“Neural Machine Translation by Jointly Learning to Align and Translate”中引入了Attention機(jī)制。Attention機(jī)制允許解碼器在每一步輸出時(shí)參與到原文的不同部分,讓模型根據(jù)輸入的句子以及已經(jīng)產(chǎn)生的內(nèi)容來(lái)影響翻譯結(jié)果。一個(gè)加入attention機(jī)制的多層LSTM sequence-to-sequence網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示:

 

針對(duì)上述sequence-to-sequence模型,TensorFlow封裝成了可以直接調(diào)用的函數(shù)API,只需要幾百行的代碼就能實(shí)現(xiàn)一個(gè)初級(jí)的翻譯模型。tf.nn.seq2seq文件共實(shí)現(xiàn)了5個(gè)seq2seq函數(shù):

  • basic_rnn_seq2seq:輸入和輸出都是embedding的形式;encoder和decoder用相同的RNN cell,但不共享權(quán)值參數(shù);
  • tied_rnn_seq2seq:同basic_rnn_seq2seq,但encoder和decoder共享權(quán)值參數(shù);
  • embedding_rnn_seq2seq:同basic_rnn_seq2seq,但輸入和輸出改為id的形式,函數(shù)會(huì)在內(nèi)部創(chuàng)建分別用于encoder和decoder的embedding矩陣;
  • embedding_tied_rnn_seq2seq:同tied_rnn_seq2seq,但輸入和輸出改為id形式,函數(shù)會(huì)在內(nèi)部創(chuàng)建分別用于encoder和decoder的embedding矩陣;
  • embedding_attention_seq2seq:同embedding_rnn_seq2seq,但多了attention機(jī)制;

embedding_rnn_seq2seq函數(shù)接口使用說(shuō)明如下:

  • encoder_inputs:encoder的輸入
  • decoder_inputs:decoder的輸入
  • cell:RNN_Cell的實(shí)例
  • num_encoder_symbols,num_decoder_symbols:分別是編碼和解碼的大小
  • embedding_size:詞向量的維度
  • output_projection:decoder的output向量投影到詞表空間時(shí),用到的投影矩陣和偏置項(xiàng)
  • feed_previous:若為T(mén)rue, 只有第一個(gè)decoder的輸入符號(hào)有用,所有的decoder輸入都依賴(lài)于上一步的輸出;
  1. outputs, states = embedding_rnn_seq2seq(  
  2. encoder_inputs, decoder_inputs, cell,  
  3. num_encoder_symbols, num_decoder_symbols,  
  4. embedding_size, output_projection=None,  
  5. feed_previous=False 

TensorFlow官方提供了英語(yǔ)到法語(yǔ)的翻譯示例,采用的是statmt網(wǎng)站提供的語(yǔ)料數(shù)據(jù),主要包含:giga-fren.release2.fixed.en(英文語(yǔ)料,3.6G)和giga-fren.release2.fixed.fr(法文語(yǔ)料,4.3G)。該示例的代碼結(jié)構(gòu)如下所示:

  • seq2seq_model.py:seq2seq的TensorFlow模型采用了embedding_attention_seq2seq用于創(chuàng)建seq2seq模型。
  • data_utils.py:對(duì)語(yǔ)料數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理,根據(jù)語(yǔ)料數(shù)據(jù)生成詞典庫(kù);并基于詞典庫(kù)把要翻譯的語(yǔ)句轉(zhuǎn)換成用用詞ID表示的訓(xùn)練序列。如下圖所示:

(點(diǎn)擊放大圖像)

 

translate.py:主函數(shù)入口,執(zhí)行翻譯模型的訓(xùn)練

執(zhí)行模型訓(xùn)練

  1. python translate.py 
  2.  
  3. --data_dir [your_data_directory] --train_dir [checkpoints_directory] 
  4.  
  5. --en_vocab_size=40000 --fr_vocab_size=40000  

總結(jié)

隨著TensorFlow新版本的不斷發(fā)布以及新模型的不斷增加,TensorFlow已成為主流的深度學(xué)習(xí)平臺(tái)。本文主要介紹了TensorFlow在自然語(yǔ)言處理領(lǐng)域的相關(guān)模型和應(yīng)用。首先介紹了Word2Vec數(shù)學(xué)原理,以及如何使用TensorFlow學(xué)習(xí)詞向量;接著回顧了RNN、LSTM的技術(shù)原理,講解了TensorFlow的語(yǔ)言預(yù)測(cè)模型;最后實(shí)例分析了TensorFlow sequence-to-sequence的機(jī)器翻譯 API及官方示例。 

責(zé)任編輯:龐桂玉 來(lái)源: 36大數(shù)據(jù)
相關(guān)推薦

2017-09-21 12:29:58

深度學(xué)習(xí)TensorFlow智能終端

2017-04-24 14:09:13

深度學(xué)習(xí)TensorFlow

2018-09-06 08:00:00

深度學(xué)習(xí)TensorFlowPython

2018-09-04 08:00:00

人工智能深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2017-11-03 13:30:41

深度學(xué)習(xí)TensorFlowGoogle Brai

2019-09-01 19:19:04

TensorFlowPyTorch深度學(xué)習(xí)

2018-04-11 17:50:14

深度學(xué)習(xí)PyTorchTensorFlow

2017-12-01 15:24:04

TensorFlow深度學(xué)習(xí)教程

2017-07-24 13:37:42

深度學(xué)習(xí)KerasTensorFlow

2024-03-26 09:11:13

TensorFlow深度學(xué)習(xí)Pipeline

2021-11-02 09:40:50

TensorFlow機(jī)器學(xué)習(xí)人工智能

2018-08-08 16:08:45

深度學(xué)習(xí)機(jī)器學(xué)習(xí)NLP

2017-10-18 09:48:13

深度學(xué)習(xí)TensorFlow入門(mén)篇

2017-06-06 10:14:55

KerasTensorFlow深度學(xué)習(xí)

2017-05-22 13:15:45

TensorFlow深度學(xué)習(xí)

2017-08-10 15:31:57

Apache Spar TensorFlow

2022-11-13 08:11:03

TensorFlow人工智能開(kāi)源

2021-09-27 09:55:52

深度學(xué)習(xí)編程人工智能

2023-11-19 23:36:50

2017-05-12 16:25:44

深度學(xué)習(xí)圖像補(bǔ)全tensorflow
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

欧美视频在线免费| 日本妇乱大交xxxxx| 久久精品人妻一区二区三区| 久久久久观看| 精品久久久视频| 日韩欧美一区二区三区久久婷婷| 一本大道伊人av久久综合| 国产精品jizz在线观看美国| 亚洲国产精品推荐| 91蝌蚪视频在线观看| caopo在线| 91麻豆免费在线观看| 国产精品免费电影| 国产在线一二区| 日韩伦理一区| 老汉av免费一区二区三区| 免费91在线视频| 精品人妻少妇嫩草av无码| 日韩黄色在线| 狠狠躁夜夜躁久久躁别揉| 亚洲欧美精品| 天堂а在线中文在线无限看推荐| 久久se精品一区二区| 97免费中文视频在线观看| 亚洲不卡的av| 偷拍亚洲精品| 欧美成人video| 色悠悠久久综合网| 黄色漫画在线免费看| 一区在线中文字幕| 欧美日韩在线一二三| 亚洲乱码精品久久久久..| 日韩精品免费专区| 欧美在线观看网址综合| 丁香花五月激情| 日韩一区自拍| 亚洲色在线视频| 国产一级免费片| 亚洲精品国产九九九| 欧美视频精品在线观看| 亚洲国产精品久久久久婷蜜芽| 制服丝袜中文字幕在线| 国产精品欧美综合在线| 欧美在线播放一区二区| 天堂v视频永久在线播放| 成人午夜在线播放| 99久久精品免费看国产一区二区三区| 一区二区不卡视频在线观看| 日韩精品一二三四| 国产精品偷伦视频免费观看国产| 免费观看日批视频| 久久xxxx精品视频| 国产婷婷成人久久av免费高清| 日本r级电影在线观看| 日韩第二十一页| 欧美另类z0zxhd电影| 亚洲老女人av| 只有精品亚洲| 欧美一区二区三区在线视频 | 三上亚洲一区二区| 国产一区二区黄| 免费人成又黄又爽又色| 精品国产一区二区三区四区| 国产亚洲日本欧美韩国| 欧洲美熟女乱又伦| 95精品视频| 制服丝袜日韩国产| 欧美日韩理论片| 日韩在线精品强乱中文字幕| 精品少妇一区二区三区| 人妻体内射精一区二区三区| 久久av国产紧身裤| 亚洲男女性事视频| 亚洲图片第一页| 亚洲色图网站| 午夜精品久久17c| 天天综合网入口| 91综合在线| 另类图片亚洲另类| 国产在线一二区| 久久精品亚洲一区二区| 国产精品中文字幕在线观看| 国产视频一二三四区| 成人免费毛片a| 欧美伦理一区二区| 日本亚洲精品| 亚洲国产一区二区三区 | 日本成人在线电影网| 国产精品一区二区久久精品| 精品国产一级片| 91麻豆国产福利在线观看| 亚洲国产一区二区精品视频| 91麻豆免费在线视频| 精品久久久久人成| 男人的天堂最新网址| 亚洲福利合集| 亚洲无亚洲人成网站77777| 黄色片子在线观看| 国产欧美日韩一级| 亚洲va电影大全| 全色精品综合影院| 久久9热精品视频| 成人在线免费网站| 成人在线二区| 亚洲电影中文字幕在线观看| 最新国产精品久久| 日本一区高清| 亚洲美女在线一区| www.com毛片| 精品一区91| 亚洲一区二区精品| 国产亚洲欧美精品久久久www| 爽好多水快深点欧美视频| 51国产成人精品午夜福中文下载| 亚洲视频一区在线播放| 成人高清av在线| 一区二区三区四区五区精品| 麻豆国产在线| 日韩一区二区三区观看| 国产午夜精品福利视频| 亚洲综合另类| 成人欧美一区二区三区视频| 午夜激情视频在线观看| 疯狂做受xxxx高潮欧美日本| 一起草最新网址| 日韩理论电影| 国产成一区二区| 隣の若妻さん波多野结衣| 亚洲婷婷综合色高清在线| 亚洲综合五月天| 日本蜜桃在线观看视频| 日韩女优av电影| 永久免费看片视频教学| 日韩精品三区四区| 欧美日韩一区综合| 亚洲一二三四| 亚洲第一页中文字幕| 欧美高清视频一区二区三区| 久久99精品久久久久久| 午夜精品亚洲一区二区三区嫩草 | 日韩一区二区三区国产| 99久久久久久久久| 日韩国产欧美在线观看| 久久大香伊蕉在人线观看热2| 在线观看a级片| 欧美一区二区三区四区视频| 国产三级精品三级观看| 亚州av乱码久久精品蜜桃| 国产精品99一区| 九色在线免费| 中文字幕亚洲在| 欧美性猛交xxx乱久交| 少妇精品久久久| 日韩在线观看免费网站| 亚洲精品毛片一区二区三区| 国产亚洲欧美日韩俺去了| 久久久999视频| 亚洲另类av| 国产精品扒开腿做| av免费观看一区二区| 欧美吞精做爰啪啪高潮| 久久久久亚洲av无码麻豆| 91精品一区二区三区综合在线爱 | 久久人人爽人人爽人人片亚洲| 中文字幕乱码人妻二区三区| 国产精品久久久久久久久果冻传媒 | 福利片在线观看| 欧美日韩亚洲综合一区二区三区| 99自拍偷拍视频| 狠狠色狠狠色综合| 天天做天天躁天天躁| 久久精品色综合| 全亚洲最色的网站在线观看| 国产福利小视频在线观看| 欧美日韩精品一区二区在线播放| 一区二区三区影视| 粉嫩av一区二区三区在线播放| 欧美,日韩,国产在线| 国产成人手机高清在线观看网站| 国产在线观看一区二区三区 | 久久91麻豆精品一区| 国产精品国产三级国产专播精品人| 免费毛片在线| 中文字幕中文字幕一区| 丰满人妻一区二区三区53视频| 欧美日韩国产高清| 久久偷看各类wc女厕嘘嘘偷窃| 日韩三区在线| 欧美成人免费播放| 日韩亚洲视频在线观看| 欧美日韩国产大片| 日本天堂网在线观看| 久久成人免费日本黄色| 日本a级片在线观看| 麻豆国产欧美一区二区三区r| 国产成人avxxxxx在线看| 成人影欧美片| 亚洲成人在线网| 中文永久免费观看| 亚洲成在人线在线播放| 国内精品卡一卡二卡三| 床上的激情91.| 另类小说第一页| 亚洲大片在线| 亚洲人成人77777线观看| 福利片一区二区| 国产日韩中文在线| 亚洲第一av| 久久91亚洲精品中文字幕奶水 | 中文字幕精品www乱入免费视频| 国产成人a人亚洲精品无码| 日韩欧中文字幕| 欧美日韩亚洲国产另类| 亚洲国产成人自拍| 影音先锋黄色资源| 国产伦理精品不卡| 一本色道久久亚洲综合精品蜜桃| 在线免费观看欧美| 国产欧美123| 日韩精品久久| 快播亚洲色图| 澳门成人av| 91网站免费观看| 国产亚洲人成a在线v网站| 2019精品视频| 蜜臀av在线播放| 操91在线视频| 欧美成人hd| 最好看的2019年中文视频| 日本午夜在线视频| 亚洲电影av在线| 丰满肉嫩西川结衣av| 91精品在线免费观看| 在线观看国产精品视频| 在线观看成人免费视频| 亚洲av中文无码乱人伦在线视色| 亚洲国产一区二区在线播放| 日韩成人毛片视频| 自拍视频在线观看一区二区| 一级肉体全黄裸片| 国产亚洲短视频| 色噜噜日韩精品欧美一区二区| 成人aa视频在线观看| 免费看三级黄色片| 国产成人精品一区二| 午夜激情视频网| 国产一区二区三区国产| 午夜激情影院在线观看| 麻豆91精品91久久久的内涵| 久热精品在线播放| 美女视频一区二区三区| 亚洲综合色在线观看| 免费观看成人鲁鲁鲁鲁鲁视频| 99免费视频观看| 国产午夜精品一区二区三区欧美| 国产无限制自拍| 亚洲美女91| 97视频在线免费播放| 久久蜜桃精品| 亚洲天堂av线| 狠狠网亚洲精品| 337p日本欧洲亚洲大胆张筱雨| 国产传媒欧美日韩成人| 稀缺呦国内精品呦| 香蕉视频999| 国产精品一区二区三区四区| xxxx国产视频| 99久久久久免费精品国产 | 亚洲国产成人在线| 亚洲一级二级片| 亚洲综合另类小说| 国产精品国产三级国产专区52| 日本韩国精品在线| 国产又粗又大又爽视频| 日韩精品专区在线影院重磅| 天天av天天翘| 亚洲人成自拍网站| 黄色网址视频在线观看| 欧美大肚乱孕交hd孕妇| 高潮一区二区三区乱码| 精品一区二区三区三区| 调教视频免费在线观看| 色综合久综合久久综合久鬼88| 激情视频网站在线播放色| 国产精品福利在线观看| 精品一区二区三区中文字幕在线 | 99久久久国产精品无码免费| 精品福利一区二区三区 | 成人亚洲精品| 精品午夜一区二区| 久久综合电影| 免费av手机在线观看| 蜜臀av性久久久久蜜臀aⅴ流畅| 在线观看免费看片| xnxx国产精品| 一区视频免费观看| 色综合天天在线| 国产同性人妖ts口直男| 精品香蕉一区二区三区| www.久久ai| 日韩美女在线播放| 一级毛片精品毛片| 亚洲精品国产一区| 国语精品一区| 色婷婷.com| 久久久久久久久久久黄色 | 一本到12不卡视频在线dvd| 黄色动漫网站入口| 国产精品一级片在线观看| 免费人成又黄又爽又色| 亚洲国产一二三| 国产又大又粗又硬| 亚洲人成亚洲人成在线观看| 日本欧美电影在线观看| 国产男女猛烈无遮挡91| 亚洲深夜福利在线观看| 欧美黑人在线观看| 久久成人免费网站| 五月婷婷婷婷婷| 一本色道综合亚洲| 日本黄色大片视频| 欧美日韩国产成人| 中文字幕综合| 亚洲a∨一区二区三区| 亚洲欧美成人综合| 亚洲の无码国产の无码步美| 亚洲欧美一区二区三区久本道91 | 日韩电影在线一区| 水蜜桃av无码| 亚洲午夜精品在线| 精品久久久久久亚洲综合网站| 色小说视频一区| 日韩中文在线播放| 欧美日韩精品免费观看视一区二区| 韩日在线一区| 老司机av网站| 一区二区国产盗摄色噜噜| 国产毛片在线视频| 日韩在线不卡视频| 亚洲国产天堂| 伊人av成人| 久久se精品一区二区| 情侣偷拍对白清晰饥渴难耐| 欧美精品成人一区二区三区四区| 成人免费高清在线播放| 国产高清视频一区三区| 免费视频亚洲| 福利在线一区二区三区| 欧美韩日一区二区三区四区| 亚洲精品91天天久久人人| 亚洲色图第三页| 韩国成人在线| 亚洲一区二区三区免费观看| 蜜桃av一区二区三区电影| www成人啪啪18软件| 欧美日韩一本到| av免费在线网站| 国产福利一区二区三区在线观看| 亚洲二区精品| 国产在线观看无码免费视频| 欧美性黄网官网| 国产三级在线免费观看| 国产精品视频白浆免费视频| 97精品一区| 波多野结衣三级视频| 亚洲a一区二区| 蜜桃成人在线视频| 国产精品专区h在线观看| 天天精品视频| 一本色道久久hezyo无码| 欧美日韩亚洲激情| 成人免费高清在线播放| 91日韩久久| 国产精品社区| xxxxx99| 精品国产乱码久久久久久老虎| 深夜av在线| 亚洲欧美日韩国产yyy| 国产精品99久久久久久有的能看 | 欧美图片一区二区三区| jizz性欧美| 鲁鲁视频www一区二区| 秋霞电影一区二区| 久操免费在线视频| 亚洲欧美国产精品| 欧美综合影院| 男女啪啪免费视频网站| 国产精品色婷婷久久58| 午夜老司机福利| 日韩免费在线看| 欧美va天堂在线| 蜜臀视频一区二区三区| 亚洲乱码中文字幕| 色综合久久网女同蕾丝边| 成人激情在线观看| 中文亚洲免费| 国产真实乱在线更新| 亚洲男人天堂视频| 一区二区网站| 免费看污污网站|