精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

使用 paddle來(lái)進(jìn)行文本生成

企業(yè)動(dòng)態(tài)
paddle 是百度在2016年9月份開源的深度學(xué)習(xí)框架, 就我最近體驗(yàn)的感受來(lái)說(shuō)的它具有幾大優(yōu)點(diǎn)。

paddle 簡(jiǎn)單介紹

paddle 是百度在2016年9月份開源的深度學(xué)習(xí)框架。

就我最近體驗(yàn)的感受來(lái)說(shuō)的它具有幾大優(yōu)點(diǎn):

1. 本身內(nèi)嵌了許多和實(shí)際業(yè)務(wù)非常貼近的模型比如個(gè)性化推薦,情感分析,詞向量,語(yǔ)義角色標(biāo)注等模型還有更多實(shí)際已經(jīng)內(nèi)嵌了但是目前還沒有出現(xiàn)在官方文檔上的模型比如物體檢測(cè),文本生成,圖像分類,ctr預(yù)估等等,可以快速應(yīng)用到項(xiàng)目中去

2. 就實(shí)際體驗(yàn)來(lái)看,訓(xùn)練的速度相比于調(diào)用keras,在同等數(shù)據(jù)集上和相同網(wǎng)絡(luò)架構(gòu)上要快上不少。當(dāng)然也是因?yàn)閗eras本身也是基于在tensorflow或者theano上面的,二次調(diào)用的速度不如paddle直接調(diào)用底層迅速。

缺點(diǎn)也有很多:

1. 一開始的安裝對(duì)新手極其的不友好,使用docker安裝感覺這個(gè)開源框架走不長(zhǎng)久,所幸這個(gè)問題已經(jīng)解決。

2. 目前很多的文檔并不完善,也許百度系的工程師目前對(duì)這方面其實(shí)并不是很重視,新手教程看起來(lái)并非那么易懂。

3. 層的封裝并不到位,很多神經(jīng)網(wǎng)絡(luò)層得自己去寫,感覺非常的不方便。

***希望借由本文,可以讓你快速上手paddle。

一分鐘安裝paddle

docker 安裝

 之前paddle的安裝方式是使用docker安裝,感覺非常的反人類。

 安裝命令:

  1. docker pull paddlepaddle/paddle:latest 

pip 安裝

現(xiàn)在已經(jīng)支持pip 安裝了。對(duì)(OS: centos 7, ubuntu 16.04, macos 10.12, python: python 2.7.x) 可以直接使用

  1. pip install paddlepaddle     安裝cpu 版本。 
  2. pip install paddlepaddle-gpu 安裝gpu 版本。 

安裝完以后,測(cè)試的代碼

  1. import paddle.v2 as paddle 
  2. x = paddle.layer.data(name='x', type=paddle.data_type.dense_vector(13)) 
  3. y = paddle.layer.fc(input=x, size=1, param_attr=paddle.attr.Param(name="fc.w")) 
  4. params = paddle.parameters.create(y) 
  5. print params["fc.w"].shape 

當(dāng)輸出 [13,1],那么恭喜你,已經(jīng)成功安裝了paddle.  

遇到的問題     

當(dāng)我在使用pip 安裝方式安裝了gpu版本的paddle以后,遇到了numpy 版本不兼容的問題。解決的辦法是:在把本地的numpy卸載以后,我首先把安裝的paddle卸載了,然后重新再安裝了一遍paddle。這樣在安裝的過程當(dāng)中,可以借由paddle的安裝過程來(lái)檢測(cè)你系統(tǒng)的其他python包是否符合paddle需要的環(huán)境。其他類似的python包的問題,都可以借由這個(gè)辦法幫忙解決。

使用paddle中的循環(huán)神經(jīng)網(wǎng)絡(luò)來(lái)生成文本

背景簡(jiǎn)介

首先paddle實(shí)際上已經(jīng)內(nèi)嵌了這個(gè)項(xiàng)目:

  1. https://github.com/PaddlePaddle/models/tree/develop/generate_sequence_by_rnn_lm 

文本生成有很多的應(yīng)用,比如根據(jù)上文生成下一個(gè)詞,遞歸下去可以生成整個(gè)句子,段落,篇章。目前主流生成文本的方式是使用rnn來(lái)生成文本。

主要有兩個(gè)原因:

1. 因?yàn)镽NN 是將一個(gè)結(jié)構(gòu)反復(fù)使用,即使輸入的文本很長(zhǎng),所需的network的參數(shù)都是一樣的。

2. 因?yàn)镽NN 是共用一個(gè)結(jié)構(gòu)的,共用參數(shù)的。可以用比較少的參數(shù)來(lái)訓(xùn)練模型。這樣會(huì)比較難訓(xùn)練,但是一旦訓(xùn)練好以后,模型會(huì)比較難overfitting,效果也會(huì)比較好。

對(duì)于RNN使用的這個(gè)結(jié)構(gòu),由于原生的RNN的這個(gè)結(jié)構(gòu)本身無(wú)法解決長(zhǎng)程依賴的問題,目前主要使用Lstm 和GRU來(lái)進(jìn)行代替。但是具體到LSTM 和GRU,因?yàn)長(zhǎng)STM需要使用三個(gè)門結(jié)構(gòu)也就是通常所說(shuō)的遺忘門,更新門,輸出門。而GRU的表現(xiàn)和LSTM類似,卻只需要兩個(gè)門結(jié)構(gòu)。訓(xùn)練速度更快,對(duì)內(nèi)存的占用更小,目前看起來(lái)使用GRU是更好的選擇。

項(xiàng)目實(shí)戰(zhàn)

  •        首先
     
    1. git clone https://github.com/PaddlePaddle/models/tree/develop/generate_sequence_by_rnn_lm 
     到本地model 目錄下
  •        代碼結(jié)構(gòu)如下
  1. ├── data 
  2. │   └── train_data_examples.txt         # 示例數(shù)據(jù),可參考示例數(shù)據(jù)的格式,提供自己的數(shù)據(jù) 
  3. ├── config.py                           # 配置文件,包括data、train、infer相關(guān)配置 
  4. ├── generate.py                 # 預(yù)測(cè)任務(wù)腳本,即生成文本 
  5. ├── beam_search.py                # beam search 算法實(shí)現(xiàn) 
  6. ├── network_conf.py                 # 本例中涉及的各種網(wǎng)絡(luò)結(jié)構(gòu)均定義在此文件中,希望進(jìn)一步修改模型結(jié)構(gòu),請(qǐng)修改此文件 
  7. ├── reader.py                           # 讀取數(shù)據(jù)接口 
  8. ├── README.md 
  9. ├── train.py                            # 訓(xùn)練任務(wù)腳本 
  10. └── utils.py                            # 定義通用的函數(shù),例如:構(gòu)建字典、加載字典等 

運(yùn)行說(shuō)明

  •          首先執(zhí)行python train.py 開始訓(xùn)練模型,待模型訓(xùn)練完畢以后。
  •          執(zhí)行python generate.py 開始運(yùn)行文本生成代碼。(默認(rèn)的文本輸入為data/train_data_example.txt,生成文本保存為data/gen_result.txt)

代碼解析

  •          paddle 的使用有幾個(gè)固定需要遵守的流程。
    •   大致需要4步。1:初始化,2:定義網(wǎng)絡(luò)結(jié)構(gòu),3:訓(xùn)練,4:預(yù)測(cè)。
    •       其中定義網(wǎng)絡(luò)結(jié)構(gòu)具體需要定義 1:定義具體的網(wǎng)絡(luò)結(jié)構(gòu),2:定義所需要的參數(shù),3:定義優(yōu)化的方法,4:定義event_handler 打印訓(xùn)練信息。
    •       總體來(lái)說(shuō),paddle 的代碼上手難度其實(shí)對(duì)新手挺大的,但思路非常的清晰,耐心閱讀應(yīng)該可以明白。下面我們具體介紹:

1. 首先需要加載paddle 進(jìn)行初始化

import paddle.v2 as paddle
import numpy as np
paddle.init(use_gpu=False)

2. 定義網(wǎng)絡(luò)結(jié)構(gòu)

  1. # 變量說(shuō)明 
  2. # vocab_dim: 輸入變量的維度數(shù). 
  3. # type vocab_dim: int 
  4. # emb_dim: embedding vector的維度數(shù) 
  5. # type emb_dim: int 
  6. # rnn_type: RNN cell的類型. 
  7. # type rnn_type: int 
  8. # hidden_size: hidden unit的個(gè)數(shù). 
  9. # type hidden_size: int 
  10. # stacked_rnn_num: 堆疊的rnn cell的個(gè)數(shù). 
  11. # type stacked_rnn_num: int 
 
  1. # 定義輸入層 
  2. input = paddle.layer.data( 
  3.     name="input", type=paddle.data_type.integer_value_sequence(vocab_dim)) 
  4. if not is_infer: 
  5.     target = paddle.layer.data( 
  6.         name="target"
  7.         type=paddle.data_type.integer_value_sequence(vocab_dim)) 
  8.   
  9. # 定義embedding層 
  10. # 該層將上層的輸出變量input 做為本層的輸入灌入embedding層,將輸入input 向量化,方便后續(xù)處理 
  11. input_emb = paddle.layer.embedding(input=input, size=emb_dim) 
  12.   
  13. # 定義rnn層 
  14. # 如果 rnn_type 是lstm,則堆疊lstm層 
  15. # 如果rnn_type 是gru,則堆疊gru層 
  16. # 如果 i = 0的話,先將 input_emb做為輸入,其余時(shí)刻則將上一時(shí)刻的rnn_cell作為輸入進(jìn)行堆疊 
  17. # stack_rnn_num 等于多少就堆疊多少個(gè) rnn層 
  18. if rnn_type == "lstm"
  19.     for i in range(stacked_rnn_num): 
  20.         rnn_cell = paddle.networks.simple_lstm( 
  21.             input=rnn_cell if i else input_emb, size=hidden_size) 
  22. elif rnn_type == "gru"
  23.     for i in range(stacked_rnn_num): 
  24.         rnn_cell = paddle.networks.simple_gru( 
  25.             input=rnn_cell if i else input_emb, size=hidden_size) 
  26. else
  27.     raise Exception("rnn_type error!"
  28.   
  29. # 定義全聯(lián)接層 
  30. # 將上層最終定義得到的輸出rnn_cell 做為輸入灌入該全聯(lián)接層 
  31. output = paddle.layer.fc( 
  32.     input=[rnn_cell], size=vocab_dim, act=paddle.activation.Softmax())<br data-filtered="filtered"
  33.   
  34. # ***一層cost中記錄了神經(jīng)網(wǎng)絡(luò)的所有拓?fù)浣Y(jié)構(gòu),通過組合不同的layer,我們即可完成神經(jīng)網(wǎng)絡(luò)的搭建。 
  35. cost = paddle.layer.classification_cost(input=output, label=target) 

paddle的網(wǎng)絡(luò)結(jié)構(gòu)從這里可以看出其實(shí)定義起來(lái)需要自己寫非常多的代碼,感覺非常的冗余,雖然同樣也是搭建積木自上而下一層層來(lái)寫,代碼開發(fā)的工作量其實(shí)蠻大的。

3. 訓(xùn)練模型

在完成神經(jīng)網(wǎng)絡(luò)的搭建之后,我們首先需要根據(jù)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來(lái)創(chuàng)建所需要優(yōu)化的parameters(也就是網(wǎng)絡(luò)結(jié)構(gòu)的參數(shù)),并創(chuàng)建optimizer(求解網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)的優(yōu)化方法比如Sgd,Adam,Rmstrop)之后,我們可以創(chuàng)建trainer來(lái)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。在這里我們使用adam算法來(lái)作為我們優(yōu)化的算法,L2正則項(xiàng)來(lái)作為正則項(xiàng)。并根據(jù)cost 中記錄的網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)來(lái)創(chuàng)建神經(jīng)網(wǎng)絡(luò)所需要的參數(shù)。

  1. # create optimizer 
  2. adam_optimizer = paddle.optimizer.Adam( 
  3.     learning_rate=1e-3
  4.     regularization=paddle.optimizer.L2Regularization(rate=1e-3), 
  5.     model_average=paddle.optimizer.ModelAverage( 
  6.         average_window=0.5, max_average_window=10000)) 
  7.   
  8. # create parameters 
  9. parameters = paddle.parameters.create(cost) 
  10. # create trainer 
  11. trainer = paddle.trainer.SGD( 
  12.     cost=cost, parameters=parameters, update_equation=adam_optimizer) 

其中,trainer接收三個(gè)參數(shù),包括神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu) cost神經(jīng)網(wǎng)絡(luò)參數(shù) parameters以及迭代方程 adam_optimizer。在搭建神經(jīng)網(wǎng)絡(luò)的過程中,我們僅僅對(duì)神經(jīng)網(wǎng)絡(luò)的輸入進(jìn)行了描述。而trainer需要讀取訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,PaddlePaddle中通過reader來(lái)加載數(shù)據(jù)。

  1. # define reader 
  2. reader_args = { 
  3.     "file_name": conf.train_file, 
  4.     "word_dict": word_dict, 
  5. # 讀取訓(xùn)練數(shù)據(jù) 
  6. train_reader = paddle.batch( 
  7.     paddle.reader.shuffle( 
  8.         reader.rnn_reader(**reader_args), buf_size=102400), 
  9.     batch_size=conf.batch_size) 
  10. # 讀取測(cè)試數(shù)據(jù) 
  11. test_reader = None 
  12. if os.path.exists(conf.test_file) and os.path.getsize(conf.test_file): 
  13.     test_reader = paddle.batch( 
  14.         paddle.reader.shuffle( 
  15.             reader.rnn_reader(**reader_args), buf_size=65536), 
  16.         batch_size=conf.batch_size) 

最終我們可以調(diào)用trainer的train方法啟動(dòng)訓(xùn)練:

  1. # define the event_handler callback 
  2. # event_handler 主要負(fù)責(zé)打印訓(xùn)練的進(jìn)度信息,訓(xùn)練的損失值,這里可以自己定制 
  3. def event_handler(event): 
  4.     if isinstance(event, paddle.event.EndIteration): 
  5.         if not event.batch_id % conf.log_period: 
  6.             logger.info("Pass %d, Batch %d, Cost %f, %s" % ( 
  7.                 event.pass_id, event.batch_id, event.cost, event.metrics)) 
  8.   
  9.         if (not event.batch_id % 
  10.                 conf.save_period_by_batches) and event.batch_id: 
  11.             save_name = os.path.join(model_save_dir, 
  12.                                      "rnn_lm_pass_%05d_batch_%03d.tar.gz" % 
  13.                                      (event.pass_id, event.batch_id)) 
  14.             with gzip.open(save_name, "w") as f: 
  15.                 parameters.to_tar(f) 
  16.   
  17.     if isinstance(event, paddle.event.EndPass): 
  18.         if test_reader is not None: 
  19.             result = trainer.test(reader=test_reader) 
  20.             logger.info("Test with Pass %d, %s" % 
  21.                         (event.pass_id, result.metrics)) 
  22.         save_name = os.path.join(model_save_dir, "rnn_lm_pass_%05d.tar.gz" % 
  23.                                  (event.pass_id)) 
  24.         with gzip.open(save_name, "w") as f: 
  25.             parameters.to_tar(f) 
  26.   
  27. # 開始訓(xùn)練 
  28. trainer.train( 
  29.     reader=train_reader, event_handler=event_handler, num_passes=num_passes) 

  至此,我們的訓(xùn)練代碼定義結(jié)束,開始進(jìn)行訓(xùn)練 

  1. python train.py 

pass 相當(dāng)于我們平常所使用的 epoch(即一次迭代), batch是我們每次訓(xùn)練加載的輸入變量的個(gè)數(shù),cost 是衡量我們的網(wǎng)絡(luò)結(jié)構(gòu)損失函數(shù)大小的具體值,越小越好,***一項(xiàng) classification_error_evaluator 是表明我們目前的分類誤差的損失率,也是越小越好。

4.生成文本

當(dāng)?shù)却舾蓵r(shí)間以后,訓(xùn)練完畢以后。開始進(jìn)行文本生成。

  1. python generate.py 

 

 生成文本展示

  1. 81    若隱若現(xiàn) 地像 幽靈 , 像 死神 
  2. -12.2542    一樣 。 他 是 個(gè) 怪物 <e> 
  3. -12.6889    一樣 。 他 是 個(gè) 英雄 <e> 
  4. -13.9877    一樣 。 他 是 我 的 敵人 <e> 
  5. -14.2741    一樣 。 他 是 我 的 <e> 
  6. -14.6250    一樣 。 他 是 我 的 朋友 <e> 

其中:

  1. ***行 81 若隱若現(xiàn) 地像 幽靈 , 像 死神\t為分隔,共有兩列:
    • ***列是輸入前綴在訓(xùn)練樣本集中的序號(hào)。
    • 第二列是輸入的前綴。
  2. 第二 ~ beam_size + 1 行是生成結(jié)果,同樣以 \t 分隔為兩列:
    • ***列是該生成序列的對(duì)數(shù)概率(log probability)。
    • 第二列是生成的文本序列,正常的生成結(jié)果會(huì)以符號(hào)<e>結(jié)尾,如果沒有以<e>結(jié)尾,意味著超過了***序列長(zhǎng)度,生成強(qiáng)制終止

總結(jié):

我們這次說(shuō)明了如何安裝paddle。如何使用paddle開始一段項(xiàng)目。總體來(lái)說(shuō)paddle 的文檔目前是非常的不規(guī)范,閱讀的體驗(yàn)也不是很好,需要開發(fā)者耐心細(xì)致的閱讀源代碼來(lái)掌握paddle的使用方法。第二很多層的封裝感覺寫法非常的冗余,比如一定要用paddle作為前綴,把python寫出了java的感覺。但是瑕不掩瑜,從使用的角度來(lái)看,一旦掌握了其使用方法以后,自己定義網(wǎng)絡(luò)結(jié)構(gòu)感覺非常的方便。訓(xùn)練的速度也是挺快的。

責(zé)任編輯:張燕妮 來(lái)源: www.cnblogs.com
相關(guān)推薦

2021-08-30 07:57:26

OpenAttack文本對(duì)抗攻擊

2023-05-04 07:12:02

Linuxshell人工智能

2023-06-11 17:00:06

2022-11-21 17:44:03

機(jī)器學(xué)習(xí)文本生成器自然語(yǔ)言

2024-09-30 09:04:20

2020-12-31 05:37:05

HiveUDFSQL

2018-04-08 09:02:00

CGIHTML動(dòng)態(tài)網(wǎng)站

2023-07-05 07:36:36

SpringJava代碼

2016-11-16 15:05:42

情感分析

2023-06-19 07:08:22

結(jié)構(gòu)化數(shù)據(jù)ChatGPT

2023-02-06 10:12:04

人工智能文本生成工具

2017-04-07 09:00:46

UbuntuVim文本選擇

2024-02-19 09:19:54

OpenAIAI模型人工智能

2021-02-01 10:11:04

工具代碼開發(fā)

2023-11-28 09:00:00

機(jī)器學(xué)習(xí)少樣本學(xué)習(xí)SetFit

2023-11-13 18:37:44

2025-02-06 13:57:26

2023-08-30 08:58:10

2022-06-06 14:29:20

圖像模型任務(wù)

2016-12-14 09:32:49

FileChanne文件復(fù)制
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

日韩大片免费观看视频播放| 精品国产99久久久久久宅男i| 中文字幕第31页| av在线精品| 牛夜精品久久久久久久99黑人| 亚洲成人自拍网| 成人淫片在线看| 日韩在线免费观看av| h视频在线免费观看| 欧美理论视频| 日韩欧美aⅴ综合网站发布| 亚洲一区二区三区香蕉| 美女被到爽高潮视频| 欧美性video| 国产美女在线观看一区| 在线丨暗呦小u女国产精品| 2022亚洲天堂| 午夜在线视频免费| 亚洲大片av| 日韩精品资源二区在线| 丰满女人性猛交| 伊人网站在线观看| 国产精品vip| 日韩欧美高清一区| 日本精品一区在线观看| 成人影欧美片| 国产欧美一区二区精品忘忧草 | 欧美特黄一级视频| 999国产精品999久久久久久| 色999日韩国产欧美一区二区| 激情欧美一区二区三区中文字幕| 久久免费公开视频| 国产精品久久久久av蜜臀| 亚洲影院久久精品| 国产伦精品一区二区三区视频免费| 欧美人与禽zozzo禽性配| 久久的色偷偷| 亚洲午夜久久久久中文字幕久| 日本亚洲导航| 在线观看不卡的av| 色喇叭免费久久综合| 欧美日韩国产综合一区二区三区| 一本久道久久综合| 国产精品视频一区二区三区,| 亚洲澳门在线| 欧美成人国产一区二区| 日韩精品视频在线观看视频| 日本激情视频网站| 国产一区二区三区av电影| 国产成人avxxxxx在线看| 亚洲色图欧美色| 韩国三级成人在线| 欧美日韩久久一区| 成人黄色片视频| www 日韩| 国产精品一二一区| 欧美精品videosex性欧美| 中文字幕亚洲影院| 国产99在线| 99在线精品观看| 久久久亚洲精选| 大又大又粗又硬又爽少妇毛片 | 午夜av一区二区三区| 99在线热播| 黑鬼狂亚洲人videos| 亚州欧美在线| 国产精品美女久久久久久久久| 国产精品永久免费在线| 欧美老女人性生活视频| 日本欧美韩国国产| 欧美中文字幕一区二区三区亚洲 | 国产手机免费视频| а√天堂官网中文在线| 中文字幕中文字幕一区| 成人黄色网免费| 销魂美女一区二区| 国产精品二区不卡| 亚洲福利视频专区| 国产91在线视频观看| h片在线观看| 久久久久国色av免费看影院| 国产美女久久精品香蕉69| 一级做a爰片久久毛片| 成人精品天堂一区二区三区| 欧美午夜精品久久久久久孕妇| 日本www在线视频| 日漫免费在线观看网站| 日韩成人免费电影| 国产精品成人一区二区| 国产精品精品软件男同| 欧美天堂在线| 国产精品免费网站在线观看| 日本在线一区| 亚洲国产综合一区| 亚洲精品少妇| 久久九九全国免费精品观看| www中文在线| 欧美交a欧美精品喷水| 亚洲精品狠狠操| 亚洲第一页av| 日韩国产一二三区| 日韩一区二区中文字幕| 国产一级免费片| 亚州精品国产| 制服丝袜亚洲精品中文字幕| 黄色www网站| 日韩一区精品| 五月天婷婷综合| 中文字幕在线亚洲精品| 亚洲欧美日韩精品永久在线| 久久久亚洲精品一区二区三区| 欧洲精品在线一区| 乱人伦中文视频在线| 成人福利视频在线看| 成人激情视频网| 亚洲av无码国产精品久久不卡 | 91精品美女在线| 丁香花免费高清完整在线播放| zzijzzij亚洲日本少妇熟睡| 日韩精品伦理第一区| 黄网站免费在线观看| 久久亚洲综合av| 国产一区二区三区四区hd| 在线观看免费视频一区| 国产成人av一区| 亚洲尤物视频网| 日本一级在线观看| 亚洲欧洲制服丝袜| 午夜欧美性电影| 深夜福利在线看| 91亚洲国产成人精品一区二三| 成人欧美一区二区| 88av在线视频| av电影在线观看一区| 亚洲精品影院| 欧美激情护士| 亚洲va天堂va国产va久| 少妇性l交大片| 在线观看毛片视频| 亚洲wwww| 亚洲高清久久久| www欧美激情| 亚洲免费福利一区| 亚洲国产97在线精品一区| 在线免费看视频| 亚洲影音先锋| 国内偷自视频区视频综合| 曰批又黄又爽免费视频| 国产亚洲一区二区三区| 无码播放一区二区三区| 日韩一二三区在线观看| 欧美成人r级一区二区三区| 欧美另类z0zx974| 在线日韩一区| 久久青草福利网站| 精品国产无码一区二区| 最新国产成人在线观看| 91极品视频在线观看| 欧美国产极品| 久久人91精品久久久久久不卡| 国产毛片一区二区三区va在线| 精东粉嫩av免费一区二区三区| 国产精品av在线播放| 天天干,夜夜操| 欧美激情一区三区| 成人在线观看a| 成人97精品毛片免费看| 伊人久久大香线蕉av一区二区| 91成年人网站| 奶水喷射视频一区| 欧美男人的天堂| 九色porny在线| 欧美日韩国产欧美日美国产精品| 国产精品jizz| 美女精品在线观看| 日本黄网免费一区二区精品| 亚洲成av在线| 中文字幕日韩视频| 中文字幕永久免费视频| 国产精品免费人成网站| 99热一区二区| 成人av资源网址| 久久久日本电影| 天堂a√中文在线| 色香色香欲天天天影视综合网| 亚洲 欧美 另类人妖| 欧美mv日韩| 国产精品二区二区三区| 98色花堂精品视频在线观看| 亚洲精品国产免费| 青青青国产在线| 国产午夜久久久久| 中文字幕永久有效| 精品国产午夜肉伦伦影院| 性日韩欧美在线视频| 国产一区二区三区福利| 《视频一区视频二区| 天天做天天干天天操| 欧美国产三区| 久久国产精品-国产精品| 中文字幕在线播放网址| 欧美亚洲丝袜传媒另类| 美女福利视频网| 99xxxx成人网| 色一情一区二区三区四区| 国产精品久久久久久久久久久久久久久 | 欧美日韩在线观看成人| 成人av网站在线| 国产第一页视频| 国产精品激情| 日本一区视频在线观看| 国产一区精品二区| 91爱爱小视频k| 一级片免费观看视频| 一区二区三区高清不卡| 9.1成人看片免费版| 美国欧美日韩国产在线播放| 91免费黄视频| 国产超碰精品| 美女啪啪无遮挡免费久久网站| 日韩在线观看视频网站| 欧美撒尿777hd撒尿| 青青草精品在线视频| 91欧美激情一区二区三区成人| 午夜视频在线观| 老司机精品导航| 国产av熟女一区二区三区| 88xx成人永久免费观看| 不卡毛片在线看| 国产黄色片av| 欧美在线观看视频一区二区三区| 国产在线视频99| 国产精品久久久久久久久晋中 | 国产真实乱在线更新| 成人成人成人在线视频| 国产又粗又猛又爽又黄| 国产伦一区二区三区| 91国产精品视频在线| 黄色在线论坛| 国产午夜精品全部视频在线播放 | 亚洲一二三区不卡| 国产一二三av| 久久久亚洲午夜电影| 欧美肉大捧一进一出免费视频| 黄页网站一区| 一区二区在线观| jiujiure精品视频播放| 久久久亚洲综合网站| 精品国产乱码久久久久久樱花| 国产成+人+综合+亚洲欧美丁香花| mm视频在线视频| 九色精品免费永久在线| √新版天堂资源在线资源| 欧美精品乱码久久久久久| 精品国产视频在线观看| 国产精品三级在线观看| 亚洲成人黄色av| 久久影院午夜论| 欧美一区二区三区成人精品| 成人综合婷婷国产精品久久| youjizz.com在线观看| 视频在线不卡免费观看| 久久精品国产一区二区三区不卡| 精品亚洲二区| 97超级碰碰| av不卡高清| 久久久久久久一区二区| 羞羞视频在线观看免费| 欧美美女操人视频| av黄色在线| 欧美老少做受xxxx高潮| 性欧美ⅴideo另类hd| 欧美激情一二区| 97超碰在线免费| 4k岛国日韩精品**专区| 一级毛片久久久| 国产精品18久久久久久麻辣| 欧美91看片特黄aaaa| 国产精品7m视频| 高清成人在线| 成人性生交大片免费看视频直播| 亚洲成a人片777777久久| 91精品视频观看| 日韩精品成人| 国产在线观看一区| 亚洲欧美日本伦理| 色阁综合av| 亚洲欧美一区在线| 9久久9毛片又大又硬又粗| 久久成人在线| 国产又黄又猛的视频| 国产91丝袜在线18| 人妻在线日韩免费视频| 国产欧美日韩另类一区| 国产老头老太做爰视频| 亚洲国产毛片aaaaa无费看| 久久久精品免费看| 精品视频在线免费| 亚洲第一天堂在线观看| 亚洲第一av网| 69视频在线观看| 久久久亚洲成人| 亚洲国产尤物| 色综合久久综合网欧美综合网| 在线免费看污网站| 成人精品国产一区二区4080| a毛片毛片av永久免费| 亚洲免费观看高清完整版在线观看| 国产精品第一页在线观看| 日本国产一区二区| 国产婷婷在线视频| 国产视频亚洲精品| 黄色成人影院| 国产成人免费av| 免费欧美网站| 欧美资源一区| 欧美精品一卡| 天天干在线影院| 亚洲美女少妇无套啪啪呻吟| 国产日韩成人内射视频| 日本vs亚洲vs韩国一区三区二区 | 黄色激情在线播放| 国产精品日韩专区| 久久97精品| 在线视频亚洲自拍| 国产精品试看| 能在线观看的av| 国产原创一区二区三区| 性欧美丰满熟妇xxxx性仙踪林| 亚洲精品乱码久久久久久| 黑人精品无码一区二区三区AV| 欧美一级在线视频| 黄色污污视频软件| 亚洲国产欧美日韩另类综合| 中文字幕av影院| 亚洲国产小视频| 国产黄色在线观看| 国产精品爽黄69| 免费视频一区三区| 国产美女在线一区| 韩国成人精品a∨在线观看| 老熟妇一区二区| 精品久久久久久亚洲国产300 | 人妻丰满熟妇av无码久久洗澡| 成人免费视频免费观看| 91ts人妖另类精品系列| 欧美性69xxxx肥| 欧美一级片免费| 欧美黄色片视频| 97在线超碰| 亚洲一区二区三区视频| 日韩欧美电影| 午夜免费高清视频| 97se亚洲国产综合自在线观| 久久伊人成人网| 日韩欧美精品在线视频| 麻豆网站在线| 国产日韩欧美日韩| 99精品在免费线中文字幕网站一区 | 亚洲综合影视| 亚洲综合国产精品| 亚洲电影影音先锋| 91看片破解版| 久久精品人人做人人综合| 波多野结衣午夜| 中文字幕久精品免费视频| 日本精品在线中文字幕| 日本欧美精品久久久| 久久亚洲精选| 久久久精品成人| 91久久人澡人人添人人爽欧美| 电影av在线| 欧美韩国理论所午夜片917电影| 久久久91麻豆精品国产一区| 国产精品av免费| 国产伦理精品不卡| 久久久久香蕉视频| 日韩国产精品视频| 色是在线视频| 五月天亚洲综合| 精品午夜一区二区三区在线观看 | 国产乱码久久久| 欧美美最猛性xxxxxx| 国产精品视频3p| 国产99久久九九精品无码| 99精品热视频| 国产99久久久| 日韩中文娱乐网| 中文一区二区三区四区| 国产一区二区视频播放| 久久天堂av综合合色蜜桃网| 老熟妇一区二区三区| 久久久电影免费观看完整版| 91亚洲无吗| 黄色片久久久久| 亚洲欧美电影院| 天堂av资源网| 成人疯狂猛交xxx| 国语对白精品一区二区| 亚洲精品国产一区黑色丝袜|