精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

初探自然語言預訓練技術演進之路

精選
人工智能 自然語言處理
近些年來,出現了以 BERT 為代表的預訓練語言模型,將自然語言處理帶入了一個新紀元:預訓練語言模型 + 特定任務精調。本文試圖梳理自然語言預訓練技術的演進之路,以期和大家相互交流學習,不足、謬誤之處望批評指正。

人工智能的三個層次:

運算職能:數據的存儲和計算能力,機器遠勝于人類。

感知職能:視覺、聽覺等能力,機器在語音識別、圖像識別領域已經比肩人類。

認知智能:自然語言處理、常識建模與推理等任務,機器還有很長的路要走。

自然語言處理屬于認知智能范疇,由于自然語言具有抽象性、組合性、歧義性、知識性、演化性等特點,為機器處理帶來了極大的挑戰,有人將自然語言處理稱為人工智能皇冠上的明珠。近些年來,出現了以 BERT 為代表的預訓練語言模型,將自然語言處理帶入了一個新紀元:預訓練語言模型 + 特定任務精調。本文試圖梳理自然語言預訓練技術的演進之路,以期和大家相互交流學習,不足、謬誤之處望批評指正。

1.古代 - 詞表示

1.1 One-hot Encoding

用一個詞表大小的向量表示一個詞,其中詞對應位置的值為1,其余位置為0。缺點:

  • 高維稀疏性
  • 無法表示語義相似性:兩個同義詞的 One-hot 向量相似度為0

1.2 分布式表示

分布式語義假設:相似的詞具有相似的上下文,詞的語義可由上下文表示。基于該思想,可以利用每個詞的上下文分布對詞進行表示。

1.2.1 詞頻表示

基于語料庫,利用詞的上下文構建共現頻次表,詞表的每一行代表了一個詞的向量表示。通過不同的上下文選擇可以捕獲到不同的語言信息,如用句子中詞的周圍固定窗口的詞作為上下文,會更多的捕捉到詞的局部信息:詞法、句法信息,若用所在文檔作為上下文,更多的捕捉到詞所表示的主題信息。缺點:

  • 高頻詞問題。
  • 無法反應高階關系:(A, B) (B, C) (C, D) !=> (A, D)。
  • 依然存在稀疏性問題。

1.2.2 TF-IDF表示

將詞頻表示中的值,替換為 TF-IDF,主要緩解詞頻表示的高頻詞問題。

1.2.3 點互信息表示

同樣是緩解詞頻表示的高頻詞問題,將詞頻表示中的值替換為詞的點互信息:

圖片

1.2.4 LSA

通過對詞頻矩陣進行奇異值分解 (Singular Value Decomposition,SVD),可以得到每個詞的低維、連續、稠密的向量表示,可認為表示了詞的潛在語義,該方法也被稱為潛在語義分析 (Latent Semantic Analysis, LSA)。

圖片

LSA 緩解了高頻詞、高階關系、稀疏性等問題,在傳統機器學習算法中效果還是不錯的,但是也存在一些不足:

  • 詞表大時,SVD 速度比較慢。
  • 無法追新,當語料變化或新增語料時,需要重新訓練。

2. 近代——靜態詞向量

文本的有序性及詞與詞之間的共現關系為自然語言處理提供了天然的自監督學習信號,使得系統無需額外的人工標注也能夠從文本中學到知識。

2.1 Word2Vec

2.1.1 CBOW

CBOW(Continous Bag-of-Words) 利用上下文(窗口)對目標詞進行預測,將上下文的詞的詞向量取算術平均,然后預測目標詞的概率。

圖片

2.1.2 Skip-gram

Skip-gram 通過詞預測上下文。

圖片

2.2 GloVe

GloVe(Global Vectors for Word Representation) 利用詞向量對詞的共現矩陣進行預測,實現了隱式的矩陣分解。首先根據詞的上下文窗口構建距離加權的共現矩陣 X,再利用詞與上下文的向量對共現矩陣 X 進行擬合:

圖片

損失函數為:

圖片

2.3 小結

詞向量的學習利用了語料庫中詞與詞之間的共現信息,底層思想還是分布式語義假設。無論是基于局部上下文的 Word2Vec,還是基于顯式全局共現信息的 GloVe,本質都是將一個詞在整個語料庫中的共現上下文信息聚合到該詞的向量表示中,并都取得了不錯的效果,訓練速度也很快,但是缺點詞的向量是靜態的,即不具備隨上下文變化而變化的能力。

3. 現代——預訓練語言模型

自回歸語言模型:根據序列歷史計算當前時刻詞的條件概率。

圖片

自編碼語言模型:通過上下文重構被掩碼的單詞。

圖片

表示被掩碼的序列

3.1 基石——Transformer

圖片

3.1.1 注意力模型

注意力模型可以理解為對一個向量序列進行加權操作的機制,權重的計算。

3.1.2 多頭自注意力

Transformer 中使用的注意力模型可以表示為:

圖片

當 Q、K、V 來自同一向量序列時,成為自注意力模型。

多頭自注意力:設置多組自注意力模型,將其輸出向量拼接,并通過一個線性映射映射到 Transformer 隱層的維度大小。多頭自注意力模型,可以理解為多個自注意力模型的 ensemble。

圖片

圖片

3.1.3 位置編碼

由于自注意力模型沒有考慮輸入向量的位置信息,但位置信息對序列建模至關重要。可以通過位置嵌入或位置編碼的方式引入位置信息,Transformer 里使用了位置編碼的方式。

圖片

3.1.4 其他

此外 Transformer block 里還使用了殘差連接、Layer Normalization 等技術。

3.1.5優缺點

優點:

  • 相比 RNN 能建模更遠距離的依賴關系,attention 機制將詞與詞之間的距離縮小為了1,從而對長序列數據建模能力更強。
  • 相比 RNN 能更好的利用 GPU 并行計算能力。
  • 表達能力強。

缺點:

  • 相比 RNN 參數大,增加了訓練難度,需要更多的訓練數據。

3.2 自回歸語言模型

3.2.1 ELMo

ELMo: Embeddings from Language Models

輸入層

對詞可以直接用詞的 embedding,也可以對詞中的字符序列通過 CNN,或其他模型。

圖片

模型結構

圖片

ELMo 通過 LSTM 獨立的建模前向、后向語言模型,前向語言模型:

圖片

后向語言模型:

圖片

優化目標

最大化:

圖片

下游應用

ELMo 訓練好后,可以得到如下向量供下游任務使用。

圖片

是輸入層得到的 word embedding, 是前、后向 LSTM 輸出拼接的結果。

下游任務使用時,可以加各層向量加權得到 ELMo 的一個向量表示,同時用一個權重對 ELMo 向量進行縮放。

圖片

不同層次的隱含層向量蘊含了不同層次或粒度的文本信息:

  • 頂層編碼了更多的語義信息
  • 底層編碼了更多的詞法、句法信息
3.2.2 GPT 系列

GPT-1

模型結構

在 GPT-1(Generative Pre-Training),是一個單向的語言模型,使用了12個 transformer block 結構作為解碼器,每個 transformer 塊是一個多頭的自注意力機制,然后通過全連接得到輸出的概率分布。

圖片

圖片

  • U: 詞的獨熱向量
  • We:詞向量矩陣
  • Wp:位置向量矩陣
優化目標

最大化:

圖片

下游應用

下游任務中,對于一個有標簽的數據集 ,每個實例有個輸入 token:,它對于的標簽組成。首先將這些 token 輸入到訓練好的預訓練模型中,得到最終的特征向量。然后再通過一個全連接層得到預測結果:

圖片

下游有監督任務的目標則是最大化:

圖片

為了防止災難性遺忘問題,可以在精調損失中加入一定權重的預訓練損失,通常預訓練損失。

圖片

圖片

GPT-2

GPT-2 的核心思想概括為:任何有監督任務都是語言模型的一個子集,當模型的容量非常大且數據量足夠豐富時,僅僅靠訓練語言模型的學習便可以完成其他有監督學習的任務。所以 GPT-2 并沒有對 GPT-1 的網絡進行過多的結構的創新與設計,只是使用了更多的網絡參數和更大的數據集,目標旨在訓練一個泛化能力更強的詞向量模型。

在8個語言模型任務中,僅僅通過 zero-shot 學習,GPT-2 就有7個超過了當時 state-of-the-art 的方法(當然好些任務上還是不如監督模型效果好)。GPT-2 的最大貢獻是驗證了通過海量數據和大量參數訓練出來的詞向量模型有遷移到其它類別任務中而不需要額外的訓練。

同時 GPT-2 表明隨著模型容量和訓練數據量(質量)的增大,其潛能還有進一步開發的空間,基于這個思想,誕生了 GPT-3。

GPT-3

依舊模型結構沒啥變化,增加模型容量、訓練數據量及質量,號稱巨無霸,效果也很好。

小結

圖片

從 GPT-1 到 GPT-3,隨著模型容量和訓練數據量的增加,模型學到的語言知識也越豐富,自然語言處理的范式也從「預訓練模型+精調」逐步向「預訓練模型 + zero-shot/few-shot learning」轉變。GPT 的缺點是用的單向語言模型,BERT 已經證明了雙向語言模型能提升模型效果。

3.2.3 XLNet

XLNet 通過排列語言模型 (Permutation Language Model) 引入了雙向的上下文信息,不引入特殊的 tag,避免了預訓練和精調階段 token 分布不一致的問題。同時使用 Transformer-XL 作為模型主體結構,對長文本有更好的效果。

排列語言模型

排列語言模型的目標是:

圖片

是文本序列所有可能的排列集合。

雙流自注意力機制
  • 雙流自注意力機制 (Two-stream Self-attention)要達到的目的:通過改造Transformer,在輸入正常文本序列的情況下,實現排列語言模型:
  • 內容表示:包含的信息
  • 查詢表示:只包含的信息

圖片

圖片

該方法使用了預測詞的位置信息。

下游應用

下游任務應用時,不需要查詢表示,也不 mask。

3.3 自編碼語言模型

3.3.1 BERT

掩碼語言模型

掩碼語言模型(masked language model, MLM),隨機地屏蔽部分詞,然后利用上下文信息進行預測。MLM 存在個問題,預訓練和 fine-tuning 之間不匹配,因為在 fine-tuning 期間從未看到 [MASK] token。為了解決這個問題,BERT 并不總是用實際的 [MASK] token 替換被「masked」的 word piece token。訓練數據生成器隨機選擇15%的 token,然后:

  • 80%的概率:用 [MASK] 標記替換。
  • 10%的概率:從詞表隨機一個 token 替換。
  • 10%的概率:token 保持不變。

原生 BERT 里對 token 進行 mask,可以對整詞或短語(N-Gram)進行 mask。

下一句預測

下一句預測(NSP):當選擇句子 A 和 B 作為預訓練樣本時,B 有50%的可能是 A 的下一個句子,也有50%的可能是來自語料庫的隨機句子。

輸入層

圖片

模型結構

圖片

經典的「預訓練模型+精調」的范式,主題結構是堆疊的多層 Transformer。

3.3.2 RoBERTa

RoBERTa(Robustly Optimized BERT Pretraining Approach) 并沒有大刀闊斧的改進 BERT,而只是針對 BERT 的每一個設計細節進行了詳盡的實驗找到了 BERT 的改進空間。

  • 動態掩碼:原始方式是構建數據集的時候設置好掩碼并固定,改進方式是每輪訓練將數據輸入模型的時候才進行隨機掩碼,增加了數據的多樣性。
  • 舍棄 NSP 任務:通過實驗證明不使用 NSP 任務對大多數任務都能提升性能。
  • 更多訓練數據,更大批次,更長的預訓練步數。
  • 更大的詞表:使用 SentencePiece 這種字節級別的 BPE 詞表而不是 WordPiece 字符級別的 BPE 詞表,幾乎不會出現未登錄詞的情況。

3.3.3 ALBERT

BERT 參數量相對較大,ALBERT(A Lite BERT) 主要目標是減少參數:

  • BERT 的詞向量維度和隱含層維度相同,詞向量上下文無關,而BERT 的 Transformer 層需要并且可以學習充分的上下文信息,因此隱含層向量維度應遠大于詞向量維度。當增大提高性能時,沒有必要跟著變大,因為詞向量空間對需要嵌入的信息量可能已經足夠。
  • 方案:,詞向量通過全連接層變換為H維。
  • 詞向量參數分解(Factorized embedding parameterization)。
  • 跨層參數共享(Cross-layer parameter sharing):不同層的Transformer block 共享參數。
  • 句子順序預測(sentence-order prediction, SOP),學習細微的語義差別及語篇連貫性。

3.4 生成式對抗 - ELECTRA

ELECTRA(Efficiently Learning an Encoder that Classifies Token Replacements Accurately) 引入了生成器和判別器的模式,把生成式的 Masked language model(MLM) 預訓練任務改成了判別式的 Replaced token detection(RTD) 任務,判斷當前 token 是否被語言模型替換過,比較類似 GAN 的思想。

圖片

生成器預測輸入文本中 mask 位置的 token:

圖片

圖片

判別器的輸入是生成器的輸出,判別器預測各個位置的詞是否是被替換過的:

圖片

此外,還做了些優化:

  • 生成器和判別器分別是一個 BERT,縮放了生成器 BERT 參數。
  • 詞向量參數分解。
  • 生成器和判別器參數共享:輸入層參數共享,包括詞向量矩陣和位置向量矩陣。

在下游任務只使用判別器,不使用生成器。

3.5 長文本處理 - Transformer-XL

Transformer 處理長文本的常見策略是將文本切分為固定長度的塊,并獨立編碼各個塊,塊與塊之間沒有信息交互。

圖片

為了優化對長文本的建模,Transformer-XL 使用了兩個技術:狀態復用的塊級別循環(Segment-Level Recurrence with State Reuse)和相對位置編碼(Relative Positional Encodings)。

3.5.1 狀態復用的塊級別循環

Transformer-XL 在訓練的時候也是以固定長度的片段的形式進行輸入的,不同的是 Transformer-XL 的上一個片段的狀態會被緩存下來然后在計算當前段的時候再重復使用上個時間片的隱層狀態,賦予了 Transformer-XL 建模更長期的依賴的能力。

長度為 L 的連續兩個片段 和。的隱層節點的狀態表示為,其中 d 是隱層節點的維度。 的隱層節點的狀態的計算過程為:

圖片

片段遞歸的另一個好處是帶來的推理速度的提升,對比 Transformer 的自回歸架構每次只能前進一個時間片,Transfomer-XL 的推理過程通過直接復用上一個片段的表示而不是從頭計算,將推理過程提升到以片段為單位進行推理。

圖片

3.5.2 相對位置編碼

在 Transformer 中,自注意力模型可以表示為:

圖片

的完整表達式為:

圖片

圖片

Transformer 的問題是無論對于第幾個片段,它們的位置編碼 都是一樣的,也就是說 Transformer的位置編碼是相對于片段的絕對位置編碼(absulate position encoding),與當前內容在原始句子中的相對位置是沒有關系的。

Transfomer-XL 在上式的基礎上做了若干變化,得到了下面的計算方法:

圖片

  • 變化1:中,被拆分成立和,也就是說輸入序列和位置編碼不再共享權值。
  • 變化2:中,絕對位置編碼替換為了相對位置編碼
  • 變化3:中引入了兩個新的可學習的參數來替換和 Transformer 中的 query 向量 。表明對于所有的 query 位置對應的 query 位置向量是相同的。即無論 query 位置如何,對不同詞的注意偏差都保持一致。
  • 改進之后,各個部分的含義:
  • 基于內容的相關度(): 計算 query  和 key  的內容之間的關聯信息
  • 內容相關的位置偏置():計算 query  的內容和 key  的位置編碼之間的關聯信息
  • 全局內容偏置():計算 query  的位置編碼和 key  的內容之間的關聯信息
  • 全局位置偏置():計算 query  和 key  的位置編碼之間的關聯信息

3.6 蒸餾與壓縮 - DistillBert

知識蒸餾技術 (Knowledge Distillation, KD):通常由教師模型和學生模型組成,將知識從教師模型傳到學生模型,使得學生模型盡量與教師模型相近,在實際應用中,往往要求學生模型比教師模型小并基本保持原模型的效果。

DistillBert 的學生模型:

  • 六層的 BERT, 同時去掉了標記類型向量 (Token-type Embedding, 即Segment Embedding)。
  • 使用教師模型的前六層進行初始化。
  • 只使用掩碼語言模型進行訓練,沒有使用 NSP 任務。

教師模型: BERT-base:

損失函數:

有監督 MLM 損失:利用掩碼語言模型訓練得到的交叉熵損失:

  • 表示第個類別的標簽,表示學生模型第個類別輸出的概率。
  • 蒸餾MLM損失:利用教師模型的概率作為指導信號,與學生模型的概率計算交叉熵損失:

  • 表示教師模型第個類別的標簽。
  • 詞向量余弦損失:對齊教師模型和學生模型的隱含層向量的方向,從隱含層維度拉近教師模型和學生模型的距離:

  • 和分別表示教師模型和學生模型最后一層的隱含層輸出。
  • 最終的損失:

4. 參考資料

??https://luweikxy.gitbook.io/machine-learning-notes/self-attention-and-transformer??

??https://arxiv.org/pdf/1706.03762.pdf??

??https://zhuanlan.zhihu.com/p/38130339??

??https://zhuanlan.zhihu.com/p/184970999??

??https://zhuanlan.zhihu.com/p/466841781??

??https://blog.csdn.net/Dream_Poem/article/details/122768058??

??https://aclanthology.org/N18-1202.pdf??

??https://zhuanlan.zhihu.com/p/350017443??

??https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf??

??https://life-extension.github.io/2020/05/27/GPT技術初探/language-models.pdf??

??https://arxiv.org/pdf/2005.14165.pdf??

??http://www.4k8k.xyz/article/abc50319/108544357??

??https://arxiv.org/pdf/1906.08237.pdf??

??https://zhuanlan.zhihu.com/p/103201307??

??https://arxiv.org/pdf/1810.04805.pdf??

??https://zhuanlan.zhihu.com/p/51413773??

??https://arxiv.org/pdf/1907.11692.pdf??

??https://zhuanlan.zhihu.com/p/103205929??

??https://arxiv.org/pdf/1909.11942.pdf??

??https://arxiv.org/pdf/2003.10555.pdf??

??https://segmentfault.com/a/1190000041107202??

??https://arxiv.org/pdf/1910.01108.pdf??

??https://zhuanlan.zhihu.com/p/271984518??

??https://aclanthology.org/P19-1285.pdf??

??https://github.com/ZenMoore/zenmoore.github.io/blob/master/_pdfs/%E3%80%8A%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86-%E5%9F%BA%E4%BA%8E%E9%A2%84%E8%AE%AD%E7%BB%83%E6%A8%A1%E5%9E%8B%E7%9A%84%E6%96%B9%E6%B3%95%E3%80%8B%E7%AC%94%E8%AE%B0.pdf??

責任編輯:未麗燕 來源: 字節跳動技術團隊
相關推薦

2023-11-27 15:34:51

大語言模型PubMedBERT

2018-02-27 09:32:13

神經網絡自然語言初探

2021-06-28 10:10:42

人工智能AI自然語言

2013-04-27 14:32:01

谷歌

2022-03-29 09:58:15

自然語言處理人工智能技術

2021-05-13 07:17:13

Snownlp自然語言處理庫

2021-01-20 15:41:05

人工智能自然語言技術

2023-08-03 09:56:47

自然語言AI

2020-04-24 10:53:08

自然語言處理NLP是人工智能

2024-02-05 14:18:07

自然語言處理

2021-05-17 09:00:00

自然語言人工智能技術

2017-10-19 17:05:58

深度學習自然語言

2024-07-17 11:40:58

2017-06-29 13:02:54

大數據自然語言NLP

2023-02-13 08:21:25

微服務架構微前端

2020-09-27 10:22:20

機器學習人工智能計算機

2018-04-04 12:00:00

2021-05-18 07:15:37

Python

2024-04-24 11:38:46

語言模型NLP人工智能

2023-05-14 23:42:58

ChatGPTOpenAI自然語言
點贊
收藏

51CTO技術棧公眾號

h片在线免费| 国产男女猛烈无遮挡| 美腿丝袜亚洲图片| 日韩欧美第一页| 亚欧洲精品在线视频免费观看| 91精品国产色综合久久不8| 欧美精品二区| 亚洲美女性视频| 色网站在线视频| 草草视频在线观看| 中文字幕一区二区三中文字幕| 岛国一区二区三区高清视频| 黄色片视频免费| 午夜亚洲福利| 伊是香蕉大人久久| 成人午夜精品无码区| а√天堂资源国产精品| 亚洲一区二区三区四区在线观看 | 99视频在线观看免费| 亚洲综合日本| 久久久久久12| 日韩在线观看免| 蜜桃精品噜噜噜成人av| 欧美大片在线观看一区| 91国产精品视频在线观看| 国产夫妻在线播放| 亚洲精品老司机| 伊人精品久久久久7777| 国产一二在线观看| 99热精品一区二区| av在线不卡观看| 99久久久国产精品无码免费 | 亚洲女人在线观看| 国产精品亚洲d| 欧美视频在线免费| 丝袜人妻一区二区三区| av文字幕在线观看| 中文字幕在线不卡视频| 日韩一区国产在线观看| 韩国福利在线| 久久伊99综合婷婷久久伊| 国产精品免费一区二区三区四区| 国产情侣自拍小视频| 久久av中文字幕片| 国产精品一区二区久久| 狠狠狠狠狠狠狠| 蜜桃av一区| 国产精品69久久| 亚洲精品中文字幕乱码三区91| 最新成人av网站| 久久91精品国产91久久跳| 黄色一级大片在线免费观看| 91欧美大片| 不用播放器成人网| 国产精品白丝喷水在线观看| 久久精品99久久无色码中文字幕| 在线观看日韩av| x88av在线| 郴州新闻综合频道在线直播| 亚洲人永久免费| 日韩一级精品| 日韩欧美高清一区| 永久av免费在线观看| 亚洲国产伊人| 欧美一区二区在线看| 网站在线你懂的| 精品国产亚洲日本| 精品久久久久久最新网址| 在线播放国产视频| av不卡一区二区| 亚洲高清久久久久久| 一区二区三区少妇| 国产一区二区三区四区五区传媒| 一区二区三区动漫| 久久国产高清视频| 国产精品草草| 2019av中文字幕| 久草热在线观看| 国模无码大尺度一区二区三区| 91亚洲一区精品| 日日夜夜精品免费| 久久久精品免费免费| 一区二区精品在线观看| 97影院秋霞午夜在线观看| 亚洲国产日产av| 91淫黄看大片| 亚洲精品高潮| 亚洲欧美国产另类| 欧美人与禽zoz0善交| 中文精品电影| 日本老师69xxx| 国产精品视频第一页| 成人av在线网站| 奇米视频888战线精品播放| 麻豆传媒视频在线| 午夜电影一区二区| 欧美男女交配视频| 国产伦精品一区二区三区免费优势| 亚洲跨种族黑人xxx| 久草手机视频在线观看| 亚洲激情社区| 国产综合视频在线观看| 日韩精品一二| 亚洲精品老司机| 免费看国产黄色片| 韩国女主播一区二区三区| 国产亚洲精品一区二区| 国产无码精品视频| 麻豆视频观看网址久久| 精品一区二区三区日本| 国产视频一区二区| 色婷婷综合五月| 国产伦理在线观看| 日本高清免费电影一区| 午夜美女久久久久爽久久| 国产精品久久婷婷| 久久九九国产精品| 欧美日韩性生活片| 免费观看亚洲天堂| 中文字幕久热精品视频在线| 国产成人精品片| 国产精品91xxx| 中文一区一区三区免费| 不卡av影片| 亚洲国产精品热久久| 欧美第一页在线观看| 日本中文字幕一区二区有限公司| 国产一区二区黄色| 中文字幕在线观看播放| 欧美私人免费视频| 亚洲AV无码国产成人久久| 国模一区二区三区| 91久久国产自产拍夜夜嗨| av在线电影观看| 日韩欧美第一页| 国产乱了高清露脸对白| 欧美日韩精选| 99久久精品免费看国产四区 | 乱子伦一区二区三区| 91性感美女视频| 妺妺窝人体色777777| 久久久久久久久成人| 日韩一区二区三区在线播放| 国产乱码在线观看| 国产精品色婷婷| 国产一级做a爰片久久| 国产99久久久国产精品成人免费| 777精品视频| 飘雪影视在线观看免费观看 | 国产xxxxx在线观看| 伊人成综合网伊人222| 青青草一区二区| 天堂影院在线| 色综合久久综合网97色综合| 午夜一区二区三区免费| 国产精品亚洲产品| 欧美日韩在线高清| 韩日精品一区| 深夜福利日韩在线看| 国产美女永久免费| 亚洲精品国产精华液| 日本泡妞xxxx免费视频软件| 亚洲二区三区不卡| 99国产高清| wwww亚洲| 亚洲欧美视频在线| 在线黄色av网站| 一区精品在线播放| 人妻巨大乳一二三区| 在线成人国产| 欧美12av| 日本成人一区二区| 欧美噜噜久久久xxx| 蜜臀久久精品久久久久| 欧美性xxxxx极品| 香蕉久久久久久久| 国产乱人伦偷精品视频不卡| aa视频在线播放| 欧美激情在线免费| 成人高h视频在线| 成人女同在线观看| 亚洲奶大毛多的老太婆| 一区二区三区精彩视频| 夜夜爽夜夜爽精品视频| 久久无码人妻精品一区二区三区| 老司机精品导航| 樱空桃在线播放| 天堂成人娱乐在线视频免费播放网站| 国产精品美女999| 污视频网站免费在线观看| 精品视频久久久久久久| 亚洲一区二区三区高清视频| 亚洲综合色在线| 国产av自拍一区| 国产麻豆精品久久一二三| 国产欧美在线一区| 午夜片欧美伦| 欧美日韩亚洲在线| 欧美精品三级在线| 国产精品va在线播放| a级影片在线| 亚洲欧洲自拍偷拍| 成 人片 黄 色 大 片| 欧美在线一二三四区| 国产一级片免费| 国产精品传媒视频| theav精尽人亡av| 国产一区二区成人久久免费影院| 成年人视频观看| 欧美一区不卡| 神马影院午夜我不卡影院| 草草视频在线一区二区| 国产精品自拍偷拍| 女海盗2成人h版中文字幕| 久久精品电影网| 国产女人在线视频| 日韩国产欧美区| 丰满少妇一级片| 51精品秘密在线观看| 国产污视频网站| 精品露脸国产偷人在视频| 久久免费看少妇高潮v片特黄| 国产日韩欧美在线一区| 国产美女视频免费观看下载软件| 国产成人一级电影| 手机av在线免费| 日韩高清欧美激情| 国产又大又硬又粗| 亚洲国产午夜| 野外做受又硬又粗又大视频√| 国产精品成人一区二区不卡| 欧美精品中文字幕一区二区| 久久影视三级福利片| 岛国视频一区免费观看| 亚洲视频国产精品| 亚洲一区二区久久久久久| 成人影院在线免费观看| 国产精品视频地址| 亚洲成人短视频| 日韩美女免费视频| 黄色成人免费网| 国产成人久久久精品一区| 在线天堂资源www在线污| 国产综合在线视频| 超碰在线最新网址| 国模精品视频一区二区三区| 欧美videos另类精品| 久久久免费电影| 91美女精品| 欧美亚洲日本黄色| 国产精品扒开腿做爽爽爽视频软件| 日本不卡免费高清视频| 欧美激情喷水| 国产精品com| 国产激情久久| 成人精品视频99在线观看免费 | 极品人妻videosss人妻| 欧美激情一区三区| 日本激情视频一区二区三区| 亚洲日本va在线观看| 欧美成人国产精品高潮| 亚洲国产日韩一区二区| 国产高潮久久久| 色悠久久久久综合欧美99| 中文字幕 日韩有码| 7777精品伊人久久久大香线蕉| 国产99久久九九精品无码免费| 日韩欧美你懂的| 五月婷婷六月激情| 亚洲午夜精品久久久久久久久久久久| 国产二区视频在线观看| 久久久精品中文字幕| 黄色大片在线| 日本韩国欧美精品大片卡二| 成人网ww555视频免费看| 成人午夜两性视频| 久久影视三级福利片| 日韩久久精品一区二区三区| 久久视频精品| 东北少妇不带套对白| 日韩精品成人一区二区三区| 一区二区三区四区毛片| 国产超碰在线一区| 伊人网伊人影院| 亚洲欧洲av在线| 国产成人无码一区二区三区在线 | av中文字幕观看| 国产视频在线一区二区| 免费在线毛片网站| 亚州欧美日韩中文视频| 福利一区二区| 懂色av一区二区三区在线播放| 亚洲欧美日本伦理| 国产四区在线观看| 国产精品久久久久9999高清| 亚洲欧美日本一区二区三区| 99久久精品国产精品久久| 国产wwwwxxxx| 欧美日韩免费网站| 国产精品无码久久av| 亚洲乱码国产乱码精品精天堂 | 欧美禁忌电影| 日韩精品免费一区| 免费在线视频一区| 国产偷人妻精品一区| 最近中文字幕一区二区三区| 国产免费观看av| 欧美一二三四在线| 阿v免费在线观看| 欧美在线一级视频| 日韩三级不卡| 亚洲一区二区三区涩| 亚洲美女少妇无套啪啪呻吟| 亚洲女人在线观看| 国产精品日韩精品欧美在线| 日本va欧美va国产激情| 日韩一区二区免费高清| 永久av在线| 欧美在线观看网站| 国产suv精品一区| www.黄色网址.com| 另类调教123区| 精品人妻一区二区三区蜜桃视频 | 中文在线字幕免费观| 亚洲毛片在线看| 热色播在线视频| 国产精品免费一区二区三区四区| 综合在线视频| 一级黄色片在线免费观看| 国产精品素人一区二区| 男人的天堂av网站| 日韩精品欧美激情| 激情aⅴ欧美一区二区欲海潮| 春色成人在线视频| 国内精品福利| 极品白嫩的小少妇| 亚洲精品写真福利| 国产不卡精品视频| 久久伊人免费视频| 国产95亚洲| 最新av在线免费观看| 精品亚洲欧美一区| av最新在线观看| 911国产精品| 日本三级视频在线播放| 国产欧美精品日韩| 欧美激情成人| 午夜免费福利网站| 一区二区三区四区不卡在线| 国产成人免费看一级大黄| 久久97久久97精品免视看| 日本一区二区三区播放| 亚洲熟妇无码av在线播放| 国产.欧美.日韩| 西西44rtwww国产精品| 日韩精品免费看| av电影一区| 日韩免费av一区二区三区| 久久只有精品| 少妇高潮惨叫久久久久| 5566中文字幕一区二区电影| 91在线中字| 国产一区二区高清视频| 久久久亚洲一区| 国产精品18在线| 91精品国产91久久综合桃花| 影音先锋在线视频| 国产一区二区视频在线免费观看| 先锋影音久久久| 久久久久人妻一区精品色| 91精品黄色片免费大全| 国产www视频在线观看| 久久精品五月婷婷| 免费久久精品视频| 国产十六处破外女视频| 亚洲精品91美女久久久久久久| 日本电影欧美片| 亚洲第一页在线视频| 成人福利在线看| 精品国产乱子伦| 欧美精品亚州精品| 农村少妇一区二区三区四区五区| 日韩av播放器| 亚洲黄色尤物视频| 青青草在线免费视频| 91九色国产社区在线观看| 亚洲国产网站| 永久免费看mv网站入口| 亚洲成人av片| 欧美综合社区国产| 欧美在线一区视频| 国产精品久久久久久久久晋中| 国产色片在线观看| 欧美一区二区三区精品电影| 我不卡手机影院| 麻豆av免费观看| 亚洲成年网站在线观看| 亚洲色图综合| 免费黄色日本网站| 亚洲午夜精品久久久久久久久|