精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

對比學習(Contrastive Learning)在CV與NLP領域中的研究進展

人工智能 深度學習
目前,對比學習貌似處于“無明確定義、有指導原則”的狀態(tài),它的指導原則是:通過自動構造相似實例和不相似實例,要求習得一個表示學習模型,通過這個模型,使得相似的實例在投影空間中比較接近,而不相似的實例在投影空間中距離比較遠。

[[423166]]

對比學習方法(CV)

對比學習要做什么?

有監(jiān)督訓練的典型問題,就是標注數據是有限的。

目前NLP領域的經驗,自監(jiān)督預訓練使用的數據量越大,模型越復雜,那么模型能夠吸收的知識越多,對下游任務效果來說越好。這可能是自從Bert出現以來,一再被反復證明。

所以對比學習的出現,是圖像領域為了解決“在沒有更大標注數據集的情況下,如何采用自監(jiān)督預訓練模式,來從中吸取圖像本身的先驗知識分布,得到一個預訓練的模型”。

對比學習是自監(jiān)督學習的一種,也就是說,不依賴標注數據,要從無標注圖像中自己學習知識。

目前,對比學習貌似處于“無明確定義、有指導原則”的狀態(tài),它的指導原則是:通過自動構造相似實例和不相似實例,要求習得一個表示學習模型,通過這個模型,使得相似的實例在投影空間中比較接近,而不相似的實例在投影空間中距離比較遠。

對比學習Paper都會涉及到的一些關鍵點:

  • 如何構造相似實例,以及不相似實例;
  • 如何構造能夠遵循上述指導原則的表示學習模型結構;
  • 以及如何防止模型坍塌(Model Collapse);

SimCLR:一個典型的負例對比學習方法

SimCLR它是圖像領域2020年ICML會議提出的,是一個比較“標準”的對比學習模型。

第一,它相對于之前的模型效果有明顯的提升;第二,它采取對稱結構,整體相對簡潔清晰;第三,它奠定的結構,已成為其它對比學習模型的標準構成部分。

如何構造正負例

 

 

正例構造方法如上圖所示。對于某張圖片,我們從可能的增強操作集合T中,隨機抽取兩種:t1~T及t2~T,分別作用在原始圖像上,形成兩張經過增強的新圖像,兩者互為正例。訓練時,Batch內任意其它圖像,都可做為x1或x2的負例。

對比學習希望習得某個表示模型,它能夠將圖片映射到某個投影空間,并在這個空間內拉近正例的距離,推遠負例距離。也就是說,迫使表示模型能夠忽略表面因素,學習圖像的內在一致結構信息,即學會某些類型的不變性,比如遮擋不變性、旋轉不變性、顏色不變性等。SimCLR證明了,如果能夠同時融合多種圖像增強操作,增加對比學習模型任務難度,對于對比學習效果有明顯提升作用。

構造表示學習系統(tǒng)

指導原則:通過這個系統(tǒng),將訓練數據投影到某個表示空間內,并采取一定的方法,使得正例距離比較近,負例距離比較遠。  

 

上圖展示了SimCLR模型的整體結構。是的,它是一個雙塔模型,不過圖像領域一般叫Branch(上下兩個分支)。

我們隨機從無標訓練數據中取N個構成一個Batch,對于Batch里的任意圖像,根據上述方法構造正例,形成兩個圖像增強視圖:Aug1和Aug2。Aug1 和Aug2各自包含N個增強數據,并分別經過上下兩個分支,對增強圖像做非線性變換,這兩個分支就是SimCLR設計出的表示學習所需的投影函數,負責將圖像數據投影到某個表示空間。

以上分支為例。Aug1首先經過特征編碼器Encoder(一般采用ResNet做為模型結構,這里以函數 fθ代表),經CNN轉換成對應的特征表示 。之后,是另外一個非線性變換結構Projector(由[FC->BN->ReLU->FC]兩層MLP構成,這里以函數 gθ代表),進一步將特征表示hi映射成另外一個空間里的向量zi。這樣,增強圖像經過 gθ(fθ(x)) 兩次非線性變換,就將增強圖像投影到了表示空間,下分枝的Aug2過程類似。(問題:為什么這種投影操作,要做兩次:經驗結果)。

對于Batch內某張圖像x來說,在Aug1和Aug2里的對應的增強后圖像分別是xi和xj,他們互為正例,而xi和Aug1及Aug2里除xj之外的其它任意2N-2個圖像都互為負例。在經過變換后,增強圖像被投影到表示空間。通過定義合適的損失函數,來實現“正例距離較近,負例距離較遠”的目標。

距離度量函數

首先需要一個度量函數,以判斷兩個向量在投影空間里的距離遠近,一般采用相似性函數來作為距離度量標準。

具體而言,相似性計算函數采取對表示向量L2正則后的點積或者表示向量間的Cosine相似性:    

 損失函數

損失函數很關鍵,SimCLR的損失函數采用InfoNCE Loss,某個例子對應的InfoNCE損失為:  

 

 

其中代表兩個正例相應的Embedding。

InfoNCE函數,分子部分鼓勵正例相似度越高越好,也就是在表示空間內距離越近越好;而分母部分,則鼓勵任意負例之間的向量相似度越低越好,也就是距離越遠越好。

上面介紹了SimCLR的關鍵做法,本身這個過程,其實是標準的預訓練模式;利用海量的無標注圖像數據,根據對比學習指導原則,學習出好的Encoder模型以及它對應產生的特征表示。所謂好的Encoder,就是說輸入圖像,它能學會并抽取出關鍵特征,這個過程跟Bert模型通過MLM自監(jiān)督預訓練其實目的相同,只是做法有差異。學好Encoder后,可以在解決下游具體任務的時候,用學到的參數初始化Encoder中的ResNet模型,用下游任務標注數據來Fine-tuning模型參數,期待預訓練階段學到的知識對下游任務有遷移作用。由此可見,SimCLR看著有很多構件,比如Encoder、Projector、圖像增強、InfoNCE損失函數,其實我們最后要的,只是Encoder,而其它所有構件以及損失函數,只是用于訓練出高質量Encoder的輔助結構。目前所有對比學習模型都是如此,這點還請注意。

SimCLR的貢獻,一個是證明了復合圖像增強很重要;另外一個就是這個Projector結構。這兩者結合,給對比學習系統(tǒng)帶來很大的性能提升,將對比學習性能提升到或者超過了有監(jiān)督模型,在此之后的對比學習模型,基本都采取了Encoder+Projector的兩次映射結構,以及復合圖像增強方法。

評判對比學習系統(tǒng)的標準 

 

對比學習在做特征表示相似性計算時,要先對表示向量做L2正則,之后再做點積計算,或者直接采用Cosine相似性,為什么要這么做呢?

很多研究表明,把特征表示映射到單位超球面上,有很多好處。這里有兩個關鍵,一個是單位長度,一個是超球面。首先,相比帶有向量長度信息的點積,在去掉長度信息后的單位長度向量操作,能增加深度學習模型的訓練穩(wěn)定性。另外,當表示向量被映射到超球面上,如果模型的表示能力足夠好,能夠把相似的例子在超球面上聚集到較近區(qū)域,那么很容易使用線性分類器把某類和其它類區(qū)分開(參考上圖)。在對比學習模型里,對學習到的表示向量進行L2正則,或者采用Cosine相似性,就等價于將表示向量投影到了單位超球面上進行相互比較。

很多對比學習模型相關實驗也證明了:對表示向量進行L2正則能提升模型效果。

Alignment和Uniformity  

 

論文 《Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere》,對好的對比學習系統(tǒng)進行了探討。它提出好的對比學習系統(tǒng)應該具備兩個屬性。

Alignment:指的是相似的例子,也就是正例,映射到單位超球面后,應該有接近的特征,也即是說,在超球面上距離比較近

Uniformity:指的是系統(tǒng)應該傾向在特征里保留盡可能多的信息,這等價于使得映射到單位超球面的特征,盡可能均勻地分布在球面上,分布得越均勻,意味著保留的信息越充分。分布均勻意味著兩兩有差異,也意味著各自保有獨有信息,這代表信息保留充分。

模型坍塌(Collapse)   

 

Uniformity特性的極端反例,是所有數據映射到單位超球面同一個點上,這極度違背了Uniformity原則,因為這代表所有數據的信息都被丟掉了,體現為數據極度不均勻得分布到了超球面同一個點上。也就是說,所有數據經過特征表示映射過程后,都收斂到了同一個常數解,一般將這種異常情況稱為模型坍塌(Collapse)(參考上圖)。

重新審視類似SimCLR結構的對比學習模型

可以看到,對比學習模型結構里的上下兩個分枝,首先會將正例對,或者負例對,通過兩次非線性映射,將訓練數據投影到單位超球面上。然后通過體現優(yōu)化目標的InfoNCE損失函數,來調整這些映射到單位超球面上的點之間的拓撲結構關系,希望能將正例在超球面上距離拉近,負例在超球面上推遠。那么損失函數InfoNCE又是怎么達成這一點的呢?   

 

分子部分體現出“Alignment”屬性,它鼓勵正例在單位超球面的距離越近越好;而分母里負例,則體現了“Uniformity”屬性,它鼓勵任意兩對負例,在單位超球面上,兩兩距離越遠越好。

溫度超參 τ 有什么作用呢?目前很多實驗表明,對比學習模型要想效果比較好,溫度超參 τ 要設置一個比較小的數值,一般設置為0.1或者0.2。問題是:將這個超參設大或設小,它是如何影響模型優(yōu)化過程的呢?目前的研究結果表明,InfoNCE是個能夠感知負例難度的損失函數,而之所以能做到這點,主要依賴超參。

對比學習方法分類(圖像)

如果從防止模型坍塌的不同方法角度,我們可大致把現有方法劃分為四種:基于負例的對比學習方法、基于對比聚類的方法、基于不對稱網絡結構的方法,以及基于冗余消除損失函數的方法。

對比學習方法歸類

基于負例的對比學習方法  

 

所有在損失函數中采用負例的對比學習方法,都是靠負例的Uniformity特性,來防止模型坍塌的,這包括SimCLR系列及Moco系列等很多典型對比學習模型

基于對比聚類的方法  

 

代表模型SwAV。

對于Batch內某張圖像x來說,假設其經過圖像增強Aug1和Aug2后,獲得增強圖像x1,x2,x1與x2則互為正例。x1走上分枝,x2走下分枝,SwAV對Aug1和Aug2中的表示向量,根據Sinkhorn-Knopp算法,在線對Batch內數據進行聚類。SwAV要求表示學習模型根據x1預測x2所在的類,同樣的,也要求x2預測x1所在的類。

該方法要求某個投影點在超球面上,向另外一個投影點所屬的聚類中心靠近,體現了Alignment原則;和其它聚類中心越遠越好,這體現了Uniformity屬性。

SwAV面臨模型坍塌問題,具體表現形式為:Batch內所有實例都聚類到同一個類里。所以為了防止模型坍塌,SwAV對聚類增加了約束條件,要求Batch內實例比較均勻地聚類到不同的類別中。本質上,它與直接采用負例的對比學習模型,在防止模型坍塌方面作用機制是類似的,是一種隱形的負例。

基于不對稱網絡結構的方法  

 

代表模型BYOL:只用正例來訓練對比學習模型,靠上下分枝的結構不對稱,防止模型坍塌。

基于冗余消除損失函數的方法  

 

代表模型 Barlow Twins。

既沒有使用負例,也沒有使用不對稱結構,主要靠替換了一個新的損失函數,可稱之為“冗余消除損失函數”,來防止模型坍塌。

實驗結果

目前絕大多數對比學習模型在做模型訓練的時候,采用的是ImageNet數據集,在評測的時候,主要實驗也是在ImageNet上做的,那么問題是:對比學習本質上是種自監(jiān)督預訓練模型,希望能夠從ImageNet數據集上自監(jiān)督地學到一些圖像先驗知識與結構。那么,這種從ImageNet數據集學到的知識,能否很好地遷移到其它數據集呢?

論文“How Well Do Self-Supervised Models Transfer?”對13個知名自監(jiān)督模型,在40多種數據集上進行相對公平地對比測試,得出了一些很有價值的結論。  

 

對比學習方法(NLP)

CV領域的對比學習研究在近兩年風生水起,也逐漸影響到NLP領域,從2020年起,NLP領域逐漸有一些利用對比學習思想,自監(jiān)督訓練sentence-embedding的idea。

我自己的調研中,通過如何運用Contrastive Learning思想,分成兩類:

  • 損失聯(lián)合方式自監(jiān)督:將CL的loss和其他loss混合,通過聯(lián)合優(yōu)化,使CL起到效果:CLEAR,DeCLUTER,SCCL。
  • 非聯(lián)合方法自監(jiān)督:構造增強樣本,fine-tune模型:Bert-CT,ConSERT,SimCSE。

下面分別從背景、方案、數據增強方法和實驗效果介紹幾個典型模型。

損失聯(lián)合方式自監(jiān)督

1.CLEAR

鏈接:

https://arxiv.org/pdf/2012.15466.pdf

背景:作者認為,當前的預訓練模型都是基于word-level的,沒有基于sentence-level的目標,對sentence的效果不好。

方案:word-level和sentence-level的loss聯(lián)合。  

對比損失函數:  

 

數據增強方法:token層  

 

實驗效果:

GLUE:  

 

SentEval:  

 

2.DeCLUTR

鏈接:https://arxiv.org/abs/2006.03659

方案:是一個不用訓練數據的自監(jiān)督的方法,是對pretrain過程的優(yōu)化。   

 

數據增強方法:

方案:選N個document組成一個batch,每個document取A個anchor,就有AN個,anchor取一個positive,也有AN個,共2AN個點。對于每一個點,除了和它組成正例的一對的2個,其他2AN-2都是負例

宗旨:認為距離anchor span越近的文本越相似,因此anchor span和它周邊的span作為正例

用不同的Beta分布去限制anchor和positive span的長度,一般anchor比positive要長,而且anchor最長可以到512。

作者認為:

1. 長anchor可以讓embedding達到同時表征sentence級別和paragraph級別的作用

2. 這樣配置下游任務效果好 a)學到了global-to-local的信息 b)生成多個positive后可以獲得diversity的信息

3. 因為一個batch里有多個文檔,不同文檔的span組成的負例是easy負例,同文檔的span組成的負例是hard負例。

實驗效果:對比學習過程中的ENCODER和MLM部分的Pretrained model是RoBerta和DistillRoBerta,pooling用的mean pooling。

擴展知識:Bert vs RoBerta vs AlBert  

 

 

評測數據集是SentEval,SentEval是一個用于評估句子表征的工具包,包含 17 個下游任務,其輸入是句子表示,輸出是預測結果。  

 

可以看到本文方案往往不是最優(yōu)的那個,但是作者對比了 沒用對比學習方法和用了對比學習方法(最后的Transformer-* VS DeCLUTER-*)的結果,說明了自己方案有效。

3.Supporting Clustering with Contrastive Learning

鏈接:https://arxiv.org/abs/2103.12953(NAACL 2021)

背景:在學習過程的開始階段,不同的類別常常在表征空間中相互重疊,對如何實現不同類別之間的良好分離,帶來了巨大的挑戰(zhàn)。

方案:利用對比學習,去做更好的分離。通過聯(lián)合優(yōu)化top-down聚類損失和bottom-up 實體級別的對比loss,來達到同時優(yōu)化intra-cluster和inter-cluster的目的。 

 

 

 

分Instance-CL部分和Clustering部分兩個部分。

Instance-CL:

  1. 隨機選M個樣本組成一個batch,數據增強方法生成2M個樣本,依然是從一個樣本中生成的2個為一對正樣本,和其他2M-2組成負樣本
  2. 數據增強方法:
  3. 每個樣本用InfoCNE去算loss, Instance-CL loss 為2M樣本的平均值。   

 

數據增強方法:

  • WordNet Augmenter:用wordNet中的同義詞進行替換;
  • Contextual Augmenter:用pretrained model去找最合適的詞去進行插入或替換;
  • Paraphrase via back translation:翻譯成一種語言再翻譯回來;

實驗效果:  

 

非聯(lián)合方式自監(jiān)督

1.BERT-CT (ICLR2021)

背景:從各種預訓練模型的某層中取出的embedding,并不能很好表征句子,而且越接近目標的層,效果越不好。作者認為訓練目標極為重要。

方案:用兩個超參不一樣的模型來取sentence embedding,盡可能讓正例對的點積更大,負例對的點積更小。

數據增強方法:

正例:同句子的不同embedding;

負例:隨機選7個不同的句子;

實驗效果:  

 

2.SimCSE

鏈接:https://arxiv.org/abs/2104.08821

背景:直接用BERT句向量做無監(jiān)督語義相似度計算效果會很差,任意兩個句子的BERT句向量的相似度都相當高,其中一個原因是向量分布的非線性和奇異性,正好,對比學習的目標之一就是學習到分布均勻的向量表示,因此我們可以借助對比學習間接達到規(guī)整表示空間的效果,這又回到了正樣本構建的問題上來,而本文的創(chuàng)新點之一正是無監(jiān)督條件下的正樣本構建。

方案&數據增強方法:本文作者提出可以通過隨機采樣dropout mask來生成xi+,回想一下,在標準的Transformer中,dropout mask被放置在全連接層和注意力求和操作上,其中z是隨機生成的dropout mask,由于dropout mask是隨機生成的,所以在訓練階段,將同一個樣本分兩次輸入到同一個編碼器中,我們會得到兩個不同的表示向量z,z',將z'作為正樣本,則模型的訓練目標為: 

 

這種通過改變dropout mask生成正樣本的方法可以看作是數據增強的最小形式,因為原樣本和生成的正樣本的語義是完全一致的(注意語義一致和語義相關的區(qū)別),只是生成的embedding不同而已。

實驗效果: 

 

作者介紹

對白,碩士畢業(yè)于清華,現大廠算法工程師,拿過八家大廠的SSP offer。本科時獨立創(chuàng)業(yè)五年,成立兩家公司,并拿過總計三百多萬元融資(已到賬),項目入選南京321高層次創(chuàng)業(yè)人才引進計劃。創(chuàng)業(yè)做過無人機、機器人和互聯(lián)網教育,保研后選擇退出。

 

責任編輯:龐桂玉 來源: 對白的算法屋
相關推薦

2021-09-13 17:27:49

對比學習深度學習人工智能

2021-09-14 18:00:10

對比學習深度學習

2023-06-19 10:32:49

持續(xù)學習

2021-09-15 20:02:46

對比學習深度學習人工智能

2023-01-13 16:43:13

深度學習模型數據集

2022-04-27 20:28:59

智能駕駛大數據

2017-04-01 14:23:35

PythonR機器學習

2013-10-11 13:55:06

100G超100G光傳輸

2024-09-13 09:40:00

邊緣計算智能大模型

2022-04-18 13:58:34

人工智能NLP技術

2024-03-01 16:41:04

人工智能數字化轉型機器學習

2016-11-08 18:00:44

機器學習

2017-05-12 13:00:40

2022-03-28 13:42:44

區(qū)塊鏈比特幣物聯(lián)網

2022-03-10 10:13:15

自然語言處理醫(yī)療保健數據

2024-09-27 09:51:06

2019-03-07 13:57:39

數據科學家框架架構

2011-08-09 09:49:31

商務App平板iPad

2020-05-17 15:57:28

深度度量學習度量學習深度學習

2022-04-17 23:09:07

深度學習人工智能芯片
點贊
收藏

51CTO技術棧公眾號

欧美丝袜美腿| 调教一区二区| 另类综合日韩欧美亚洲| 久久久国产在线视频| 天堂在线精品视频| 国产乱码午夜在线视频| 日本一区二区成人| 翡翠波斯猫1977年美国| 四虎成人在线观看| 欧美一区在线看| 亚洲欧美中文另类| 日本泡妞xxxx免费视频软件| 吞精囗交69激情欧美| 亚洲色图.com| 清纯唯美一区二区三区| 亚洲第一天堂影院| 日本va欧美va精品| 欧美亚洲另类在线| 欧美黄色一级网站| 久久福利影院| 亚洲免费视频在线观看| 污免费在线观看| 久久91导航| 亚洲国产精品综合小说图片区| 日产国产精品精品a∨| 国 产 黄 色 大 片| 久久丁香综合五月国产三级网站| 97香蕉超级碰碰久久免费软件| 看黄色录像一级片| 精品日韩免费| 亚洲精品视频免费在线观看| 亚洲少妇一区二区| 成人综合日日夜夜| 欧美性受极品xxxx喷水| 18禁免费无码无遮挡不卡网站| 91麻豆一二三四在线| 中文字幕av一区二区三区| 久久综合给合久久狠狠色| 亚洲va欧美va| 国产综合久久久久影院| 国产精品一区二区久久精品| 日韩手机在线视频| 国产精品一卡| 17婷婷久久www| 精品无码人妻一区二区三区品 | 国产精品我不卡| 国产av无码专区亚洲av麻豆| 久久99蜜桃精品| 国产精品免费在线免费| 中文在线观看av| 麻豆freexxxx性91精品| 国产精品极品尤物在线观看 | jizz18女人高潮| 免费成人高清在线视频theav| 亚洲成**性毛茸茸| av av在线| 欧美人与动xxxxz0oz| 亚洲国产精品电影在线观看| 午夜影院福利社| 911精品国产| 亚洲精品二三区| 午夜一区二区三区免费| 岳的好大精品一区二区三区| 亚洲老头同性xxxxx| 亚洲精品国产91| 国产成人手机高清在线观看网站| 国产亚洲精品久久久久久| 天堂久久久久久| 精品影片在线观看的网站| 亚洲性线免费观看视频成熟| 特黄一区二区三区| 亚洲情侣在线| 国内精品久久久久久影视8| 中日韩精品视频在线观看| 国产欧美午夜| 国产精品第一页在线| 中文资源在线播放| 国产精品99久久不卡二区| 国产伦精品一区二区三区视频孕妇 | 亚洲自拍高清视频网站| 黄色三级网站在线观看| 久久久综合激的五月天| 亚洲国产欧美一区二区三区不卡| 欧美日韩视频在线播放| 亚洲另类中文字| 全黄性性激高免费视频| 性欧美1819sex性高清| 欧美久久久久久久久久| www.啪啪.com| 成人在线视频免费观看| 久久91精品国产| 好吊色在线视频| 精品亚洲aⅴ乱码一区二区三区| 波多野结衣一区二区三区在线观看 | 欧美黑人性猛交xxx| 亚洲视频电影在线| 久久久久久久久久久免费精品| 国产精品第5页| 激情综合色综合久久| 精品高清视频| 麻豆网站在线| 色哟哟日韩精品| 最好看的中文字幕| 不卡中文一二三区| 97精品伊人久久久大香线蕉| 中文字幕在线观看高清| 99精品在线观看视频| 宅男av一区二区三区| 九九精品调教| 欧美老女人在线| 亚洲a v网站| 91久久久久| 91中文字幕在线| xxxxx日韩| 欧美日韩综合视频网址| 欧美日韩一区二区区| 欧美日韩在线二区| 91av国产在线| 亚洲乱色熟女一区二区三区| 欧美国产丝袜视频| 中文字幕日本最新乱码视频| 婷婷视频一区二区三区| 久久精品福利视频| 国产亚洲久一区二区| 91一区二区在线观看| 久久男人资源站| 国产日韩欧美中文在线| 中文字幕在线视频日韩| 久久久黄色大片| 成人免费视频app| 天堂а√在线中文在线| 91嫩草国产线观看亚洲一区二区 | 久久国产柳州莫菁门| 亚洲第一区色| 国产精品久久久久久久天堂第1集 国产精品久久久久久久免费大片 国产精品久久久久久久久婷婷 | 国产系列在线观看| 午夜av一区二区| av在线播放网址| 伊人精品视频| 国外成人免费视频| 草草在线观看| 亚洲精品国产成人| 国产一级免费视频| 久久久久九九视频| av免费中文字幕| 西野翔中文久久精品字幕| 国自产精品手机在线观看视频| 亚洲春色一区二区三区| 亚洲一卡二卡三卡四卡无卡久久| 深夜视频在线观看| 在线欧美不卡| 久久国产精品亚洲va麻豆| 伊人久久在线| 尤物九九久久国产精品的特点| 欧美特级黄色片| 中文字幕第一页久久| 黄色小视频免费网站| 天天天综合网| 超碰97人人在线| 小h片在线观看| 亚洲欧洲第一视频| 中文字幕视频二区| 亚洲色图在线播放| 中文字幕第九页| 国产九九精品| 一本一生久久a久久精品综合蜜| 久久亚洲资源中文字| 欧美成人激情视频| 日日夜夜精品免费| 在线观看国产一区二区| 色哟哟一一国产精品| 国产成人日日夜夜| 欧美视频在线播放一区| 成久久久网站| 99精品国产一区二区| 日韩伦理精品| 色妞在线综合亚洲欧美| www国产在线| 色悠悠久久综合| 欧美爱爱免费视频| 国产精品亚洲一区二区在线观看| 一片黄亚洲嫩模| 天天躁日日躁狠狠躁免费麻豆| 亚洲日本欧美| 色综合久久av| 136福利精品导航| 日本免费一区二区三区视频观看| 一级毛片视频在线| 日韩一级片网址| 在线永久看片免费的视频| 亚洲免费毛片网站| 国产呦小j女精品视频| 久久爱www久久做| 自拍日韩亚洲一区在线| 97精品在线| 久久久水蜜桃| 精品一区二区三区免费看| 日本精品视频网站| 国内在线视频| 最近中文字幕mv在线一区二区三区四区 | 97超碰在线资源| 国产精品乡下勾搭老头1| 18禁男女爽爽爽午夜网站免费| 性欧美欧美巨大69| 你懂的网址一区二区三区| 亚洲国产视频二区| 国产噜噜噜噜久久久久久久久| 日本黄色免费在线| 欧美美女18p| 91社区在线观看| 亚洲日本成人网| 全部免费毛片在线播放一个| 欧美日韩国产一级片| 黄色免费av网站| 亚洲成人综合在线| 午夜69成人做爰视频| 国产日韩精品一区二区三区| 精品无码国产一区二区三区51安| 激情亚洲综合在线| www.激情小说.com| 久久久久99| 成人免费观看在线| 欧美福利一区| 国产精品99久久久久久大便| 精品视频免费| 欧美日韩电影一区二区三区| 动漫av一区| 草莓视频一区| 日韩精品一区国产| 亚洲一区二区三区四区视频 | 国产精品三区www17con| 国产精品日韩精品在线播放| 国产日韩欧美电影在线观看| 成人不卡视频| 国产99在线|中文| 久久uomeier| 欧洲日本亚洲国产区| 黄色激情在线播放| 78色国产精品| 亚洲三级欧美| 日本高清视频一区| 日韩欧美看国产| 国产精品吊钟奶在线| 日韩高清不卡| 国产有码在线一区二区视频| 日韩一级特黄| 亚洲www视频| 日本精品视频| 国产精品一区二区欧美黑人喷潮水| 色播一区二区| 国产一级精品aaaaa看| 欧美91在线| 玖玖玖精品中文字幕| 国产精品美女久久久久久不卡| 欧美一二三区| 99热在线成人| 日韩国产小视频| 国产精品一区亚洲| 牛夜精品久久久久久久| 六月丁香综合在线视频| 992kp免费看片| 成人一级黄色片| 欧美多人猛交狂配| 久久精品无码一区二区三区| 天天干天天舔天天操| 亚洲欧洲日韩av| 欧美精品一区二区成人| 亚洲成人资源网| 老熟妇一区二区三区| 欧美日韩成人激情| 亚洲国产精品18久久久久久| 日韩激情av在线播放| avtt亚洲| 欧美激情啊啊啊| 日韩一区二区三区在线免费观看| 国产欧美精品日韩精品| 亚洲专区**| 欧美一区二区在线视频观看| 国产精品成久久久久| 日本一区午夜艳熟免费| 丝袜美腿亚洲色图| 日韩不卡的av| 久久一夜天堂av一区二区三区| 少妇愉情理伦三级| 亚洲成人一二三| 中文字幕久久熟女蜜桃| 日韩精品一区二区三区三区免费| 日韩精品视频无播放器在线看 | 丁香花五月激情| 日韩欧美一区二区在线| 国产农村老头老太视频| 亚洲精品视频中文字幕| 在线看福利影| 国产精品美乳一区二区免费| 亚洲精品一区二区三区在线| 日本在线视频一区| 亚洲国产清纯| 亚洲高清av一区二区三区| 国产亚洲精品福利| 久久久久久国产精品免费播放| 91高清在线观看| 免费观看成年人视频| 久久久av电影| 在线日本欧美| 久久伊人一区| 红桃视频国产一区| 天堂在线中文在线| 国产亚洲视频系列| 午夜精品三级久久久有码| 日韩天堂在线观看| 91精彩视频在线观看| 17婷婷久久www| 国产精品白丝一区二区三区| 中文字幕av导航| 男人操女人的视频在线观看欧美| 亚洲天堂美女视频| 亚洲精品伦理在线| 国产一区二区在线视频观看| 亚洲午夜激情免费视频| 老司机深夜福利在线观看| 999国产视频| 自拍偷拍欧美专区| 第四色婷婷基地| 欧美国产综合色视频| 国产黄色免费视频| 精品香蕉一区二区三区| heyzo中文字幕在线| av激情久久| 欧美另类亚洲| 丰满人妻一区二区三区大胸| 亚洲欧洲无码一区二区三区| 中文字幕一二三四| 最近2019中文字幕一页二页| 成人啊v在线| 日韩国产精品一区二区| 日韩精品电影一区亚洲| 伊人网伊人影院| 在线观看一区二区视频| 国产三级在线观看| 国产精品福利观看| 日韩精品欧美| 午夜一级免费视频| 亚洲精品亚洲人成人网| 99久久久无码国产精品免费| 久久亚洲综合国产精品99麻豆精品福利| 国产精品久久久久久久久久齐齐| 青青成人在线| 喷白浆一区二区| 一级黄色片日本| 日韩一区二区三区电影在线观看| av网站导航在线观看免费| 91视频免费在线观看| 尤物精品在线| 青青草福利视频| 欧美日韩一区二区三区在线看| 香蕉视频网站在线观看| 成人性教育视频在线观看| 你懂的视频一区二区| 中文字幕人妻熟女在线| 欧美日韩中文字幕| sese一区| 2019国产精品视频| 国产亚洲精品bv在线观看| 超碰97人人干| 欧美日韩国产精品成人| h网站久久久| 精品国产乱码久久久久久久软件| 午夜亚洲性色视频| 青青操在线播放| 欧美成人vps| 亚洲精品永久免费视频| 夜夜春亚洲嫩草影视日日摸夜夜添夜| 激情都市一区二区| 国产无套在线观看| 一本一本久久a久久精品综合小说| 欧美天堂在线| 国产精品久久久久7777| 久久综合九色综合欧美98| 在线观看免费观看在线| 久久久久国产精品一区| 国产剧情在线观看一区| 日本一二三区在线| 欧美性猛交xxxxx免费看| 麻豆网站在线观看| 精品久久久久久综合日本| 久久国产婷婷国产香蕉| 中文字幕一区二区三区精品| 日韩在线视频观看| 麻豆成人入口| 久久久久xxxx| 一本色道久久综合狠狠躁的推荐 | 国产精品成人免费电影| 一区二区三区午夜探花| 91精品人妻一区二区| 欧美一区二区三区人| 欧美18—19sex性hd| 国产va亚洲va在线va| 中文字幕亚洲一区二区av在线| 天天操天天爱天天干| 亚洲综合日韩中文字幕v在线|