精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Google綜述:細數(shù)Transformer模型的17大高效變種

開發(fā) 前端 新聞
這是一篇谷歌2020年9月份在arXiv發(fā)表的綜述論文 “Efficient Transformers: A Survey“,值得讀讀。

  [[358920]]

在NLP領域 transformer 已經(jīng)是成功地取代了RNN(LSTM/GRU),在CV領域也出現(xiàn)了應用,比如目標檢測和圖像加注,還有RL領域。這是一篇谷歌2020年9月份在arXiv發(fā)表的綜述論文 “Efficient Transformers: A Survey“,值得讀讀。

 

 

 

 

文章主要針對一類X-former模型,例如Reformer, Linformer, Performer, Longformer為例,這些對原版Transformer做了改進,提高了其計算和內(nèi)存的效率。

論文題目:

Efficient Transformers: A Survey

論文鏈接:

https://arxiv.org/pdf/2009.06732

Arxiv訪問慢的小伙伴也可以在【 夕小瑤的賣萌屋 】訂閱號后臺回復關鍵詞【 1220 】下載論文PDF~

Transformer回顧

self-attention是Transformer模型的關鍵定義特征。該機制可以看作是類似graph的歸納偏差(inductive bias),它可將序列中的所有token與基于相關的pooling操作相聯(lián)系。self-attention 的一個眾所周知的問題是quadratic級別的 時間和內(nèi)存復雜度 ,阻礙許多設置的模型規(guī)模化(scalability)。所以,最近提出了解決該問題的大量變型,這里將這類模型稱為 efficient Transformers 。

efficient self-attention模型在長序列建模的應用中至關重要,例如文檔、圖像和視頻通常都由相對大量的像素或token組成。因此,處理長序列的效率對于Transformers的廣泛采用至關重要。

如圖是一個標準的Transformer架構:

 

 

 

 

Transformer是通過將Transformer blocks彼此堆疊而形成的多層體系結構。Transformer blocks的特點包括 multi-head self-attention 機制、positionwise前饋網(wǎng)絡(feed-forward network)、層歸一化(LN)模塊和殘差連接器(residual connectors)。

Transformer模型的輸入通常是形狀為BxN的張量,其中B是批處理(batch)大小,N是序列長度。該輸入先穿過一個嵌入層,該層將每個one-hot token表示轉(zhuǎn)換為d-維的嵌入向量,即BxNxd。然后,新張量與位置編碼相加,并通過一個multi-head self-attention模塊。

位置編碼可以是正弦輸入形式或者可訓練的嵌入方式。multi-head self-attention模塊的輸入和輸出通過殘差連接器和層歸一化層(LN)模塊連接。然后,將multi-head self-attention模塊的輸出傳遞到兩層前饋網(wǎng)絡(FFN),類似于以殘差方式連接層歸一化(LN)模塊。

帶層歸一化模塊的殘差連接器定義為:

 

 

 

 

而在Multi-Head Self-Attention的單個head操作定義為:

 

 

 

 

Attention矩陣A = QK^T主要負責學習序列中token之間的校準分。這會推動self-attention的自我校準過程,從而token學習彼此之間的聚類。不過,這個矩陣計算是一個效率的瓶頸。

FFN的層操作定義為:

 

 

 

 

這樣整個Transformer block的操作定義是:

 

 

 

 

下面要注意的是Transformer模塊使用方式的不同。Transformer主要使用方式包括:(1) 編碼器 (例如用于分類),(2) 解碼器 (例如用于語言建模)和(3) 編碼器-解碼器 (例如用于機器翻譯)。

在編碼器-解碼器模式下,通常有多個multi-head self-attention模塊,包括編碼器和解碼器中的標準self-attention,以及允許解碼器利用來自解碼器的信息的編碼器-解碼器cross-attention。這影響了self-attention機制的設計。

在編碼器模式中,沒有限制或self-attention機制的約束必須是因果方式,即僅取決于現(xiàn)在和過去的token。

在編碼器-解碼器設置中,編碼器和編碼器-解碼器cross-attention可能是無因果方式,但解碼器的self attention必須是因果方式。設計有效的self attention機制,需要支持AR(auto-regressive)解碼的因果關系,這可能是一個普遍的限制因素。

Efficient Transformers

Efficient Transformers的分類如圖,其對應的方法在近兩年(2018-2020)發(fā)表的時間、復雜度和類別見表:

 

 

 

 

注:FP = Fixed Patterns/Combinations of Fixed Patterns, M = Memory, LP = Learnable Pattern, LR = Low Rank, KR = Kernel, RC = Recurrence.

除segment-based recurrence外,大多數(shù)模型的主要目標是對attention matrix做quadratic級別開銷近似。每種方法都將稀疏的概念應用于原密集的attention機制。

Fixed patterns(FP):self attention的最早改進是將視場限制為固定的、預定義模式(例如局部窗和固定步幅的塊模式)來簡化attention matrix。

  • Blockwise Patterns這種技術在實踐中最簡單的示例是blockwise(或chunking)范式,將輸入序列分為固定塊,考慮局部接受野(local receptive fields)塊。這樣的示例包括逐塊和/或局部attention。將輸入序列分解為塊可將復雜度從N^2降低到B^2(塊大小),且B << N,從而顯著降低了開銷。這些blockwise或chunking的方法可作為許多更復雜模型的基礎。

  • Strided patterns是另一種方法,即僅按固定間隔參與。諸如Sparse Transformer和/或Longformer之類的模型,采用“跨越式”或“膨脹式“視窗。

  • Compressed Patterns是另一條進攻線,使用一些合并運算對序列長度進行下采樣,使其成為固定模式的一種形式。例如,Compressed Attention使用跨步卷積有效減少序列長度。

Combination of Patterns (CP):其關鍵點是通過組合兩個或多個不同的訪問模式來提高覆蓋范圍。例如,Sparse Transformer 將其一半的頭部分配給模式,結合strided 和 local attention。類似地,Axial Transformer 在給定高維張量作為輸入的情況下,沿著輸入張量的單軸應用一系列的self attention計算。本質(zhì)上,模式組合以固定模式相同的方式降低了內(nèi)存的復雜度。但是,不同之處在于,多模式的聚集和組合改善了self attention機制的總覆蓋范圍。

Learnable Patterns (LP):對預定FP模式的擴展即可學習。毫不奇怪,使用可學習模式的模型旨在數(shù)據(jù)驅(qū)動的方式學習訪問模式。LP的關鍵是確定token相關性,將token分配給buckets 或者clusters。值得注意的是,Reformer引入了基于哈希的相似性度量,有效地將token聚類為chunks。類似地,Routing Transformer在token上采用在線的k-means聚類。同時,Sinkhorn排序網(wǎng)絡(Sorting Network)通過學習對輸入序列的blocks排序來顯露attention weight的sparsity。所有這些模型中,相似性函數(shù)與網(wǎng)絡的其它部分一起進行端到端訓練。LP的關鍵點仍然是利用固定模式(chunked patterns)。但是,此類方法學會對輸入token進行排序/聚類,即保持FP方法效率優(yōu)勢的同時,得到更優(yōu)的序列全局視圖。

Memory:另一種表現(xiàn)突出的方法,用一個side memory模塊,可以一次訪問多個token。通用形式是全局存儲器,能夠訪問整個序列。全局token充當記憶的一種形式,從輸入序列的token中學習聚集。這是最早在Set Transformers中引入的inducing points方法。這些參數(shù)通常被解釋為“memory”,并用作將來處理的臨時上下文信息。這可以看作是parameter attention的一種形式。全局內(nèi)存也用于ETC和Longformer。借著數(shù)量有限的內(nèi)存(或者inducing points),對輸入序列采用類似pooling操作進行壓縮,這是設計有效的self attention模塊時可以使用的技巧。

Low-Rank方法:另一種新興技術,利用self attention矩陣的低秩近似來提高效率。關鍵點是假設NxN矩陣的低秩結構。Linformer是此技術的經(jīng)典示例,將keys和values的長度維投影到較低維的表示形式(N-》 k)。不難發(fā)現(xiàn),由于NxN矩陣現(xiàn)在已分解為Nxk,因此該方法改善了self attention的存儲復雜性問題。

Kernels:另一個最近流行的提高Transformers效率的方法,通過核化(kernelization)查看attention機制。核的使用使self attention機制能夠進行巧妙的數(shù)學重寫,避免顯式地計算NxN矩陣。由于核是attention矩陣的一種近似形式,因此也可以視為Low Rank方法的一種。

Recurrence:blockwise方法的直接擴展是通過遞歸連接這些塊。Transformer-XL提出了一種segment-level 遞歸機制,該機制將多個segment和block連接起來。從某種意義上說,這些模型可以看作是FP模型。

內(nèi)存和計算復雜度分析

該綜述對以下17個方法進行了內(nèi)存和計算復雜度分析,即

1、 Memory Compressed Transformer :“Generating wikipedia by summarizing long sequences” 如圖

 

 

 

 

2、 Image Transformer :“Image Transformer” 如圖

 

 

 

 

3、 Set Transformer :“Set transformer: A framework for attention-based permutation-invariant neural networks“ 如圖

 

 

 

 

4、 Sparse Transformer :“Generating long sequences with sparse transformers”如圖

 

 

 

 

5、 Axial Transformer :“Axial attention in multidimensional transformers.“如圖

6、 Longformer :“Longformer: The long-document transformer“如圖

 

 

 

 

7、 Extended Transformer Construction (ETC):“Etc: Encoding long and structured data in transformers“如圖

 

 

 

 

8、 BigBird :“Big Bird: Transformers for Longer Sequences“如圖

 

 

 

 

9、 Routing Transformer :“Efficient content-based sparse attention with routing transformers“如圖

 

 

 

 

10、 Reformer :“Reformer: The efficient transformer“如圖

 

 

 

 

11、 Sparse Sinkhorn Transformer :“Sparse sinkhorn attention“如圖

 

 

 

 

12、 Linformer :“Hat: Hardware-aware transformers for efficient natural language processing“如圖

 

 

 

 

 

 

 

 

13、 Linear Transformer :“Transformers are rnns: Fast autoregressive transformers with linear attention“ 如圖是其算法偽代碼

 

 

 

 

14、 Performer :“Masked language modeling for proteins via linearly scalable long-context transformers“ 如圖是Fast Attention via Orthogonal Random Features (FAVOR)的算法偽代碼

 

 

 

 

15、 Synthesizer :“Synthesizer: Rethinking self-attention in transformer models.“如圖

 

 

 

 

16、 Transformer-XL :“Transformer-xl: Attentive language models beyond a fixed-length context“如圖

 

 

 

 

17、 Compressive Transformers :“Compressive transformers for long-range sequence modelling“如圖

 

 

 

 

評估基準

盡管該領域忙于使用新的Transformer模型,但幾乎沒有一種簡單的方法可以將這些模型比較。許多研究論文選擇自己的基準來展示所提出模型的功能。再加上不同的超參數(shù)設置(例如模型大小和配置),可能難以正確地找到性能提升的原因。此外,一些論文將其與預訓練相提并論,使區(qū)分這些不同模型相對性能的難度更大。 考慮使用哪個基本高效的Transformer block,仍然是一個謎。

一方面,有多種模型集中在 generative modeling ,展示了提出的Transformer單元在序列AR(auto-regressive)建模上的能力。為此,Sparse Transformers, Adaptive Transformers, Routing Transformers 和 Reformers主要集中在generative modeling任務。這些基準通常涉及在諸如Wikitext、enwik8和/或ImageNet / CIFAR之類的數(shù)據(jù)集上進行語言建模和/或逐像素生成圖像。而segment based recurrence模型(例如Transformer-XL和Compressive Transformers)也專注于大范圍語言建模任務,例如PG-19。

一方面,一些模型主要集中于**編碼(encoding only)**的任務,例如問題解答、閱讀理解和/或從Glue基準中選擇。例如ETC模型僅在回答問題基準上進行實驗,如NaturalQuestions或TriviaQA。另一方面,Linformer專注于GLUE基準測試子集。這種分解是非常自然和直觀的,因為ETC和Linformer之類的模型無法以AR(auto-regressive)方式使用,即不能用于解碼。這加劇了這些編碼器模型與其他模型進行比較的難度。

有些模型著眼于上述兩者的平衡。Longformer試圖通過在生成建模和編碼器任務上運行基準來平衡這一點。Sinkhorn Transformer對生成建模任務和僅編碼任務進行比較。

此外,還值得注意的是,盡管Seq2Seq任務的**機器翻譯(MT)**是普及Transformer模型的問題之一,但這些有效的Transformer模型沒有能對MT進行多些的評估。這可能是因為MT的序列長度不足以保證這些模型的使用。

盡管generative modeling、**GLUE(General Language Understanding Evaluation)**和/或question answering,似乎是這些應用的通用評估基準,但仍有一些基準可供小部分論文單獨進行評估。首先,Performer模型會對masked language modeling進行評估,和其他有效的Transformer模型進行了正面對比。而且Linear Transformer還對語音識別進行評估,這是比較罕見的了。

效率方面的比較

另外,論文最后還對這些效率提高的方法做了分析比較,主要是幾個方面:

  • Weight Sharing

  • Quantization / Mixed Precision

  • Knowledge Distillation (KD)

  • Neural Architecture Search (NAS)

  • Task Adapters

 

 

責任編輯:張燕妮 來源: 夕小瑤的賣萌屋
相關推薦

2024-06-19 16:11:22

2023-06-03 20:51:09

2021-04-27 15:47:12

人工智能語音識別Transformer

2020-09-21 14:25:26

Google 開源技術

2021-10-13 17:21:13

模型人工智能開源

2024-10-22 17:24:32

2025-04-16 02:30:00

2010-10-08 20:40:43

2011-11-29 09:54:20

Google進化史

2024-01-02 09:49:19

AI研究調(diào)查

2024-01-15 08:17:00

模型技術

2024-07-01 10:19:22

2013-12-03 13:03:22

SDN價值

2024-11-29 18:37:07

2010-08-13 09:58:15

Gooele

2023-11-05 10:04:47

2021-02-23 10:09:22

谷歌開源語言模型

2023-11-22 11:29:28

2023-05-16 12:11:22

2020-09-27 10:37:51

谷歌Transformer機器學習
點贊
收藏

51CTO技術棧公眾號

成人一区二区免费视频| 亚洲a在线观看| av电影网站在线观看| 成人黄色免费观看| 亚洲啪啪综合av一区二区三区| 亚洲最大的成人网| 亚洲精品男人天堂| 国产精品videosex性欧美| 日韩精品专区在线影院重磅| 国产精品丝袜久久久久久消防器材| 国产在线视频网址| 国产九九视频一区二区三区| 136fldh精品导航福利| 黄色av片三级三级三级免费看| 日韩精品免费视频一区二区三区 | 精品无码黑人又粗又大又长| 国产探花一区二区| 欧美大肚乱孕交hd孕妇| 男人搞女人网站| 成全电影大全在线观看| 中文字幕国产精品一区二区| 国产视频一区二区三区四区| 国产精品久久久久久免费免熟 | 欧美 日韩精品| 成人av福利| 久久久久久免费网| 懂色一区二区三区av片 | 日韩欧美一区二区视频| 亚洲精品怡红院| 男人天堂视频在线观看| 夜夜爽夜夜爽精品视频| 国产精品h视频| 黄色小视频在线免费观看| 成人一道本在线| 91在线|亚洲| 91丨九色丨海角社区| 亚洲三级影院| 欧美贵妇videos办公室| 亚洲欧洲综合网| 日韩精品一卡| 亚洲片在线资源| 艳妇乳肉亭妇荡乳av| 日韩欧美中文在线观看| 欧美丰满高潮xxxx喷水动漫| 最近免费中文字幕中文高清百度| 美女av在线免费看| 亚洲自拍偷拍麻豆| 久久久99精品视频| fc2ppv国产精品久久| 国产精品欧美一级免费| 神马影院午夜我不卡| 色哟哟中文字幕| 高清成人免费视频| 99九九电视剧免费观看| av 一区二区三区| 国产在线乱码一区二区三区| 成人午夜高潮视频| 国产精品-色哟哟| 久久成人羞羞网站| 国产欧美一区二区三区久久| 午夜一级黄色片| 日本系列欧美系列| 国产精品久久久久久影视| 日韩av免费播放| 麻豆精品在线播放| 国产欧美一区二区三区视频| 国产毛片毛片毛片毛片| 国产麻豆精品视频| av日韩中文字幕| 日本久久一级片| 91亚洲国产成人精品一区二区三 | 日本黄色www| 欧美专区一区| 亚洲第一色在线| 中文字幕一区二区久久人妻网站| 天天做夜夜做人人爱精品 | 国产盗摄在线视频网站| 亚洲国产综合91精品麻豆| 国产av麻豆mag剧集| 97成人资源| 欧美久久婷婷综合色| 欧美污在线观看| 韩国女主播一区二区三区| 亚洲精品综合精品自拍| 91麻豆制片厂| 欧美日本久久| 日韩av片电影专区| 91片黄在线观看喷潮| 国产精品羞羞答答xxdd| 久久精品一二三区| 欧美三级电影一区二区三区| 亚洲午夜免费电影| 日韩精品一区中文字幕| 香蕉久久一区| 亚洲精美色品网站| 亚洲一级理论片| 亚洲激情国产| 国产综合视频在线观看| 免费看黄色一级视频| 国产欧美日韩不卡| 国产在线视频综合| 少妇一区视频| 日韩精品最新网址| 国产精品美女高潮无套| 欧美亚洲不卡| 国产精品女主播| 黄色www视频| 欧美极品xxx| 日韩网站在线免费观看| 国产69精品久久| 亚洲精品国产精品乱码不99按摩| 东方伊人免费在线观看| 亚洲五月婷婷| 国产在线视频不卡| 九色在线观看视频| 亚洲第一主播视频| 免费在线观看污网站| 欧美自拍一区| 欧美激情va永久在线播放| 最近中文字幕在线观看| 99精品一区二区| 最新av在线免费观看| 欧美色片在线观看| 亚洲国产另类久久精品| 2018天天弄| 免费在线看成人av| 欧美日韩亚洲免费| 91桃色在线观看| 日韩亚洲欧美中文三级| 欧美巨胸大乳hitomi| 性色一区二区三区| 福利视频久久| 在线中文字幕电影| 51精品视频一区二区三区| 精品人妻无码一区二区三区 | 一级淫片免费看| 久久久久久一二三区| 欧美激情亚洲天堂| 91精品国产色综合久久不卡粉嫩| 亚洲天堂网站在线观看视频| 天天操天天操天天操天天| 成人一区二区三区| 18禁裸男晨勃露j毛免费观看| 国产一区二区三区| 久久影视电视剧免费网站清宫辞电视 | 日韩成人av免费| 成人羞羞视频播放网站| 国产精品aaaa| 成年女人的天堂在线| 欧美在线一二三四区| 成都免费高清电影| 久久一区二区三区四区五区| 欧美精品一区三区在线观看| 亚洲男人av| 亚洲人成五月天| 91视频久久久| 国产精品美女久久久久aⅴ国产馆| 人妻内射一区二区在线视频 | 亚洲一区二区高清视频| 97成人超碰| 日韩一区在线视频| 国产乱子伦精品无码码专区| 亚洲女同一区二区| 永久免费看片在线观看| 欧美久久99| 国产欧美日韩一区| 涩涩涩视频在线观看| 亚洲欧美精品在线| 中文字幕在线观看你懂的| 国产精品高清亚洲| 91精品国产三级| 激情欧美日韩一区| 欧美亚洲免费在线| jizz久久久久久| 久久久精品在线观看| 亚洲精品人妻无码| 欧美视频在线观看免费| 在线免费观看视频| 国产精品亚洲午夜一区二区三区| 国产玉足脚交久久欧美| 欧美猛男男男激情videos| 国产欧美在线播放| 丁香高清在线观看完整电影视频| 日韩成人在线视频| 在线观看免费观看在线| 亚洲激情网站免费观看| 色噜噜在线观看| 麻豆精品国产传媒mv男同| 成人小视频在线观看免费| 同性恋视频一区| 成人疯狂猛交xxx| cao在线视频| www.日韩欧美| 天天操天天操天天操| 欧美天堂一区二区三区| 久久久.www| 国产三级精品三级在线专区| 色婷婷综合在线观看| 麻豆91精品| 中文字幕乱码免费| 国产精品羞羞答答在线观看| 91最新在线免费观看| 欧美另类老肥妇| 精品国产欧美成人夜夜嗨| 天堂影院在线| 日韩一区二区三区四区 | 欧美精品丝袜久久久中文字幕| 久久久久久久久久一区二区三区 | 欧美日韩在线一二三| japansex久久高清精品| 日本国产欧美一区二区三区| 中文字幕伦理免费在线视频 | 久久精品日产第一区二区 | 亚洲综合影视| 一本色道久久88综合亚洲精品ⅰ| 国产超碰人人模人人爽人人添| 欧美性猛交一区二区三区精品| 国产对白videos麻豆高潮| 国产精品国产三级国产aⅴ入口| 国产肉体xxxx裸体784大胆| 国产不卡视频一区| 在线播放av中文字幕| 久久精品九九| www.日本在线播放| 欧美777四色影| 一区二区三区不卡在线| 国产亚洲一区| 欧美日韩大片一区二区三区 | 麻豆专区一区二区三区四区五区| 狠狠干 狠狠操| 国产精品av久久久久久麻豆网| 国产精品h视频| 久久中文字幕二区| 色狠狠久久av五月综合| 一道在线中文一区二区三区| 国产视频不卡| 久久人人爽人人爽人人片av不| 91精品国产高清久久久久久91裸体| 欧美在线一级| 国产在线观看不卡| 亚洲成人精品综合在线| 国产精品亚洲аv天堂网| 国偷自产一区二区免费视频| 欧美专区在线视频| 欧美私密网站| 欧美综合第一页| 深夜av在线| 欧美最顶级的aⅴ艳星| 成人小电影网站| 日本三级久久久| 欧美成人免费电影| 国产成人精品一区| jvid一区二区三区| 国产精品视频999| 久久精品嫩草影院| 91精品视频观看| 日韩精品三级| 国产一区二区三区免费不卡| 欧洲精品一区| 日韩偷拍一区二区| 97精品国产| 国产成人一二三区| 亚洲国产激情| 男人的天堂99| 免费观看30秒视频久久| 三级性生活视频| 大胆亚洲人体视频| www.自拍偷拍| 国产精品视频在线看| 日本高清一二三区| 亚洲一二三四久久| 四虎成人在线观看| 欧美偷拍一区二区| 99久久一区二区| 精品国产区一区| 欧美捆绑视频| 久久夜色精品国产亚洲aⅴ| 四虎影院观看视频在线观看| 欧美一级在线亚洲天堂| 51一区二区三区| 96久久精品| 久久成人av| 欧美日韩在线免费观看视频| 极品裸体白嫩激情啪啪国产精品| 精品中文字幕av| 九九九久久久精品| 亚洲麻豆一区二区三区| 久久精品视频免费观看| 538精品在线视频| 亚洲国产成人porn| 在线观看中文字幕码| 欧美videos大乳护士334| 国产高清一级毛片在线不卡| 欧美成人激情视频| 欧美大片1688| 成人高清在线观看| 精品欧美激情在线观看| 国产又粗又长又爽视频| 日韩电影在线免费| 污网站免费观看| 亚洲欧美在线高清| 国产欧美一区二区三区在线看蜜臂| 欧美日韩精品二区第二页| 日本毛片在线观看| 久久影院资源网| 97久久香蕉国产线看观看| 91福利入口| 99久久久久国产精品| 成人毛片视频网站| 韩国午夜理伦三级不卡影院| 国产亚洲无码精品| 一区二区三区鲁丝不卡| 波多野结衣高清视频| 精品少妇一区二区三区日产乱码| av在线天堂| 欧洲中文字幕国产精品| 亚洲国产视频二区| 伊人久久av导航| 久久久久久色| 稀缺小u女呦精品呦| 亚洲欧美综合色| 国产一级精品毛片| 国产婷婷成人久久av免费高清| 最新国产在线拍揄自揄视频| 成人黄色在线观看| 妖精视频一区二区三区| 国产一区二区网| 夫妻av一区二区| 希岛爱理中文字幕| 欧美日韩一区小说| 免费理论片在线观看播放老| 性欧美在线看片a免费观看 | 日韩欧美国产三级电影视频| av福利在线播放| 国产成人综合精品| 免费看成人哺乳视频网站| 天堂…中文在线最新版在线| 国产成人av电影在线观看| 天天看片中文字幕| 91精品国产综合久久蜜臀| 2021av在线| 国产精品视频久久久| 欧美伦理在线视频| 成熟老妇女视频| 久久久国产综合精品女国产盗摄| 日韩手机在线观看| 亚洲国产成人精品一区二区| 国产美女情趣调教h一区二区| 91在线高清免费观看| 91国语精品自产拍| www.51色.com| 亚洲视频一二区| 国产婷婷一区二区三区久久| 伦理中文字幕亚洲| 亚洲1区在线| 亚洲熟妇无码av在线播放| 高清不卡在线观看av| 国产区在线观看视频| 精品爽片免费看久久| 欧美18av| 亚洲欧美综合一区| 狠狠色丁香久久婷婷综| 国产女片a归国片aa| 精品99一区二区| 女厕盗摄一区二区三区| 欧美成人综合一区| 奇米精品一区二区三区四区| 中文字幕精品亚洲| 欧美一区二区国产| 久草在线视频资源| 久久久久久国产精品mv| 日日夜夜免费精品视频| 2019男人天堂| 91精品国产综合久久香蕉麻豆| 丝袜综合欧美| 蜜桃网站成人| 久久精品国产一区二区三| 婷婷色中文字幕| 亚洲黄页视频免费观看| 唐人社导航福利精品| 在线不卡日本| 成人激情文学综合网| 欧美h在线观看| 精品国产依人香蕉在线精品| 88久久精品| 老头吃奶性行交视频| 亚洲女爱视频在线| 午夜视频福利在线| 成人精品网站在线观看| 136国产福利精品导航网址| 99精品全国免费观看| 日韩欧美一区电影| 伊人久久国产| 50度灰在线观看| 久久久99精品久久| 国产婷婷一区二区三区久久| 日本人成精品视频在线| 欧美精品首页| 国产一区二区三区四区在线| 精品人伦一区二区色婷婷|