精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

新聞 人工智能
剛剛,Google Brain 高級研究科學家 Barret Zoph 發帖表示,他們設計了一個名叫「Switch Transformer」的簡化稀疏架構,可以將語言模型的參數量擴展至 1.6 萬億(GPT-3 是 1750 億)。

 剛剛,Google Brain 高級研究科學家 Barret Zoph 發帖表示,他們設計了一個名叫「Switch Transformer」的簡化稀疏架構,可以將語言模型的參數量擴展至 1.6 萬億(GPT-3 是 1750 億)。在計算資源相同的情況下,Switch Transformer 的訓練速度可以達到 T5 模型的 4-7 倍。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

在深度學習領域,模型通常會對所有輸入重用相同的參數。但 Mixture of Experts (MoE,混合專家) 模型是個例外,它們會為每個輸入的例子選擇不同的參數,結果得到一個稀疏激活模型——雖然參數量驚人,但計算成本恒定。

目前,MoE 模型已在機器翻譯領域取得了令人矚目的成就,但由于模型復雜度高、通信成本高、訓練不夠穩定,其廣泛應用受到了一定的阻礙。

為了解決這些問題,Google Brain 的研究者提出了 Switch Transformer。在 Switch Transformer 的設計中,它們簡化了 MoE 的路由算法(routing algorithm),設計了直觀的改進模型,新模型的通信成本和計算成本都大大降低。此外,他們提出的訓練技術還提高了訓練的穩定性,首次表明大型稀疏模型也可以用低精度(bfloat16)進行訓練。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

論文鏈接:https://arxiv.org/pdf/2101.03961.pdf

代碼鏈接:

https://github.com/tensorflow/mesh/blob/master/mesh_tensorflow/transformer/moe.py

研究者還將新模型與 T5-Base 和 T5-Large 進行了對比,結果表明,在相同的計算資源下,新模型實現了最高 7 倍的預訓練速度提升。這一改進還可以擴展至多語言設置中,在所有的 101 種語言中都測到了新模型相對于 mT5-Base 版本的性能提升。

最后,研究者在 Colossal Clean Crawled Corpus 上進行預訓練,將語言模型的參數量提升至上萬億,且相比 T5-XXL 模型實現了 4 倍加速。

研究者還表示,雖然這項工作著眼于規模,但它也表明,Switch Transformer 架構不僅在具備超級計算機的環境下具有優勢,在只有幾個計算核心的計算機上也是有效的。此外,研究者設計的大型稀疏模型可以被蒸餾為一個小而稠密的版本,同時還能保留稀疏模型質量提升的 30%。

Switch Transformer 的設計原理

Switch Transformer 的主要設計原則是,以一種簡單且計算高效的方式最大化 Transformer 模型的參數量。Kaplan 等人(2020)已經對擴展的效益進行了詳盡的研究,揭示了隨模型、數據集大小以及計算預算變化的冪定律縮放。重要的是,該研究提倡在相對較少數據上訓練大型模型,將其作為計算最優方法。

基于這些,研究者在增加參數量的同時保持每個示例的 FLOP 不變。他們假設參數量與執行的總計算量無關,是可以單獨縮放的重要組件。所以,研究者通過設計一個稀疏激活的模型來實現這一目標,該模型能夠高效地利用 GPU 和 TPU 等為稠密矩陣乘法設計的硬件。

在分布式訓練設置中,模型的稀疏激活層在不同設備上分配唯一的權重。所以,模型權重隨設備數量的增加而增加,同時在每個設備上保持可管理的內存和計算空間。

Switch Transformer 的編碼器塊如下圖 2 所示:

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

簡化稀疏路由

Shazeer 等人(2017)提出了一個自然語言 MoE 層,它以 token 表征 x 為輸入,然后將其發送給最堅定的 top-k 專家(從 N 個專家組成的 ^N_i=1 集合中選出)。他們假設將 token 表征發送給 k>1 個專家是必要的,這樣可以使 routing 函數具備有意義的梯度。他們認為如果沒有對比至少兩個專家的能力,則無法學習路由。

與這些想法不同,谷歌大腦這項研究采用簡化策略,只將 token 表征發送給單個專家。研究表明,這種簡化策略保持了模型質量,降低了路由計算,并且性能更好。研究者將這種 k=1 的策略稱為 Switch 層。

下圖 3 展示了具有不同專家容量因子(expert capacity factor)的路由示例:

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

高效稀疏路由

研究者使用了 Mesh-Tensorflow 庫 (MTF),它具有類似于 TensorFlow 的語義和 API,可促進高效分布式數據和模型并行架構。研究者在設計模型時考慮到了 TPU,它需要靜態大小。

分布式 Switch Transformer 實現:所有張量形狀在編譯時均得到靜態確定,但由于訓練和推斷過程中的路由決策,計算是動態的。鑒于此,一個重要的技術難題出現了:如何設置專家容量?

專家容量(每個專家計算的 token 數量)的計算方式為:每個批次的 token 數量除以專家數量,再乘以容量因子。如公式(3)所示:

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

如果將太多 token 發送給一個專家(下文稱為「丟棄的 token」),則會跳過計算,token 表征通過殘差連接直接傳遞到下層。但增加專家容量也不是沒有缺點,數值太高將導致計算和內存浪費。這當著的權衡如上圖 3 所示。

實證研究發現,將丟棄的 token 比例保持在較低水平對于稀疏專家模型的擴展很重要。設計決策對模型質量和速度的影響參見下表 1。

Switch Transformer

研究者首先在 Colossal Clean Crawled Corpus (C4) 數據集上對 Switch Transformer 進行了預訓練測試,使用了掩蔽語言建模任務。在預訓練設置中,他們遵循 Raffel 等人(2019)確定的最優方案,去掉了 15% 的 token,然后使用單個 sentinel token 來替代掩蔽序列。為了比較模型性能,研究者提供了負對數困惑度的結果。

Switch Transformer 與 MoE Transformer 的比較結果如下表 1 所示。結果表明,Switch Transformer 在速度 - 質量(speed-quality)基礎上優于精心調整的稠密模型和 MoE Transformer,并在固定計算量和掛鐘時間情況下取得了最佳結果;Switch Transformer 的計算占用空間比 MoE Transformer 小;Switch Transformer 在低容量因子(1.0, 1.25)下表現更好。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

提升訓練和微調的技巧

與原版 Transformer 模型相比,稀疏專家模型在訓練時可能更加困難。所有這些層中的 hard-swithing(路由)決策都可能導致模型的不穩定。此外,像 bfloat16 這樣的低精度格式可能加劇 router 的 softmax 計算問題。研究者采取了以下幾種技巧來克服訓練困難,并實現穩定和可擴展的訓練。

對大型稀疏模型使用可選擇行精度(Selective precision with large sparse models)

為實現穩定性使用更小的參數初始化(Smaller parameter initialization for stability)

正則化大型稀疏模型(Regularizing large sparse models)

預訓練可擴展性

在預訓練期間,研究者對 Switch Transformer 的可擴展性進行了研究。在此過程中,他們考慮了一個算力和數據都不受限制的機制。為了避免數據受限,研究者使用了大型 C4 數據庫,里面包含 180B 的目標 token。在觀察到收益遞減之前,他們一直進行訓練。

專家的數量是擴展模型最有效的維度。增加專家的數量幾乎不會改變計算成本,因為模型只為每個 token 選擇一個專家,這與專家的總體數量無關。router 必須基于更多的專家計算概率分布,但這是一個輕量級的計算成本 O(d_model × num experts)。其中,d_model 是層與層之間所傳遞的 token 的嵌入維度。在這一部分,研究者以固定的計算成本考慮基于步數和時間的可伸縮性。

基于步數的可擴展性

下圖 4 展示了多個模型在訓練步數恒定、專家數量增加時表現出的可擴展性提升情況。從中可以觀察到一個趨勢:在保持每個 token 的 FLOPS 不變時,擁有更多的參數(專家)可以提高訓練速度。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

基于時間的可擴展性

如上圖 4 所示,隨著專家數量的增加,模型的性能會不斷提升。雖然模型的每個 token 擁有與基線近乎相同的 FLOPS,但 Switch Transformers 會產生額外的跨設備通信成本,路由機制也會帶來額外的計算開銷。因此,在基于步數的設置中觀察到的樣本效率提升未必能轉化為時間上的模型質量提升。這就引出了一個問題:

在訓練時間和計算成本都固定的前提下,我們應該訓練一個稠密模型還是稀疏模型?

下圖 5 和 6 解決了這個問題。圖 5 展示了預訓練模型質量隨訓練時間增加所產生的變化。在訓練時間和計算成本都固定的情況下,Switch Transformer 的速度優勢非常明顯。在這種設置下,如果要達到相似的困惑度,Switch-Base 64 專家模型的訓練時間僅為 T5-Base 模型的 1/7。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍
谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

可擴展性 VS. 一個更大的稠密模型

上面的實驗表明,一個計算不受限制的稠密模型已經被 Switch 超越。圖 6 考慮了一種不同的情況:如果把計算資源分給一個更大的稠密模型會怎么樣?

為了驗證這個問題,研究者將 Switch-Base 與更強的基線 T5-Large 進行了對比。實驗結果表明,盡管 T5-Large 每個 token 所用的 FLOPs 是 Switch-Base 的 3.5 倍,但后者的樣本效率依然更高,而且速度是前者的 2.5 倍。此外,如果設計一個與 T5-Large 所需 FLOPs 相同的 Switch 模型(Switch-Large),上述提升還會更加明顯。

下游任務中的結果

微調

這里使用的基線方法是經過高度調參、具備 223M 參數的 T5-Base 和具備 739M 參數的 T5-Large 模型。針對這兩個模型,該研究作者設計了具備更多參數的 FLOP-matched Switch Transformer。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

在多項自然語言任務中,Switch Transformer 帶來了顯著性能提升。最明顯的是 SuperGLUE,在該基準上 FLOP-matched Switch Transformer 相比 T5-Base 和 T5-Large 的性能分別提升了 4.4% 和 2%,在 Winogrande、closed book Trivia QA 和 XSum 上也出現了類似情況。唯一沒有觀察到性能提升的基準是 AI2 推理挑戰賽(ARC)數據集:在 ARC challenge 數據集上 T5-Base 的性能超過 Switch-Base;在 ARC easy 數據集上,T5-Large 的性能超過 Switch-Large。

整體而言,Switch Transformer 模型在多項推理和知識任務中帶來了顯著性能提升。這說明該模型架構不只對預訓練有用,還可以通過微調將質量改進遷移至下游任務中。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

蒸餾

部署具備十億、萬億參數量的大型神經網絡并非易事。為此,該論文研究了如何將大型稀疏模型蒸餾為小型稠密模型。下表 7 展示了該研究所用的蒸餾技術:

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

使用表 7 中最優的蒸餾技術后,研究者將多個稀疏模型蒸餾為稠密模型。他們對 Switch-Base 模型進行蒸餾,由于專家數量的不同,其參數量在 11 億至 147 億之間。該研究可以將具備 11 億參數量的模型壓縮 82%,同時保留 37% 的性能提升。最極端的情況下,將模型壓縮了 99%,且維持了 28% 的性能提升。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

最后,研究者將微調稀疏模型蒸餾為稠密模型。下表 9 展示了對 74 億參數 Switch-Base 模型(該模型針對 SuperGLUE 任務進行了微調)的蒸餾結果——223M T5-Base。與預訓練結果類似,蒸餾后的模型仍保留 30% 的性能提升。這可能有助于確定用于微調任務的特定專家并進行提取,從而獲得更好的模型壓縮。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

多語言學習

在下游任務實驗中,研究者衡量了模型質量和速度的權衡,模型在 101 種不同語言上進行了預訓練。下圖 7 展示了 Switch T5 Base 模型與 mT5-Base 在所有語言上的質量提升情況(負對數困惑度)。對兩個模型經過 100 萬步預訓練后,Switch Transformer 的最終負對數困惑度相較基線有所提升。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

下圖 8 展示了 Switch Transformer 相較 mT5-Base 的每一步加速情況,前者實現了平均 5 倍的加速,其中在 91% 的語言上實現了至少 4 倍加速。這表明 Switch Transformer 是高效的多任務和多語言學習器。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

使用數據、模型和專家并行化來設計模型

隨意地增加專家數量會出現收益遞減問題(參見上圖 4),該研究介紹了一些補充性的擴展策略,涉及結合數據、模型與專家并行化的權衡。

結合數據、模型與專家并行化,構建萬億參數模型

Switch Transformer 設計過程中,研究者試圖平衡 FLOPs per token 和參數量。當專家數量增加時,則參數量增加,但不改變 FLOPs per token。要想增加 FLOPs,則需增加 d_ff 維度(這也會帶來參數量的增加,但相對較少)。這就是一種權衡:增加 d_ff 維度會導致每個核心內存的耗盡,因而必須增加 m。但由于核心 N 的數量是固定的 N = n × m,因此必須降低 n,也就是說需要使用更小的批大小。

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

在結合模型并行化和專家并行化之后,發送 token 到正確的專家以及模型并行化導致的內部 all-reduce 通信會帶來 all-to-all 通信成本。在結合這三種方法時,如何平衡 FLOPs、通信成本和每個核心的內存變得非常復雜。

該研究結合數據、模型與專家并行化,設計了兩個大型 Switch Transformer 模型,分別具備3950 億參數1.6 萬億參數,并研究了這些模型在上游預訓練語言模型和下游微調任務中的性能。參數量、FLOPs 和不同模型的超參數參見下表 10:

谷歌大腦提出簡化稀疏架構,預訓練速度可達T5的7倍

關于 Switch Transformer 還有很多問題

在論文最后部分,谷歌大腦研究者探討了一些關于 Switch Transformer 和稀疏專家模型的問題(這里稀疏指的是權重,而不是注意力模式)。

問題 1:Switch Transformer 的性能更好嗎?原因是否在于巨量參數?

性能的確更好,但原因不在參數量,而在于設計。參數有助于擴展神經語言模型,大模型的性能確實會好一些。但是該研究提出的模型在使用相同計算資源的情況下具備更高的樣本效率。

問題 2:沒有超級計算機的情況下,我能使用該方法嗎?

盡管這篇論文聚焦非常大型的模型,但研究者仍找到了具備兩個專家的模型,既能提升性能又可以輕松適應常用 GPU 或 TPU 的內存限制。因此,研究者認為該技術可用于小規模設置中。

問題 3:在速度 - 準確率帕累托曲線上,稀疏模型的表現優于稠密模型嗎?

是的。在多種不同模型規模情況下,稀疏模型在每一步和墻上時鐘時間方面都優于稠密模型。受控實驗表明,對于固定的計算量和時間而言,稀疏模型的表現超過稠密模型。

問題 4:我無法部署萬億參數模型,可以將模型縮小嗎?

雖然無法完整維持萬億參數模型的質量,但通過將稀疏模型蒸餾為稠密模型,可實現 10-100 倍的壓縮率,同時獲得專家模型約 30% 的質量改進。

問題 5:為什么要使用 Switch Transformer 代替模型并行稠密模型?

以時間為基準,Switch Transformer 要比使用分片參數(sharded parameter)的稠密模型高效得多。同時,這一選擇并非互斥,Switch Transformer 中也可以使用模型并行化,這可以提高 FLOPs per token,但也會導致傳統模型并行化的減速。

問題 6:為什么稀疏模型未得到廣泛使用?

嘗試稀疏模型的想法被稠密模型的巨大成功所阻撓。并且,稀疏模型面臨著多個問題,包括模型復雜度、訓練難度、通信成本等。而 Switch Transformer 緩解了這些問題。

 

責任編輯:張燕妮 來源: 機器之心Pro
相關推薦

2019-07-22 16:55:46

神經網絡數據圖形

2023-01-17 09:38:17

模型訓練

2020-02-25 17:30:12

谷歌Android開發者

2020-05-12 10:43:30

谷歌算法人工智能

2022-06-15 07:42:00

谷歌T5模型

2019-07-18 08:54:42

谷歌Android開發者

2022-11-01 14:50:00

數據計算

2021-09-30 11:27:58

模型人工智能神經網絡

2020-03-17 09:42:00

谷歌開源機器學習

2025-06-30 14:02:00

視覺模型AI

2013-04-01 11:37:54

Oracle微處理器SPARC T5

2021-11-26 10:18:37

AI 數據機器學習

2021-11-15 10:00:22

模型人工智能NLP

2020-05-14 14:21:50

谷歌AI數據

2021-07-13 17:59:13

人工智能機器學習技術

2022-03-14 10:53:12

谷歌模型研究

2023-03-14 14:09:00

訓練人工智能

2013-05-15 13:05:17

SPARC T5M5Oracle

2024-07-10 12:32:48

2017-08-24 11:04:00

點贊
收藏

51CTO技術棧公眾號

欧美精品久久久久久久自慰| 96pao国产成视频永久免费| 日韩综合第一页| 欧美xxxhd| 久久久亚洲国产美女国产盗摄 | 国产主播在线播放| 偷拍亚洲精品| 欧美综合色免费| 精品免费久久久久久久| 欧美在线观看在线观看| 天堂资源在线中文精品| 国产亚洲一区二区精品| 亚洲国产欧美91| 亚洲国产成人二区| 亚洲免费电影在线| 免费在线国产精品| 亚洲网站免费观看| 中日韩男男gay无套| 中文字幕久热精品在线视频| 国产69视频在线观看| 国产伊人久久| 欧美日韩在线视频首页| 中文字幕综合在线观看| 美丽的姑娘在线观看免费动漫| 韩国三级电影一区二区| 国产成人精品久久二区二区| 精品午夜福利在线观看| 国产精品传媒精东影业在线 | 国产视频精品久久| 成人av在线一区二区| 成人国产精品一区二区| 欧美激情黑白配| 雨宫琴音一区二区在线| 精品国产拍在线观看| 国产肥白大熟妇bbbb视频| 高清精品xnxxcom| 欧美日本不卡视频| 日本www高清视频| 无遮挡在线观看| 亚洲在线视频一区| 强开小嫩苞一区二区三区网站| 福利在线观看| 久久久影视传媒| 精品国产一区二区三区久久久久久| 国产绿帽一区二区三区| 青青草视频一区| 人体精品一二三区| 国产精品一区二区6| 亚洲手机视频| 久久久亚洲精选| 久久久久久久久久一区二区三区| 午夜精品一区二区三区国产| 在线中文字幕日韩| 日本一二三不卡视频| 九九综合九九| 国产一区二区三区直播精品电影| 女~淫辱の触手3d动漫| 亚洲区小说区| 一本大道亚洲视频| 国产视频不卡在线| 青青草原综合久久大伊人精品 | 久久五月激情| 日韩av片永久免费网站| 久久国产视频一区| 丝袜亚洲精品中文字幕一区| 国产精品99蜜臀久久不卡二区 | 日本中文字幕一区二区有限公司| 日韩av电影手机在线观看| 黄色一级视频免费看| 日韩成人精品在线观看| 国产欧美日韩丝袜精品一区| 中文字幕在线播放不卡| 狠狠色丁香久久婷婷综| 国产成人免费观看| 色网站在线免费观看| 成人性色生活片| 精品国产一区二区三区麻豆免费观看完整版| 手机av免费在线观看| ww久久中文字幕| 三区精品视频| 久草资源在线| 午夜精品在线视频一区| caopor在线视频| 国产精品一区二区三区四区在线观看 | 久久偷看各类女兵18女厕嘘嘘| 四虎精品免费视频| aa国产精品| 国产精品欧美久久久| 国内精品偷拍视频| www国产成人免费观看视频 深夜成人网| 欧美日韩国产精品一卡| 黄色小网站在线观看| 午夜日韩在线观看| 五月天亚洲视频| 成人搞黄视频| 伊人亚洲福利一区二区三区| 99久久婷婷国产综合| 亚洲一区二区三区四区五区午夜| 日韩美女毛茸茸| 朝桐光av在线一区二区三区| 久久中文字幕电影| 三级在线免费观看| 欧美黄色三级| 亚洲国产精品小视频| 男人天堂资源网| 亚洲精华国产欧美| 成人国产精品一区二区| 男人久久精品| 亚洲在线观看免费| 国产成人黄色网址| 亚洲精品亚洲人成在线观看| 久热爱精品视频线路一| 黄色片视频免费| 成人免费视频一区| 中文字幕一区二区三区有限公司| 午夜裸体女人视频网站在线观看| 欧美久久久久免费| 成人黄色免费网址| 亚洲国产美女| 亚洲一区国产精品| a天堂中文在线88| 欧美色另类天堂2015| 国产人妻精品午夜福利免费| 日本一区二区免费高清| 欧美专区中文字幕| 高h放荡受浪受bl| 亚洲三级视频在线观看| 色悠悠久久综合网| 欧美女王vk| 国产91av在线| 天天操天天干天天舔| 亚洲精品亚洲人成人网在线播放| 深夜黄色小视频| 欧美色图一区| 日本中文字幕久久看| 天天摸夜夜添狠狠添婷婷| 玉足女爽爽91| 性一交一黄一片| 一个色综合网| 亚洲综合av影视| 午夜在线激情影院| 日韩一区二区三区四区五区六区| 成年人网站在线观看视频| 久久成人免费电影| 亚洲日本一区二区三区在线不卡| 校园春色亚洲色图| 亚洲人成绝费网站色www| 亚洲影院在线播放| 久久久久久日产精品| 波多野结衣50连登视频| 日韩激情网站| 欧美一区二区三区四区在线| 午夜av免费在线观看| 欧美日韩一区二区在线| 久久精品成人av| 日韩国产在线一| 日本一区二区三区免费观看| 色猫猫成人app| 中文字幕一精品亚洲无线一区| 中文字幕乱码无码人妻系列蜜桃| 欧美国产禁国产网站cc| jizz18女人| 66视频精品| 国产精品12| 女厕盗摄一区二区三区| 亚洲人成啪啪网站| 亚洲精品一区二区二区| 亚洲婷婷在线视频| 最好看的中文字幕| 国产日韩视频| 天堂va久久久噜噜噜久久va| 色诱色偷偷久久综合| 欧美黑人国产人伦爽爽爽| 日本黄色大片视频| 一本一道久久a久久精品综合蜜臀 一本一道综合狠狠老 | 国产小视频在线看| 91色porny蝌蚪| 亚洲精品手机在线观看| 欧美日韩国产在线一区| 久久波多野结衣| 巨胸喷奶水www久久久免费动漫| 精品国产一区av| 蜜桃av鲁一鲁一鲁一鲁俄罗斯的| 欧美午夜宅男影院在线观看| 大吊一区二区三区| 国产不卡免费视频| 免费在线观看的毛片| 亚欧美无遮挡hd高清在线视频 | 欧美高清在线| 丁香婷婷久久久综合精品国产| 二区三区不卡| 超碰精品一区二区三区乱码| 深夜福利在线视频| 7777精品伊人久久久大香线蕉 | 亚洲资源av| 咪咪色在线视频| 日韩在线你懂的| 成人午夜在线影院| 精品国产免费人成网站| 久久艹在线视频| 国产永久免费高清在线观看| 日韩欧美中文字幕公布| 999视频在线| 亚洲第一综合色| 黑人狂躁日本娇小| 久久影音资源网| wwwxxx色| 精品在线视频一区| 日韩一级在线免费观看| 黄色av一区| 在线观看成人一级片| 日韩mv欧美mv国产网站| 444亚洲人体| 91精品国产经典在线观看| 国语自产在线不卡| 91蜜桃在线视频| 日韩最新av在线| 男人的天堂av高清在线| 亚洲第一色中文字幕| 国产婷婷在线视频| 欧美日韩卡一卡二| 极品国产91在线网站| 黄色成人av网| 国产在线视频二区| 樱桃国产成人精品视频| 国产人与禽zoz0性伦| 久久精品一区八戒影视| 亚洲观看黄色网| jvid福利写真一区二区三区| 北条麻妃亚洲一区| 精品一二线国产| 性生活免费在线观看| 日韩高清不卡一区| 美女福利视频在线| 免费亚洲婷婷| 99精品视频在线看| 噜噜噜躁狠狠躁狠狠精品视频| 免费毛片网站在线观看| 亚洲天堂久久| 青草青青在线视频| 伊人久久亚洲影院| www.亚洲视频.com| 亚洲伦伦在线| 俄罗斯av网站| 国产精品丝袜xxxxxxx| 九一国产精品视频| 日韩网站在线| 中国丰满人妻videoshd | www.com黄色片| 喷水一区二区三区| 向日葵污视频在线观看| 奇米亚洲午夜久久精品| 一区二区三区 日韩| 麻豆国产精品一区二区三区| 黄色永久免费网站| 激情亚洲综合在线| 国模大尺度视频| 国产成人精品一区二| 亚洲精品乱码久久久久久蜜桃欧美| 国产91丝袜在线播放0| 国产一级免费片| 91片在线免费观看| 中文字幕伦理片| 中文字幕在线一区免费| 日韩成人短视频| 亚洲高清视频的网址| 国产成人一区二区三区影院在线 | 97在线公开视频| 日韩免费看网站| 亚洲av成人无码久久精品老人 | 日韩在线三级| 自由日本语亚洲人高潮| 人人妻人人澡人人爽欧美一区双 | 国产精品欧美激情| 免费看日产一区二区三区 | ass极品水嫩小美女ass| 成人动漫av在线| av男人的天堂av| 亚洲人成伊人成综合网小说| 国产大片中文字幕| 欧美综合久久久| 国产高清在线免费| 日韩av在线最新| lutube成人福利在线观看| 久久夜色精品亚洲噜噜国产mv| 91jq激情在线观看| 国产精品一区二区久久久久| jazzjazz国产精品久久| 色爱区成人综合网| 亚洲国产精品第一区二区| 波多结衣在线观看| 丁香一区二区三区| 妺妺窝人体色WWW精品| 日韩毛片精品高清免费| 亚洲欧美在线观看视频| 欧美日韩一区成人| 国产成人无码www免费视频播放| 一区二区欧美在线| а√天堂8资源在线| 国产精品网站视频| 爽爽窝窝午夜精品一区二区| 特级黄色录像片| 日韩精品电影在线| 国产xxxx视频| 日韩毛片视频在线看| 中文字幕乱伦视频| 亚洲精品狠狠操| 制服丝袜在线播放| 国产精品一区二区性色av| 欧美日韩一本| 日韩专区第三页| 精品一区在线看| 免费看91的网站| 懂色aⅴ精品一区二区三区蜜月| 国产农村妇女毛片精品| 亚洲天堂男人天堂女人天堂| xxxcom在线观看| 亚洲综合小说区| 久久国产精品亚洲人一区二区三区| 好吊妞无缓冲视频观看| 国产激情视频一区二区在线观看| 国产又粗又猛又爽又黄的视频四季 | 91麻豆精品国产综合久久久 | 91在线中文字幕| 全球成人免费直播| 日韩av播放器| www精品美女久久久tv| 久久精品国产亚洲av麻豆色欲| 91精品国产综合久久久蜜臀图片| freemovies性欧美| 国产精品久久久av| 狠狠操综合网| 日韩免费高清在线| 日本一区二区三区四区在线视频| 免费观看成人毛片| 亚洲毛片在线观看.| 天堂√中文最新版在线| 国产在线精品一区二区三区| 欧美日本中文| 精品1卡二卡三卡四卡老狼| 亚洲精品国产一区二区精华液| 一级淫片免费看| 久久综合免费视频影院| 国产精品高清一区二区| 2021国产视频| 国产精品一区二区三区99| 一级免费黄色录像| 日韩欧美在线一区二区三区| 日韩影视在线| 狠狠久久综合婷婷不卡| 一本久久知道综合久久| 亚洲天堂网一区二区| 欧美视频精品一区| 国产福利在线观看| 国产精品一区二区久久精品| 999精品色在线播放| 黑人巨大猛交丰满少妇| 香蕉影视欧美成人| 欧美zzoo| 成人春色激情网| 黄色精品免费| 中文字幕一区二区三区人妻不卡| 色香色香欲天天天影视综合网| 国产精品视频一区二区久久| 国产精品视频久久久| 久久久久国产精品| 香蕉在线观看视频| 日韩欧美在线视频免费观看| 国产69精品久久app免费版| 国产综合在线观看视频| 欧美特黄视频| 久久精品老司机| 欧美日韩国产片| 欧美1234区| 欧美一区二区三区电影在线观看 | 欧美日韩在线播放一区| bt在线麻豆视频| 精品一区二区不卡| 麻豆精品久久久| 国产在线拍揄自揄拍| 亚洲免费人成在线视频观看| 综合久草视频| 亚洲不卡中文字幕无码| 国产精品视频第一区| www天堂在线| 国产精品成久久久久三级 | 久久久久日韩精品久久久男男| 亚洲电影男人天堂| aaa一级黄色片| 欧美日韩另类视频| 日本不卡不卡| 久久久久高清| 国产久卡久卡久卡久卡视频精品| 国产性猛交╳xxx乱大交| 久久精品青青大伊人av| 丝袜连裤袜欧美激情日韩| 51自拍视频在线观看| 欧美亚洲图片小说| 17videosex性欧美| 国产三级中文字幕|