精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

算力終結者來了!華人天團「降維打擊」注意力瓶頸,AI狂飆進對數時代

人工智能 新聞
注意力機制的「平方枷鎖」,再次被撬開!一招Fenwick樹分段,用掩碼矩陣,讓注意力煥發對數級效率。更厲害的是,它無縫對接線性注意力家族,Mamba-2、DeltaNet 全員提速,跑分全面開花。長序列處理邁入log時代!

LLM苦算力太久了!

為緩解長序列建模中的算力瓶頸,研究界持續探索高效替代方案。

這次Mamba作者Tri Dao、華人AI領域大牛Eric P. Xing等聯手MIT、普林斯頓、CMU等機構的研究人員,提出了全新的注意力機制:對數線性注意力(Log-Linear Attention)。

它具有以下特點:

- 訓練效率:對數線性時間

- 推理性能:對數級別的時間和空間復雜度 - 硬件執行:利用Triton內核實現的高效執行

圖片

論文鏈接:https://arxiv.org/abs/2506.04761

代碼鏈接:https://github.com/HanGuo97/log-linear-attention

此外,研究人員引入了新理論框架,統一了不同高效注意力機制的分析視角。

另外值得一提的是,兩位第一作者都是華人,均麻省理工學院計算機科學與人工智能實驗室就讀。

結構矩陣,一統注意力變體

2017 年,谷歌的八位研究人員提出了Transformer架構,自此注意力機制(attention mechanism)開始主導LLM的發展。

圖片

然而,注意力機制存在「先天頑疾」:

它的計算復雜度與輸入序列長度N是平方關系,也就是O(N2)。

近年來,涌現了大量致力于實現次二次方計算復雜度(sub-quadratic compute)和次線性內存消耗(sub-linear memory)的高效替代方案。

他們主要包括:線性注意力(linear attention)、狀態空間模型(state-space models)以及長卷積模型(long convolution models)。

盡管這些方法各有不同,但它們大多可以用以下方程統一表示:

圖片

其中A表示一個類Attention的交互矩陣,例如在線性注意力中,矩陣A就是Q和K的轉置矩陣的乘積矩陣;

M是下三角形的因果掩碼矩陣,如線性注意力中的M的元素只能取值0和1。

從結構矩陣視角,這種表示形式把交互項A與掩碼矩陣M拆分開,揭示了大量不同模型之間的結構共性,如表1所示。

通常矩陣M,用于模擬不同時間步之間的「衰減關系」。

圖片

對掩碼矩陣M引入不同的結構形式,還可以進一步促進訓練和推理的高效實現。

掩碼矩陣M的結構,決定了對高效算法的實現。

即便不使用softmax,如果采用無結構的M(例如隨機下三角矩陣),注意力機制的計算和內存復雜度,仍為與softmax注意力機制相當。

這表明:提升效率的關鍵不只是去除softmax,而在于M本身是否具備合適的結構。

在標準的線性注意力中,M是由1構成的下三角矩陣。

這種結構能對輸出O進行分塊處理,從而將算法整體復雜度降至O(T)。

然而,在傳統注意力和這些線性時間變體之間,是否還存在其他可能性?

此方法還可以推廣到更復雜的門控機制中,此時的M擁有一種稱為「1-半可分結構」(1-semiseparable structure)的特殊形式。

在狀態空間對偶建模框架中,這一方法已經有所體現。

圖片

論文鏈接:https://arxiv.org/abs/2405.21060

另外,在長卷積模型(long convolution models)中,可以通過使用快速傅里葉變換(FFT)進一步將復雜度降為O(TlogT),相較于原始的O(T2)計算量,實現了顯著的效率提升。

對數線性注意力

在上一節中,已經知道:注意力的計算效率和內存消耗,取決于公式O=(A⊙M)V中掩碼矩陣M的結構。

對數線性注意力機制(log-linear attention)就是在矩陣M引入特定結構,讓計算復雜度在序列長度T上達到O(TlogT),內存復雜度降低到O(logT)。

該機制僅修改掩碼矩陣M,可無縫應用于各種線性注意力模型。

作為應用示例,研究人員展示了如何基于該框架構建Mamba-2和Gated DeltaNet的對數線性版本。

圖片

圖1:標準線性注意力機制(上)與對數線性注意力機制(下)對比示意圖

特殊結構:Fenwick樹劃分

在掩碼矩陣M上,對數線性注意力機制引入了一種特殊結構,讓計算復雜度達到對數線性級別,內存開銷則為對數級別。

為了實現這種多時間尺度的結構化劃分,關鍵在于如何將前綴區間[0,t]分配給第t步的查詢向量。

根據Token的絕對位置s,可以簡單地把它劃入層級?=?log?s?。

但在自回歸解碼中,這種做法會導致對最近輸入的劃分粒度過大,進而影響模型在關鍵位置上的預測精度。直覺上,越靠近當前時間點的上下文信息越重要,應該以更高分辨率來建模。

為了解決這一問題,研究者采用了另一種的分段策略。

從原理上看,這種結構類似于Fenwick樹(也稱為樹狀數組)所使用的分層方式,將輸入序列按2的冪大小劃分為一系列區段。

圖片

Fenwick樹是一種支持單點修改和區間查詢的,代碼量小的數據結構

在這種設計下,每個位置都會匯總一個以自身為終點的時間片段。

這能讓查詢操作只需關注少量(數量隨序列長度對數增長)的隱藏狀態,這些狀態能以不同時間粒度捕捉歷史上下文信息。

這種層次結構使模型能夠以更精細的方式關注最近的token,同時在解碼過程中實現對數級別的時間和內存效率。

圖2展示了這種劃分的可視化示意:每個Token被分配到若干層級桶中,最近的時間步被細致劃分,而越早的時間片則歸為更大的區段,從而實現了對時間上下文的層級壓縮建模。

圖片

為了生成最終的輸出向量,新方法會分別計算每個桶中的歷史記憶,并通過數據驅動的標量進行加權。

該權重是輸入經過線性變換后的結果,使得模型可以自適應不同的時間尺度。

具體來說,輸出向量表達為:

圖片

如果所有標量權重都相同或與層數?無關,則退化為線性注意力。

正是這些可區分的權重,賦予了模型捕捉多尺度時間結構的能力。

為了更高效地在硬件上實現上述計算,可以將公式重構為矩陣乘形式,方便批量并行:

圖片

其中,M^{H}根據s屬于t的哪一層?(t,s)來賦值。

在Fenwick分段下,這個矩陣呈現結構化低秩模式,并能支持O(TlogT)的高效訓練算法。

圖片

高效訓練算法

線性注意力的分塊并行算法會將輸入序列劃分為若干長度為C的子塊,并對所有子塊進行并行計算;當需要跨塊傳遞信息時再進行交互。

這種策略在「全并行計算」與「完全遞歸處理」之間找到平衡點,既減少了全局注意力的高計算成本,也提升了序列級別的并行效率。

同樣,分塊計算機制可以擴展應用于對數線性注意力機制。

首先注意到掩碼矩陣M^{H}的非對角區域具有低秩結構,因此可將其分解為:

圖片

其中,D表示僅在塊內部有效的對角矩陣,包含T?C個塊,每個塊記錄子塊內的交互信息。

M^{?}則表示第?層的跨塊依賴關系,

它通過一種類似樹狀結構的方式,將較遠位置之間的關聯壓縮成一個低秩表示(即對稱或重復性高的結構),如圖3(左)所示。

基于這種結構,研究者提出了分塊計算算法(見算法1和圖3右)。

這種方法在原有線性注意力的基礎上,僅引入了對數級別的額外開銷。

整個算法可分為兩個階段:

塊內計算(?=0):在每個子塊中,系統視其為無結構數據,并使用標準的O(C2)計算完成塊內交互。總共有T?C個子塊,因此整體塊內計算成本為O(TC)。

塊間計算(?>0):對于不同子塊之間的依賴,模型通過若干層次結構表示進行處理。這些結構構成了一個「分層可分矩陣」(SSS),允許在每層僅用少量操作完成跨塊傳遞。只要能調用諸如Mamba-2或GatedDeltaNet中那類高效的狀態傳遞模塊,每層的跨塊傳遞只需O(logT?C)次函數調用,每次耗費O(T)的時間和內存,因此總體跨塊成本為O(TlogT)

圖片

該方法在原本線性注意力的計算程上,僅增加了對數級別的額外開銷,從而在保持高效性的同時提升了表達能力。

在圖3中,左圖展示了矩陣M的分解方式,右圖則是對應的分塊計算算法(算法1)。

在Level 0,模型對每個小塊內部進行計算,采用的是相對于塊大小為二次復雜度的算法。由于每個塊本身較小,因此這一階段計算開銷低、效率高。

從Level 1開始,模型對不同塊之間進行計算,方法是多次調用已有的跨塊計算算法組件。整體來看,該跨塊計算階段的復雜度相對于塊數是對數級別的,從而保證了整體計算過程的高效性。

圖片

這一方法實質上是將經典的scan掃描算法推廣到層級結構中,研究者稱之為分塊并行掃描(chunkwise parallel scan)

與傳統token級scan不同,它不再受限于內存帶寬瓶頸,而是通過結構優化使狀態以低成本在線上傳遞。

算法中每一層的系數,來自于掩碼矩陣的低秩項,可通過并行掃描算法(如Blelloch scan)進行高效整合,從而提升整體訓練效率和可擴展性。

對Mamba-2和門控DeltaNet的對數線性推廣

這兩個模型的主要區別在于它們對轉換矩陣A的參數化方式不同。

研究團隊的方法保留了每個模型中A的原始形式,同時將注意力掩碼與對數線性變體M進行組合。

他們將得到的模型稱為對數線性Mamba-2和對數線性門控DeltaNet。

這一構造體現了一個通用原則:任何具有結構化記憶和高效分塊并行原語(chunkwise-parallel primitive)的線性注意力機制,都可以通過將其注意力掩碼與對數線性變體組合,擴展為對數線性形式。

團隊使用Triton實現了分塊并行掃描算法(chunkwise parallel scan algorithm)。

對數線性Mamba-2的定制內核在序列長度超過8K時,性能超越了FlashAttention-2(前向+反向)。

在完整的訓練設置中,吞吐量取決于模型架構。值得注意的是,盡管對數線性Mamba-2(帶MLP)包含了Transformer中沒有的額外層(如深度卷積),但在序列長度達到32K時,其吞吐量依然超過了Transformer。

圖片

圖4:在不同序列長度下的訓練吞吐量(左圖,數值越高越好)以及前向和反向傳播過程中內核運行時間(右圖,數值越低越好)。

圖4中,「Log-Linear Mamba-2 (naive)」表示簡單地重復使用現有的Mamba-2計算方法;

而「Log-Linear Mamba-2」」則采用了一種經過優化的自定義實現方式,其中包括層級融合(level fusion)等性能優化手段。

當序列長度達到131K時,訓練吞吐量出現下降,這是由于引入了梯度檢查點(gradient checkpointing)以降低內存使用所致。

所有實驗均在H100 GPU上運行,具體配置為:

batch size為2,注意力頭數為48,每個頭的維度為64,狀態維度為128,chunk size設置為64。

在(Log-Linear)Mamba-2中采用MVA,在FlashAttention-2中采用GQA。

實驗結果

研究團隊首先在多查詢關聯回憶(MQAR)上進行實驗,這是一個用于評估模型上下文回憶能力的標準測試基準。

他們在一個包含1萬個樣本的數據集上訓練了100個周期,并對學習率進行了調整。

如圖5所示,隨著序列長度和鍵值對數量的增加,DeltaNet的性能顯著下降,而對數線性DeltaNet(Log-Linear DeltaNet)依然保持高準確率。

需要注意的是,softmax注意力在所有設置下都能達到滿分準確率。

圖片

語言建模

研究團隊在Long-Data-Collections數據集上使用500億個token,從頭開始進行學術規模的語言建模預訓練,序列長度為16K。

所有模型都有21層,隱藏層大小為1536。

我們使用了以下模型:

  • 帶16個注意力頭的Transformer,RoPE基數為50萬;
  • 修改版的Mamba-2,包含48個頭和MLP層;
  • 帶6個頭的門控DeltaNet。

這些模型的參數量分別是:Transformer(6.93億)、Mamba-2(8.02億)、門控DeltaNet(7.93億)。

標準基準測試

團隊在WikiText困惑度和幾個零樣本常識推理基準上評估模型(表2)。這些都是短上下文任務,因此對模型狀態大小不太敏感。

對數線性Mamba-2在困惑度和一半的常識推理任務上優于其線性版本。

對數線性門控DeltaNet表現更突出,在困惑度和除一項推理基準外的所有任務上都超過了其線性版本。值得注意的是,它在所有指標上都優于層數匹配的Transformer,并且在一半指標上優于參數量匹配的Transformer。

圖片

逐位置損失

研究團隊報告了模型在每個token位置的損失,以評估其處理長上下文的能力(圖6)。

如果隨著token位置增加,損失持續下降,說明模型能有效利用整個上下文。然而,如果損失在某一點后趨于平穩,則表明模型難以利用序列中過于靠后的信息。在這項分析中,使用了來自Book-3的3900萬個token。

結果顯示,將Mamba-2和門控DeltaNet擴展到它們的對數線性版本后,(平滑后的)損失在不同位置上均持續降低,表明長距離上下文利用能力有所提升。

對數線性門控DeltaNet的性能也與層數匹配的Transformer非常接近,盡管與參數量匹配的Transformer相比仍存在性能差距。

圖片

大海撈針

團隊使用了RULER中的「大海撈針」(NIAH,圖7)基準測試,在該測試中,模型需要根據隱藏在長上下文中的鍵來檢索一個值(針)。

在較簡單的單針任務中,對數線性Mamba-2在9個指標中的8個上優于其線性版本。

門控DeltaNet在多個情況下已達到完美準確率,但在3個指標上有所提升,另外3個保持不變。

在更具挑戰性的多針任務中,對數線性Mamba-2再次在9個指標中的8個上有所改進,而對數線性門控DeltaNet則在所有指標上均取得進步。

圖片

上下文檢索

團隊在現實世界的、需要大量回憶的任務上評估模型(表3)。

由于這些基準測試最初是為短序列(≤2K token)設計的,他們報告了序列長度為512、1024、2048以及(除NQ外)16K的結果。

結果發現,對數線性Mamba-2在大約一半任務(SQuAD、TriviaQA和NQ)上有所改進。

相比之下,對數線性門控DeltaNet表現更為穩定,在除DROP之外的所有任務上均匹配或優于門控DeltaNet。

圖片

長上下文理解

最后,他們在LongBench(表4)上評估了模型的性能。

結果顯示,對數線性Mamba-2和門控DeltaNet在14個評估任務中的8個上均優于基線Mamba-2和門控DeltaNet。

圖片

討論與局限性

雖然對數線性注意力在許多情況下優于線性注意力,但仍有不少任務中它的表現未能超越線性注意力的基線。

由于計算資源限制,研究團隊無法嘗試不同的λ項參數化(或超參數調整),而優化λ的參數化可能會帶來更好的結果。

此外,與Transformer相比,所有基準測試中仍存在顯著的性能差距。

對數線性注意力的工程復雜性較高。塊間計算在概念上類似于多次應用線性注意力原語,但塊內操作需要專門的實現。這些塊內機制是導致速度差異的主要因素。

此外,反向傳播過程更為復雜,因為不僅需要(手動)計算標準注意力組件的梯度,還需計算額外的λ項梯度。

最后,Fenwick樹分區的使用引入了一種歸納偏差:近期token被分配更細粒度的內存,而較遠的token被更激進地壓縮。

更多實驗設置等細節,請參閱原文。

一作簡介

圖片

圖片

Han Guo,現任麻省理工學院計算機科學與人工智能實驗室(MIT CSAIL)博士研究生,師從Yoon Kim教授與Eric P. Xing(邢波)教授。

此前,他曾在卡耐基梅隆大學語言技術研究所(CMU LTI)、北卡羅來納大學NLP研究組(UNC-NLP), 與Mohit Bansal教授開展研究,度過數年寶貴學術時光。

他的研究方向聚焦可擴展高效機器學習/自然語言處理的算法與系統設計,2022年榮獲微軟研究院博士生獎學金(Microsoft Research PhD Fellowship)。

圖片

圖片

Songlin Yang,是麻省理工學院計算機科學與人工智能實驗室(MIT CSAIL)的博士生,師從Yoon Kim教授。

她2020年獲得南方科技大學學士學位,2023年獲得上海科技大學碩士學位。

她聚焦機器學習系統與大型語言模型的交叉領域,特別關注:

? 面向硬件的高效序列建模算法設計

? 線性注意力模型(linear attention)的優化與創新

責任編輯:張燕妮 來源: 新智元
相關推薦

2024-08-07 10:19:00

2024-09-19 10:07:41

2018-08-26 22:25:36

自注意力機制神經網絡算法

2021-06-24 20:28:44

辦公

2023-12-08 07:49:47

CPU內存性能架構

2020-07-23 10:51:29

NginxWebApache

2023-03-24 10:18:22

2020-12-16 22:31:53

AI人工智能

2025-11-18 14:50:57

2025-02-25 09:40:00

模型數據AI

2025-05-20 14:36:53

2018-05-06 16:52:51

2012-09-10 09:28:51

2024-09-29 09:21:46

2023-01-05 16:48:24

點贊
收藏

51CTO技術棧公眾號

国产成人精品网站| 亚洲成a人v欧美综合天堂| 国产成人精品一区| 久久久久久久久久久久久女过产乱| 色成人综合网| 午夜av一区二区| 一区二区三区av在线| 亚洲男女视频在线观看| 亚洲一区二区伦理| 久久人人爽人人爽人人片亚洲| av漫画在线观看| 亚洲日本在线观看视频| 一区二区在线观看免费视频播放| 精品免费一区二区三区蜜桃| 亚洲最大成人在线视频| 亚洲欧洲午夜| 久久最新资源网| 波多野结衣办公室33分钟| 国产亚洲精aa在线看| 色综合夜色一区| 黄色影视在线观看| 国产福利小视频在线| 成人午夜视频网站| 国产日韩欧美另类| 日韩精品一区二区亚洲av| 欧美黄色大片网站| 日韩中文字幕网站| 中文字幕国产综合| 国产91精品入| 日韩欧美三级在线| 国模私拍视频在线观看| 欧美日韩视频网站| 亚洲v日本v欧美v久久精品| av磁力番号网| 欧美jizz18性欧美| 国产欧美一区二区精品婷婷| 久久久精品国产一区二区三区| 精品乱子伦一区二区| 久久精品久久综合| 国产精品久久久久久婷婷天堂| 日韩av女优在线观看| 91精品国产91久久综合| 日韩在线免费观看视频| 日韩福利在线视频| 狠狠色丁香婷婷综合影院| 亚洲精品电影在线| 国产一线在线观看| av男人一区| 精品国产免费久久| 韩国av中国字幕| 一区二区视频| 欧美xxxxxxxxx| 在线播放第一页| 97久久亚洲| 亚洲成人黄色网| 亚洲熟女乱综合一区二区三区| 国内精品麻豆美女在线播放视频| 精品捆绑美女sm三区| 中文字幕在线播放一区二区| 国产成人久久精品一区二区三区| 欧美精品久久一区| 亚洲第一成肉网| 欧洲大片精品免费永久看nba| 欧美一级日韩一级| www.黄色网| 欧美成人一区在线观看| 日韩成人中文字幕| 亚洲第一成人网站| 99久久亚洲精品蜜臀| 精品国产一区二区三区久久狼黑人 | 欧美一区二区三区视频| 久久精品无码一区二区三区毛片| 8848成人影院| 日韩黄色高清视频| 久久久久久久毛片| 亚洲男女av一区二区| 欧美激情18p| 你懂的国产在线| 日本视频在线一区| 91免费国产网站| 蜜桃91麻豆精品一二三区| 午夜精品免费看| 国产成人夜色高潮福利影视| 精品无人区太爽高潮在线播放| av网站免费在线看| 雨宫琴音一区二区三区| 久久久亚洲欧洲日产国码aⅴ| 国产成人在线视频观看| 美国三级日本三级久久99| 91视频国产高清| 污污的视频网站在线观看| 国产人久久人人人人爽| 喜爱夜蒲2在线| 悠悠资源网亚洲青| 欧美一区二区三区视频免费| 噜噜噜在线视频| 色综合久久一区二区三区| 欧美激情国产高清| 亚洲av人无码激艳猛片服务器| 国产一区美女在线| 久久久久久久久一区二区| 免费黄色在线观看| 欧美午夜视频一区二区| 亚欧美一区二区三区| 欧美男男freegayvideosroom| 一本色道久久88精品综合| 强乱中文字幕av一区乱码| 日韩中文字幕区一区有砖一区 | 国产又大又长又粗| 91首页免费视频| 亚洲亚洲精品三区日韩精品在线视频| 久久国产精品黑丝| 欧美美女黄视频| 三上悠亚ssⅰn939无码播放 | av中文字幕免费在线观看| 91麻豆视频网站| 无码人妻少妇伦在线电影| xxxxx.日韩| 亚洲欧美国产视频| 国产一级在线播放| 国内久久婷婷综合| 五月天婷亚洲天综合网鲁鲁鲁| 国产蜜臀在线| 欧美一区二区视频在线观看 | 亚洲黄色性网站| 深夜黄色小视频| 九九在线高清精品视频| 久久久亚洲福利精品午夜| 国产精品探花视频| 中文字幕不卡三区| 国产精品天天av精麻传媒| 林ゆな中文字幕一区二区| 久久久精品视频在线观看| 亚洲免费视频二区| 久久天天做天天爱综合色| 欧美不卡在线播放| 久久精品66| 久久久噜久噜久久综合| 亚洲国产精品久久人人爱潘金莲 | 亚洲一级黄色av| www.国产com| 91亚洲精品久久久蜜桃| 无码中文字幕色专区| av成人综合| 午夜精品久久久久久99热软件 | 亚洲全黄一级网站| 无码人妻精品一区二区三区不卡 | 日本少妇aaa| 另类的小说在线视频另类成人小视频在线 | 亚洲免费观看视频| 国产老头和老头xxxx×| 欧美日本一区| 成人精品一二区| 欧美韩日亚洲| 亚洲精品720p| 天天干在线播放| 国产婷婷色一区二区三区四区 | www.久久久久久久久| www.av蜜桃| 欧美aaaaa级| 国产福利成人在线| 成年人在线看| 欧美高清视频不卡网| 国产女人18水真多毛片18精品| 精品一区二区三区免费毛片爱 | 久久亚洲色图| 日日夜夜精品网站| 亚洲高清影院| 欧美夫妻性生活视频| 天天干免费视频| 色系网站成人免费| 国产成人免费在线观看视频| 国产在线精品不卡| 国产精品一线二线三线| 伊人精品一区| 成人黄色免费看| 另类视频在线| 亚洲日本aⅴ片在线观看香蕉| 中文字幕丰满人伦在线| 一区二区三区自拍| 久久精品老司机| 久久精品国产久精国产| av片在线免费| 国产成人精品999在线观看| 国产精品香蕉在线观看| 中文字幕免费高清电视剧网站在线观看 | 国产性生活一级片| 亚洲美女91| 西游记1978| av综合网站| 国产精品九九九| 羞羞网站在线免费观看| 日韩电影免费观看在线观看| 中文字幕在线播放日韩| 亚洲第一激情av| 一级二级黄色片| 成人精品小蝌蚪| 五月婷婷丁香综合网| 韩国一区二区三区在线观看| 日韩女优中文字幕| 高清一区二区| 国产精品www网站| 精品精品导航| 久久激情视频免费观看| 日韩福利一区二区| 欧美成人激情免费网| 国产成人精品亚洲| 午夜精品一区二区三区电影天堂| 女教师淫辱の教室蜜臀av软件| 不卡一区在线观看| 在线看免费毛片| 青椒成人免费视频| 国产美女无遮挡网站| 综合激情一区| 亚洲欧洲一区二区在线观看| 亚洲免费福利一区| 国产精品视频福利| 999色成人| 国产精品va在线播放| 日韩伦理精品| 97视频在线观看免费高清完整版在线观看| 在线免费观看黄色网址| 亚洲人成电影网站色www| 国产成人手机在线| 欧美一区二区成人| jizz国产视频| 欧美人与性动xxxx| 欧美人一级淫片a免费播放| 精品久久久一区| 日本三级2019| 午夜视频久久久久久| 青青草原在线免费观看视频| 一区在线中文字幕| 制服丨自拍丨欧美丨动漫丨| 国产视频一区二区在线观看| 日韩乱码人妻无码中文字幕久久| 成人美女在线观看| 中文字幕人妻熟女在线| 成人一区二区三区| 久草免费资源站| 粉嫩久久99精品久久久久久夜| 日韩av片免费观看| 激情综合五月天| 久久久久xxxx| 国产精品自拍av| 亚洲国产欧美日韩在线| 粉嫩aⅴ一区二区三区四区 | 成人在线视频中文字幕| 国产成人免费观看| 国产成人精品亚洲线观看| 国产在线精品一区二区中文 | 亚洲精品9999| 五月精品视频| 中文字幕の友人北条麻妃| 国内揄拍国内精品久久| av免费看网址| 三级欧美在线一区| www亚洲成人| 韩国一区二区在线观看| 在线观看网站黄| 成人自拍视频在线观看| 亚洲色偷偷色噜噜狠狠99网| 99国产精品久久久久久久久久久| theav精尽人亡av| 国产欧美日韩卡一| 国产97免费视频| 亚洲综合色噜噜狠狠| 91久久国产视频| 91国偷自产一区二区开放时间| 中国女人一级一次看片| 欧美一区二区三区四区视频| 日韩一区免费视频| 国产亚洲精品美女久久久| 黄网站免费在线观看| 久久免费视频在线观看| 欧美影视资讯| 91热精品视频| 国产精品18hdxxxⅹ在线| 欧美色图亚洲自拍| 综合久久精品| av观看免费在线| 国内精品第一页| 91精品小视频| 专区另类欧美日韩| 日韩 欧美 亚洲| 在线播放91灌醉迷j高跟美女| 亚洲国产精品久久久久久6q| 亚洲性av在线| 日本孕妇大胆孕交无码| 国产成人久久久| 日韩欧美高清一区二区三区| 欧美二区在线| 欧美黄免费看| 小泽玛利亚视频在线观看| 成人免费视频网站在线观看| 蜜桃久久精品成人无码av| 一区二区高清视频在线观看| 日韩精选在线观看| 亚洲成人精品视频在线观看| 中国日本在线视频中文字幕| 国产69精品久久久久9| 国产亚洲精品精品国产亚洲综合| 成人午夜电影在线播放| 视频在线不卡免费观看| 国产精品裸体瑜伽视频| 激情综合网av| 亚洲女优在线观看| 午夜精品久久久| 国产三级在线观看视频| 亚洲天堂av在线播放| japanese色国产在线看视频| 成人免费福利在线| 成人精品亚洲| 激情六月丁香婷婷| www.av亚洲| 欧美日韩在线视频免费播放| 欧洲人成人精品| 三级av在线| 韩国福利视频一区| 中文字幕亚洲在线观看| 伊人情人网综合| 日本免费在线视频不卡一不卡二 | 国产精品免费aⅴ片在线观看| 99久在线精品99re8热| 日韩一区二区三区电影在线观看| 啊v在线视频| 国产精品91在线观看| 午夜a一级毛片亚洲欧洲| 亚洲国产精品无码av| 国产乱妇无码大片在线观看| 三上悠亚作品在线观看| 欧美三区在线观看| 国产一级二级三级在线观看| 91tv亚洲精品香蕉国产一区7ujn| 99香蕉久久| 免费人成自慰网站| 高清不卡一区二区在线| 欧美毛片在线观看| 日韩欧美中文字幕一区| av文字幕在线观看| 91老司机在线| 欧美在线91| 久久免费精品国产| 亚洲大片精品永久免费| 黄色美女一级片| 97精品免费视频| 岳的好大精品一区二区三区| 俄罗斯av网站| 国产亚洲精品7777| 最近中文字幕在线免费观看| 国产亚洲欧美日韩一区二区| 中文.日本.精品| 一区二区三区三区在线| 久久er99精品| 91视频综合网| 精品国产乱码久久久久久牛牛| 888av在线视频| 久久一区二区三区av| 老牛影视一区二区三区| 免费看的黄色录像| 欧美一区二区美女| 黑人精品视频| 欧美日韩国产高清视频| 免费成人你懂的| 欧美国产日韩综合| 亚洲级视频在线观看免费1级| 88xx成人免费观看视频库 | 久久精品亚洲| 中文字幕在线观看二区| 制服.丝袜.亚洲.中文.综合| 欧美aaa免费| 欧美一区二区高清在线观看| 另类综合日韩欧美亚洲| 国产一级片播放| 国产午夜精品视频| 国产专区精品| 久久无码高潮喷水| 中文字幕一区日韩精品欧美| 国产后入清纯学生妹| 91av在线不卡| 99国产精品一区二区| 美女黄色一级视频| 欧美三级电影网站| 久久免费电影| 性刺激综合网| 成人黄色在线视频| 中文字幕免费观看视频| 久久久久久久久久久网站| 国产欧美日韩精品一区二区三区 | 亚洲天堂2014| 色哟哟在线观看| 91在线网站视频| 丝袜美腿成人在线| 免费在线观看av网址| 在线播放日韩av| 电影一区二区在线观看| 91香蕉视频导航| 污片在线观看一区二区| 麻豆网站在线观看| 欧美一区国产一区|