精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

近8年后,谷歌Transformer繼任者「Titans」來了,上下文記憶瓶頸被打破

人工智能 新聞
正如論文一作所說,「新架構 Titans 既比 Transformer 和現代線性 RNN 更有效,也比 GPT-4 等超大型模型性能更強。」

終于,在 2017 年推出影響 AI 行業長達 8 年的 Transformer 架構之后,谷歌帶來了全新的架構 Titans。這次,谷歌的重點是將推理領域非常重要的測試時(test-time)計算用在了記憶(memory)層面。

在談到推出 Titans 的初衷時,論文一作 Ali Behrouz 表示,「注意力機制一直是大多數 LLM 進展的重要組成部分,不過它無法擴展到長上下文。因此,Titans 應運而出,它成為了一種同時具備注意力機制和元上下文記憶的結構,可以在測試時學習記憶。該架構可以將上下文窗口擴展到 200 萬 tokens。」

圖片

圖源:https://x.com/behrouz_ali/status/1878859086227255347

這意味著,谷歌 Transformer 迎來了它的「繼任者」。

圖片

圖源:https://x.com/mark_k/status/1878896628654022993

多年來,研究人員一直在廣泛探究如何有效地利用循環模型和注意力機制,其中循環模型旨在將數據壓縮到固定大小的記憶(稱為隱狀態)中,而注意力機制允許處理整個上下文窗口,捕捉所有 token 的直接依賴。不過,更準確的依賴建模往往伴隨著二次成本,導致模型只能處理固定長度的上下文。

因此,谷歌提出了一種新的長期神經記憶模塊(neural memory module),它能夠學習記憶歷史上下文,并幫助注意力機制在利用過去已久信息的同時處理當前上下文。結果表明,這種神經記憶具有快速并行化訓練的優勢,同時還能保持快速推理。

從記憶的角度來看,谷歌認為注意力機制雖然受限于上下文但可以更準確地建模依賴關系,因此可以起到短期記憶的作用;而神經記憶能夠對數據進行記憶,起到了長期、更持久的記憶作用。基于這兩個模塊,谷歌引入了一個全新的系列架構 —— Titans,通過三種變體有效地將記憶融合到該系統架構中,它們分別是記憶作為上下文(Memory as a Context,MAC)、記憶作為門(Memory as a Gate,MAG)和記憶作為層(Memory as a Layer,MAL)

在語言建模、常識推理、基因組學和時序預測任務上的實驗結果表明,Titans 架構比 Transformer 和近年來的現代線性循環模型更有效。另外,在大海撈針(needle-in-haystack)中,Titans 架構能夠有效地擴展到超過 200 萬 tokens 的上下文窗口,并且比基準模型實現了更高的準確性。

圖片

  • 論文標題:Titans: Learning to Memorize at Test Time
  • 論文地址:https://arxiv.org/pdf/2501.00663v1

另外,論文作者之一 Peilin Zhong 為谷歌 NYC 算法與優化團隊的研究科學家,2021 年加入谷歌。他本科畢業于清華姚班,博士畢業于哥倫比亞大學。

目前,已經有人搞出了有關 Titans 架構的非官方實現,感興趣的讀者可以去看一下。

圖片

GitHub 地址:https://github.com/lucidrains/titans-pytorch

學習測試時記憶

谷歌詳細介紹了長期神經記憶模塊,它成為了一種可以在測試時學習記憶的元模型。

長期記憶

為了設計一個長期神經記憶模塊,我們需要模型能夠將過去歷史的抽象編碼到其參數中。因此,一個簡單的思路是訓練神經網絡并期望它能夠記住自己的訓練數據,然而記憶幾乎一直是神經網絡中令人頭疼的現象,它限制了模型的泛化能力,還引發隱私問題,因此導致測試時性能不佳。

基于此,谷歌認為需要一個在線元模型來學習如何在測試時記憶或忘記數據。在這種設置下,模型學習一個能夠記憶的函數,但不會過擬合訓練數據,從而在測試時實現更好的泛化性能。

學習過程和意外指標(Learning Process and Surprise Metric)。訓練長期記憶的關鍵思路是將訓練視為在線學習問題,其中將過去信息 x_1, …, x_t-1 壓縮到長期神經記憶模塊中。人類往往能夠記住背離預期(令人驚訝)的事件,受此啟發,模型意外可以簡單定義為它相對于輸入的梯度。梯度越大,輸入數據與過去數據的偏差就越大。因此,使用這個意外分數,可以將記憶更新如下:

圖片

這一意外指標可以導致在重大意外時刻之后出現重要信息缺失。從人類記憶的角度來看,即使一個事件令人難忘,但它可能不會在長時間內持續讓我們感到驚訝。為了改進這一現象,谷歌將意外指標分解為了(1)過去意外,它衡量最近過去的意外程度;(2)瞬時意外,它衡量傳入數據的意外。

圖片

這些意外指標基于一個損失函數圖片,它就是我們的記憶在測試時學習充當的目標。也就是說,記憶模塊是一個元模型,它基于損失函數圖片來學習一個函數。

在本文中,谷歌則專注于聯想記憶,目的是將過去的數據存儲為鍵(keys)和值(values)對。類似于 Transformer,在給定 x_t 的情況下,谷歌使用兩個線性層將 x_t 投影到鍵和值中:

圖片

接下來,谷歌希望記憶模塊可以學習鍵和值之間的關聯,為此將損失定義如下:

圖片

遺忘機制(Forgetting Mechanism)。在處理非常大的序列(比如百萬 tokens)時,管理哪些過去信息應該被遺忘非常重要,即使使用深度或者非常大的矩陣值記憶時也是如此。因此,谷歌使用了一種自適應遺忘機制,允許記憶忘記不再需要的信息,從而更好地管理有限的記憶容量。也就是說,給定下一個 token x_t,谷歌將更新規則做如下修改:

圖片

記憶架構(Memory Architecture)。谷歌重點將具有 L_M≥1 層的簡單 MLP 作為長期記憶架構,選擇它們的原因在于希望能夠更好地激勵長期記憶設計以及將其融入架構的方法。谷歌表示,本文的架構開辟了一個新的研究方向,有助于設計更有效且高效記憶數據的神經架構。

檢索記憶(Retrieving a Memory)。在探討如何設計和訓練一個可以在測試時學習記憶的長期記憶模塊之后,剩下的關鍵問題便是如何從記憶中檢索信息?谷歌僅僅使用了沒有更新權重的前向傳遞(即推理)來檢索與查詢相對應的記憶。在形式上,給定一個輸入 x_t,谷歌使用線性層 W_Q 來投影輸入,即 q_t = x_tW_Q,并通過以下公式從記憶 y_t 中檢索相應(或有用)的信息。

圖片

并行化長期記憶訓練

理論上,長期記憶模塊的訓練需要圖片 FLOPS,其中 N 為序列長度。不過在實踐中,我們需要并行化訓練過程并充分利用 TPU、GPU 等硬件加速器,同時需要張量化該過程并使用更多矩陣乘法(matmuls)。

接下來,谷歌表示,使用小批量梯度下降、數據學習率和權重衰減來計算內循環權重的方式可以重新來表示,以便它只使用矩陣乘法和求和(sums)。這里將序列拆分為大小為 b ≥ 1 的塊,并將小批量梯度下降寫做:

圖片

此外,谷歌解釋了 M_t = W_t 為線性時的情況。對于 N_p ≥ 2 的 MLP,過程類似。使用本文的損失函數可以得到如下:

圖片

最后,谷歌擴展這一表示,以便可以合并動量項。在具有動量的塊式梯度下降中,如果觀察動量項則可以得到如下:

圖片

作為函數塊的參數(Parameters as the Function of Chunks)。谷歌沒有讓參數 a_t、θ_t 和 η_t 依賴于輸入,而是讓它們成為函數塊。盡管失去了表達能力,但可以幫助更快地訓練。在這種情況下,谷歌在每個塊中對每一個 a、θ 和 η 都使用了相同的值。在實驗中,谷歌將這些參數作為了 token 的函數,并表示,這種簡化(即作為塊函數)可能是未來工作感興趣的地方,以便以更高效的方式訓練更大的模型。

下圖 1 展示了如何并行并在使用矩陣乘法時完成神經記憶訓練。

圖片

如何融合記憶?

接下來需要解決的一個重要問題是:如何有效且高效地將神經記憶融合到深度學習架構中

從記憶的角度來看,Transformer 中的 K 和 V 矩陣對可以解釋為聯想記憶塊。由于它們對依賴關系的精確建模以及有限的上下文窗口,它們可以被用作短期記憶模塊,以處理當前上下文窗口大小。另一方面,神經記憶能夠不斷從數據中學習并存儲在其權重中,因而可以發揮長期記憶的作用。谷歌通過三個不同的 Titans 變體來回答以上問題。

記憶作為上下文(Memory as a Context,MAC)

Titans 的第一個變體 MAC 的架構設計如下圖 2 所示,將記憶作為當前信息的上下文。

圖片

也就是說,給定一個長序列圖片,首先將序列分成固定大小的片段 S^(??),其中 ?? = 1,...,??/??。給定傳入片段 S^(??),谷歌將它視為當前上下文,將其過去的片段視為歷史信息。因此,谷歌讓 M_??-1 成為片段 S^(??) 之前的長期記憶狀態,使用輸入上下文作為對記憶 M^??-1 的查詢,以從長期記憶中檢索相應的信息。谷歌如下所示檢索與 S^(??) 相對應的過去信息:

圖片

接下來將這些歷史信息與持久記憶參數一起作為注意力模塊的輸入序列:

圖片

該架構具有兩個關鍵優勢:一是注意力模塊同時具有歷史和當前上下文,能夠根據當前數據決定是否需要長期記憶信息,二是注意力模塊幫助長期記憶只存儲來自當前上下文的有用信息。這意味著,并非每個片段中的所有 token 都是有用的,記憶所有 token 可能會導致內存溢出。因此,注意力模塊幫助記憶了解哪些信息是有用的,從而更好地管理內存容量。

另外,在測試時,(i)持久記憶參數是固定的,它們編碼了有關任務的知識,不應改變;(ii)注意力模塊權重是上下文學習器;(iii)長期記憶模塊在測試時仍然學習(記憶)信息。也就是說,即使在測試時,神經記憶的權重也會更新,這是因為權重對過去已久的抽象進行了編碼。

記憶作為門(Memory as a Gate,MAG)

Titans 第二個變體 MAG 的架構設計如下圖 4 所示:

圖片

在其中一個分支中,谷歌直接使用輸入數據來更新長期記憶;在第二個分支中,谷歌使用了滑動窗口注意力(SWA):

圖片

該架構的整體注意力掩碼如下圖 3b 所示,其中滑動窗口注意力(SWA)充當精確的短期記憶,而神經記憶模塊充當模型的衰減記憶。該設計也可以看作是多頭架構,其中各頭的結構不同。

圖片

記憶作為層(Memory as a Layer,MAL)

Titans 的第三個變體 MAL 使用了深度神經網絡,這種架構設計在文獻中更為常見,其中混合模型堆疊具有完整或滑動窗口注意力的循環模型。

圖片

給定輸入 x,可以得到以下:

圖片

其中 SW-Attn 是滑動窗口注意力。

無注意力記憶(Memory Without Attention)。從記憶的角度來看,谷歌期望記憶系統的每個組件都能獨立工作,即使其他組件受到了干擾。因此,即使沒有短期記憶(即注意力),長期記憶模塊仍然應該是一個強大的模型。谷歌在實驗中將這種變體稱為 Titans (LMM)。

架構細節

在所有塊中,谷歌使用了殘差連接;在實現中,谷歌使用 SiLU (.) 激活函數作為計算查詢、鍵和值的非線性激活,并使用圖片對查詢和鍵進行歸一化。

卷積(Convolution)。遵循最近的現代線性循環模型,谷歌在每個查詢、鍵和值投影后都融合了一個 1D 深度可分離卷積層。這些 1D 卷積可以提升性能,并且計算高效。

門控(Gating)。谷歌還在最終輸出投影之前利用線性層進行歸一化和門控。

實驗結果

谷歌在實驗部分關注上述三種 Titans 變體,分別是 MAC、MAG 和 MAL,以及單獨的神經記憶模塊。對于每個模型,谷歌使用了四種尺寸的模型,參數分別是 (i) 170M、(ii) 340M、(iii) 400M 和 (iv) 760M。

語言建模

谷歌首先關注模型在語言建模和常識推理任務中的困惑度。下表 1 報告了 Titans 變體和三種不同大小(340M、400M 和 760M)基線的結果。在包括 Transformer++ 在內的非混合模型中,神經記憶模塊在困惑度和準確度測量方面均取得了最佳性能。

谷歌還發現,Titans 的三種變體(MAC, MAG 和 MAL)都優于 Samba (Mamba + 注意力)和 Gated DeltaNet-H2(Gated DeltaNet + 注意力)。

圖片

大海撈針 

下表 2 結果顯示,與基線相比,神經記憶模塊均取得了最佳結果。

谷歌將這種卓越的表現歸因于 Titans 與現有序列模型的三個關鍵差異:(1)與 TTT 相比,神經記憶能夠通過使用動量和遺忘機制(即權重衰減)更好地處理記憶容量。因此,隨著序列長度的增加,神經記憶的性能不會下降,呈現出一致的趨勢;(2)與具有門控(遺忘)機制的 Mamba2 相比,Titans 具有深度非線性記憶,從而實現了更好的記憶管理。此外,與神經記憶和 DeltaNet 不同,Mamba2 無法移除記憶,因此在增加序列長度時,其性能會出現顯著下降;(3)與 DeltaNet 相比,盡管它能夠使用增量規則移除記憶,但無法擦除記憶,缺乏遺忘機制。

最終,正如預期的那樣,使用 Titans 變體時能看到相當或更好的結果,其中最佳結果來自 MAC。

圖片

BABILong 基準

在微調設置中,谷歌將小型微調版本的 Titans (MAC) 與其他模型進行了比較。

Titans 和基線的結果如下圖 6b 所示。Titans 的表現優于所有模型,甚至比 GPT4 這樣的超大型模型還要好。此外,與基于 Transformer 的 RMT 等記憶模型相比,Titans 表現出更好的性能,這主要歸功于其強大的記憶。

圖片

深度記憶的影響

接下來的實驗評估了深度記憶對 wall-clock 訓練時間和模型性能的影響。

下圖 7 中報告了 Titans(LMM)和基線的困惑度與序列長度的關系。有趣的是,隨著記憶深度的增加,該模型可以在所有序列長度上實現更好的困惑度。此外,當模型的參數量較少時,更深的記憶模塊對序列長度的魯棒性更強。隨著參數量的增加,所有模型在較長的序列上都表現出更好的性能。

圖片

時序預測

為了展示記憶模塊在更廣泛任務中的有效性,谷歌評估了 Titans 在時序預測任務中的表現。結果如下表 3 所示,谷歌的神經記憶模塊優于所有基線,包括基于 Mamba、線性和 Transformer 的架構。

圖片

DNA 建模

谷歌還進一步評估了神經記憶模塊在 DNA 建模任務上的表現,結果如下 4 所示,相較于當前的 SOTA 架構,Titans(LMM)在不同的下游基因組任務中仍具有競爭力。

圖片

效率

谷歌還對 Titans 與當前 SOTA 序列模型的效率進行了比較,下圖 9 顯示了不同序列長度 x 批大小的模型的訓練吞吐量。可以看到,谷歌神經記憶模塊比 Mamba2 和 Gated DeltaNet 稍慢,不過 Titans (MAL) 比基線和神經記憶模塊都要快。

圖片

更多技術細節和實驗結果請參閱原論文。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2021-09-06 14:53:15

人工智能機器學習技術

2025-01-14 17:23:08

2023-07-11 10:02:23

2023-09-16 13:47:47

人工智能數據

2014-06-24 10:37:03

智能設備新技術

2017-05-11 14:00:02

Flask請求上下文應用上下文

2025-01-14 14:06:11

2011-12-14 16:47:12

N8諾基亞Symbian

2025-01-26 13:20:49

谷歌AI模型Titans

2025-07-16 09:12:00

AI模型訓練

2022-07-20 15:20:40

谷歌開源

2025-07-29 00:00:00

LLM上下文窗口系統

2012-12-31 10:01:34

SELinuxSELinux安全

2025-10-11 04:22:00

人工海馬體網絡LV-Eval

2022-09-14 13:13:51

JavaScript上下文

2018-02-25 11:12:17

Fuchsia安卓谷歌

2012-03-13 16:45:09

超級計算機沃森Deep Thunde

2023-11-22 16:51:53

2022-09-15 08:01:14

繼承基礎設施基礎服務

2020-01-13 09:08:46

谷歌Android開發者
點贊
收藏

51CTO技術棧公眾號

www.99re7| 97超碰免费在线观看| 免费在线视频一级不卡| 日韩精品一区第一页| 在线精品国产成人综合| 天堂在线中文在线| 高清精品在线| 国产精品丝袜91| www.成人三级视频| 免费视频久久久| 亚洲精品91| 亚洲精品日韩久久久| 日本三级黄色网址| 9999在线视频| 国产精品成人免费| 国模一区二区三区私拍视频| 伊人成年综合网| 欧美视频在线观看| 中文字幕在线亚洲| 特级西西人体4444xxxx| 国产精品成人国产| 天天亚洲美女在线视频| 少妇精品久久久久久久久久| 亚洲欧美激情另类| 免费精品99久久国产综合精品| 欧美精品一本久久男人的天堂| 丰满圆润老女人hd| 日韩中文字幕一区二区高清99| 日本韩国精品在线| 日韩xxxx视频| www.久久ai| 欧美激情在线看| 久久精品成人一区二区三区蜜臀| 国产又粗又大又爽视频| 日韩中文字幕一区二区三区| 欧美噜噜久久久xxx| 日本成人免费视频| 希岛爱理av免费一区二区| 欧美成人精品二区三区99精品| 亚洲老女人av| 欧美大片免费| 午夜av一区二区| 黄黄视频在线观看| 毛片在线看片| 国产精品免费观看视频| 欧美精品一区二区视频| 全国男人的天堂网| 国产成人精品免费视频网站| 成人欧美一区二区三区黑人孕妇| 欧美高清69hd| 久久久久久色| 欧美在线视频一二三| 国产亚洲精品久久久久久无几年桃 | 日韩国产欧美亚洲| 1769免费视频在线观看| 国产精品盗摄一区二区三区| 日本一区二区免费看| 蜜桃av噜噜一区二区三区麻豆| 国产综合久久久久影院| 国产精品女主播视频| 久久久久久久久久成人| 午夜影院日韩| 日韩av第一页| 91porny九色| 日韩专区中文字幕一区二区| 国产精品高清免费在线观看| 亚洲高清在线看| 日韩av不卡在线观看| 国产精品久久久av久久久| 日韩免费av网站| 免费一区二区视频| 国产区亚洲区欧美区| 亚洲一区二区影视| 国产在线视频一区二区| 91成人免费看| 欧日韩在线视频| 91在线观看高清| 欧美日韩综合精品| 在线视频二区| 亚洲欧美一区二区三区久本道91 | 欧美日韩一区二区三区四区在线观看 | 久草在线免费福利资源| 国产肉丝袜一区二区| 一区二区三区在线视频看| 哥也色在线视频| 亚洲成在线观看| 国产xxxxx在线观看| 欧美大片1688网站| 欧美一区二区三区四区高清 | 久久综合色天天久久综合图片| 欧美国产综合视频| 欧美日韩视频在线播放| 一区二区在线观看视频| 97国产精东麻豆人妻电影| 欧美日韩在线精品一区二区三区激情综合 | 久久福利一区二区| 青青草原av在线| 色婷婷久久久亚洲一区二区三区| 潘金莲激情呻吟欲求不满视频| 日韩视频一二区| 亚洲乱亚洲乱妇无码| 超碰人人人人人人人| 国产一区清纯| 国产盗摄xxxx视频xxx69| 一级黄色小视频| 91婷婷韩国欧美一区二区| 天天好比中文综合网| 超碰免费在线播放| 日本道精品一区二区三区| 一卡二卡三卡四卡五卡| 九九免费精品视频在线观看| 精品国产一区二区三区久久| 免费一级片视频| 噜噜噜躁狠狠躁狠狠精品视频 | 精品国产一区二区三区久久| 91香蕉在线视频| 老司机精品视频在线| 国产偷久久久精品专区| 免费黄色网址在线观看| 懂色aⅴ精品一区二区三区蜜月| 日韩成人精品视频在线观看| 久久久伦理片| 米奇精品一区二区三区在线观看| 亚洲乱码国产乱码精品| 成人黄色大片在线观看| 中国成人亚色综合网站| 日韩伦理三区| 亚洲精品国产精品国产自| 国产一二三区精品| 免费欧美在线视频| 日产国产精品精品a∨| av有码在线观看| 日韩亚洲欧美中文三级| 懂色av粉嫩av浪潮av| 免费日韩一区二区| 国产成人亚洲欧美| av网站导航在线观看免费| 在线观看国产日韩| 男女黄床上色视频| 亚洲影音先锋| 狠狠色综合一区二区| av网站在线免费看推荐| 这里只有精品99re| 肉色超薄丝袜脚交69xx图片| 日日夜夜精品视频天天综合网| 激情小说综合区| 97久久人人超碰caoprom| 日韩欧美国产精品一区| 日日骚一区二区三区| 国产伦理精品不卡| 日韩精品一区二区三区电影| 国产精品美女久久久久| 久久精品国产91精品亚洲| 亚洲手机在线观看| 中文字幕在线观看不卡| 亚洲一区精品视频在线观看| 日韩精品水蜜桃| 国产精品网站视频| 日本在线视频网| 欧美高清精品3d| 农村黄色一级片| 国产99精品国产| 野外做受又硬又粗又大视频√| 中文字幕一区二区三区四区久久| 欧美国产日韩xxxxx| 亚洲第一视频在线| 婷婷亚洲久悠悠色悠在线播放| 中文字幕免费高清视频| 99视频一区| 免费在线成人av| 高清av一区| 免费91在线视频| 亚洲精品无码久久久| 亚洲国产欧美一区二区三区丁香婷| 亚洲一区二区三区黄色| 国产精品免费看| 视频一区在线免费观看| 开心久久婷婷综合中文字幕| 久久精品男人天堂| 国产91麻豆视频| 一本大道综合伊人精品热热| 免费看日本黄色片| 国产乱人伦偷精品视频不卡| 拔插拔插海外华人免费| 免费电影一区二区三区| 国产精品亚洲自拍| 久久久123| 亚洲系列中文字幕| hs视频在线观看| 欧美日韩激情视频8区| 免费成人深夜天涯网站| 国产精品自在在线| 日本在线观看a| 999视频精品| 精品久久久久久一区| 99久久综合国产精品二区| 欧美大码xxxx| 成在在线免费视频| 欧美草草影院在线视频| 国产91精品看黄网站在线观看| 亚洲色图视频免费播放| 久久人人妻人人人人妻性色av| 青青草97国产精品免费观看| 国产av熟女一区二区三区| 亚洲宅男网av| 亚洲在线视频观看| 亚洲最大成人| 久国内精品在线| 国产福利小视频在线| 亚洲高清久久网| 国产又大又粗又硬| 欧美午夜丰满在线18影院| 日韩福利小视频| 国产人妖乱国产精品人妖| 在线播放第一页| 精品一区二区久久久| 成人羞羞国产免费网站| 欧美日韩综合| 在线免费观看一区二区三区| 日韩mv欧美mv国产网站| 亚洲综合色激情五月| 国产电影一区二区三区爱妃记| 91国产美女视频| 在线xxxx| 精品国产一区二区三区在线观看| 日本一区高清| 精品国产99国产精品| 国产又粗又大又黄| 欧美日精品一区视频| 国产性生活视频| 欧美日韩国产精品一区| 精品97人妻无码中文永久在线| 国产精品久久久久婷婷| 精品无人区无码乱码毛片国产| 成人成人成人在线视频| 香蕉在线观看视频| 国产麻豆成人精品| 欧美视频亚洲图片| 久久av中文字幕片| 亚洲精品视频导航| 日韩专区欧美专区| 中文字幕欧美人妻精品一区| 国产日韩1区| 麻豆tv在线播放| 精品动漫3d一区二区三区免费| 一二三在线视频| 伊人成综合网| 麻豆md0077饥渴少妇| 国产精品99久久| 伊人久久青草| 偷拍欧美精品| 国产手机视频在线观看| 久久精品亚洲人成影院 | 91久久久久久久久| 亚洲一区二区小说| 成人午夜黄色影院| 日本99精品| av一区和二区| 好吊妞视频这里有精品| 国产伦精品一区二区三区免费视频 | 成人高清在线| 中文字幕亚洲一区二区三区五十路 | 国产一区二区精品久久99| 手机精品视频在线| 国产激情一区二区三区| 四虎成人免费视频| 99精品视频一区二区三区| 亚洲精品在线视频免费观看| 99精品欧美一区二区三区小说| 久久无码人妻精品一区二区三区| 久久久久久9999| av在线播放中文字幕| 成人免费在线播放视频| 九九九久久久久| 精品国产999| 成人h动漫精品一区二区下载| 欧美三级中文字幕在线观看| 国产精品无码免费播放| 精品国精品自拍自在线| 亚洲 欧美 精品| 一区二区三区视频免费| av在线官网| 91精品国产色综合久久不卡98| 欧美日韩免费看片| 国产欧美一区二区三区四区| 国产一区2区在线观看| 国产伦精品一区二区三区四区视频| 西野翔中文久久精品字幕| 亚洲精品二区| 激情视频一区二区三区| 老司机午夜av| 国产伦理精品不卡| 美女100%无挡| 亚洲三级在线看| 国产 日韩 欧美 在线| 欧美色视频在线观看| 亚洲精品久久久久久久久久| 亚洲欧洲在线看| 一色桃子av在线| 日韩av男人的天堂| 日韩一区二区三区色| 久久久神马电影| 91精品啪在线观看国产18| 国产 福利 在线| 国产老妇另类xxxxx| 在哪里可以看毛片| 一区二区三区在线视频观看58| 日本一区二区三区精品| 91麻豆精品91久久久久久清纯 | 成人在线免费观看视频网站| 久久99伊人| 亚洲精品一区二区18漫画| 国产亚洲综合色| 日本污视频在线观看| 欧美日韩免费视频| 天堂网www中文在线| 久热精品视频在线| 免费在线成人激情电影| 激情五月综合色婷婷一区二区 | 91专区在线观看| 国产毛片精品视频| 精品人妻中文无码av在线| 亚洲超碰97人人做人人爱| 国产精品视频在线观看免费| 亚洲最新中文字幕| 在线观看爽视频| 国产精品国产精品国产专区蜜臀ah| 国产精品精品国产一区二区| 黄色一级一级片| 99国产精品一区| 国产在线观看成人| 日韩一区二区视频| 国产精品久久麻豆| 国产精品日韩在线一区| 亚洲免费成人av在线| 国产精品又粗又长| 国产成人精品亚洲日本在线桃色 | 国产探花一区二区| 97国产精东麻豆人妻电影| 成人综合激情网| 91视频综合网| 91精品国产一区二区三区香蕉| 天堂中文а√在线| 国产精品欧美日韩久久| 精品一区二区三| 亚洲一区在线不卡| 国产精品美日韩| 中文字幕视频二区| 中文字幕日韩av电影| 欧美va在线观看| 日韩精品大片| 麻豆久久久久久| 永久免费看mv网站入口| 这里只有精品99re| 午夜成年人在线免费视频| 亚洲最大的av网站| 欧美日韩少妇| 污片免费在线观看| 精品久久久久久中文字幕| 午夜视频免费在线| 欧美一乱一性一交一视频| 日本天堂一区| 欧美日韩在线成人| 国产精品青草久久| 国产乱码久久久久| 欧美成人合集magnet| 2020国产精品极品色在线观看| 一卡二卡三卡视频| 91免费国产在线| 成人毛片一区二区三区| 中文字幕成人在线| 亚洲爽爆av| 99在线免费视频观看| 91麻豆免费视频| 天天天天天天天干| 裸体女人亚洲精品一区| 99久久香蕉| 黄色高清无遮挡| 国产精品入口麻豆原神| 国产精选久久久| 午夜欧美不卡精品aaaaa| 国产毛片一区二区三区| 黄色小视频免费网站| 亚洲成年人网站在线观看| 你懂的好爽在线观看| 成人免费激情视频| 在线播放一区| 久久精品三级视频| 日韩欧美国产麻豆| 韩国久久久久久| 视频一区二区视频| 91蜜桃婷婷狠狠久久综合9色| 中文字幕视频免费观看| 久久久久国产精品免费网站| 妖精一区二区三区精品视频| 日韩欧美中文视频| 欧美性生交大片免费| 成人影院在线观看| 欧美一级爽aaaaa大片| 国产一区二区精品久久99|