精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大模型最強架構TTT問世!斯坦福UCSD等5年磨一劍, 一夜推翻Transformer

人工智能 新聞
超越Transformer和Mamba的新架構,剛剛誕生了。斯坦福UCSD等機構研究者提出的TTT方法,直接替代了注意力機制,語言模型方法從此或將徹底改變。

一覺醒來,超越Transformer和Mamba的新架構誕生了?

圖片

斯坦福、UCSD、UC伯克利和Meta的研究人員提出了一種全新架構,用機器學習模型取代RNN的隱藏狀態。

圖片

論文地址:https://arxiv.org/abs/2407.04620

這個模型通過對輸入token進行梯度下降來壓縮上下文,這種方法被稱為「測試時間訓練層(Test-Time-Training layers,TTT)」。

圖片

TTT層直接替代了注意力機制,解鎖了具有表現力記憶的線性復雜度架構,使我們能夠在上下文中訓練包含數百萬(未來可能是數十億)個token的LLM。

作者相信,這個研究了一年多的項目,將從根本上改變我們的語言模型方法。

而結果證明,TTT-Linear和TTT-MLP直接趕超或擊敗了最強的Transformer和Mamba!

作者之一的Xiaolong Wang驚喜地表示:不敢相信,我們真的做到了。

圖片

更令人興奮的是,雖然目前TTT只應用于語言建模,但在未來,它也可以用在長視頻上,可謂前景遠大。

在將來,當我們對長視頻進行建模時,就可以對幀進行密集采樣,而不是采樣1FPS了。這些密集幀對Transformer是一種負擔,但對于TTT層來說,這卻是一種福音!

一個5年多的想法,終于實現了

作者表示,在過去的1.5年里,團隊一直在開發一種新的LLM架構,可以具有線性復雜度和更強的隱藏狀態,用于長上下文建模。

而這個測試時訓練(TTT)的想法,已經研究了超過5年。

Xiaolong清晰記得,在剛開始做博士后時,Alyosha曾讓自己去找Yu Sun討論TTT。

這次會面,就是這項研究的起點。

圖片

序列模型會把歷史上下文存儲在一個隱藏狀態中。

像Mamba這樣的RNN層,會隨著時間的推移壓縮成一個固定大小的狀態,它們雖然效率很高,但性能受限于其表達能力。

注意力機制有一個KV緩存,它會隨著時間的推移不斷增長。這個狀態不會壓縮任何歷史上下文,但隨著上下文長度的增加,成本也會越來越高。

團隊成員想:既然這樣,為什么不把上下文壓縮到模型的權重中——就像LLM處理互聯網數據那樣呢?

這種「隱藏狀態模型」既能在時間上保持固定大小,又能大大增強表達能力。

圖片

研究人員使用了自監督學習來更新隱藏狀態的權重,對每個token進行一次梯度下降。在處理一個序列時,該狀態已經在其上下文窗口中的token上「訓練」過了。

值得注意的是,隱藏狀態只存在于端到端架構中的一層。其他組件,比如QKV投影矩陣,是在預訓練期間通過標準的交叉熵目標函數學習的。

因此,端到端架構實際上是在進行元學習,尋找壓縮上下文的最佳方式,以便更好地預測下一個token,也就是在「學習如何在測試時學習」。

結果顯示,與Mamba相比,TTT-Linear具有更好的困惑度和更少的FLOP(左),并且更好地利用了長上下文(右)。

圖片

下圖顯示了批大小為16的情況下,隨著上下文長度的變化,每個token的前向時間(延遲)。所有模型的參數都是1.3B(Mamba為1.4B)。

可以看到,隨著上下文長度的增加,Transformer每個token的前向時間呈線性增長,但其他兩種方法的前向時間基本保持不變。

在8k上下文時,TTT-Linear比Transformer更快,與Mamba相當。

圖片

RNN的尷尬現實

2020年,OpenAI縮放定律論文表明LSTM(RNN的一種)無法像Transformer那樣進行縮放,或有效地使用長上下文。

真的是這樣嗎?

在這個項目中,研究人員重新評估了圖2中的這些發現。

圖片

在左側,可以觀察到Mamba(當今最流行的RNN之一)的擴展性與強大的Transformer類似,這是自2020年的LSTM以來顯示出的巨大進步。

然而,在右側,可以觀察到與OpenAI相同的Mamba問題。

平均而言,序列中靠后的token應該更容易預測,因為它們以更多信息為條件。

對Transformer來說確實如此,每個token索引的平均復雜度在其32k上下文中不斷減少。相比之下,Mamba在16k后就出現了同樣的情況。

對于現有的RNN來說,這個結果代表了一個尷尬的現實——

一方面,RNN(相對于Transformer)的主要優勢就是它們的線性(相對于二次)復雜性。這種漸進優勢實際上只會在長上下文中實現。

另一方面,一旦上下文足夠長,現有的RNN(如Mamba)就很難真正利用額外的條件信息。

長上下文的困難是RNN層本質上的問題:與自注意力機制不同,RNN層必須將上下文壓縮為固定大小的隱藏狀態。

作為一種壓縮啟發式,更新規則需要發現成千上萬甚至數百萬個token之間的底層結構和關系。

研究人員首先觀察到,自監督學習可以將大量訓練集壓縮為LLM等模型的權重,該模型通常表現出對其訓練數據之間語義聯系的深刻理解,而這,恰恰是他們所需要的。

圖片

TTT層

受此啟發,研究人員設計了一類新的序列建模層,其中隱藏狀態是模型,更新規則是自監督學習的一個步驟。

由于更新測試序列上隱藏狀態的過程,相當于在測試時訓練模型,因此此類新層稱為測試時訓練(TTT)層。

研究人員引入兩個簡單的實例:TTT-Linear和TTT-MLP,其中隱藏狀態分別是線性模型和兩層MLP。TTT層可以集成到任何網絡架構中并進行端到端優化,類似于RNN層和自注意力。

實際運行時間

TTT層在FLOP方面已經非常高效,研究人員則更進一步地提出了兩項創新,使其在實際運行時間內也能保持高效。

首先,與在常規訓練中對mini-batch序列采取梯度步進以實現更好的并行性類似,他們也在TTT中使用了mini-batch的token。

其次,研究人員為每個TTT mini-batch內的操作開發了一種對偶形式,以更好地利用現代GPU和TPU。這種對偶形式的輸出與原始實現相當,但訓練速度卻快了5倍以上。

正如圖3所示,TTT-Linear在8k上下文中比Transformer更快,并且與Mamba相當。

圖片

Transformer殺手——TTT

如圖4所示,所有的序列建模層,都可以從將歷史上下文存儲到隱藏狀態的角度來看待。

比如,RNN層——如LSTM、RWKV和Mamba層——將上下文壓縮成一個固定大小的狀態,這個狀態隨時間變化。

這種壓縮帶來了兩種結果:優勢是處理效率高,因為每個token的處理時間是恒定的。劣勢是在處理長上下文時,RNN性能受限于隱藏狀態的「表達能力」。

自注意力機制(Self-attention)也可以從如上角度來理解。

不同之處在于,它的隱藏狀態,通常稱為鍵值(KV)緩存是一個隨t增長的線性list。

它可以存儲所有的上下文,并且不會進行壓縮,具有很好的表達能力,不過其處理時間隨上下文長度線性增長。

圖片

因此,為了在長上下文中既保持效率,又具有表達能力,需要一個更好的「壓縮啟發式」(compression heuristic)方法。

具體來說,就需要將數百萬個token壓縮成一個能有效捕捉其底層結構和關系的隱藏狀態。

TTT隱藏狀態


研究人員的關鍵思想是,使用自監督學習來將歷史上下文圖片壓縮成一個隱藏狀態圖片。

方法是將上下文視為一個無標簽數據集,而將狀態視為一個模型。

具體來說,隱藏狀態圖片現在等同于一個模型f的權重圖片,這個模型f可以是線性模型、小型神經網絡或其他任何形式。輸出規則簡單地表示為:

圖片

直觀講,輸出token就是由更新后權重圖片的模型f對圖片所做的預測。更新規則是在某個自監督損失?上進行的一步梯度下降:

圖片

其中學習率為η。從壓縮的角度來看,每種啟發式方法都需要決定記住/忘記哪些輸入。W會記住那些產生大梯度的輸入——直觀地說,就是那些使W學習很多的輸入。

?的一種選擇是重構圖片本身。為了使學習問題變得非平凡,作則首先將圖片處理成一個被破壞的輸入圖片,然后優化:

圖片

類似于去噪自編碼器,f需要發現圖片各維度之間的相關性,以便從部分信息圖片中重構出圖片。

如圖5所示,梯度下降能夠減少?,但無法將其降至零。

圖片

與其他RNN層和自注意力機制一樣,研究人員將輸入序列圖片映射到輸出序列圖片的算法可以被編程到序列建模層的前向傳播中,使用上述的隱藏狀態、更新規則和輸出規則。

即使在測試時,新層仍然為每個輸入序列訓練一個不同的權重序列圖片。

因此,研究人員將其稱之為測試-時間訓練層(TTT)。

使用TTT層訓練神經網絡

TTT層的前向傳播,也有相應的后向傳播。

TTT層與RNN層、自注意力機制有著相同的接口,因此可以在任何更大的神經網絡架構中替換它們。

值得一提的是,訓練帶有TTT層神經網絡的方式,與訓練任何其他Transformer模型相同。

可以使用相同的數據、方法和目標(如下一個token預測)來優化網絡其余部分的參數。

在此,研究人員將訓練更大的神經網絡稱為外循環(outer loop),而在每個TTT層內訓練W稱為內循環(inner loop)。

它們之間梯度計算的區別是,內循環針對的是W(即模型f的參數),外循環針對的是網絡其余部分的參數圖片。

TTT學習自監督任務

可以說,TTT最重要的部分是自監督任務,因為它決定了W從測試序列中學習的特征類型。

在這個任務的設計上,研究人員采取了更加端到端的方法——直接優化自監督任務以實現下一個token預測的最終目標。

具體來說,研究著將自監督任務的學習,作為外循環的一部分。

從如上公式3中的簡單重構任務開始,添加了一些外循環參數來讓這個任務可學習。最新的自監督損失是:

圖片

在內循環中,只有W被優化,因此作為?的參數寫出;θ們是這個損失函數的「超參數」。在外循環中,圖片圖片一起被優化,而W僅僅是一個隱藏狀態,不是參數。

圖6用代碼說明了這種區別,其中圖片圖片被實現為TTT層的參數,類似于自注意力中的KV參數。

圖片

總的來說,圖片所有可能的選擇構成了一系列多視圖重構任務,外循環可以被理解為從這個任務組中選擇一個具體任務。為了簡單起見,研究人員在這里將所有視圖設計為線性投影。

mini-batch TTT并行化

目前,開發的原生TTT層在浮點運算(FLOP)次數方面已經非常高效。

然而,其更新規則圖片無法實現并行化,因為圖片在兩個位置上依賴于圖片:負號和圖片。

對此,研究人員提出了mini-batch梯度下降,用b表示TTT批大小。

圖片

研究中使用圖片,其中圖片代表著前一個mini-batch的最后一個時間步(或者第一個mini-batch 0),因此,可以一次并行b個梯度計算。

對偶形式

上面介紹的并行化是必要的,但對于「實際運行時間」(wall-clock time)的效率來說還不夠。

正如之前所述,可以對于t = 1, . . . , b進行并行計算:

圖片

然而,現實中,是無法對單個matmul來計算圖片所有的b。

相反,需要b個外積來對其進行一一計算。更糟糕的是,對于每個圖片,圖片是d×d,這會比大d圖片產生更大的內存占用和I/O成本。

為了解決這兩個問題,研究人員觀察到:我們實際上并不需要具體化G1, . . . , Gb,只要要我們可以在mini-batch結束時計算圖片,并且輸出token z1, . . . , zb(如上圖7所示)。

現在,就可以用上面簡化的TTT-Linear情況來演示這些計算,表示X = [x1, . . . , xb]:

圖片

所以圖片可以用matmul方便地計算出來。為了計算Z = [z1, . . . , zb],我們知道:

圖片

表示圖片和矩陣圖片,可以得出:

圖片

如上過程,研究人員將其稱為「對偶形式」。

理論等價

前面已經提到f可以是線性模型,也可以是神經網絡。還有更新規則的三種變體:online GD、batch GD和mini-batch GD。

如下圖所示,在這些2×3組合中,每一種都會引起TTT層的不同實例化。

圖片

研究中,作者分別從2個定理證明了在這些誘導實例中,具有線性模型和batch GD的TTT層等同于線性注意力——一個廣為人知的RNN層。

圖10總結了所有序列建模層的更廣泛范圍內TTT層的一般定義。

圖片

兩種變體

研究中,作者提出了TTT層的兩種變體TTT-Linear和TTT-MLP,僅在f的實例化方面有所不同。

對于TTT-Linear,圖片,其中W是平方。對于TTT-MLP,圖片有兩層,類似于Transfomer的MLP。

具體來說,隱藏維度是4×輸入維度,然后是GELU激活。為了在TTT期間獲得更好的穩定性,f始終包含層歸一化 (LN) 和殘差連接。

即,圖片,其中,圖片可以是圖片圖片。

實驗

通過與兩個基線Transformer和Mamba(現代RNN)比較,研究人員評估了TTT-Linear和TTT-MLP。

數據集

繼續Mamba論文之后,研究人員在Pile上執行了2k和8k上下文長度的標準實驗,Pile是一個用于訓練開源LLM的流行文檔數據集。

主架構

Transformer和Mamba使用不同的,除非另有說明,TTT-Linear和TTT-MLP始終使用Mamba架構。

短上下文:the Pile

在2k上下文中,TTT-Linear(M)、Mamba和Transformer具有相當的性能,線條大部分重疊。

圖片

TTT-MLP(M)在較大的FLOP預算下表現稍差。盡管TTT-MLP在每個模型大小上,都比TTT-Linear具有更好的復雜度,但FLOP的額外成本抵消了這種優勢。

在8k上下文中,TTT-Linear(M)和TTT-MLP(M)的表現均明顯優于Mamba。即使是具有Transformer架構的TTT-MLP(T),性能也比Mamba略好。

另外,研究人員還觀察到了一個非常明顯的現象:隨著上下文長度變長,TTT層相對于Mamba的優勢就更大了。

長上下文:Books

為了評估長上下文中的功能,研究人員使用了Pile的一個流行子集——Books,對從1k到32k以2個增量的上下文長度進行了實驗。

圖片

根據上圖,可以觀察到——

在Books的2k上下文中,Pile 2k的所有觀察結果仍然成立,唯一的例外是Mamba的表現略好于TTT-Linear。

在32k上下文中,TTT-Linear(M)和TTT-MLP(M)的性能均優于Mamba,與Pile 8k的觀察結果類似。即使具有Transformer架構的TTT-MLP(T),在32k上下文中的表現也比Mamba稍好。

在1.3B尺度上,TTT-MLP(T)僅比TTT-MLP(M)稍差。由于缺之清晰的線性擬合,很難推導出經驗縮放定律。然而,TTT-MLP(T)的強勁趨勢表明,Transformer架構可能更適合超出評估的更大模型和更長上下文。

上下文長度作為超參數

雖然輸入序列的長度由用戶確定,但語言模型處理輸入的上下文長度可以由工程師確定。因此,上下文長度也是一個可以選擇的超參數。

對于具有線性復雜度的LLM,研究人員選擇了困惑度中的argmin,因為每個上下文長度都有相同的FLOP。

圖片

從圖13中,可以觀察到以下結果——

- 性能最好的方法TTT-Linear和TTT-MLP的線幾乎完全重疊。Mamba和TF Finetune的線在10^20 FLOP后也大部分重疊。

- TF Finetune的性能明顯優于TF Pretrain,因為它受益于長上下文,而不會在訓練FLOP中產生極大的成本。

- 對于所有從頭開始訓練的方法(包括TF預訓練),一旦上下文長度變得太大,困惑度就會變得更糟。

圖片

從上圖可見,與TTT-Linear相比,TTT-MLP在短上下文中表現稍差,但在長上下文中表現更好。

這一觀察結果正符合研究人員的預期,即作為隱藏狀態的MLP比線性模型更具表現力。同樣,所有方法都具有與Mamba 1.4B相同的訓練FLOP。

實際運行時間

LLM訓練和推理可以分解為前向、后向和生成。

由于前向(在訓練和推理期間)和后向都可以并行化,因此研究人員使用對偶形式。生成新token(也稱為解碼)本質上是順序的,因此研究人員使用原始形式。

由于資源限制,這項實驗是用JAX編寫并在TPU上運行的。

然而,由于Mamba(在PyTorch、Triton和CUDA中實現)只能在GPU上運行,因此為了公平比較,研究人員還重寫了方法,以在GPU上運行。

具體來說,研究人員在ThunderKittens中編寫了一個用于前向的GPU內核。從歷史上看,由于并行性和矩陣相乘的使用不當,RNN在前向和后向過程中效率低下。

這個前向內核的目標,是證明mini-batch TTT和這些問題對偶形式的有效性。

圖片

圖15的左圖顯示了前向內核批大小為16的延遲。所有模型參數均為1.3B(Mamba為 1.4B)。

對于Transformer,每個token的時間隨著上下文長度的增加而線性增長,但對于其他方法則大致保持不變。

此外,研究人員在Triton中編寫了另一個用于生成的GPU內核,并在圖15的右圖中對批大小為512的速度進行了基準測試。

可以看出,TTT-Linear和Mamba的延遲幾乎相同,明顯小于Transformer和TTT-MLP。

Mamba之后,又看到TTT這么能打的新架構誕生,少不了AI社區的熱議。

有網友稱,這會不會是最接近實時上下文的方法?很想聽聽大家的想法。這意味著TTT甚至在使用過程中,也能夠學習和適應,為長上下文提供更好的性能,而不會產生通常與Transformer相關的高昂計算成本。

圖片

OpenAI視頻生成研究人員對此表示,這項研究看起來很有趣。

圖片

如果scaling law依然存在,TTT將帶來難以置信的影響。對于長序列,Transformer的計算成本往往很高,當長序列變得更長時,RNN會遺忘。TTT訓練巧妙地利用神經網絡解決RNN的不足。

圖片

作者介紹

論文最后,分別列出了這篇研究的作者貢獻。

圖片

其中的核心作者是,Yu Sun、Xinhao Li和Karan Dalal。

Yu Sun

圖片

Yu Sun是斯坦福大學計算機專業的博士后,導師是Carlos Guestrin、Tatsu Hashimoto和Sanmi Koyejo。

此前,他曾在加州大學伯克利分校完成了電子工程科學博士學位,導師是Alyosha Efros和Moritz Hardt。他還在康奈爾大學拿到了學士學位。

個人主頁中,他介紹自己的研究重點是一種名為測試時間訓練(test-time training)的算法框架。其核心思想是,每個測試實例都定義了自己的學習問題,都有自己的泛化目標。這通常使用自監督學習,為每個實例即時訓練一個不同的模型來實現的。

在最新研究中,Yu Sun與Xinhao Li在2022年11月共同啟動了這一項目。自2023年6月起,Yu Sun專職負責該項目。

他提出了項目的概念框架,設計了mini-batch TTT和對偶形式(dual form)。

Xinhao Li

圖片

Xinhao Li是UC San Diego研二的學生,導師是Xiaolong Wang教授。他本人的研究興趣主要是深度學習和計算機視覺。

他在斯坦福大學Tatsunori Hashimoto教授的團隊中作為訪問學生,與Yu Sun博士和其他導師朋友一起工作。在此之前,他曾在電子科技大學獲得了學士學位。

在2024年3月之前,Xinhao Li是TTT早期代碼庫的主要貢獻者,這些代碼庫塑造了最新項目。

Karan Dalal

圖片

Karan Dalal是UC Berkeley電子工程科學系的本科生。他于2023年6月全職加入該項目,與Xinhao Li合作共同領導了當前代碼庫的開發工作。

責任編輯:張燕妮 來源: 新智元
相關推薦

2025-02-20 10:07:09

2009-07-27 18:49:01

ITIL運維管理摩卡

2024-04-07 13:40:20

2012-08-30 09:47:22

編程自學編程程序員

2013-09-23 09:41:30

BigipSDNF5

2011-11-04 09:04:50

Eclipse

2020-05-27 09:20:43

聯成科技

2011-05-11 11:06:14

IBMPower路線圖

2019-07-25 13:17:48

青云QingCloud網絡存儲

2011-04-03 15:50:10

2021-05-31 09:46:15

華為MatePad Pro鴻蒙系統

2022-07-14 15:08:23

AI模型

2017-03-27 13:04:23

互聯網

2013-07-16 10:05:41

阿里巴巴大數據

2016-07-19 15:16:15

存儲初志

2011-11-28 09:26:57

2017-09-01 13:20:43

華為

2021-03-04 22:33:43

人工智能制藥醫療

2015-11-03 10:20:08

2022-11-03 18:29:09

阿里云達摩院人工智能
點贊
收藏

51CTO技術棧公眾號

国模私拍视频在线播放| 美女脱光内衣内裤视频久久网站 | 成人黄色av播放免费| 深夜视频在线观看| 欧美极品少妇videossex| www.av精品| 国产精品久久久久久久久久新婚| 呻吟揉丰满对白91乃国产区| 色妞ww精品视频7777| 欧美日韩国产一区二区| 亚洲欧洲精品一区| www.色呦呦| 国产一区二区三区久久久久久久久| 一区二区成人av| 免费黄色av网址| 免费污视频在线一区| 一区二区三区资源| 日本视频一区在线观看| www.天堂在线| 日本特黄久久久高潮| 欧美激情日韩图片| 国产jizz18女人高潮| 国产精品久久久久久久久久白浆| 欧美日韩国产中文| 1024av视频| 污污的网站在线免费观看| 91视频观看视频| 99在线视频免费观看| 中文字幕免费观看视频| 国产精品嫩草99av在线| 欧美交受高潮1| 亚洲国产123| 国产欧美一区二区三区精品观看 | 国产成人毛毛毛片| 日韩中文字幕亚洲一区二区va在线| 欧美大片免费看| 97在线观看免费高| 国内成人精品| 亚洲美女在线看| 91精品小视频| 国产欧美三级电影| 欧美成人伊人久久综合网| 亚洲一区日韩精品| 3d性欧美动漫精品xxxx软件| 天天操天天色综合| 日本手机在线视频| 4438x成人网全国最大| 成人免费小视频| 亚洲午夜精品久久久久久浪潮| 天堂av电影在线观看| 不卡的看片网站| 国产麻豆日韩| 色窝窝无码一区二区三区| 国产成人在线观看免费网站| 成人字幕网zmw| 97超碰国产在线| 捆绑调教一区二区三区| 国产欧美日韩视频| 中文字幕在线视频第一页| 日韩精品乱码av一区二区| 热99精品只有里视频精品| 久久精品国产成人av| 免费日韩一区二区| 国产精品扒开腿爽爽爽视频| 中国女人一级一次看片| 美女爽到高潮91| 91视频国产一区| 亚洲av无码乱码国产精品久久| 国产精品一区二区无线| 超碰97在线人人| 黄频在线免费观看| 成人a免费在线看| 九色视频成人porny| 青青免费在线视频| 日本一区二区三区在线不卡| 一本一本a久久| 四虎影院观看视频在线观看| 亚洲国产精品久久人人爱| 可以在线看的av网站| 免费电影日韩网站| 欧美日韩国产影片| 下面一进一出好爽视频| 欧美激情极品| 最近2019免费中文字幕视频三| 中文乱码字幕高清一区二区| 好吊日精品视频| 欧美一区二区.| 国产精品毛片一区视频播 | 欧美a级在线| 韩国日本不卡在线| 中文字幕乱伦视频| 日本加勒比一区| 午夜在线观看一区| mm131国产精品| 中文一区一区三区免费| 香蕉视频网站入口| 欧美大片网站| 精品乱人伦一区二区三区| 亚洲男人在线天堂| 精品一区二区三| 欧美成人免费全部观看天天性色| 日韩av一二三区| 秋霞国产午夜精品免费视频| 亚洲专区中文字幕| 香蕉视频911| 中文字幕一区二区三区色视频| 久草视频这里只有精品| jizz免费一区二区三区| 亚洲精品一区二区三区在线观看| 性猛交ⅹxxx富婆video| 综合激情视频| 国产精品成人一区| 成人久久久精品国产乱码一区二区| 国产亚洲短视频| 国产一区 在线播放| 亚洲第一会所001| 精品国产免费视频| 91无套直看片红桃在线观看| 亚洲裸体俱乐部裸体舞表演av| 国产日韩欧美视频| 台湾av在线二三区观看| 亚洲欧美一区二区久久 | 精久久久久久| 国产精品美女在线| 丝袜视频国产在线播放| 亚洲欧美一区二区久久| 国产一区二区在线免费播放| 国产精品99久久免费观看| 少妇激情综合网| 亚洲欧美精品一区二区三区| 国产91在线观看丝袜| 亚洲自拍三区| 日日夜夜天天综合| 日韩精品免费看| 麻豆changesxxx国产| 捆绑紧缚一区二区三区视频| 欧美日韩中文国产一区发布| 国产va在线视频| 日韩一区二区精品在线观看| 91av手机在线| 久久99精品久久只有精品| 茄子视频成人在线观看| 这里有精品可以观看| 欧美成人精品3d动漫h| 久久免费看少妇高潮v片特黄| 奇米精品一区二区三区在线观看 | 伊人久久大香线蕉综合网蜜芽| 久久69精品久久久久久久电影好| 国产一区二区在线视频聊天| 国产精品福利一区二区| 三级在线免费看| 成人羞羞视频播放网站| 国产精品女主播| 91最新在线| 欧美日韩精品综合在线| 在线观看日本黄色| 老汉av免费一区二区三区| 亚洲制服欧美久久| 欧美日韩伦理一区二区| 精品国模在线视频| 国产999久久久| 亚洲激情在线激情| 精人妻一区二区三区| 亚洲午夜伦理| 久久久久网址| 亚洲日本在线观看视频| 色噜噜亚洲精品中文字幕| 92久久精品一区二区| 亚洲激情一二三区| 天堂va欧美va亚洲va老司机| 在线电影一区| 蜜桃视频成人| 国外成人福利视频| 精品国内亚洲在观看18黄| av网站在线观看免费| 嘿嘿视频在线观看| 国产一区三区三区| 亚洲一区二区三区av无码| 久久精品色综合| 国产不卡在线观看| 日本黄色片在线观看| 日韩视频在线一区二区| 欧美不卡视频在线观看| 欧美激情一区在线| 免费不卡av网站| av成人黄色| 视频一区二区在线观看| 精品一区二区三区中文字幕在线| 91精品91久久久久久| 98在线视频| 欧美成人三级在线| 国产视频1区2区| 亚洲日韩欧美一区二区在线| yjizz视频| 麻豆成人在线观看| 国内精品视频一区二区三区| 国产欧美日韩在线一区二区| 亚洲一区亚洲二区亚洲三区| av在线free| 欧美精品一区视频| 午夜一级黄色片| 亚洲五码中文字幕| 欧美 日韩 成人| 大白屁股一区二区视频| 天天干天天综合| 99精品福利视频| 在线播放 亚洲| 免费欧美一区| 高清一区二区三区视频| 日本黄色一区| 1769国产精品| 91三级在线| 伊人精品在线观看| 日韩一级中文字幕| 3atv一区二区三区| 无码日韩精品一区二区| 亚洲成人777| 日本一二三区在线观看| 久久精品综合网| 在线黄色免费网站| 国产在线精品一区二区夜色| 能在线观看的av网站| 亚洲国产99| 麻豆传媒网站在线观看| 色婷婷色综合| 日本成人三级| 亚洲第一福利专区| 国产在线精品一区| 亚洲日本va中文字幕| 亚洲成av人片一区二区三区| 国产偷亚洲偷欧美偷精品| 黄色一级大片在线免费观看| 久久久久久久综合狠狠综合| 成人做爰www看视频软件| 久久99国产精品尤物| 国产精品乱码久久久久| 国产精品久久久久久模特 | 91亚洲一线产区二线产区| 奇米影视在线99精品| 国产福利影院在线观看| 美日韩精品视频| 欧美s码亚洲码精品m码| 亚洲精选在线| 五月丁香综合缴情六月小说| 极品尤物久久久av免费看| 国产资源第一页| 欧美aⅴ99久久黑人专区| 成人国产一区二区三区| 欧美黄污视频| 国产一区二区片| 亚洲无线一线二线三线区别av| 性生活免费观看视频| 亚洲欧美偷拍自拍| 糖心vlog在线免费观看| 亚洲精品一区二区在线看| 99精品视频网站| 综合久久综合| 大荫蒂性生交片| 亚洲美女少妇无套啪啪呻吟| 日韩在线综合网| 老司机一区二区三区| 尤蜜粉嫩av国产一区二区三区| 美女视频一区在线观看| 欧美激情第一区| 国产大片一区二区| 亚洲黄色小说在线观看| av资源站一区| 四虎永久免费在线观看| 中文字幕精品一区二区精品绿巨人| 18啪啪污污免费网站| 自拍偷拍欧美激情| 久久精品这里有| 日韩欧美综合在线视频| 中文字幕在线观看第二页| 欧美一卡在线观看| 五月婷婷丁香花| 亚洲最新视频在线| 国产三级在线播放| 欧美激情视频网| 欧美极度另类| 亚洲在线观看视频| 青青久久av| 一区二区三区|亚洲午夜| 欧美搞黄网站| 无码人妻丰满熟妇区毛片18| 久久国产综合精品| 无码国产精品一区二区免费式直播| 久久久久久影视| 久草福利资源在线观看| 日韩欧美在线观看视频| 国产精品热久久| 亚洲精品永久免费精品| 色影视在线观看| 97在线免费观看| 久久天天久久| 久久精品日产第一区二区三区精品版| 欧美三级伦理在线| 蜜臀精品一区二区| 日本欧美一区二区| 精品人妻伦一二三区久| 中文字幕av一区 二区| 久久精品久久国产| 欧美日韩精品电影| 日本成人一区| 欧美多人乱p欧美4p久久| 日韩欧美一区二区三区免费观看| 亚洲最大福利视频网站| 精品久久久久久久久久久下田| 亚洲爆乳无码精品aaa片蜜桃| 首页综合国产亚洲丝袜| www.555国产精品免费| |精品福利一区二区三区| 日本久久综合网| 亚洲国产欧美一区二区丝袜黑人 | 中文字幕一区二区三区色视频| 国产尤物在线视频| 日韩午夜精品电影| 无遮挡动作视频在线观看免费入口 | 91免费看片网站| 国内精品伊人久久久| 分分操这里只有精品| 狠狠色丁香婷综合久久| 四虎国产精品成人免费入口| 亚洲r级在线视频| av加勒比在线| 日韩视频一区在线| 成人免费网站www网站高清| 久久波多野结衣| 欧美视频二区| 手机版av在线| 中文子幕无线码一区tr| 成人午夜淫片100集| 日韩成人小视频| 岛国毛片av在线| 高清视频一区| 国内久久视频| 国产精品19p| 一区二区免费视频| 国产99久久九九精品无码免费| 色一情一乱一区二区| 日本精品网站| 亚洲精品国产一区| 麻豆精品视频在线观看| 免费看的黄色录像| 欧美三区在线观看| 在线观看免费高清完整| 国产精品久久久久aaaa九色| 欧美少妇xxxx| 色播五月综合网| 国产精品超碰97尤物18| 一级黄色大片免费| 久久精品人人爽| 九九99久久精品在免费线bt| 一区二区三区四区免费观看| 国产在线麻豆精品观看| 美女视频黄免费| 亚洲国产精品国自产拍av秋霞| 96av在线| 蜜桃在线一区二区三区精品| 鲁大师成人一区二区三区| 久久精品成人av| 在线精品视频一区二区三四| 91社区在线高清| 92国产精品视频| 伊人久久成人| 久久久久麻豆v国产精华液好用吗| 欧美视频一二三| 国产小视频在线播放| 国产精品一区二区三区久久久| 五月婷婷六月综合| 国产高潮失禁喷水爽到抽搐| 欧美日韩裸体免费视频| 国产精品麻豆一区二区三区 | 免费成人午夜视频| 久久久综合九色合综国产精品| 波多野结衣电影在线播放| 日韩中文理论片| 在线日韩成人| 国产xxxxx在线观看| 国产精品高潮呻吟| 亚洲第一天堂影院| 欧洲日本亚洲国产区| 91免费精品| www.17c.com喷水少妇| 91久久精品一区二区三| 羞羞视频在线免费国产| 玖玖玖精品中文字幕| 免费一级欧美片在线观看| 校园春色 亚洲| 亚洲精品自拍视频| 伊人久久一区| 亚洲中文字幕无码专区| 国产精品每日更新在线播放网址| 性一交一乱一色一视频麻豆| 热久久视久久精品18亚洲精品| 午夜精品一区二区三区国产 | 日韩视频免费在线播放| 伊人一区二区三区| 国产69久久| 国产精品一区二区三区观看|