精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

MemLong:用于長文本建模的記憶增強檢索

發(fā)布于 2024-9-12 11:21
瀏覽
0收藏

?一、結(jié)論寫在前面

論文標題:MemLong: Memory-Augmented Retrieval for Long Text Modeling

論文鏈接:https://arxiv.org/pdf/2408.16967

LLMs在各個領(lǐng)域的最新進展取得了顯著的成功。然而,由于注意力機制的二次時間和空間復雜性以及生成過程中鍵值緩存的內(nèi)存消耗不斷增加,處理長上下文仍然是LLMs的一個重大挑戰(zhàn)。

論文提出了MemLong,一種高效且輕量化的方法,用于擴展大型語言模型(LLMs)的上下文窗口。其核心思想是將過去的上下文和知識存儲在一個不可訓練的記憶庫中,并進一步利用這些存儲的嵌入來檢索塊級別的鍵值(K-V)對,以輸入到模型中。MemLong適用于任何僅解碼器的預訓練語言模型,通過結(jié)合(1)一個額外的記憶檢索組件用于記憶和檢索,以及( 2 )一個檢索因果注意力模塊用于整合局部和記憶信息。MemLong的記憶和檢索過程如圖1(b)所示。在生成過程中,超出模型最大處理長度的文本被存儲為上下文信息在記憶庫中。隨后,在長文檔中生成最近的一個文本塊時,論文使用檢索器顯式地檢索過去的相關(guān)信息,通過索引對齊獲取額外的上下文信息。

MemLong提供了幾個優(yōu)勢:(1)分布一致性:與之前在信息存儲到記憶中時經(jīng)歷分布偏移的模型不同,MemLong確保緩存信息的分布保持一致。(2)訓練高效:論文凍結(jié)模型的底層,只需微調(diào)上層,這大大減少了計算成本。在論文的實驗中,在0.5B個token上微調(diào)一個3B參數(shù)版本的MemLong僅需八塊3090 GPU運行八小時。(3)廣泛的上下文窗口:由于只需記憶單層的K-V對,MemLong能夠在單塊3090 GPU上輕松擴展上下文窗口至80k個token。

大量實驗表明,與其他領(lǐng)先的LLMs相比,MemLong在多個方面表現(xiàn)出優(yōu)越的性能。在多個長上下文語言建模數(shù)據(jù)集上,MemLong優(yōu)于OpenLLaMA和其他基于檢索的模型。在檢索增強的上下文學習任務中,MemLong比OpenLLaMA提高了多達10.2個百分點。    

二、論文的簡單介紹

2.1 論文的背景

由于傳統(tǒng)的注意力機制的二次方時間和空間復雜性,擴展上下文長度具有挑戰(zhàn)性,這為涉及長序列任務的應用帶來了顯著的限制,例如長文檔摘要和多輪對話。因此,LLMs通常被期望具備長時間的工作能力(即長上下文LLMs),以有效應對這些苛刻的場景。

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

   

圖1:檢索增強生成(RAG)和MemLong的記憶檢索流程示意圖。(a) 當檢索信息的長度超過模型處理能力時,RAG甚至可能降低生成性能(黃色)。(b) 論文的方法利用外部檢索器獲取歷史信息,然后將其作為K-v對傳遞給模型,而不是以文本形式傳遞。

為了解決計算瓶頸問題,已經(jīng)進行了大量努力。第一類工作側(cè)重于通過采用稀疏注意力操作來減少普通注意力機制的計算量。盡管這些方法可以將計算復雜度降低到大約 O(n),但通常會以模型容量為代價。因此,一些工作轉(zhuǎn)向了記憶選擇。這些方法,作為token級別的記憶選擇,可能導致語義信息的截斷。另一類最近的工作是檢索增強語言建模。這些工作通常引入檢索機制來增強模型處理長文本的能力。

然而,這些方法有幾個缺點。首先,由于訓練過程中模型參數(shù)的變化,存儲在記憶中的信息可能會經(jīng)歷分布偏移。其次,這些方法通常需要重新訓練,這在大型模型時代是不切實際的。最后,這些模型往往傾向于以犧牲預訓練模型的原始能力為代價來處理長文本輸入。為了解決先前研究的局限性,論文提出了以下問題:論文能否利用檢索器的顯式檢索能力來近似模型內(nèi)部的隱式檢索過程?

2.2預備知識

2.2.1 任務定義

語言模型旨在定義一系列token的概率分布,從而有效地預測給定語言中序列的可能性。給定一個序列 x_1, ..., x_n,標準方法建模其概率為 p ( x_1, ..., x_n )= sum pθ ( x_i | x< i ),其中 x< i , := x_1, ..., x_i-1 是 x_i 之前的token序列。

與標準語言建模目標不同,論文不僅使用當前上下文進行下一個token預測,還利用外部檢索獲取相關(guān)信息并在模型的上層進行知識融合。具體來說,給定一個由 l個token組成的序列,每個塊的大小為 ν=l/τ,論文將序列劃分為 τ個不重疊的塊,記為 C=( c_1, ..., cν )。相應地,其文本形式被劃分為ν個文本塊,記為 T=( t_1, ..., t_ν)。在每一步中,論文在下層對 c_i 進行因果語言建模,而在上層,論文對 t_i 進行細粒度可控檢索以融合額外信息。完成此操作后,論文的語言建模目標變?yōu)?/p>

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

其中 R( t_i) 表示檢索 t_i 所在塊的鄰近塊。

2.2.2 模塊與操作定義

如圖 2 所示,Ret-Mem 模塊由一個檢索器(Retriever)和一個記憶組件(Memory)組成,用于信息交換。首先,論文將記憶組件定義為M,將檢索器定義為 R,以及它們對應的操作M(.) 和 R(.)。此外,論文指定模型的維度為 d_model,檢索器的維度作為 d_ret 。記憶模塊包括兩個部分:K-V 對和相應的表示嵌入。鍵和值的維度表示為R^d_model,而嵌入的維度表示為R^d_ret。必須強調(diào)的是,實際的檢索過程涉及表示塊的嵌入,而不是 K-V 對。檢索器本質(zhì)上是一個預訓練的密集嵌入器,具有出色的表示能力。MemLong 使用它將每個塊編碼為表示嵌入。由于它為每個塊生成一維表示向量,即使內(nèi)存大小很大,內(nèi)存占用也保持最小。    

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

圖 2 :MemLong 的一個示例:在較低層,模型保持靜態(tài),對整個塊 c_i執(zhí)行因果語言建模,隨后,c_i 以嵌入和 K-V 對的形式緩存。最后,上層被微調(diào)以協(xié)調(diào)檢索偏好并整合檢索到的內(nèi)容。

2.3 MemLong

2.3.1 概述

如圖 2 所示,每個步驟涉及一個塊 c_i 的輸入,其中該塊的原始文本為 t_i。在模型凍結(jié)的較低層,對整個 c_i 應用標準因果注意力。對于較低層的最后一層,論文稱之為記憶層。在每次遍歷記憶層后,執(zhí)行兩個關(guān)鍵操作。第一個操作是檢索,由紅線表示,其中 t_i 用于獲取最相關(guān)的 K-V 對。第二個操作,由藍線表示,涉及緩存獲得的 K-V 對及其相關(guān)塊表示。在模型的上層,檢索到的 K-V 對與當前輸入上下文整合,隨后調(diào)整模型參數(shù)以校準檢索參考。后續(xù)部分將探討 MemLong 框架的各個方面及其細節(jié),包括檢索器和動態(tài)內(nèi)存管理 (Dynamic Memory Management),注意力重構(gòu) ( Attention Reformulation ),以及使用 MemLong 進行推理 (Inference with MemLong)。

2.3.2 檢索器與動態(tài)內(nèi)存管理

論文提供了一個關(guān)于檢索過程和內(nèi)存管理動態(tài)的全面解釋。    

檢索過程。鑒于論文的目標是用顯式檢索取代基于K-V對的傳統(tǒng)kNN檢索,論文旨在在可行的情況下預取所需信息,然后再緩存模型輸入。具體來說,對于每個潛在的查詢塊c^q=c_i及其對應的文本塊t^q=t_i,論文首先將其傳遞給檢索器,然后獲得一個表示嵌入r^q = R ( t^q )。隨后,論文使用這個表示嵌入對\mathcal{M}中的嵌入進行檢索,以獲取所需的k個塊級索引。論文計算檢索表示r^q與存儲在內(nèi)存M中的嵌入之間的余弦相似度。最后,論文得到c^q的top-k索引z^q =Top K{Cos( r^q ) }。

記憶過程。記憶過程同步存儲來自記憶層的K-V對以及先前計算的用于檢索的表示嵌入,確保\mathrm{K-V}對的索引與其表示嵌入準確對應(見圖2,右側(cè),藍線)。對于每個可能的塊記憶c^m=c_i及其對應的文本塊t^m=t_i,論文將記憶過程分為兩部分:第一部分詳細說明如何緩存K-V對,第二部分解釋如何存儲相應的表示。首先,論文將c^m輸入到MemLong中,并從記憶層獲取輸出。論文的記憶操作非常高效,因為它僅涉及存儲檢索所需的表示r^m=r^q,從而避免了冗余。在所有塊對檢索完成后,記憶操作——表示為M ( k, v ; r^m )——同步更新記憶,包括鍵值對及其對應的表示。

動態(tài)記憶更新。當記憶溢出時,論文使用計數(shù)器智能更新記憶。在論文的實驗中,論文保留最新10%的記憶內(nèi)容,因其可能具有相關(guān)性,丟棄最舊的10%,因其可能已過時,并根據(jù)檢索頻率優(yōu)先處理中間的80%,刪除最少訪問的條目,直到記憶使用量降至50%。這種選擇性修剪平衡了時效性和相關(guān)性,保留了有價值的信息并刪除了不太相關(guān)的數(shù)據(jù)。

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

   

圖3:檢索因果注意力示意圖。局部因果注意力應用于最近的上下文,而通過檢索方法獲得的塊級K-V對由于其歷史性質(zhì)而能夠?qū)崿F(xiàn)雙向注意力,而不會發(fā)生信息泄露。

2.3.3注意力重構(gòu)

在模型的可訓練上層中,論文重構(gòu)了注意力機制以融合長期記憶。如圖3所示,與傳統(tǒng)的Transformer解碼層使用多頭注意力不同,論文提出了一種檢索因果注意力機制,將其擴展為聯(lián)合注意力機制,并提出了一種長期記憶融合過程,使得每個token既能關(guān)注局部上下文,也能關(guān)注具有完整和連續(xù)語義的塊級過去上下文。下一層的隱藏狀態(tài)H^l計算如下:

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

為了避免訓練初期檢索注意力分數(shù)o_m的干擾,論文采用了多注意力機制,遵循LLaMA-adapter

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

最后,論文將V和V連接起來得到H^l:

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

2.3.4 使用MemLong進行推理

當MemLong接收到超過長度的輸入時,論文將其視為兩個部分:前綴p和主體。論文將分別描述在推理階段對長輸入的編碼和長輸出的生成。當MemLong接收到長輸入時,它首先將前綴分成多個不重疊的塊,并從其內(nèi)存層計算,這確保了參與注意力的token數(shù)量等于塊大小,遠小于輸入長度。需要注意的是,每個塊是相互關(guān)聯(lián)的(例如,第t個塊需要處理前t-1個塊的)。

第二步是根據(jù)塊級檢索表示選擇與主內(nèi)容最相關(guān)的k個塊,并獲取它們的關(guān)鍵和值表示。在此之后,對于上層檢索層,檢索的注意力窗口相當于k * τ,這也小于輸入長度。最后,高效地執(zhí)行長度受限的因果注意和檢索注意。    

2.4 實驗

論文在需要內(nèi)存中長上下文處理的各項任務上評估論文提出的MemLong模型:(a) 長上下文語言建模和檢索增強語言建模;(b) 能夠處理內(nèi)存中大量演示示例的可擴展上下文學習。

2.4.1 實現(xiàn)細節(jié)

訓練細節(jié)。論文使用OpenLLaMA-3B作為預訓練的骨干LLM,采用旋轉(zhuǎn)位置編碼(rotation position coding)。由于硬件限制,論文選擇使用LoRA技術(shù)訓練論文的模型。骨干LLM具有L=26, H=32, d=100的架構(gòu)。除非另有說明,論文使用第13層作為內(nèi)存層,[14, 18, 22, 26]層作為檢索增強層。檢索增強適應的訓練僅在0.5B個token上迭代,序列長度為1024。Mem-Long的可訓練參數(shù)來自14到26層。論文利用slimpajama數(shù)據(jù)集采樣作為論文的訓練語料庫。

位置重映射。在生成過程中,M中檢索到的塊級別K-V有多個。由于每一步檢索的不確定性,論文需要將位置嵌入重映射到檢索到的塊。與之前的工作(Tworkowski et al., 2024)相同,局部上下文(最多2048個token)接收標準旋轉(zhuǎn)位置編碼,而內(nèi)存鍵則被編碼為在局部上下文窗口中具有位置0。

2.4.2 長上下文語言建模

論文首先在長上下文語言建模基準上評估MemLong,以評估其基本的語言建模能力。由于K-V緩存提供了顯著的背景和上下文信息,MemLong能夠快速檢索相關(guān)的K-V緩存并充分利用它,從而在長上下文建模任務中增強模型的性能。

數(shù)據(jù)集。論文在四個廣泛的文本基準數(shù)據(jù)集上對論文的模型進行了評估:英語書籍PG-19和BookCorpus,維基百科文章Wikitext-103,以及數(shù)學論文Proof-Pile。實驗結(jié)果表明,所有數(shù)據(jù)集上的困惑度都有顯著改善。論文的模型在從1024到32768個token的不同長度范圍內(nèi)進行了測試。通過利用外部檢索器和內(nèi)存,論文的模型在所有數(shù)據(jù)集上展示了顯著的性能提升,且內(nèi)存開銷最小。

設(shè)置。按照(Yen et al., 2024),論文計算每個序列最后2048個token的困惑度。此實驗設(shè)置旨在驗證不同檢索器大小對模型整體性能的影響。為了實現(xiàn)高效的細粒度檢索,論文使用faiss工具包在GPU上構(gòu)建精確搜索索引,以存儲文本塊的表示嵌入并執(zhí)行高效檢索。對于MemLong,論文將token分割并放入finetune-length = 1024的M中,用于進一步檢索。

基線。在論文的實驗中,論文采用OpenLLaMA-3B模型作為基線。為了確保公平比較,論文使用相同的LoRA配置并微調(diào)了模型在相同數(shù)量的slimpajama數(shù)據(jù)集上的數(shù)據(jù)。此外,論文比較了LongLLaMA-3B,該模型使用Focused Transformer(FoT)方法和5B token進行了微調(diào)。為了進行更全面的比較,論文還測試了兩個7B模型:LLaMA-2-7B和LongLoRA-7B-32K,以及兩個位置編碼模型:Yarn-7b-128k和Phi3-128k。    

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

表1:不同上下文窗口擴展模型在PG19、Proof-pile、BookCorpus、Wikitext-103上的滑動窗口困惑度。所有實驗都在一塊3090 24GB GPU上進行。LongLLaMA-3B和MemLong-3Btoken為表示在沒有Memory的情況下評估,LongLLaMA-3Btoken表示在無限Memory的情況下評估。論文還評估了MemLong在4K/32K Memory場景下的表現(xiàn)。"- / 6.95"表示模型在單GPU上導致內(nèi)存不足(OOM)錯誤,而在雙GPU上則產(chǎn)生相應結(jié)果。*

結(jié)果。結(jié)果如表1所示。論文采用困惑度(PPL)作為語言模型的評估指標。較低的PPL表示更強的語言建模能力。與兩個完全微調(diào)的模型相比,OpenLLaMA-3B和LLaMA-2-7B,論文的模型在測試長度在其預訓練限制內(nèi)(OpenLLaMA-3B為2048,LLaMA-2-7B為4096)時,在多個數(shù)據(jù)集上表現(xiàn)出相當?shù)男阅堋?/p>

然而,一旦測試長度超過這些預訓練限制,論文的模型即使在微調(diào)長度1024和預訓練長度2048之后,仍能繼續(xù)降低困惑度,展示了其優(yōu)越的泛化能力。

相比之下,OpenLLaMA-3B和LLaMA-2-7B模型無法泛化到超出其預訓練長度的輸入,并且由于注意力機制的二次復雜性,表現(xiàn)出顯著增加的內(nèi)存開銷。論文還與LongLoRA進行了比較。盡管LongLoRA中提出的Shifted Sparse Attention顯著減少了內(nèi)存使用,但它也削弱了模型在短文本上的性能。

相比之下,LongLLaMA由于其內(nèi)存使用無限增長,在測試長度變得過長時也會遇到OOM問題。位置編碼模型具有強大的泛化能力。然而,這種方法的性能只能保證長距離生成性能不下降。與這些方法相比,MemLong利用外部檢索器處理更長的輸入token,并實現(xiàn)了更好的困惑度改進。同時,由于高存儲效率,MemLong可以有效控制GPU的使用,避免OOM問題。

2.4.3 上下文學習

傳統(tǒng)的上下文學習(ICL)將少量的非參數(shù)化示例與查詢一同輸入模型。然而,這些方法通常受限于模型的輸入長度。在本實驗中,由于MemLong可以將示例以參數(shù)化形式存儲在其記憶中,論文主要研究MemLong是否能有效利用其記憶中存儲的知識以增強其突現(xiàn)能力。結(jié)果如表2所示。    

與僅依賴非參數(shù)化知識的OpenLLaMA相比,在相同數(shù)量的上下文示例下,MemLong可以利用其記憶中存儲的額外示例。隨著記憶中示例數(shù)量的增加,性能進一步提升或保持穩(wěn)定。在與LongLLaMA的對比分析中,論文觀察到在相同的保留內(nèi)存示例條件下,論文的模型在大多數(shù)數(shù)據(jù)集上表現(xiàn)優(yōu)于LongLLaMA。值得注意的是,與LongLLaMA相比,論文的模型在訓練參數(shù)(2億對比0.3億)和微調(diào)數(shù)據(jù)量(0.5億對比5億)方面顯著減少。這凸顯了論文模型在利用外部檢索器進行信息獲取方面的效率,展示了在資源大幅減少的情況下,能夠更有效地綜合和利用知識的能力。

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

2.5 Ablation Study

2.5.1 訓練設(shè)置

在訓練階段,論文探討了不同檢索層對模型的影響,并考察了論文的方法是否能充分解決MemTrm中討論的分布偏移問題。如前所述,論文的方法為分布偏移提供了一種低成本的解決方案。如圖4所示,棕色線(圖片頂部的線條;訓練方法類似于MemTrm,微調(diào)模型的所有參數(shù),并且在內(nèi)存層之后的所有層都參與檢索)在性能和擬合速度方面明顯劣于論文所有其他方法(即使是設(shè)置最不合理的方法)。論文將在稍后分析推理階段的性能。    

2.5.2 推理性能

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

圖 4:訓練階段PPL的變化程度。y軸的指標為PPL。論文主要關(guān)注訓練參數(shù)和檢索層。

Q1:記憶長度是否影響模型的性能?如圖5所示,論文對同一模型在不同記憶大小下的性能進行了檢查,結(jié)果表明記憶容量與模型效率之間存在明顯的相關(guān)性。趨勢表明,記憶大小的增加會逐漸提升性能。此外,在記憶大小為65536時,模型能力經(jīng)歷了一個顯著的飛躍。這表明,雖然擴展記憶提供了實質(zhì)性的好處,但其有效性存在一個實際的上限,這可能受到數(shù)據(jù)分布細微差別的影響。

Q2:論文需要引入多少層額外的記憶信息?如圖4所示(粉色線)和表3(RPL+TH)中展示的,當檢索層的數(shù)量設(shè)置為[13,17,21,25]時,模型表現(xiàn)最佳。根據(jù)經(jīng)驗認為,如果在模型的所有上層都引入檢索信息,會導致模型對局部上下文的注意力下降。因此,以適當?shù)拈g隔選擇檢索層實際上可以增強模型的能力。    

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

表3:不同的檢索層會影響MemLong的性能。token為的MemLong表示在沒有Memory的情況下進行評估。所有使用Memory的方法的大小設(shè)置為32768。RA表示跨所有上層檢索;TA表示不凍結(jié)參數(shù)的訓練;RP表示跨較少上層檢索,RPL表示跨更少上層檢索。    

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

圖 5:在不同記憶大小下評估不同數(shù)據(jù)集。在每個子圖中,除記憶大小外,所有參數(shù)均相同。

本文轉(zhuǎn)載自??AI帝國??,作者: 無影寺 ????

收藏
回復
舉報
回復
相關(guān)推薦
911亚洲精选| 成人一级生活片| 国产精品高潮呻吟av| 欧美激情一区| 日韩精品亚洲精品| 欧美大尺度做爰床戏| 宅男网站在线免费观看| 久久这里都是精品| 国产欧美va欧美va香蕉在| 天天做夜夜爱爱爱| 五月国产精品| 日韩一区二区免费视频| 男人操女人免费软件| 黄色片免费在线观看| 久久这里只精品最新地址| 亚洲自拍高清视频网站| www.国产一区二区| 欧美区亚洲区| 最近中文字幕mv在线一区二区三区四区| 手机在线播放av| 成人国产在线| 懂色av影视一区二区三区| 中文精品一区二区三区| 日本人妖在线| 成人免费视频caoporn| 国产精品最新在线观看| 特级毛片www| 午夜精品网站| 日韩小视频网址| 蜜桃传媒一区二区亚洲av| 日韩成人视屏| 3d动漫精品啪啪1区2区免费| 国产成人久久婷婷精品流白浆| 影院在线观看全集免费观看| 中文字幕在线播放不卡一区| 欧美亚洲精品日韩| 视频福利在线| 波多野结衣中文字幕一区二区三区| 成人激情视频免费在线| 国产黄色免费视频| 亚洲欧美久久久| 午夜伦理精品一区| 久久成人在线观看| 欧美成人中文| 欧美国产日韩一区二区在线观看| 少妇愉情理伦三级| 欧美日韩一二三四| 亚洲色图18p| 老司机免费视频| 99re6热只有精品免费观看| 欧美日本韩国一区二区三区视频| 男人舔女人下面高潮视频| 蜜桃麻豆av在线| 精品久久久国产精品999| 性一交一乱一伧国产女士spa| 动漫一区在线| 亚洲精品国产a久久久久久 | 51久久精品夜色国产麻豆| 久久精品国产亚洲av高清色欲 | 高清欧美性猛交xxxx黑人猛交| 91久久国产综合| 亚洲天天综合| 欧美成人精品一区| 国产亚洲欧美精品久久久久久 | av网站在线观看不卡| 成人线上视频| 欧美午夜影院一区| 亚洲精品免费一区亚洲精品免费精品一区 | 精品国产影院| 日韩高清中文字幕| 蜜桃久久精品成人无码av| 波多野结衣在线播放一区| 伊人伊成久久人综合网小说| 黄色免费一级视频| 天天影视综合| 欧美激情在线观看视频| 日产精品久久久久久久| 性欧美精品高清| 国产精品福利片| 国产喷水福利在线视频| zzijzzij亚洲日本少妇熟睡| 欧美日韩亚洲在线| 免费大片黄在线观看视频网站| 亚洲欧美色一区| 久久成人福利视频| 日韩av超清在线观看| 欧美另类z0zxhd电影| 亚洲免费黄色录像| 给我免费播放日韩视频| 国产一区二区成人| 99热精品免费| 久久久蜜桃一区二区人| 成人夜晚看av| 天堂√在线中文官网在线| 国产午夜精品理论片a级大结局| 永久域名在线精品| 黄色在线观看www| 欧美裸体一区二区三区| 无码一区二区精品| 天堂美国久久| 日av在线播放中文不卡| 国产日韩免费视频| 久久精品亚洲乱码伦伦中文| 日日噜噜夜夜狠狠久久丁香五月 | 五月婷婷亚洲| 欧美在线视频观看| 国产免费久久久| 久久久久国产免费免费| 国产高清不卡无码视频| 久久xxx视频| 亚洲国产欧美在线成人app| 在线免费观看视频| 亚洲一区二区网站| 97免费高清电视剧观看| 日韩免费啪啪| 欧美中文字幕一区二区三区亚洲| 四虎永久免费观看| 天天综合网网欲色| 国产精品国产福利国产秒拍| 天堂av一区二区三区| 亚洲丝袜美腿综合| 91小视频网站| 欧美激情在线精品一区二区三区| 色综合视频网站| 国产又粗又大又爽视频| 国产亚洲综合色| 色综合久久久久无码专区| 日韩高清二区| 欧美成人午夜激情视频| 亚洲熟女乱色一区二区三区久久久 | 成人国产精品av| 黑人与亚洲人色ⅹvideos| 天天av天天翘天天综合网色鬼国产| www.久久av.com| 欧美裸体在线版观看完整版| 欧美在线性视频| 污污视频在线免费看| 亚洲宅男天堂在线观看无病毒| 日韩av片专区| 日韩一区三区| 国产欧美日韩亚洲精品| jyzzz在线观看视频| 色婷婷综合久久久中文字幕| 草草地址线路①屁屁影院成人| 国产精品成人一区二区网站软件| 亚洲自拍中文字幕| 欧美大胆的人体xxxx| 欧美一区二区三区四区视频| 国产精品免费人成网站酒店| 久久国产麻豆精品| 一本一本久久a久久精品综合妖精| 日韩在线影院| 在线观看国产精品淫| 又骚又黄的视频| 国产精品久久三| 亚洲天堂伊人网| 亚洲综合中文| av一区观看| f2c人成在线观看免费视频| 亚洲成色777777在线观看影院| 免费看一级一片| 成人成人成人在线视频| 乱妇乱女熟妇熟女网站| 美女久久99| 国产精品视频网址| 国产黄色在线网站| 亚洲第一男人天堂| 啦啦啦免费高清视频在线观看| 久久免费视频色| 一区二区三区网址| 欧美久久99| 久久99精品国产一区二区三区| 天堂中文av在线资源库| 亚洲欧美日韩天堂| 国产一区二区女内射| 一区二区三区日本| 人妻换人妻a片爽麻豆| 久久精品导航| 一级黄色录像免费看| 中文字幕一区二区三区中文字幕 | 久久精品国产96久久久香蕉| 99在线精品视频免费观看软件| 亚洲一区二区欧美| 草草影院第一页| 激情亚洲综合在线| 男人的天堂狠狠干| 日韩av有码| 国产高清精品一区二区| 成人日韩精品| 欧美激情精品久久久久| 国内av一区二区三区| 欧美一区二区成人6969| 亚洲伊人成人网| 亚洲天堂av老司机| 国产精品揄拍100视频| 国产一区日韩二区欧美三区| a在线视频观看| 天天射天天综合网| 久久一区免费| 一区二区中文字幕在线观看| 国产成+人+综合+亚洲欧洲| 成人日日夜夜| 亚洲视频一区二区三区| 朝桐光av在线一区二区三区| 在线中文字幕不卡| 国产亚洲精品久久777777| 国产精品全国免费观看高清| 精品1卡二卡三卡四卡老狼| 裸体在线国模精品偷拍| 成人免费在线小视频| 欧美激情91| 亚洲最新免费视频| 神马影视一区二区| 久久99精品久久久久久久青青日本| 99精品美女视频在线观看热舞| 欧美在线观看网站| 激情图片在线观看高清国产| www.亚洲男人天堂| 岛国在线视频| 国产婷婷成人久久av免费高清| 国产高潮流白浆喷水视频| 欧美日韩精品久久久| 久久免费激情视频| 亚洲成av人**亚洲成av**| 国产天堂av在线| 国产精品久久久久久久久免费桃花| 国产网站无遮挡| 成人精品免费视频| 师生出轨h灌满了1v1| 国内不卡的二区三区中文字幕| 无码日韩人妻精品久久蜜桃| 亚洲免费综合| 亚洲不卡中文字幕无码| 亚洲国产第一| 国产va亚洲va在线va| 亚洲网站在线| 亚洲精品久久久久久久蜜桃臀| 欧美国产精品| 韩国无码av片在线观看网站| 久久精品免费一区二区三区| 一区二区视频在线观看| 色综合五月天| 亚洲欧美日韩综合一区| 成人羞羞视频在线看网址| 日本一区二区三区四区高清视频| 外国成人在线视频| 欧日韩一区二区三区| 国产精品密蕾丝视频下载| 欧美精品尤物在线| 红桃成人av在线播放| 日韩电影免费观看在| 北条麻妃国产九九九精品小说| 亚洲成人a**址| 欧美1级片网站| 色撸撸在线观看| 午夜国产精品视频免费体验区| 久久久成人精品一区二区三区 | av免费在线不卡| 91精品国产高清一区二区三区蜜臀| 国产尤物在线观看| 精品久久久久久久久久久院品网| 成人久久精品人妻一区二区三区| 亚洲成av人乱码色午夜| 五月天丁香视频| 亚洲视频综合网| 午夜激情视频在线| 久久在精品线影院精品国产| 性欧美videos高清hd4k| 97国产精品视频人人做人人爱| 成人免费短视频| 国产区亚洲区欧美区| 九九99久久精品在免费线bt| 国产精品久久精品视| 欧美性生活一级片| 亚洲精品国产一区| 国产精品magnet| 国产aaa一级片| 九九视频精品免费| www.美色吧.com| 国产亚洲成av人在线观看导航| 亚洲一二三四五六区| 夜夜嗨av一区二区三区中文字幕| 成年人免费高清视频| 欧美裸体bbwbbwbbw| 天天综合网在线| 深夜精品寂寞黄网站在线观看| 一区二区三区伦理| 日本国产欧美一区二区三区| 日本免费成人| 韩国精品一区二区三区六区色诱| 日韩激情一区| 日韩精品视频在线观看视频| 日韩电影一区二区三区| 亚洲国产综合av| 久久久一区二区| 久久久久久久久久网站| 日韩欧美国产视频| 国产高清视频免费| 亚洲偷欧美偷国内偷| 深夜国产在线播放| 国产精品男人的天堂| 激情小说一区| 色爽爽爽爽爽爽爽爽| 久久综合中文| 亚洲一区二区三区黄色| 国产精品超碰97尤物18| 久久久久久久久久久久久av| 欧美一级久久久久久久大片| 国产小视频在线观看| 久久久久久久久久久亚洲| 精品176极品一区| 欧美日韩综合另类| 欧美亚洲不卡| 久久精品视频在线观看免费| 国产日韩欧美综合在线| 日产精品久久久久久久| 日韩欧美第一区| 激情影院在线观看| 国产精品久久久久999| 日韩av网址大全| 欧美日韩不卡在线视频| 韩国av一区二区三区| 黄色片网站免费| 色综合天天综合网天天狠天天| 亚洲国产成人一区二区| 久久精品成人欧美大片| 素人一区二区三区| 日本一区免费在线观看| 国产日产高清欧美一区二区三区| 色诱av手机版| 一片黄亚洲嫩模| av中文字幕观看| 久久亚洲精品成人| 只有精品亚洲| 中文字幕一区二区三区在线乱码 | 欧美日韩美少妇| 国产爆初菊在线观看免费视频网站 | 成人91在线观看| 欧美日韩激情在线观看| 91精品国产一区二区三区香蕉| 伊人免费在线| 国产在线观看精品| 国产精品国产一区| 中文字幕12页| 亚洲码国产岛国毛片在线| 99国产在线播放| 欧美日韩成人在线视频| 91精品国产自产在线丝袜啪| 成人av在线播放观看| 国产91精品露脸国语对白| 极品颜值美女露脸啪啪| 欧美zozo另类异族| 国产美女精品写真福利视频| 精品亚洲欧美日韩| 久久久精品日韩| 精品女人久久久| 日韩欧美黄色影院| av今日在线| 日韩一区二区电影在线观看| 奇米精品一区二区三区在线观看| 免费一级suv好看的国产网站 | 国产精品久久久久999| 97在线精品| 曰本三级日本三级日本三级| 亚洲午夜在线电影| 深夜视频在线免费| 国产精品嫩草视频| 欧美三级特黄| 亚洲一区二区观看| 欧美视频一区二区在线观看| 国产视频在线播放| 国内精品久久国产| 免费xxxx性欧美18vr| 国产精品久久久精品四季影院| 欧美精品一区二区久久婷婷| 国产美女高潮在线| 一区二区三区的久久的视频| 国产99久久久久久免费看农村| 午夜毛片在线观看| 日韩在线精品视频| 成人线上播放| 福利在线一区二区三区| 亚洲综合丝袜美腿| 国产一级免费在线观看| 51精品国产人成在线观看 | 国产成人精品在线视频| 五月天综合网站| 波多野结衣av在线免费观看| 欧美丰满一区二区免费视频| av中文字幕电影在线看| 婷婷久久五月天| 福利一区福利二区| 亚洲午夜无码久久久久| 欧美激情三级免费| 欧美久久精品一级c片| 精品人妻一区二区三区日产| 在线播放91灌醉迷j高跟美女| 女人高潮被爽到呻吟在线观看| 在线视频欧美一区| 久久影院电视剧免费观看|