精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的? 精華

發布于 2024-6-25 10:18
瀏覽
0收藏

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

文章地址:https://arxiv.org/pdf/2406.11831

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

今天和大家一起學習的這個工作展示的效果非常好,對提示的理解能力達到了新的高度。

僅基于解碼器的 Transformer 的大語言模型(LLMs)與 CLIP 和 T5 系列模型相比,已經展示出卓越的文本理解能力。然而,在文本到圖像擴散模型中利用當前先進的大語言模型的范例仍有待探索。本文觀察到一個不尋常的現象:直接使用大語言模型作為提示編碼器會顯著降低圖像生成中遵循提示的能力。本文發現了這個問題背后的兩個主要障礙:一個是大語言模型中下一token預測訓練與擴散模型中對有區別性的提示特征的要求之間的不一致;另一個是僅解碼器架構引入的內在位置偏差。為了解決這個問題,本文提出了一個新穎的框架來充分利用大語言模型的能力。通過精心設計的使用指南,有效地增強了用于提示編碼的文本表示能力,并消除了其內在的位置偏差。這使得能夠靈活地將最先進的大語言模型集成到文本到圖像生成模型中。


此外,本文還提供了一種將多個大語言模型融合到框架中的有效方式。 考慮到transformer架構所展示出的出色性能和擴展能力,本文進一步基于該框架設計了一個注入大語言模型的擴散Transformer(LI-DiT)。本文進行了廣泛的實驗,以在模型大小和數據大小方面驗證 LI-DiT。得益于大語言模型的固有能力和本文的創新設計,LI-DiT 的提示理解性能輕松超越了最先進的開源模型以及包括 Stable Diffusion 3、DALL-E 3 和 Midjourney V6 在內的主流閉源商業模型。強大的 LI-DiT-10B 將在進一步優化和安全檢查后可用。

介紹

擴散概率模型在高質量圖像合成方面帶來了顯著的改進。在諸如 CLIP 文本編碼器和 T5 系列等強大的提示編碼器的協助下,DALL-E 3 和 Stable Diffusion 3極大地增強了文本到圖像擴散模型中的提示理解能力。受 GPT 成功的鼓舞,一系列僅解碼器的大語言模型(LLM)出現了,并且與 CLIP 和 T5 系列模型相比展示出了卓越的文本理解能力,例如 LLaMA。然而,在擴散模型中有效利用這些強大的 LLM 的方法仍有待探索。


為了更好地理解 LLM 在擴散模型中的固有特性,本文首先使用基于transformer的擴散模型(DiT)進行實驗,并在 T2I-CompBench 基準上進行評估。遵循 DiT 和 PixArt-α 的設計,通過交叉注意力層將來自 LLM 最后一層的文本條件信息注入到擴散Transformer中。如下圖 2 所示,盡管 LLaMA3-8B 表現出更強的語言理解能力,但它在圖像到文本對齊基準上仍然未能趕上較小模型 T5-XL 的性能。同時,較大的變體 T5-XXL 相對于 T5-XL 取得了顯著的優勢。LLM 在文本理解和邏輯推理方面的強大能力在這種情況下尚未得到展示。基于這種異常現象,本文旨在探索 LLM 在提示編碼中的作用。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

本文首先分析類T5的編解碼器模型和類GPT 的僅解碼器模型在優化目標和模型架構上的差異。masked語言模型優化和編解碼器架構設計賦予了 T5 編碼器內在的有效信息理解能力。然而,僅解碼器的大語言模型的優化目標側重于根據訓練數據分布預測具有最高概率的下一個token。


如下圖 4 所示,預訓練的大語言模型對給定的圖像提示提供了無意義的延續。這意味著大語言模型不關注給定圖像描述中的基本元素,并且大語言模型提取的文本表示不適合總結給定圖像的語義信息,導致與擴散模型的需求不一致。同時,本文發現大語言模型在理解提示后半部分提到的對象或屬性時通常會導致錯誤或遺漏。


這一觀察通過定量評估得到了進一步驗證。本文將此問題歸因于僅解碼器的大語言模型的因果注意力機制。在因果注意力層中,每個token只能關注自身和其他先前的token,而無法捕獲后面token的信息。這種結構性的信息不平衡挑戰了擴散模型理解復雜提示的能力。因此,這種不一致和位置偏差極大地阻礙了大語言模型成為擴散模型有效的文本編碼器。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

為了解決這些問題,本文提出了一個新穎的框架,即融入大語言模型的擴散器(LLM-infused Diffuser),以充分利用強大的大語言模型來促進擴散模型在文本理解及后續方面的表現。首先,本文在提示之前明確插入一個指令,以減輕信息不一致的情況。基于大語言模型的指令遵循能力,本文利用人類指令來鼓勵語言模型關注與圖像生成相關的概念,包括對象、屬性和空間關系。此外,本文提出了一個語言token精煉器來解決位置偏差問題。這樣的設計通過雙向注意力機制促進了有效的全局表示建模。最后,協作精煉器合并并精煉來自多個大語言模型的文本表示,以進一步提升文本理解能力。這些有針對性的設計提供了一種在擴散模型中利用大語言模型能力的有效方式。


本文的融入大語言模型的擴散器可以輕松且靈活地整合到擴散模型中。考慮到Transformer架構的出色性能和擴展能力,本文進一步設計了一個融入大語言模型的擴散Transformer(LI-DiT)。本文進行了廣泛的實驗,以在不同的模型大小和數據大小上驗證 LI-DiT。得益于大語言模型的固有能力和本文的創新設計,LI-DiT 的提示理解性能輕松超越了最先進的開源模型以及包括 Stable Diffusion 3、DALL-E 3 和 Midjourney V6 在內的主流閉源商業模型。如上圖 1 所示,本文展示了一些由 LI-DiT-10B 生成的隨機抽樣案例。

使用語言模型進行提示編碼

如上一節所述,本文觀察到僅解碼器的大語言模型和編解碼器模型之間有兩個差異:優化目標和模型架構。具體來說,僅解碼器的大語言模型通常使用下一個token預測任務進行優化,而編解碼器模型則通過掩蔽語言建模任務進行訓練。此外,在僅解碼器的大語言模型中,序列中的前一個token不能關注后一個token,而在編解碼器模型中,序列中的每個token都可以相互關注。基于這些觀察結果,本文進行了精心的實驗,以研究這些差異如何影響大語言模型的提示編碼能力。

探索保留提示信息的能力

在 T5 模型的預訓練期間,輸入序列用mask進行格式化,模型通過預測被mask的內容從大量語言數據中學習。在這個過程中,編碼器負責從當前token序列中的所有token中提取信息。然而,僅解碼器的語言模型更側重于預測未來信息,而不是表示當前文本表示,這與擴散模型的使用不一致。為了更好地理解語言模型如何編碼提示的特征,本文將一個圖像提示輸入到 LLaMA3-8B 和 T5-XXL 中,以分析它們的輸出。如上 4 所示,T5-XXL 的輸出是輸入提示的重復,而 LLaMA3-8B 生成了一個不相關的擴展。這種現象進一步驗證了本文的假設。因此,盡管大語言模型具有更強的文本理解和推理能力,但這種限制損害了它們編碼提示的能力。

僅解碼器大語言模型的位置偏差

本文構建了一個基準來評估圖像提示中不同位置的所有形容詞-名詞組合的圖像-文本對齊情況。遵循傳統的文本到圖像生成基準,提取所有形容詞-名詞組合,并獲得它們在每個圖像提示中的相對位置。這些形容詞-名詞組合可以很容易地轉換為問題。然后,本文將生成的圖像和問題輸入到一個視覺問答模型中以獲得其對齊分數。請參考補充材料以獲取關于構建測試集的更多細節。如下圖 3 所示,本文計算每個形容詞-名詞組合在提示內的平均對齊分數和相對位置。可以觀察到帶有 T5 編碼器的擴散模型對位置變化表現出很強的穩健性,而帶有僅解碼器大語言模型的模型在后面的位置表現不佳。這種固有的位置偏差顯著損害了僅解碼器大語言模型的提示編碼能力。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

LLM-infused Diffuser

整合大語言模型和擴散模型

為了彌合預訓練優化和提示編碼之間的差距,本文利用大語言模型的指令跟隨能力,以鼓勵它關注給定標題中的圖像內容。此外,本文還提出了精煉器模塊來減輕大語言模型文本embedding的固有位置偏差。通過結合這些設計,開發了一個名為“ LLM-infused Diffuser”的框架,它可以靈活地注入當前最先進的大語言模型,以釋放其強大的文本理解能力。


如下圖 5 所示,LLM-infused Diffuser的流程包括四個部分:

  • 在圖像提示之前插入系統提示和指令,以鼓勵大語言模型關注圖像內容并突出其屬性。
  • 帶有指令的圖像提示可以由多個凍結的大語言模型分別編碼。
  • 采用不同的語言token精煉器模塊來消除這些大語言模型的文本embedding的位置偏差。
  • 借助協作精煉器,來自大語言模型的文本特征被協同精煉,從而產生更穩健的表示。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

輸入提示。受到大語言模型強大的指令跟隨能力的啟發,本文旨在利用這種能力迫使大語言模型關注提示中的關鍵圖像內容,并促進文本表示與文本到圖像合成任務之間的對齊。具體來說,本文提議在傳統的圖像描述之前插入自定義指令。這樣的指令提示大語言模型關注關鍵圖像內容,例如圖像中物體的屬性以及物體之間的空間關系。在本文的實驗中,采用了一個簡單的指令:通過詳細描述物體的顏色、形狀、大小、紋理、數量、文字和空間關系來描述圖像。如上圖 4 所示,如果不提供明確的指令,大語言模型往往會生成與圖像上下文無關的內容。當向大語言模型提供指令和圖像提示時,它將遵循指令專注于與圖像相關的概念,以詳細描述圖像,并根據給定的提示提供對齊的表示。大語言模型的輸出embedding將由后續的精煉器模塊進一步處理。


語言token精煉器。在大語言模型的因果注意力層中,當前token只能關注到之前的token,因此這極大地損害了全局文本表示建模。例如,文本token序列中的最后一個token只能被其自身關注。為了減輕僅解碼器大語言模型的這種位置偏差,本文插入一個語言token精煉器模塊來精煉每個大語言模型有偏差的輸出表示。如上圖 5 所示,每個精煉器模塊包含一堆Transformer塊,它由一個自注意力層、一個前饋層(FFN)和一個自適應門控模塊組成。對于自注意力層,直接丟棄大語言模型的因果mask來執行全注意力,這使得后面的token的表示可以被前面的token關注。每層的輸出特征由自適應門控網絡控制,其權重初始化為零以獲得更好的訓練穩定性。具體來說,本文首先對大語言模型表示進行平均池化,然后將池化后的表示與時間步 t 的embedding通過元素級求和進行合并。門控網絡將這種時間步感知和上下文感知的表示作為輸入來執行精確的信息注入。精煉器的最終輸出表示將共同被饋送到協作精煉器中進行增強。


協作精煉器。為了進一步提高文本理解能力,本文采用多個大語言模型和語言token精煉器進行提示編碼,并通過所提出的協作精煉器協同精煉這些表示。來自多個語言token精煉器的表示由多個平行分支分別處理,并且一個分支中的每個塊都包含一個交叉注意力和前饋神經網絡層。此外,本文使用一種調制機制,根據時間步和文本上下文來調節協作精煉器的每一層。這種調制采用與語言token精煉器中上述門控網絡相同的輸入。該模塊中的分支通過多個平行的交叉注意力層連接,在這里文本表示可以進行協同精煉。具體來說,交叉注意力層將當前分支的特征作為查詢,將其他分支的特征作為鍵和值來精煉當前特征。最后截斷輸出的token序列,丟棄指令token,并通過連接混合這兩種表示。這種混合并精煉后的表示可以靈活地集成到擴散模型中,以提供有區分度的文本條件信息。

LLM-infused Diffuser Transformer

本文提出的注入大語言模型的 Transformer可以靈活地集成到當前的擴散模型中。考慮到擴散 Transformer 顯著的擴展能力,本文開發了一個名為注入大語言模型的擴散 Transformer(LI-DiT)的擴散模型。


遵循 DiT 的范例,LI-DiT 將來自變分自動編碼器(VAE)潛在空間的有噪表示作為輸入,并將空間輸入轉換為token序列。LI-DiT 的每個Transformer塊包含一個自注意力層、一個交叉注意力層、一個前饋神經網絡層和調制模塊。交叉注意力層可以將注入大語言模型的擴散器提取的文本條件信息注入token序列中。調制模塊接收時間步embedding和文本表示以提供額外的條件信息。與之前工作中的二維位置embedding設計不同,本文采用基于卷積的位置embedding。在擴散Transformer中的補丁化層之后,直接采用一個 ResBlock 作為位置embedding模塊。卷積算子的平移不變性可以有效地為Transformer算子引入位置信息。因此,LI-DiT 可以支持任意分辨率的圖像生成,而無需額外的設計修改。


大規模的 Transformer 模型通常會遭受不穩定的梯度和數值精度問題,導致在訓練過程中損失發散。為了解決訓練不穩定的問題,本文納入了在大規模視覺或語言模型訓練中采用的若干策略。首先,在自注意力層和交叉注意力層中都引入了 QK 歸一化。RMSNorm 層將在點積計算注意力分數之前對查詢和關鍵token進行歸一化。這樣的操作確保了注意力分數的數值穩定性,并避免了來自分布外值的不穩定梯度。此外,考慮到 bfloat16 更廣泛的數值表示范圍,本文最終采用了 bfloat16 混合精度訓練策略。

實驗

實現細節

模型架構。本文的實驗默認在較小的模型 LI-DiT-1B 上進行。采用 LLaMA3-8B 和 Qwen1.5-7B并結合多模態指令微調 作為 LI-DiT-1B 和 LI-DiT-10B 的雙文本編碼器。對于消融研究基線,本文只保留 LLaMA3-8B 以降低訓練成本。本文在語言token精煉器中采用 2 個塊,在協作精煉器中采用 1 個塊。在實驗中, 本文將來自倒數第三個Transfomer 塊的文本embedding作為每個大語言模型的輸出。關于 LI-DiT-1B 和 LI-DiT-10B 的詳細架構,請參考補充材料。


訓練數據。所有的探索和消融實驗都在 ImageNet 數據集和 CC12M 數據集的一個子集上進行訓練。本文為 ImageNet 的每個樣本分配“一張{class}的照片”的文本提示,并從 CC12M 中隨機選擇 130 萬圖像-文本對。遵循之前的工作,本文混合了原始描述和由CogVLM生成的合成描述。將 LI-DiT 與其他領先的模型進行比較時,本文使用了一個具有十億級圖像-文本對的大規模訓練數據集,包括 LAION-5B和其他包含英語和中文的內部數據集,這使 LI-DiT 具有雙語理解能力。遵循Stable Diffusion,當來自 LAION 的圖像-文本對的美學評分低于 4.7 時,本文將其移除。低分辨率圖像和包括網址和標簽的低質量提示也被移除。具體來說,本文僅從這個大規模數據集中抽樣 3000 萬圖像-文本對來訓練 LI-DiT-1B,并使用所有十億級對來訓練 LI-DiT-10B。


訓練細節。遵循潛在擴散模型(LDM)的范例,本文利用一個變分自編碼器(VAE)編碼器將圖像表示投影到潛在空間。本文訓練一個具有 8 倍下采樣率和 16 個通道的變分自編碼器以獲得更好的圖像生成效果。本文不使用任何數據增強策略。遵循 RAPHEL中的多尺度訓練,根據圖像的縱橫比將圖像分組。只有具有相似縱橫比的圖像才會構成一個批次。對于在 300 萬圖像-文本對上進行的消融實驗,本文以 256 的分辨率用 256 的batch大小和  的學習率訓練模型 30 萬次迭代。對于 LI-DiT-1B 的訓練,本文將批次大小增加到 2048 并將迭代次數增加到 50 萬。在訓練 LI-DiT-10B 時,批次大小是 4096,迭代次數超過 100 萬。本文在訓練期間直接采用 512 的分辨率,然后用高質量數據將其微調至 1024 分辨率以進一步提高美學質量。


評估指標。對于定量評估,本文主要考慮 T2I-CompBench、DPG-Bench和 GenEval 基準。本文還引入了人類評估以更好地理解藝術和美學質量。請注意,消融研究中的“T2I-平均”是指 T2I-CompBench 屬性指標的平均得分。

性能比較

定量評估。在定量評估中,本文專注于生成圖像與輸入提示之間的一致性。如下表 1 所示,本文選擇 T2I-CompBench、DPG-Bench 和 GenEval 基準來評估 LI-DiT-1B 和 LI-DiT-10B 的生成能力。T2I-CompBench 和 GenEval 基準由簡短提示組成,側重于組合評估。DPG-Bench 是用復雜密集的提示構建的。與像 SDXL 和 PixArt-α這樣的開源學術作品相比,LI-DiT-1B 在所有基準上都大幅優于它們。本文還將 LI-DiT-10B 與 DALL-E 3 和Stable Diffusion 3(8B)這兩個主流的閉源商業模型進行比較。這一顯著的改進進一步驗證了本文的大語言模型融合擴散器的有效性。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

人類評估。定量評估指標不能直接衡量藝術和美學質量。遵循先前的工作,本文也進行人類評估,以令人信服地將 LI-DiT-10B 與Stable Diffusion 3、DALL-E 3 和Midjourney V6 進行比較。本文的評估數據集包含 200 個具有不同風格和場景的提示。來自 LI-DiT-10B 的圖像和來自競爭對手的圖像將構成一個評估對。人類評估者將從圖像質量和圖像-文本對齊的角度比較圖像對。下圖 6 中的結果表明,LI-DiT-10B 在圖像-文本對齊和圖像質量方面都可以超過 DALLE-3 和Stable Diffusion 3。與最受歡迎的商業模型Midjourney V6 相比,LI-DiT-10B 在圖像-文本對齊方面表現出領先的能力,同時具有類似的圖像-文本質量表現。在下圖 7 中,本文展示了一些隨機抽樣的案例以進行清晰比較。此外還在圖 8 和圖 9 中提供了一些高質量圖像。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

消融研究

組件級消融研究。如下表 2 所示,本文進行組件級消融研究。本文采用預訓練的 LLaMA3-8B 的 DiT 作為基線設置。首先,觀察到在將指令引入輸入提示或把語言token精煉器合并到基線后性能有一致的提升。當同時利用這兩種設計時,在兩個基準上的圖像-文本對齊性能繼續提高。此外,本文引入一個額外強大的大語言模型,Qwen1.5-7B,并進行多模態微調以驗證協同精煉器的有效性。大語言模型融合策略進一步增強了擴散模型對提示的理解能力。這些結果清楚地驗證了每個提出組件的有效性。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

因果Mask的影響。在這個實驗中本文研究因果Mask對提示編碼的影響。如下表 3 所示,在大語言模型之后插入具有完全注意力的語言token精煉器顯著提高了性能。然而,這個精煉器未能提高具有雙向注意力的 T5 編碼器的性能。如果將大語言模型的因果Mask引入到精煉器中,在 LLaMA3-8B 和 Qwen1.5-7B 中都會出現嚴重的性能下降。這些結果表明因果Mask是損害大語言模型提示編碼能力的一個核心因素,而本文提出的精煉器可以消除這種位置偏差。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

指令的效果。為了驗證指令的有效性,本文在下表 4 中進行了一項消融實驗。首先,本文發現提示指令對于使用沒有指令微調的基礎 LLaMA3-8B 模型未能帶來增益。如果將基礎模型改為多模態指令微調變體,對齊分數可以顯著提高。由于指令微調帶來的強大遵循指令能力,插入指令可以進一步提升性能。這個結果表明多模態指令微調數據有助于大語言模型更好地描述圖像并突出圖像內的關鍵元素。此外,指令能夠鼓勵大語言模型關注給定提示中的圖像內容。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

語言token精煉器設計。如下表 5 所示,本文對語言token精煉器的設計進行實驗。首先,將本文的模型與精煉器中具有不同塊數的其他變體進行比較。觀察到當精煉器中的塊數增加時性能有一致的提升。然而,當語言token精煉器中有 2 個塊時這種提升并不顯著。因此,本文在token精煉器中采用 2 個塊來實現復雜性和性能之間的最佳平衡。此外,本文還消融了精煉器中門控網絡的效果。當移除門控網絡時,在兩個基準上的性能都下降了。這表明時間和文本上下文的條件信息有助于更好的圖像-文本對齊。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

協同精煉器的效果。如下表 6 所示,本文觀察到具有簡單融合技術的模型可以優于具有單個大語言模型的其他對應模型。此外,協同精煉器可以在這種拼接融合的基礎上進一步提升性能。這樣的結果表明一種有效的表示融合方法可以進一步增強大語言模型的能力。

拳打開源SOTA腳踢商業閉源的LI-DiT是怎樣煉成的?-AI.x社區

結論

針對在采用僅解碼器的大語言模型來編碼提示時在文本到圖像生成任務中表現不佳的情況,本文探索了大語言模型在擴散模型提示編碼中的作用。通過實驗和分析,本文確定了限制僅解碼器的大語言模型作為擴散模型的有效文本編碼器的核心因素,即下一個token預測訓練與擴散模型中對判別性提示特征的要求之間的不一致,以及僅解碼器架構引入的內在位置偏差。為了處理這些問題,提出了一個新穎的框架來充分利用大語言模型的能力。本文還基于該框架進一步設計了一個注入大語言模型的擴散 Transformer(LI-DiT)。LI-DiT 超越了最先進的開源模型以及包括 Stable Diffusion 3、DALLE-3 和 Midjourney V6 在內的主流閉源商業模型。

限制和潛在的社會負面影響

由于計算資源有限,本文對具有 70 億參數的大語言模型進行實驗。在未來的工作中,本文將在具有 130 億或 700 億參數的更大的大語言模型中進一步驗證注入大語言模型的擴散的有效性。潛在的負面社會影響是圖像可能包含有誤導性或虛假信息。本文將在數據處理方面進行廣泛的努力來處理這個問題。


本文轉自 AI生成未來 ,作者:Bingqi Ma等


原文鏈接:??https://mp.weixin.qq.com/s/LW4Uf1z7uKDS3AX1Lkhxyg??

收藏
回復
舉報
回復
相關推薦
青青视频免费在线观看| 国产精品扒开腿做| 性高潮免费视频| 欧美xxxhd| 国产欧美视频在线观看| 野花国产精品入口| 岛国av一区二区| 日韩av大全| 超碰在线播放97| 天堂蜜桃一区二区三区| 久久91亚洲人成电影网站| 国产精品无码毛片| japansex久久高清精品| 激情成人中文字幕| 免费观看黄色大片| 天堂а在线中文在线无限看推荐| 麻豆国产精品一区二区三区| 久久乐国产精品| 婷婷丁香综合网| 精品视频高潮| 波多野结衣一区| 国产精品麻豆一区二区| av资源站久久亚洲| 中文字幕无线码一区| 精品91久久久久| 色av中文字幕一区| 李宗瑞91在线正在播放| 国产伦精品一区二区三区在线播放 | 亚洲av无码国产精品久久| 在线不卡一区| 色噜噜狠狠成人中文综合| 成人在线播放网址| 日本中文字幕电影在线免费观看| 91丨九色丨黑人外教| 国产精品久久7| 国产人妖一区二区| 蜜桃视频免费观看一区| 日本91av在线播放| 日韩网红少妇无码视频香港| 欧美在线日韩| 久久久国产一区| 三年中国中文观看免费播放| 伊人久久大香线蕉综合网站| 欧美精品一区二区高清在线观看 | 天天综合在线观看| 色天使久久综合网天天| 欧美 日本 亚洲| 波多野结衣在线高清| 伊人婷婷欧美激情| 香蕉视频免费版| 麻豆传媒视频在线观看免费| 国产欧美视频在线观看| 日本午夜精品电影| 免费黄色在线视频网站| 久久午夜老司机| 欧美不卡三区| 国产精品一级伦理| 国产欧美精品一区二区三区四区| 日本一区视频在线观看免费| 欧美在线观看在线观看| 久久久久久久久岛国免费| 麻豆91av| 国产青青草在线| 国产精品久久久久久久午夜片| 台湾成人av| 欧美三级黄网| 一区二区在线看| 色欲色香天天天综合网www| 俺来俺也去www色在线观看| 婷婷综合另类小说色区| 中文字幕乱码人妻综合二区三区| 免费观看一级欧美片| 日本精品视频一区二区| 亚洲综合欧美在线| 激情不卡一区二区三区视频在线| 大胆日韩av| 午夜精品国产更新| 阿v天堂2017| 日韩欧美少妇| 正在播放一区二区| 欧美做受高潮中文字幕| 最新亚洲精品| 久久亚洲影音av资源网| 日本少妇xxxx动漫| 久久中文精品| 91亚洲一区精品| 欧美性受xxxx狂喷水| 91视频精品在这里| 在线观看日韩羞羞视频| 日韩激情av| 色乱码一区二区三区88| 久久久久久久久久一区二区| 成人资源在线播放| 亚洲毛片在线免费观看| 激情无码人妻又粗又大| 亚洲黄色影院| 成人激情免费在线| 亚洲欧洲国产综合| 亚洲免费观看高清完整版在线观看| 国产 日韩 亚洲 欧美| 成人国产激情| 亚洲第一偷拍网| 五月婷婷综合激情网| 日韩一级欧洲| 亚洲影院高清在线| 国产尤物视频在线| 亚洲成人精品一区二区| 免费黄色一级网站| 久久av国产紧身裤| www.欧美精品| 亚洲欧美一二三区| www.亚洲免费av| 日韩国产精品毛片| 美女100%一区| 亚洲精品国产精品久久清纯直播 | 特种兵之深入敌后| 国产一区二区三区电影在线观看 | 国产成+人+日韩+欧美+亚洲| 日韩不卡av| wwww亚洲| 日韩视频一区二区| jizzjizzjizz国产| 视频一区免费在线观看| 国产三级精品在线不卡| 黄视频网站在线| 在线日韩一区二区| 99久久久久久久久久| 国产一区日韩一区| 91香蕉亚洲精品| www.亚洲免费| 色猫猫国产区一区二在线视频| 国产激情第一页| 欧美日韩网站| 亚洲www在线观看| 男人天堂手机在线| 欧美日韩日日骚| 国产伦理片在线观看| 免费在线播放第一区高清av| 国产精品二区三区四区| 色操视频在线| 欧美成人激情免费网| 国产精品 欧美激情| 久久er精品视频| 资源网第一页久久久| 日韩黄色碟片| 久久精品一偷一偷国产| 一本色道久久综合熟妇| 国产精品美女久久久久aⅴ国产馆 国产精品美女久久久久av爽李琼 国产精品美女久久久久高潮 | 国产美女无遮挡永久免费| 中文字幕精品—区二区四季| 91看片就是不一样| 精品国产一区二区三区久久久樱花 | 亚洲日本va中文字幕| 九九热99久久久国产盗摄| 国产精品九九九九| 亚洲免费观看高清在线观看| 色黄视频免费看| 欧美视频一区| 国产一区二区三区黄| 在线观看爽视频| 亚洲人成网站999久久久综合| 久久精品视频5| 欧美激情中文不卡| 久热在线视频观看| 亚洲免费二区| 国产精品果冻传媒潘| 黄视频网站在线观看| 亚洲欧美另类国产| 中国女人真人一级毛片| 最新久久zyz资源站| www.四虎精品| 麻豆久久婷婷| 亚洲一区二区三区乱码| 精品午夜av| 97香蕉超级碰碰久久免费软件| 日本一区高清| 欧美区视频在线观看| 久久精品久久国产| 久久久久久久久伊人| 亚洲无在线观看| 黄色成人精品网站| 欧洲精品久久| 国产精品美女久久久久| 韩国19禁主播vip福利视频| 深夜福利视频在线免费观看| 欧美午夜电影网| 精品无码免费视频| 国产午夜精品一区二区三区四区| www.com黄色片| 亚洲国产高清一区| 色一情一乱一伦一区二区三区| 精品一区二区三区中文字幕 | 91在线丨porny丨国产| 美女一区二区三区视频| 精品二区视频| 亚洲午夜精品一区二区| 三级小说欧洲区亚洲区| 91精品一区二区| 天堂8中文在线最新版在线| 久久激情视频久久| 欧美日韩伦理片| 精品日韩99亚洲| 国产精品成人无码| 亚洲一区二区av电影| 麻豆视频免费在线播放| 成av人片一区二区| 久久久久久久高清| 性色av一区二区怡红| 300部国产真实乱| 不卡中文字幕| 久久一区二区三区av| 亚洲成av人片在线观看www| 国产精品久久久久77777| 2020av在线| 欧美成人自拍视频| 日本成人网址| 亚洲一级片在线看| 天堂在线视频免费| 日韩精品资源二区在线| 91免费视频播放| 色偷偷成人一区二区三区91| 日韩乱码人妻无码中文字幕| 亚洲欧美日韩系列| 污污视频网站在线免费观看| 久久久久国产一区二区三区四区| 蜜臀视频在线观看| 国产成都精品91一区二区三| 最新av免费在线观看| 男人的天堂久久精品| 99免费视频观看| 久久蜜桃资源一区二区老牛| 99热自拍偷拍| 亚洲精选国产| 欧美日韩成人免费视频| 今天的高清视频免费播放成人| 毛片av在线播放| 欧美日韩国产一区精品一区| 国产成人免费高清视频| 久久亚洲国产| 夜夜春亚洲嫩草影视日日摸夜夜添夜| 国产成人高清| 欧美日韩一区在线观看视频| 丝袜美腿一区二区三区动态图| 粉嫩av免费一区二区三区| 青草伊人久久| 国产69精品久久久久9999apgf| 久久视频社区| 粉嫩av一区二区三区免费观看| 伊色综合久久之综合久久| 2019国产精品视频| 操欧美女人视频| 国产欧美日韩一区| 五月综合久久| 玖玖玖精品中文字幕| 中国av一区| 婷婷久久青草热一区二区 | 女人床在线观看| 亚洲天堂久久| 乱妇乱女熟妇熟女网站| 欧美在线综合| 午夜久久久精品| 国产综合一区二区| 国产伦精品一区二区三区妓女下载| 国产电影精品久久禁18| 妖精视频一区二区| 91麻豆免费观看| 日本黄色激情视频| 中文字幕视频一区二区三区久| 欧美日韩在线视频免费| 亚洲国产一区二区在线播放| 日韩在线视频免费播放| 色88888久久久久久影院按摩| 中文字幕无线码一区| 日韩午夜激情视频| 日本国产在线| 日韩亚洲精品电影| 成年人视频免费在线播放| 欧洲美女免费图片一区| 看片一区二区| 国产精品久久久久久免费观看| 免费看成人哺乳视频网站| 一本一道久久a久久精品综合| 欧美日韩国产成人精品| 日本精品一区二区三区四区 | 91中文字幕一区| 红杏视频成人| 亚洲精品成人三区| 国语自产精品视频在线看8查询8| 日韩视频第二页| 久久99这里只有精品| 扒开伸进免费视频| 岳的好大精品一区二区三区| 91麻豆精品国产91久久久资源速度 | 另类国产ts人妖高潮视频| 四季av一区二区三区| 成人午夜激情影院| 美女网站视频色| 午夜影视日本亚洲欧洲精品| 中文字幕人妻一区二区三区视频| 日韩免费视频线观看| 国产在线中文字幕| 欧美精品电影免费在线观看| 少妇精品视频一区二区免费看| 99久热re在线精品996热视频| 国产成人精品一区二区免费看京 | 久久久久久国产精品一区| 欧美电影《轻佻寡妇》| 69堂免费视频| 国产高清成人在线| 国产jk精品白丝av在线观看| 一片黄亚洲嫩模| 亚洲一二区视频| 亚洲人成自拍网站| 国产精品蜜臀| 成人天堂噜噜噜| 国产精品免费大片| 丰满的少妇愉情hd高清果冻传媒| 精品亚洲aⅴ乱码一区二区三区| 18禁裸乳无遮挡啪啪无码免费| 亚洲一区二区三区国产| 国产精品国产一区二区三区四区| 亚洲天堂影视av| 中文字幕 在线观看| 国产欧美日韩在线播放| 自拍偷拍欧美专区| www.污污视频| 国产欧美日韩三区| 亚洲自拍一区在线观看| 亚洲二区在线播放视频| 制服丝袜在线播放| 91久久夜色精品国产网站| 欧美限制电影| 欧美日韩亚洲自拍| 国产午夜精品美女毛片视频| 99热只有这里有精品| 日韩av网站导航| 国产在线美女| 精品一区日韩成人| 亚洲高清毛片| 欧类av怡春院| 精品毛片网大全| 头脑特工队2免费完整版在线观看| 国产+人+亚洲| 另类春色校园亚洲| 国产二区视频在线| 波多野结衣精品在线| 香蕉免费毛片视频| 日韩精品视频中文在线观看| 欧美gv在线观看| 欧美精品一区三区在线观看| 久久国产成人| 国产高清一区二区三区四区| 欧美在线一二三| 欧美成年黄网站色视频| 91日本在线视频| 欧美有码视频| 国产一级黄色录像| 精品久久久国产| 免费人成在线观看网站| 国产精品高潮呻吟视频| 日韩影院二区| 两性午夜免费视频| 亚洲国产中文字幕在线视频综合 | 亚洲 自拍 另类小说综合图区| av在线不卡观看免费观看| av大片免费观看| 亚洲午夜色婷婷在线| 香蕉久久一区| 国内少妇毛片视频| 久久理论电影网| 11024精品一区二区三区日韩| 欧美超级免费视 在线| 久9re热视频这里只有精品| 久久9精品区-无套内射无码| 国产精品久久久久一区| 精品久久久免费视频| 57pao国产成人免费| 欧美日韩国产高清电影| 日本高清免费观看| 日韩欧美精品网站| 免费成人黄色| 精品视频一区二区三区四区| 日韩福利视频网| 青青草偷拍视频| 亚洲天堂网在线观看| 日韩激情精品| 无码aⅴ精品一区二区三区浪潮| 中文字幕的久久| 成人免费公开视频| 国产精品7m视频| 欧美777四色影| 亚洲一级中文字幕| 日韩视频不卡中文| 日本成人片在线| 成人短视频在线观看免费| 久久久久久久久久久久久久久99 | 亚洲国产91视频| 久久久久久久中文| 亚洲免费在线视频| www.中文字幕久久久|