精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮? 原創 精華

發布于 2024-10-16 10:45
瀏覽
0收藏

??【本文正在參與 AI.x社區AIGC創新先鋒者征文大賽】??

??http://m.jxzklqfsx.com/aigc/2223.html??

?

編者按:隨著大語言模型(LLMs)的上下文窗口不斷擴大,您是否開始思考:我們還需要花費大量時間和資源來構建復雜的檢索增強生成(RAG)系統嗎?

本文深入探討了長上下文 LLMs 與 RAG 系統的優劣勢,揭示了它們在實際應用中的表現差異。通過對最新四篇學術研究的全面分析,作者闡明了長上下文 LLMs 在某些任務中的優勢,同時也指出了 RAG 系統在某些專業領域任務和成本效益方面仍具有優勢。

作者建議將 RAG 與長上下文 LLMs 結合使用,以發揮協同效應,并呼吁建立更全面、更嚴格的評估體系,包括統一的評估數據集和評估指標。未來,如何有效結合這兩種技術,應當是人工智能領域的一個重要研究方向。

作者 | Florian June

編譯 | 岳揚

2023 年,大語言模型(LLMs)的上下文窗口通常在 4K 到 8K 左右。但到了 2024 年 7 月,上下文窗口超過 128K 的 LLMs 已經變得很普遍了。

以 Claude 2[1] 為例,其上下文窗口可達 100K。Gemini 1.5[2] 則宣稱能夠處理 2M 的上下文信息,而 LongRoPE[3] 更是將 LLMs 的上下文窗口擴展到了 200 萬個 tokens 以上。Llama-3–8B-Instruct-Gradient-4194k[4] 的上下文窗口更是達到了 4194K 。在應用大語言模型時,上下文窗口的大小似乎已經不再是限制因素。

于是,有人提出了這樣的觀點:既然 LLMs 能夠一次性處理所有數據,那么還有必要建立檢索增強生成(RAG)[5]系統嗎?

因此,有一些研究人員宣稱“ RAG 已死”。但也有人認為,即便有了長上下文窗口的 LLMs, RAG 系統也不會因此消亡,RAG 仍然可以煥發新的活力。

本文將重點討論這個有趣的話題:長上下文 LLMs 是否會導致檢索增強生成(RAG)系統[5]的淘汰?

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 1:RAG vs Long-Context LLMs. Image by author.

文章開頭,我們將從直觀的角度比較 RAG 與具備長上下文窗口的大語言模型(LLMs)。接著,我們將分析幾篇針對這一議題的最新學術論文。文章的最后,我將分享自己的一些思考和見解。

01 RAG 與長上下文 LLMs 的對比分析

圖 2 展示了 RAG 與具備長上下文窗口的 LLMs 在不同方面的直觀對比。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 2:RAG 與長上下文 LLMs 不同維度的對比分析。

02 學術界最新研究成果

以上內容幫助我們建立一些直觀的認識,并非對這些技術嚴謹的比較。

長上下文 LLMs 的出現同樣引起了學術界的關注。以下是最新的四篇研究論文,我們將一探究竟。

  • Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More?[6]
  • RAG vs. Long Context: Examining Frontier Large Language Models for Environmental Review Document Comprehension[7]
  • Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach[8]
  • ChatQA 2: Bridging the Gap to Proprietary LLMs in Long Context and RAG Capabilities[9]

2.1 Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More?

該論文[6]提出了 LOFT 基準測試,這是一個模擬真實任務場景的測試環境,需要處理上百萬個 tokens 的上下文,用以評估長上下文語言模型(LCLMs)在信息檢索和邏輯推理方面的能力。

LOFT 涵蓋了六個主要任務場景,如圖 3 上半部分所示,RAG 便是其中之一。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 3:An overview of the LOFT benchmark. Source: Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More?.[6]

圖 3 的左下角展示的是傳統的處理流程,其中包括多模態檢索工具或 RAG pipeline,需要多個專業系統的協同工作。

與此相對的是,圖 3 的右下角展示的是長上下文語言模型(LCLM)。 LCLM 能夠直接將包含文本、圖像和音頻等多種模態信息的整個語料庫作為模型輸入。通過采用 “Context in Corpus”(CiC)提示詞技術,模型能夠在統一的框架內完成包括檢索、推理和答案生成在內的多種任務。

評估結果表明, 在 multi-hop datasets(譯者注:在閱讀理解等自然語言處理任務中,一個問題的答案可能需要從多個不同的段落或文檔中獲取信息。這種情況下,我們就說這個問題需要"多跳"(multi-hop)來回答。包含了這類問題的數據集就被稱作是 multi-hop datasets。)(如 HotpotQA 和 MusiQue)上,Gemini 1.5 Pro 在處理整個語料庫上下文時的表現優于 RAG pipeline。這是因為 LCLM 能夠使用思維鏈 [10] 在上下文窗口內跨多個段落進行推理,而 RAG pipeline 通常不具備這種能力,除非它額外配備有規劃(planning)和推理(reasoning)模塊。

總體來看,在 LOFT 基準測試中與 RAG 相關的任務中,Gemini 1.5 Pro(0.53) 的表現略勝于 RAG pipeline(0.52)。而 GPT-4o(0.48)和 Claude 3 Opus(0.47)的表現則不如 RAG pipeline(0.52),這一結果在圖 4 中有詳細展示。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 4 :在 LOFT 128k 上下文的基準測試集上的主要實驗結果。Source: Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More?[6]

此外,圖 5 顯示,雖然 LCLM 在 128K 上下文窗口的性能與 RAG 表現相當,但當上下文擴展到 1M 時,其性能相較于 RAG pipeline 有所下降。 這一趨勢與 LCLM 在文本檢索性能上的衰退是一致的。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 5:LCLM 與各垂直場景模型在語料庫大小從 32K 擴充至 100 萬 tokens 時的性能對比。這些結果是在每個任務所包含的所有數據集上平均計算得出的。Source: Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More?.[6]

2.2 RAG vs. Long Context: Examining Frontier Large Language Models for Environmental Review Document Comprehension

“RAG vs. Long Context”[7]研究評估了 RAG 和長上下文 LLMs 在那些需要專業領域知識的特定任務場景中的表現。

通過構建 NEPAQuAD 1.0 基準測試,本研究對三種先進的 LLMs —— Claude Sonnet、Gemini 和 GPT-4 —— 在回答美國聯邦機構(U.S. federal agencies)根據《National Environmental Policy Act》(NEPA)編寫的環境影響報告書(EIS)中相關問題的能力進行了評估,具體請見圖 6。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 6:在比較中使用的不同環境影響報告書(EIS)上下文的示例,其中精選的 Gold passages 由領域專家挑選。Source: RAG vs. Long Context[7].

評估結果表明,不論選擇哪種前沿的 LLM,基于 RAG 的模型在答案準確性方面都明顯優于長上下文模型。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 7:在不同上下文配置下,LLMs 在 EIS 文檔上的答案正確性評估結果。其中,silver passages 是通過 RAG pipeline 篩選的,而 gold passages 則是由專家挑選的。Source: RAG vs. Long Context[7].

如圖 7 所示,當向 LLMs 提供 RAG pipeline 篩選出的 silver passages 時,其表現顯著優于不提供任何參考文獻或提供含有問題上下文的完整 PDF 文檔。其表現甚至接近于提供專家挑選的 gold passages。

圖 8 則展示了 LLMs 在不同類型問題上的性能表現。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 8:比較不同語言模型在四種不同上下文應用場景下回答各類型問題的正確性得分。Source: RAG vs. Long Context[7].

總體而言,RAG 增強的 LLMs(silver passages)在答案準確性上明顯優于僅提供長上下文的模型。特別是在處理特定垂直領域的問題時,RAG 增強的 LLMs(silver passages)具有明顯優勢,其表現優于那些僅依靠零樣本知識(zero-shot knowledge)或完整 PDF 文檔作為上下文的模型。

另外,在回答封閉式問題時,帶有上下文(silver passages 和 gold passages)的 LLMs 表現最為出色;然而,在應對發散性問題解題型問題時,它們的表現則相對較差。

2.3 Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach

本文[8]對 RAG 與長上下文 LLMs 進行了全面比較,目的是發現并利用兩者的長處。

研究方法包括使用三種最新的 LLMs,在多個公開數據集上對 RAG 和長上下文 LLMs 進行基準測試。

研究發現,在資源充足的情況下,長上下文 LLMs 的平均性能始終優于 RAG。不過,RAG 的成本明顯更低,這仍然是一個明顯的優勢。

圖 9 展示了使用 GPT-4o,GPT-3.5-Turbo 和 Gemini-1.5-Pro 這三種最新 LLMs 的長上下文LLMs、RAG 以及本論文提出的 SELF-ROUTE 方法的比較結果。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 9:盡管長上下文 LLMs(LC)在處理、理解長上下文方面勝過 RAG,但 RAG 在成本效益上具有明顯優勢。Source: Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach.[8]

SELF-ROUTE 是一種結合了 RAG 和長上下文 LLMs 的一種簡便而有效的方法,目的是在降低成本的同時,還能保持與長上下文 LLMs 相媲美的性能。該方法利用 LLMs 的自我反思能力來路由 queries ,并假定 LLMs 能夠準確預測現有上下文是否足以回答 queries。

該方法分為兩個階段:首先是 RAG 及路由階段,然后是長上下文預測階段(long-context prediction step)。

在第一階段,我們向 LLMs 提供查詢和檢索到的文本塊,并引導它預測是否能夠回答 query 。如果可以,LLMs 就會生成答案。這一過程與標準 RAG pipeline 類似,但有一個關鍵區別:LLMs 有權選擇不回答,并在提示詞中注明“如果基于現有文本無法回答 query,請寫‘無法回答’”。

對于那些判斷為可以回答的 query ,我們直接采用 RAG 的預測結果作為最終答案。對于那些判斷為不可以回答的 query ,我們則進入第二階段,將完整的上下文提供給長上下文 LLMs 以獲得最終的預測結果。相關的提示詞內容展示在圖 10 中。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 10:為每個數據集提供有相應的提示詞。Source: Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach.[8]

此外,該論文還進行了幾項有趣的分析。

首先,本論文探討了在使用 top-k 方法檢索到的文本塊中 k 值如何影響檢索結果。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 11:隨著 k 的增加,模型性能和實際使用的 token 百分比的變化曲線(a)和(b)。Source: Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach.[8]

圖 11 展示了隨著 k 的增加,模型性能和實際使用的 token 百分比的變化曲線(a)和(b)。

在性能方面,對于 RAG 和 SELF-ROUTE,k 值越大,性能越好。隨著 k 的增加,更多文本塊被輸入到 LLMs 中,性能逐漸提升,逐漸接近長上下文。

從變化曲線中可以看出,在 k 值較小時,SELF-ROUTE 的性能優勢最為明顯,而當 k 超過 50 時,三種方法的性能表現趨于相同。

最優的 k 值可能因數據集而異。例如,平均而言,k=5 在曲線上顯示的成本最低,但在某些數據集上,尤其是那些不需要 multi-hop 推理的提取式問題數據集(如 NarrativeQA 和 QMSum ),k=1 的成本最低。這表明,最優的 k 值取決于任務的性質和性能要求。

該論文還通過手動檢查 RAG-and-Route 步驟預測為“無法回答(unanswerable)”的示例,分析了 RAG 系統失敗的原因。它總結了四種典型的失敗原因,如圖 12 從 A 到 E 所示。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 12:Prompt for the failure case analysis. Source: Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach.[8]

接下來,使用 Gemini-1.5-Pro 對提示詞進行處理,以識別所有無法回答的示例。

圖 13 展示了 LongBench 中七個數據集中失敗原因的分布情況。每個數據集可能包含不同數量的 RAG 失敗案例,因此條形圖的高度也會有所不同。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 13:典型的 RAG 失敗原因分布。Source: Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach.[8]

我們觀察到各技術在不同數據集下的性能表現:

  • 基于維基百科的三個 multi-hop 推理數據集(HotpotQA、2WikiMQA、MuSiQue)因為它們需要進行多步檢索,對 RAG 而言具有挑戰性,如圖中藍色部分所示。
  • 對于 NarrativeQA,其擁有包含大量對話的長故事,大多數失敗原因是由于需要理解整個上下文中的 implicit queries(譯者注:指的是那些沒有直接在文本中表達的 query,可能隱藏在上下文中,需要通過上下文理解、推理和推斷來確定。),如圖中綠色部分所示。
  • QMSum 是一個包含開放式問題的摘要數據集,主要失敗原因是通用的 queries,如圖中紅色部分所示。
  • 被分類為“其他(other)”的示例大多是多步問題(multi-step questions),這些問題由于具有模糊性而難以回答。

2.4 ChatQA 2: Bridging the Gap to Proprietary LLMs in Long Context and RAG Capabilities

本研究提出了一種名為 ChatQA 2 的新模型,該模型基于 Llama3,目的是縮小開源大語言模型與頂級閉源大語言模型(如GPT-4-Turbo)在長上下文理解和 RAG 能力方面的差距。

此外,該研究還使用最先進的長上下文 LLM 對 RAG 和長上下文解決方案進行了全面比較。

如圖 14 所示,對于序列長度(sequence length)為 32K 的下游任務,長上下文解決方案在性能上優于 RAG。雖然使用 RAG 可以節省成本,但可能會略微降低準確率。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 14:在最大輸入為 32K tokens 的基準測試上,對 RAG 與長上下文進行評估比較。Source: ChatQA 2[9]

如圖 15 所示,當上下文長度超過 100K 時,RAG 的性能優于長上下文解決方案。

#AIGC創新先鋒者征文大賽# RAG vs 長上下文 LLMs:誰主沉浮?-AI.x社區

圖 15:在最大輸入超過 100K tokens 的任務上,對 RAG 與長上下文進行評估。Source: ChatQA 2[9]

這表明,即使是最先進的長上下文 LLM ,也可能難以有效地理解和推理,在現實世界的 128K 任務中,其表現可能不及 RAG 方法。因此,在這種情況下,可以考慮使用 RAG 來提高準確率和降低推理成本。

03 My Thoughts and Insights

以下是我的一些思考和見解。

3.1 長上下文 LLMs 不會使 RAG 過時

從研究論文中我們可以看到,長上下文 LLMs 在許多方面都超過了 RAG,但在需要專業知識的細分領域和成本方面,RAG 仍具有明顯優勢。

RAG 可能會持續存在。超長 LLMs 上下文窗口很有幫助,但處理每個請求 200k 或 1M 個 tokens 的成本非常高,可能高達 20 美元[11]。

目前,我能想到的唯一一種 RAG 可能會被長上下文 LLM 取代的情況是:如果企業的應用場景相對簡單,而建立 RAG 系統的人力成本??和時間成本??很高,RAG 可能會被長上下文 LLM 所取代。

3.2 將 RAG 與長上下文 LLMs 相結合

RAG 和長上下文 LLM 可以相互補充。RAG 能夠從數百萬甚至數十億個 tokens 中高效地檢索與任務相關的上下文,這是長上下文 LLM 所不能及的。同時,長上下文 LLM 擅長總結整個文檔,而 RAG 可能在這方面有所欠缺。

與其二選一,不如將 RAG 與長上下文 LLM 相結合,這樣可以高效地檢索和處理大規模信息,從而構建一個強大的系統。

如果將 RAG 與長上下文 LLM 整合起來,它將深刻改變當前的 RAG 范式。例如,在未來的應用中,可能不再需要進行分塊處理(chunking process),也不再需要在檢索過程中實現精確的塊級召回(chunk-level recall)。

3.3 期待更全面、更嚴格的評估

上述論文對 RAG 和長上下文 LLM 進行了多項評估,但它們所使用的數據集、評估方法和評估指標各不相同。該領域缺乏統一的評估數據集和評估指標。

此外,LLM 在推理過程中利用 KV 緩存[12]來檢索相關 tokens ,這有助于降低推理成本。不過,KV 緩存和 RAG 之間的成本比較尚未見報道。

04 Conclusion

本文首先直觀地比較 RAG 與長上下文 LLM,然后根據最新論文研究、分析了它們的特點,最后分享了個人思考和見解。

總的來說,長上下文 LLM 在應用中具有更大的靈活性,但期望它們解決所有問題是不切實際的。關鍵在于探索和實施將長上下文 LLM 和 RAG 解決方案的優勢相結合的方法,以實現協同效應(synergistic effect)。

Thanks for reading!

Hope you have enjoyed and learned new things from this blog!

Florian June

AI researcher, focusing on LLMs, RAG, Agent, Document AI.

Newest articles: ??florianjune.substack.com??.


END

本期互動內容 ??

?您認為哪些具體的應用場景適合使用RAG技術,哪些場景可能長上下文LLMs更適合?

??文中鏈接??

[1]??https://www.anthropic.com/news/claude-2??

[2]??https://ai.google.dev/gemini-api/docs/long-context??

[3]??https://arxiv.org/pdf/2402.13753??

[4]??https://huggingface.co/gradientai/Llama-3-8B-Instruct-Gradient-4194k??

[5]??https://medium.com/ai-in-plain-english/a-brief-introduction-to-retrieval-augmented-generation-rag-b7eb70982891??

[6]??https://arxiv.org/pdf/2406.13121??

[7]??https://arxiv.org/pdf/2407.07321??

[8]??https://arxiv.org/pdf/2407.16833??

[9]??https://arxiv.org/pdf/2407.14482??

[10]??https://arxiv.org/pdf/2201.11903??

[11]??https://www.anthropic.com/news/claude-3-family??

[12]??https://medium.com/@florian_algo/main-stages-of-auto-regressive-decoding-for-llm-inference-915d6e0a4418??

原文鏈接:

??https://ai.gopubby.com/will-long-context-llms-cause-the-extinction-of-rag-de41ca5ddfc6??


?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
標簽
收藏
回復
舉報
回復
相關推薦
美女100%一区| 国产成人三级一区二区在线观看一| 国产在线视频你懂得| 亚洲中午字幕| 久久久精品美女| 欧美夫妇交换xxx| 日韩在线观看不卡| 亚洲午夜在线视频| 蜜桃狠狠色伊人亚洲综合网站| 91视频综合网| 色爱综合av| 欧美一区二区三区色| 和岳每晚弄的高潮嗷嗷叫视频| 国产精品久久综合av爱欲tv| 看欧美ab黄色大片视频免费| 国产成人在线视频免费观看| 26uuu欧美| av一区二区三区免费| 91在线视频在线观看| 色男人天堂综合再现| 亚洲国产精品人久久电影| 性欧美1819| 在线手机中文字幕| 亚洲图片自拍偷拍| 伊人久久av导航| 国际av在线| 成人av资源在线| 亚洲在线一区二区| 伊人网av在线| 久久一二三四| 91干在线观看| 国产一级在线视频| 欧美激情麻豆| 日韩日本欧美亚洲| 欧美性受xxxx黑人| 同性恋视频一区| 精品国产3级a| 亚洲少妇一区二区| 国产一区二区久久久久| 欧美主播一区二区三区美女| 99在线精品免费视频| 亚洲91av| 亚洲精品福利视频网站| 在线观看日韩片| av网站在线播放| 国产日韩一级二级三级| 欧美一区二区三区电影在线观看 | 亚洲一线在线观看| 一区二区在线影院| 久久激情视频免费观看| 自拍偷拍第9页| 欧一区二区三区| 欧美日本国产视频| 好男人www社区| 欧美xx视频| 色哦色哦哦色天天综合| 日批视频在线免费看| 天堂av在线网| 一本大道久久a久久精品综合| 亚洲一区二区在| 77导航福利在线| 国产精品国产自产拍高清av王其| 91系列在线观看| 91成品人影院| 国产一区二区h| 波多野结衣久草一区| 亚洲黄色在线观看视频| 国产传媒久久文化传媒| 高清免费日韩| 五月婷婷激情在线| 国产日产欧美一区二区三区| 亚洲视频欧美在线| 最近中文字幕免费mv2018在线| 久久蜜桃一区二区| 日本精品免费| 精品自拍一区| 亚洲国产中文字幕在线视频综合 | 色播五月综合网| 亚洲高清无码久久| 91视频欧美| 欧美日韩午夜剧场| 五月婷婷之综合激情| 四虎影视成人精品国库在线观看| 亚洲精品免费电影| 毛片在线视频观看| 色网在线免费观看| 欧美日韩高清一区二区不卡| 性生交大片免费看l| 欧美91在线| 一区二区三区国产在线观看| 日本少妇高清视频| 国产日韩欧美三区| 成人乱色短篇合集| 色久视频在线播放| ...中文天堂在线一区| 国产真人做爰毛片视频直播| 欧美aaa视频| 日韩一二三区不卡| 亚洲AV无码国产成人久久| 午夜久久免费观看| 青青精品视频播放| 国产成人麻豆精品午夜在线 | 精品国产一区二区三区久久狼5月 精品国产一区二区三区久久久狼 精品国产一区二区三区久久久 | www成人在线| 秋霞午夜鲁丝一区二区老狼| 91久久精品国产| 日本aaa在线观看| 一区二区三区日韩欧美| www.xxx亚洲| 国产欧美啪啪| 久久亚洲国产精品成人av秋霞| 中文字幕在线观看二区| 在线精品福利| 成人中文字幕在线观看| 桃花色综合影院| 亚洲伦在线观看| 国产嫩草在线观看| 人体久久天天| 久久久久久av| 国产精品高潮呻吟AV无码| 91美女蜜桃在线| 午夜欧美不卡精品aaaaa| 日韩精品在在线一区二区中文| 成人一级免费视频| 国产.精品.日韩.另类.中文.在线.播放| 成人黄色在线播放| 欧洲一级在线观看| 亚洲午夜精品网| 久久久久无码精品| 日韩综合精品| 国产精品视频最多的网站| 亚洲av成人精品毛片| 一区二区三区精密机械公司| 最新免费av网址| 日韩不卡一区| 国产精品美女久久久久久免费 | 51精品国自产在线| 国产高清自拍视频| 亚洲少妇在线| 久久国产精品99久久久久久丝袜| 国产在线视频你懂得| 欧美日韩一区二区在线 | 国模无码大尺度一区二区三区| 91精品国产自产在线老师啪 | 网友自拍亚洲| 日韩国产精品一区| 国产精品美女毛片真酒店| 国产成人亚洲综合a∨猫咪| 91免费网站视频| 国产精品日本一区二区不卡视频 | h片在线播放| 欧美日韩国产另类不卡| 日本精品久久久久中文| 奇米精品一区二区三区四区| 麻豆一区区三区四区产品精品蜜桃| 男人天堂资源在线| 欧美日韩在线看| 亚洲最大成人网站| 日韩中文欧美在线| 欧美精品一区二区三区在线四季 | 精品国产乱码久久久久久蜜坠欲下 | 91丝袜美腿美女视频网站| 日本在线观看www| 欧美美女激情18p| 日本青青草视频| 成人精品视频一区| 日韩欧美视频网站| 欧美美女一区| 成人精品一区二区三区电影黑人 | 精品国模一区二区三区欧美| 久久久av电影| 亚洲国产精品久久久久久久| 亚洲国产aⅴ成人精品无吗| 国产艳妇疯狂做爰视频 | 伦理中文字幕亚洲| 99久久免费国产精精品| 亚洲在线免费播放| 国产呦小j女精品视频| 青青草伊人久久| 91麻豆天美传媒在线| 久久久久观看| 国产精品久久久久久超碰| 精品视频在线一区二区| 精品国产免费视频| 成年人视频免费| 亚洲手机成人高清视频| 欧美在线一级片| 蜜桃视频在线观看一区二区| 中国一级黄色录像| 欧美电影完整版在线观看| 国产精品十八以下禁看| 色女人在线视频| 一区二区三区国产视频| 丁香六月天婷婷| 欧美三级日韩在线| 日韩黄色一级大片| 综合久久给合久久狠狠狠97色 | 国产成人精品一区二区三区四区| 亚洲欧美国产精品桃花| 91大神精品| 国产日韩欧美夫妻视频在线观看 | 久久久久久久片| 综合久久十次| 亚洲男人第一av网站| 国产精品拍拍拍| 激情婷婷亚洲| 一区二区三区四区五区精品| 久久中文字幕导航| 亚洲在线免费看| 国产国产一区| 欧美在线性爱视频| 污影院在线观看| 中文字幕日韩在线播放| 五月婷婷丁香网| 日韩精品中文字幕一区| 在线观看免费视频一区| 欧美性xxxx极品hd欧美风情| 久久久久久久久久久久久久免费看| 久久国产66| 视频一区二区综合| 男人的天堂久久| 999国产视频| 99久热在线精品视频观看| 国产精品美女主播| 热色播在线视频| 欧美激情综合亚洲一二区 | 国产盗摄一区二区三区| 欧美大尺度做爰床戏| 久久亚洲视频| 久久久久狠狠高潮亚洲精品| 国产综合视频| 日本免费成人网| 在线看片不卡| 欧美日韩一区二区三区电影| 黑丝美女一区二区| 欧美日韩在线高清| 亚洲午夜久久| 久久精品日产第一区二区三区精品版 | 国产精品18久久久久久麻辣| 亚洲一区站长工具| 91高清免费视频| 欧美电影免费观看网站| 欧洲永久精品大片ww免费漫画| 在线免费观看黄色| 在线国产精品播放| h视频在线免费| 亚洲图片制服诱惑| 国产福利片在线| 中文字幕精品网| 自拍视频在线免费观看| 色悠悠久久久久| 黄色网页在线免费看| 久久香蕉频线观| 性欧美1819sex性高清大胸| 欧美另类第一页| 亚洲欧洲日本精品| 成人久久综合| 最新国产精品久久| 中文不卡在线| 日韩精品视频在线观看视频| 一区二区自拍| av观看免费在线| 日本美女一区二区三区| 日韩av片专区| 风间由美性色一区二区三区| 亚洲一区二区三区黄色| 2020国产成人综合网| 91激情视频在线观看| 国产精品久99| 九九免费精品视频| 五月天激情综合| 天天干天天操天天操| 91麻豆精品久久久久蜜臀 | 欧美性天天影视| 久久在线视频在线| 波多野结衣精品| 777午夜精品福利在线观看| 666av成人影院在线观看| 国产啪精品视频网站| 亚洲国产精品免费视频| 久久青青草原| 第四色中文综合网| 欧美日韩免费精品| 羞羞色午夜精品一区二区三区| 日本高清视频一区二区三区| 天天插综合网| 日本在线xxx| 久久福利资源站| 熟妇高潮一区二区| 久久九九全国免费| 欧美日韩在线视频免费| 欧美日韩在线影院| 国产精品怡红院| 亚洲欧美成人网| 中文字幕资源网在线观看| 欧美一级淫片aaaaaaa视频| 欧美黄色成人| 精品乱色一区二区中文字幕| 日韩精品久久| 男人和女人啪啪网站| 久久99精品久久久| 欧美做受喷浆在线观看| 亚洲人被黑人高潮完整版| 午夜婷婷在线观看| 欧美mv日韩mv国产网站| 99re在线视频| 欧美在线视频免费播放| 国产日韩在线观看视频| 欧美在线日韩精品| 亚洲国产免费| 日本高清免费在线视频| 男生和女生一起差差差视频| 国产欧美日韩三区| 日韩高清免费av| 日韩一区二区电影在线| 二区在线视频| 欧美一级黄色网| 国产精品jk白丝蜜臀av小说| 一区二区视频在线看| 久久视频精品在线观看| 亚洲va国产天堂va久久en| 国产精品无码白浆高潮| 亚洲人免费视频| 色一区二区三区| 国产伦精品一区二区三区视频孕妇| 精品999日本久久久影院| 日本一区二区在线| 亚洲麻豆视频| 亚洲日本久久久| 亚洲香蕉伊在人在线观| 999国产精品视频免费| 色诱女教师一区二区三区| 日韩精品一区二区三区av| 久久本道综合色狠狠五月| 91久久亚洲| 亚洲一区二区三区黄色| 亚洲动漫第一页| 免费激情视频网站| 韩国日本不卡在线| 米奇精品关键词| a级黄色一级片| 99久久婷婷国产| 可以免费在线观看的av| 亚洲精品久久7777777| 成人一级福利| 久久艳妇乳肉豪妇荡乳av| 国产亚洲精品自拍| 国产精品无码一区二区三区免费| 国产精品久久久久久亚洲毛片| 精品国产视频一区二区三区| 欧美日韩精品欧美日韩精品一综合| 精品国产99久久久久久宅男i| 亚洲国产小视频在线观看| av漫画网站在线观看| 狠狠色综合色区| 国产精品久久久久久久免费软件| 天堂av8在线| 亚洲欧美日韩国产成人精品影院| 亚洲欧美在线视频免费| 亚洲护士老师的毛茸茸最新章节| av大全在线免费看| 国产日韩综合一区二区性色av| 久久狠狠久久| 欧美 日韩精品| 国产精品素人一区二区| 国产又粗又猛又黄又爽无遮挡 | 六十路在线观看| 国产精品高潮呻吟久久av野狼| 深夜激情久久| 成年丰满熟妇午夜免费视频| 成人免费三级在线| 亚洲自拍一区在线观看| 色七七影院综合| 一区二区日韩| 欧美精品第三页| 亚洲婷婷在线视频| 亚洲AV无码一区二区三区性 | 日韩av电影免费在线| 久久精品国产第一区二区三区| 亚洲一区二区三区四区五区六区 | 亚洲 欧美 视频| 亚洲性xxxx| 欧美成年网站| 人人妻人人添人人爽欧美一区| 国产一区二区久久久久| 亚洲精品mp4| 伊人久久av| 欧美亚洲视频一区| 成年人国产精品| 国产又黄又粗又长| 51精品国产黑色丝袜高跟鞋| 手机亚洲手机国产手机日韩| 丰满少妇xbxb毛片日本| 在线观看日韩国产| 第四色日韩影片| 在线看视频不卡| 久久久久久久久伊人| 精品人妻少妇AV无码专区| 国产精品∨欧美精品v日韩精品| 亚洲人成网77777色在线播放|