精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

減少LLM幻覺的五大技巧和方法 原創(chuàng)

發(fā)布于 2024-12-31 07:55
瀏覽
0收藏

本文介紹了使用LangGraph減少LLM幻覺的簡(jiǎn)單技巧。

如果你使用過LLM,就知道它們有時(shí)會(huì)產(chǎn)生幻覺。這意味著它們生成的文本要么毫無意義,要么與輸入數(shù)據(jù)相矛盾。這個(gè)常見的問題可能會(huì)損害基于LLM的應(yīng)用程序的可靠性。

我們?cè)谶@篇文章中將探討一些簡(jiǎn)單的技巧來降低產(chǎn)生幻覺的可能性。遵循這些技巧,你有望提高AI應(yīng)用程序的準(zhǔn)確性。

幻覺有多種類型:

  • 內(nèi)在幻覺:LLM的響應(yīng)與用戶提供的上下文相矛盾。響應(yīng)在當(dāng)前上下文中是錯(cuò)誤的,而且這種錯(cuò)誤是可驗(yàn)證的。
  • 外在幻覺:LLM的響應(yīng)無法使用用戶提供的上下文加以驗(yàn)證。響應(yīng)可能是錯(cuò)誤的,也可能不是錯(cuò)誤的,但我們沒有辦法使用當(dāng)前的上下文來確認(rèn)。
  • 不連貫的幻覺:LLM的響應(yīng)并未回答問題或沒有意義。LLM無法遵循指示。

我們?cè)谶@篇文章中將針對(duì)上述所有類型作下闡述。

我們將列出一系列以不同方式減少幻覺的技巧和方法。

技巧1:使用錨定

錨定是指要求LLM完成任務(wù)時(shí),在LLM的輸入中使用領(lǐng)域內(nèi)相關(guān)的附加上下文。這為L(zhǎng)LM提供了正確回答問題所需的信息,并降低了產(chǎn)生幻覺的可能性。這是我們使用檢索增強(qiáng)生成(RAG)的原因之一。

比如說,問LLM一個(gè)數(shù)學(xué)問題,或者問同樣的問題,同時(shí)為它提供一本數(shù)學(xué)書的相關(guān)章節(jié),會(huì)生成不一樣的結(jié)果,第二種選擇更有可能是正確的。

以下是我在之前的教程中介紹此類實(shí)現(xiàn)的示例,在提出問題時(shí)提供了從文檔提取的上下文信息:

??https://towardsdatascience.com/build-a-document-ai-pipeline-for-any-type-of-pdf-with-gemini-9221c8e143db??。

技巧2:使用結(jié)構(gòu)化輸出

使用結(jié)構(gòu)化輸出意味著強(qiáng)制LLM輸出有效的JSON或YAML文本,便于你減少無用的漫談,從LLM獲得“切中要點(diǎn)”的回答。它還有助于下一個(gè)技巧,因?yàn)樗筁LM響應(yīng)更容易驗(yàn)證。

你可以使用Gemini的API來做到這點(diǎn):

import json

import google.generativeai as genai
from pydantic import BaseModel, Field

from document_ai_agents.schema_utils import prepare_schema_for_gemini


class Answer(BaseModel):
    answer: str = Field(..., description="Your Answer.")


model = genai.GenerativeModel("gemini-1.5-flash-002")

answer_schema = prepare_schema_for_gemini(Answer)


question = "List all the reasons why LLM hallucinate"

context = (
    "LLM hallucination refers to the phenomenon where large language models generate plausible-sounding but"
    " factually incorrect or nonsensical information. This can occur due to various factors, including biases"
    " in the training data, the inherent limitations of the model's understanding of the real world, and the "
    "model's tendency to prioritize fluency and coherence over accuracy."
)

messages = (
    [context]
    + [
        f"Answer this question: {question}",
    ]
    + [
        f"Use this schema for your answer: {answer_schema}",
    ]
)

response = model.generate_content(
    messages,
    generation_config={
        "response_mime_type": "application/json",
        "response_schema": answer_schema,
        "temperature": 0.0,
    },
)

response = Answer(**json.loads(response.text))

print(f"{response.answer=}")

其中“prepare_schema_for_gemini”是一個(gè)效用函數(shù),它準(zhǔn)備模式以匹配Gemini的奇特需求。你可以在這里找到它的定義:??https://github.com/CVxTz/document_ai_agents/blob/498d8ee6e8597f8ba43b336c64178d186461dba0/document_ai_agents/schema_utils.py#L38。??

這段代碼定義了Pydantic模式,并將該模式作為查詢的一部分發(fā)送到“response_schema”字段。這迫使LLM在響應(yīng)中遵循此模式,并使輸出解析起來更容易。

技巧3:使用思維鏈和更好的提示

有時(shí)候,在給出最終回答之前,給LLM足夠的空間來思考響應(yīng),有助于生成更高質(zhì)量的響應(yīng)。這種技術(shù)被稱為思維鏈,因有效、易于實(shí)現(xiàn)而被廣泛使用。

如果LLM找不到足夠的上下文來生成高質(zhì)量的響應(yīng),我們還可以明確要求它以“N/A”回答。這將給它一個(gè)簡(jiǎn)單的出路,而不是試圖回答它不知道怎么回答的問題。

比如說,不妨看看這個(gè)簡(jiǎn)單的問題和上下文:

上下文

托馬斯?杰斐遜(1743年4月13日-1826年7月4日),美國(guó)政治家、種植園主、外交官、律師、建筑師、哲學(xué)家和開國(guó)元?jiǎng)祝?801年至1809年擔(dān)任美國(guó)第三任總統(tǒng),他是《獨(dú)立宣言》的主要起草者。在美國(guó)獨(dú)立戰(zhàn)爭(zhēng)之后,在1801年成為總統(tǒng)之前,杰斐遜是華盛頓領(lǐng)導(dǎo)班子的第一位美國(guó)國(guó)務(wù)卿,然后是亞當(dāng)斯領(lǐng)導(dǎo)班子的第二副總統(tǒng)。杰斐遜是支持民主、共和主義和自然權(quán)利的主要倡導(dǎo)者,他在州、國(guó)家和國(guó)際等層面制定了形成性的文件和決定。(來源:維基百科)

問題

戴維斯?杰斐遜是哪一年去世的?

一種天真的方法會(huì)生成:

響應(yīng)

answer= '1826年 '

這顯然是錯(cuò)誤的,因?yàn)榻莒尺d?戴維斯在上下文中根本沒有被提及。托馬斯?杰斐遜死于1826年。

如果我們將響應(yīng)的模式改為使用思維鏈:

class AnswerChainOfThoughts(BaseModel):
    rationale: str = Field(
        ...,
        description="Justification of your answer.",
    )
    answer: str = Field(
        ..., description="Your Answer. Answer with 'N/A' if answer is not found"
    )

我們還添加了更多關(guān)于當(dāng)問題無法回答時(shí),我們期望輸出的細(xì)節(jié),使用上下文“如果沒有找到回答,以‘ N/A ’回答”。

通過這種新方法,我們得到了以下基本原理(記住,使用思維鏈):

提供的文本討論的是托馬斯?杰斐遜,而不是杰斐遜?戴維斯。沒有關(guān)于杰斐遜?戴維斯去世的信息。

最終回答:

answer=’N/A’

這個(gè)給出的結(jié)果太好了!但是我們可以使用一種更通用的方法來檢測(cè)幻覺嗎?

我們可以,那就是使用代理!

技巧 4:使用代理方法

我們將構(gòu)建一個(gè)簡(jiǎn)單的代理,實(shí)現(xiàn)分三個(gè)步驟的流程:

  • 第一步是包含上下文并向 LLM 提出問題,以便獲得第一個(gè)候選回答及其用于回答的相關(guān)上下文。
  • 第二步是將問題和第一個(gè)候選回答重新表述為聲明性語句。
  • 第三步是要求 LLM 驗(yàn)證相關(guān)上下文是否包含候選回答。這被稱為“自我驗(yàn)證”:https://arxiv.org/pdf/2212.09561。

為了實(shí)現(xiàn)這一點(diǎn),我們使用LangGraph 定義了三個(gè)節(jié)點(diǎn)。第一個(gè)節(jié)點(diǎn)將在包含上下文的同時(shí)提出問題,第二個(gè)節(jié)點(diǎn)將使用 LLM 重新表述問題,第三個(gè)節(jié)點(diǎn)將檢查語句與輸入上下文的關(guān)系。

第一個(gè)節(jié)點(diǎn)可以如下定義:

def answer_question(self, state: DocumentQAState):
        logger.info(f"Responding to question '{state.question}'")
        assert (
            state.pages_as_base64_jpeg_images or state.pages_as_text
        ), "Input text or images"
        messages = (
            [
                {"mime_type": "image/jpeg", "data": base64_jpeg}
                for base64_jpeg in state.pages_as_base64_jpeg_images
            ]
            + state.pages_as_text
            + [
                f"Answer this question: {state.question}",
            ]
            + [
                f"Use this schema for your answer: {self.answer_cot_schema}",
            ]
        )

        response = self.model.generate_content(
            messages,
            generation_config={
                "response_mime_type": "application/json",
                "response_schema": self.answer_cot_schema,
                "temperature": 0.0,
            },
        )

        answer_cot = AnswerChainOfThoughts(**json.loads(response.text))

        return {"answer_cot": answer_cot}

第二個(gè)節(jié)點(diǎn)如下定義:

def reformulate_answer(self, state: DocumentQAState):
        logger.info("Reformulating answer")
        if state.answer_cot.answer == "N/A":
            return

        messages = [
            {
                "role": "user",
                "parts": [
                    {
                        "text": "Reformulate this question and its answer as a single assertion."
                    },
                    {"text": f"Question: {state.question}"},
                    {"text": f"Answer: {state.answer_cot.answer}"},
                ]
                + [
                    {
                        "text": f"Use this schema for your answer: {self.declarative_answer_schema}"
                    }
                ],
            }
        ]

        response = self.model.generate_content(
            messages,
            generation_config={
                "response_mime_type": "application/json",
                "response_schema": self.declarative_answer_schema,
                "temperature": 0.0,
            },
        )

        answer_reformulation = AnswerReformulation(**json.loads(response.text))

        return {"answer_reformulation": answer_reformulation}

第三個(gè)節(jié)點(diǎn)如下定義:

 def verify_answer(self, state: DocumentQAState):
        logger.info(f"Verifying answer '{state.answer_cot.answer}'")
        if state.answer_cot.answer == "N/A":
            return
        messages = [
            {
                "role": "user",
                "parts": [
                    {
                        "text": "Analyse the following context and the assertion and decide whether the context "
                        "entails the assertion or not."
                    },
                    {"text": f"Context: {state.answer_cot.relevant_context}"},
                    {
                        "text": f"Assertion: {state.answer_reformulation.declarative_answer}"
                    },
                    {
                        "text": f"Use this schema for your answer: {self.verification_cot_schema}. Be Factual."
                    },
                ],
            }
        ]
    
        response = self.model.generate_content(
            messages,
            generation_config={
                "response_mime_type": "application/json",
                "response_schema": self.verification_cot_schema,
                "temperature": 0.0,
            },
        )
    
        verification_cot = VerificationChainOfThoughts(**json.loads(response.text))
    
        return {"verification_cot": verification_cot}

完整代碼位于 https://github.com/CVxTz/document_ai_agents。

請(qǐng)注意每個(gè)節(jié)點(diǎn)如何使用各自的模式用于結(jié)構(gòu)化輸出和自己的提示。這得益于 Gemini 的 API 和 LangGraph具有的靈活性。

不妨使用與上面相同的示例來處理此代碼。

(注意:我們沒有針對(duì)第一個(gè)提示使用思路鏈,因此驗(yàn)證因我們的測(cè)試而觸發(fā)。)

上下文

托馬斯?杰斐遜(1743 年 4 月 13日— 1826 年 7 月 4 日)是美國(guó)政治家、種植園主、外交官、律師、建筑師、哲學(xué)家和開國(guó)元?jiǎng)祝?1801 年至 1809 年擔(dān)任美國(guó)第三任總統(tǒng)。他是《獨(dú)立宣言》的主要起草者。在美國(guó)獨(dú)立戰(zhàn)爭(zhēng)之后,在 1801 年成為總統(tǒng)之前,杰斐遜是華盛頓領(lǐng)導(dǎo)班子的美國(guó)第一任國(guó)務(wù)卿,然后在亞當(dāng)斯領(lǐng)導(dǎo)班子擔(dān)任美國(guó)第二副總統(tǒng)。杰斐遜是支持民主、共和主義和自然權(quán)利的主要倡導(dǎo)者,他在州、國(guó)家和國(guó)際層面制定了形成性文件和決定。(來源:維基百科)

問題

戴維斯?杰斐遜死于哪一年?

第一個(gè)節(jié)點(diǎn)結(jié)果(第一個(gè)回答):

relevant_context=“托馬斯?杰斐遜(1743 年 4 月 13 日— 1826 年 7 月 4 日)是美國(guó)政治家、種植園主、外交官、律師、建筑師、哲學(xué)家和開國(guó)元?jiǎng)祝?1801 年至 1809 年擔(dān)任美國(guó)第三任總統(tǒng)。”

answer=’1826’

第二個(gè)節(jié)點(diǎn)結(jié)果(回答重新表述):

declarative_answer=“戴維斯?杰斐遜于 1826 年去世”

第三個(gè)節(jié)點(diǎn)結(jié)果(驗(yàn)證):

rationale=“上下文指出托馬斯?杰斐遜于 1826 年去世。斷言指出戴維斯?杰斐遜于 1826 年去世。上下文沒有提到戴維斯?杰斐遜,只提到托馬斯?杰斐遜。”

entailment=’No’

因此驗(yàn)證步驟拒絕(兩者之間沒有entailment)了初始回答。現(xiàn)在,我們可以避免向用戶返回幻覺。

技巧 5:使用更強(qiáng)大的模型

由于預(yù)算或延遲方面的限制,該技巧并不總是容易運(yùn)用,但你應(yīng)該知道,更強(qiáng)大的 LLM 更不容易產(chǎn)生幻覺。因此如果可能的話,不妨為最敏感的用例選擇功能更強(qiáng)大的 LLM。你可以在此處查看幻覺基準(zhǔn):https://github.com/vectara/hallucination-leaderboard。我們可以看到,該基準(zhǔn)中的頂級(jí)模型(最少的幻覺)也位居傳統(tǒng) NLP 排行榜的榜首。

減少LLM幻覺的五大技巧和方法-AI.x社區(qū)

來源:https://github.com/vectara/hallucination-leaderboard

源許可證:Apache 2.0

結(jié)語

我們?cè)诒窘坛讨刑剿髁送ㄟ^降低幻覺率來提高 LLM 輸出可靠性的幾種策略。主要建議包括使用思維鏈和提示以指導(dǎo) LLM 調(diào)用,并使用基于工作流程的方法,其中代理旨在驗(yàn)證自己的回答。

這涉及多個(gè)步驟:

  • 檢索 LLM 用來生成回答的確切的上下文信息。
  • 以聲明形式重新表述回答以便于驗(yàn)證。
  • 指示 LLM 檢查上下文和重新表述的回答之間的一致性。

雖然所有這些技巧都可以顯著提高準(zhǔn)確性,但你應(yīng)該知道沒有那種方法是萬無一失的。如果 LLM 在驗(yàn)證過程中過于保守或遺漏了真實(shí)的幻覺情況,始終存在拒絕有效回答的風(fēng)險(xiǎn)。因此,嚴(yán)格評(píng)估你的特定 LLM 工作流程仍然至關(guān)重要。

全部代碼詳見??https://github.com/CVxTz/document_ai_agents。??

原文標(biāo)題:??An Agentic Approach to Reducing LLM Hallucinations??,作者:Youness Mansar


?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請(qǐng)注明出處,否則將追究法律責(zé)任
已于2024-12-31 13:56:41修改
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
亚洲欧美丝袜中文综合| 7m精品福利视频导航| 欧美一区二区三区色| 不卡一区二区三区视频| 亚洲国产天堂av| 男女视频在线| 精品国产中文字幕第一页| 国产在线视频一区二区三区| 日韩精品www| 国产乱子伦精品视频| 一级特黄aaa| 狠狠综合久久av一区二区蜜桃| 亚洲成人综合在线| 99re国产视频| 午夜精品一区二| 日本一区福利在线| 亚洲福利视频一区| 日韩电影免费观看高清完整| 国内精品福利视频| 日韩精品福利一区二区三区| 亚洲成a人v欧美综合天堂下载| 亚洲专区中文字幕| a在线视频播放观看免费观看| 成人国产一区二区三区精品麻豆| 久久久精品天堂| 日本乱人伦a精品| 亚洲黄色免费在线观看| 日本高清久久久| 国产精品视频一区二区三 | 欧美人成在线视频| 色乱码一区二区三区在线| 九九在线视频| 丝袜亚洲另类丝袜在线| 亚洲欧美另类在线观看| 精品中文字幕av| 日韩福利一区二区| 视频一区二区国产| 欧美激情视频给我| 国产成人精品无码片区在线| 韩日毛片在线观看| 久久夜色精品国产欧美乱极品| 91爱视频在线| 国产一级理论片| 亚洲电影一级片| 欧美中文字幕亚洲一区二区va在线| 日本成人三级电影网站| 亚洲高清在线看| 伊人成综合网| 亚洲激情自拍图| 一级黄色香蕉视频| 日本电影在线观看网站| 国产一区成人| 这里只有精品久久| 99999精品| 9999精品成人免费毛片在线看| 26uuu亚洲综合色| 国产精品一二三在线| 青青草原国产视频| 天天久久夜夜| 日韩电影免费观看中文字幕| 国模无码视频一区| 日韩漫画puputoon| 亚洲综合成人在线视频| 欧美精品尤物在线| 亚洲专区在线播放| 伊人精品视频| 中文字幕欧美精品在线 | 成人免费视频国产免费| 欧美亚洲一级| 色偷偷噜噜噜亚洲男人的天堂| 无人码人妻一区二区三区免费| 四虎影视国产精品| 天天射综合影视| 伊人久久婷婷色综合98网| 亚洲精品久久久蜜桃动漫 | 成人免费xxxxx在线视频| 欧美韩国亚洲| 亚洲综合色区另类av| 国产真实老熟女无套内射| 成人在线免费电影| 成人视屏免费看| 国产精品日日摸夜夜添夜夜av| 久久影院一区二区| 日本不卡免费一区| 日韩av一区在线观看| 少妇精品一区二区三区| 中文字幕一区二区三区中文字幕 | 久久精品一二三| 亚洲一卡二卡| 青青色在线视频| 欧美激情在线观看视频免费| 国产在线一区二| 国产成人精品av在线观| 蜜桃一区二区三区四区| 欧美一区三区三区高中清蜜桃| 国产成人久久久久| 尹人成人综合网| 国产不卡av在线免费观看| 久久久久久久极品内射| 性欧美xxxx大乳国产app| 国产精品丝袜视频| 国产成人无码www免费视频播放| 久久99精品国产麻豆婷婷洗澡| 高清一区二区三区四区五区| 中文乱码字幕高清一区二区| 国产日产精品一区二区三区四区的观看方式 | 欧美激情一区二区在线| 三级在线免费观看| 午夜不卡视频| 亚洲一区二区三区中文字幕| 99久久久无码国产精品性色戒| av在线中文| 亚洲制服欧美中文字幕中文字幕| 成人在线观看a| 国产精欧美一区二区三区蓝颜男同| 亚洲一区日韩精品中文字幕| av无码精品一区二区三区| 136国产福利精品导航网址应用| 国产一区二区三区精品久久久| 中文字幕在线看高清电影| 久久aimee| 亚洲国产天堂网精品网站| 国产欧美小视频| 久久国产中文字幕| www日韩欧美| 91视频综合网| 麻豆久久婷婷| 国产精品日韩一区| 四虎精品在线| 日本一区二区三区在线不卡| 2019日韩中文字幕mv| 99er精品视频| 精品国免费一区二区三区| 69xxx免费视频| 卡通动漫国产精品| 欧美日韩国产成人在线| 亚洲中文字幕在线观看| 国产婷婷一区二区| 亚洲自拍偷拍二区| 嫩草伊人久久精品少妇av杨幂| 亚洲成人网久久久| 日本激情小视频| 一本久道久久久| 国产精品电影观看| 91theporn国产在线观看| 久久精品视频免费| 国产91对白刺激露脸在线观看| 国产精品任我爽爆在线播放| 亚洲色图国产精品| 天天操夜夜操av| 麻豆精品一二三| 99久久久精品免费观看国产| 国产在线更新| 欧美日韩中文字幕在线| 色噜噜狠狠一区二区| 精品国产乱码久久久久久果冻传媒 | 国产写真视频在线观看| 欧美日本不卡视频| 午夜诱惑痒痒网| 91蝌蚪精品视频| 亚洲欧美三级伦理| 毛片基地在线观看| 久久99精品国产麻豆婷婷洗澡| 亚洲欧美一区二区原创| a在线视频v视频| 日韩av一区二区在线观看| 精品成人av一区二区在线播放| 2023国产一二三区日本精品2022| 日韩精品一区二区三区久久| 亚洲ab电影| 国产精品扒开腿做爽爽爽男男| 在线视频91p| 图片区日韩欧美亚洲| 中国极品少妇videossexhd| 亚洲制服av| 亚洲精品一区二区三区av| 成人污版视频| 一区二区三区美女xx视频| 免费中文字幕视频| 成人动漫在线一区| 性做爰过程免费播放| 国精产品一区一区三区四川| 中文字幕亚洲字幕| 国产熟女精品视频| 亚洲国产成人一区二区三区| 少妇高潮喷水在线观看| 成人乱码手机视频| 国内揄拍国内精品少妇国语| 色播色播色播色播色播在线| 欧美亚洲一区二区在线观看| 91黄色免费视频| 老色鬼久久亚洲一区二区| 伊人情人网综合| 美国十次av导航亚洲入口| 国产精品嫩草视频| 97在线超碰| 日韩一二三在线视频播| 色wwwwww| 亚洲成av人片| 激情无码人妻又粗又大| 日韩和欧美一区二区三区| 久久久精品国产一区二区三区| 天天色天天射天天综合网| 欧美肥妇毛茸茸| 亚洲熟女毛茸茸| av激情亚洲男人天堂| 全黄性性激高免费视频| 国产一区二区av在线| 7m第一福利500精品视频| 国产网站在线免费观看| 亚洲天堂男人天堂| 成人毛片在线免费观看| 欧美日韩精品一区二区在线播放 | 波多野结衣在线网站| 精品国产露脸精彩对白| 青青草成人免费| 国产传媒久久文化传媒| 800av在线免费观看| 亚洲精品v亚洲精品v日韩精品| 人人澡人人澡人人看欧美| 九色在线免费| 亚洲加勒比久久88色综合| 国产美女免费视频| 欧美日韩中字一区| 国产免费美女视频| 国产午夜精品久久久久久久| 亚洲视频在线播放免费| 国产一区二区三区av电影| 亚洲污视频在线观看| 天天影视欧美综合在线观看| 51国偷自产一区二区三区的来源| 中文字幕在线观看播放| 精品国产免费人成电影在线观看四季 | 天天综合色天天| 国产精品9191| 亚洲一区影音先锋| 九九视频免费在线观看| 亚洲免费观看高清在线观看| 能看毛片的网站| 精品一区二区三区影院在线午夜| 在线观看免费成人av| 玖玖玖国产精品| 国产美女三级视频| 欧美hd在线| 国产精品免费在线| 欧美一级大黄| 色999日韩欧美国产| 国产精品一区二区三区四区色| 91精品国产欧美日韩| 艳妇乳肉豪妇荡乳av| 欧美日韩精品电影| 国产又黄又爽视频| 亚洲成av人在线观看| 日本少妇性高潮| 欧美国产精品专区| 日本激情小视频| 国产精品你懂的在线欣赏| 亚洲欧美aaa| 久久99国产精品久久99| 天天操狠狠操夜夜操| 经典三级在线一区| 尤物av无码色av无码| av影片在线一区| 亚欧精品在线| 精品国产影院| 国产综合第一页| 国产91精品对白在线播放| 国产欧美在线播放| 午夜欧美激情| 久久久国产精品免费| 免费观看黄色一级视频| 在线区一区二视频| 做爰视频毛片视频| 亚洲高清在线精品| 91九色丨porny丨肉丝| 日韩欧美亚洲国产一区| 中文字幕人妻一区二区在线视频| 精品高清美女精品国产区| 日日骚av一区二区| 亚洲午夜激情网页| 国产一级片毛片| 欧美视频一区在线| 国产99视频在线| 亚洲国产日韩欧美在线99| 欧美色图另类| 亚洲精品99999| 国产中文字幕在线播放| 久久中文字幕国产| p色视频免费在线观看| 麻豆国产va免费精品高清在线| 91九色在线看| 国产欧美日韩精品在线观看| 国产成人澳门| 亚洲精品日韩在线观看| 在线视频观看日韩| 日韩精品一区二区三区四| 中文久久精品| 亚洲精品综合在线观看| 99国产精品视频免费观看| 麻豆tv在线观看| 国产精品99久久久久久宅男| 手机看片一级片| av在线不卡电影| frxxee中国xxx麻豆hd| 精品久久久久久亚洲国产300| 一本一道人人妻人人妻αv| 欧美精品一区二区三区蜜桃 | 中国av一区二区三区| 豆国产97在线 | 亚洲| 欧美日韩在线电影| 天天操天天干天天干| 麻豆国产精品va在线观看不卡| 91精品韩国| 精品视频一区在线| 亚洲国产最新| 青青青在线观看视频| 男女性色大片免费观看一区二区| 少妇一级淫片免费放播放| 亚洲欧美日韩人成在线播放| 麻豆亚洲av熟女国产一区二 | 亚洲欧洲性图库| 黄色录像一级片| 在线观看一区二区精品视频| 色呦呦中文字幕| 欧美精品午夜视频| 波多野结依一区| 欧美在线xxx| 91蜜桃臀久久一区二区| 四虎永久免费网站| 久久精品99国产精品日本| 精品人伦一区二区| 中文字幕一区二区在线播放| 亚洲色图综合区| 欧美日韩美少妇| av资源种子在线观看| 国产成人精品av| 亚洲视频分类| 黄色免费视频大全| av成人动漫在线观看| 日操夜操天天操| 亚洲国产精品va在看黑人| 婷婷在线播放| 国产激情一区二区三区在线观看| 天美av一区二区三区久久| 成年人看的毛片| 成人福利电影精品一区二区在线观看| 久久久久成人片免费观看蜜芽| 日韩一区二区三区视频在线观看| 深夜福利视频网站| 久久久久久久久久国产精品| 成人免费福利| 日本视频一区二区不卡| 天堂久久久久va久久久久| 亚洲天堂岛国片| 欧美日本在线播放| 超碰人人在线| 国产99在线|中文| 九一成人免费视频| 日本久久精品一区二区| 国产91丝袜在线播放九色| 婷婷色一区二区三区| 色哟哟一区二区在线观看| 国产av精国产传媒| 欧美成人免费在线视频| jizz性欧美23| 丰满少妇被猛烈进入高清播放| 国产欧美中文在线| 一级成人免费视频| 欧美伦理91i| 牛牛精品成人免费视频| 少妇性饥渴无码a区免费| 久久精品在这里| 亚洲影视一区二区| 欧美另类精品xxxx孕妇| 开心激情综合| 999精品视频在线| 亚洲日本在线看| 免费国产精品视频| 国产激情999| 亚洲网色网站| 日本护士做爰视频| 欧美中文字幕一二三区视频| 中文字幕在线观看播放| 久久精品aaaaaa毛片| 捆绑调教一区二区三区| 久久中文字幕无码| 亚洲欧美日韩精品久久奇米色影视| 国产成人福利夜色影视| 天堂8在线天堂资源bt| 久久精品在线观看| 99国产在线播放| 日本久久久久亚洲中字幕| 91精品国产91久久久久久黑人| 色综合天天色综合| 一区二区三区在线不卡| 国产精品主播一区二区| 羞羞色国产精品| 老司机精品在线| 手机在线免费观看毛片| 亚洲国产视频一区二区|