精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南 原創(chuàng)

發(fā)布于 2024-7-24 13:09
瀏覽
0收藏

1、為什么要對 GraphRAG 本地部署?

微軟開源 GraphRAG 后,熱度越來越高,目前 GraphRAG 只支持 OpenAI 的閉源大模型,導致部署后使用范圍大大受限,本文通過 GraphRAG 源碼的修改,來支持更廣泛的 Embedding 模型和開源大模型,從而使得 GraphRAG 的更容易上手使用。

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

如果對 GrapRAG 還不太熟悉的同學,可以看我之前寫的兩篇文章 《??微軟重磅開源 GraphRAG:新一代 RAG 技術來了!???》 和《??GraphRAG 項目升級!現(xiàn)已支持 Ollama 本地模型接入,打造交互式 UI 體驗??》


2、GraphRAG 一鍵安裝

第一步、安裝 GraphRAG

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

需要 Python 3.10-3.12 環(huán)境。

第二步、創(chuàng)建知識數(shù)據(jù)文件夾

安裝完整后,需要創(chuàng)建一個文件夾,用來存儲你的知識數(shù)據(jù),目前 GraphRAG 只支持 txt 和 csv 格式。

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

第三步、準備一份數(shù)據(jù)放在 /ragtest/input 目錄下

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

第四步、初始化工作區(qū)

首先,我們需要運行以下命令來初始化。

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

其次,我們第二步已經(jīng)準備了 ragtest 目錄,運行以下命令完成初始化。

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

運行完成后,在 ragtest 目錄下生成以下兩個文件:???.env??? 和???settings.yaml???。ragtest 目錄下的結(jié)構如下:

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

??.env ???文件包含了運行 GraphRAG 管道所需的環(huán)境變量。如果您檢查該文件,您會看到一個定義的環(huán)境變量,???GRAPHRAG_API_KEY=<API_KEY>???。這是 OpenAI API 或 Azure OpenAI 端點的 API 密鑰。您可以用自己的 API 密鑰替換它。

??settings.yaml?? 文件包含了管道的設置。您可以修改此文件以更改管道的設置。


3、第一步、確保已安裝 Ollama 

如果你還沒安裝或者不會安裝,可以參考我之前寫的文章《???Spring AI + Ollama 快速構建大模型應用程序(含源碼)???》。

第二步、確保已安裝以下本地模型

Embedding 嵌入模型
  quentinz/bge-large-zh-v1.5:latest
LLM 大模型
  gemma2:9b

第三步、修改 settings.yaml 以支持以上兩個本地模型,以下是修改后的文件

encoding_model: cl100k_base
skip_workflows: []
llm:
  api_key: ollama
  type: openai_chat # or azure_openai_chat
  model: gemma2:9b # 你 ollama 中的本地 llm 模型,可以換成其他的,只要你安裝了就可以
  model_supports_json: true # recommended if this is available for your model.
  max_tokens: 2048
  api_base: http://localhost:11434/v1 # 接口注意是v1
  concurrent_requests: 1 # the number of parallel inflight requests that may be made


parallelization:
  stagger: 0.3


async_mode: threaded # or asyncio


embeddings:
  async_mode: threaded # or asyncio
  llm:
    api_key: ollama
    type: openai_embedding # or azure_openai_embedding
    model: quentinz/bge-large-zh-v1.5:latest # 你 ollama 中的本地 Embeding 模型,可以換成其他的,只要你安裝了就可以
    api_base: http://localhost:11434/api # 注意是 api
    concurrent_requests: 1 # the number of parallel inflight requests that may be made
chunks:
  size: 300
  overlap: 100
  group_by_columns: [id] # by default, we don't allow chunks to cross documents
    
input:
  type: file # or blob
  file_type: text # or csv
  base_dir: "input"
  file_encoding: utf-8
  file_pattern: ".*\\.txt$"


cache:
  type: file # or blob
  base_dir: "cache"


storage:
  type: file # or blob
  base_dir: "output/${timestamp}/artifacts"


reporting:
  type: file # or console, blob
  base_dir: "output/${timestamp}/reports"


entity_extraction:
  prompt: "prompts/entity_extraction.txt"
  entity_types: [organization,person,geo,event]
  max_gleanings: 0


summarize_descriptions:
  prompt: "prompts/summarize_descriptions.txt"
  max_length: 500


claim_extraction:
  prompt: "prompts/claim_extraction.txt"
  description: "Any claims or facts that could be relevant to information discovery."
  max_gleanings: 0


community_report:
  prompt: "prompts/community_report.txt"
  max_length: 2000
  max_input_length: 8000


cluster_graph:
  max_cluster_size: 10


embed_graph:
  enabled: false # if true, will generate node2vec embeddings for nodes


umap:
  enabled: false # if true, will generate UMAP embeddings for nodes


snapshots:
  graphml: false
  raw_entities: false
  top_level_nodes: false


local_search:
  max_tokens: 5000


global_search:
  max_tokens: 5000


第四步、運行 GraphRAG 構建知識圖譜索引

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

構建知識圖譜的索引需要一定的時間,構建過程如下所示:

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)


4、修改源碼支持本地部署大模型

接下來修改源碼,保證進行 local 和 global 查詢時給出正確的結(jié)果。

第一步、修改成本地的 Embedding 模型

修改源代碼的目錄和文件:

.../Python/Python310/site-packages/graphrag/llm/openai/openai_embeddings_llm.py"

修改后的源碼如下:

# Copyright (c) 2024 Microsoft Corporation.
# Licensed under the MIT License


"""The EmbeddingsLLM class."""


from typing_extensions import Unpack


from graphrag.llm.base import BaseLLM
from graphrag.llm.types import (
    EmbeddingInput,
    EmbeddingOutput,
    LLMInput,
)


from .openai_configuration import OpenAIConfiguration
from .types import OpenAIClientTypes
import ollama




class OpenAIEmbeddingsLLM(BaseLLM[EmbeddingInput, EmbeddingOutput]):
    """A text-embedding generator LLM."""


    _client: OpenAIClientTypes
    _configuration: OpenAIConfiguration


    def __init__(self, client: OpenAIClientTypes, configuration: OpenAIConfiguration):
        self.client = client
        self.configuration = configuration


    async def _execute_llm(
        self, input: EmbeddingInput, **kwargs: Unpack[LLMInput]
    ) -> EmbeddingOutput | None:
        args = {
            "model": self.configuration.model,
            **(kwargs.get("model_parameters") or {}),
        }
        embedding_list = []
        for inp in input:
            embedding = ollama.embeddings(model="quentinz/bge-large-zh-v1.5:latest",prompt=inp)
            embedding_list.append(embedding["embedding"])
        return embedding_list
        # embedding = await self.client.embeddings.create(
        #     input=input,
        #     **args,
        # )
        # return [d.embedding for d in embedding.data]

第二步、繼續(xù)修改 Embedding 模型

修改源代碼的目錄和文件:

.../Python/Python310/site-packages/graphrag/query/llm/oai/embedding.py"

修改后的源碼如下:

# Copyright (c) 2024 Microsoft Corporation.
# Licensed under the MIT License


"""OpenAI Embedding model implementation."""


import asyncio
from collections.abc import Callable
from typing import Any


import numpy as np
import tiktoken
from tenacity import (
    AsyncRetrying,
    RetryError,
    Retrying,
    retry_if_exception_type,
    stop_after_attempt,
    wait_exponential_jitter,
)


from graphrag.query.llm.base import BaseTextEmbedding
from graphrag.query.llm.oai.base import OpenAILLMImpl
from graphrag.query.llm.oai.typing import (
    OPENAI_RETRY_ERROR_TYPES,
    OpenaiApiType,
)
from graphrag.query.llm.text_utils import chunk_text
from graphrag.query.progress import StatusReporter


from langchain_community.embeddings import OllamaEmbeddings






class OpenAIEmbedding(BaseTextEmbedding, OpenAILLMImpl):
    """Wrapper for OpenAI Embedding models."""


    def __init__(
        self,
        api_key: str | None = None,
        azure_ad_token_provider: Callable | None = None,
        model: str = "text-embedding-3-small",
        deployment_name: str | None = None,
        api_base: str | None = None,
        api_version: str | None = None,
        api_type: OpenaiApiType = OpenaiApiType.OpenAI,
        organization: str | None = None,
        encoding_name: str = "cl100k_base",
        max_tokens: int = 8191,
        max_retries: int = 10,
        request_timeout: float = 180.0,
        retry_error_types: tuple[type[BaseException]] = OPENAI_RETRY_ERROR_TYPES,  # type: ignore
        reporter: StatusReporter | None = None,
    ):
        OpenAILLMImpl.__init__(
            self=self,
            api_key=api_key,
            azure_ad_token_provider=azure_ad_token_provider,
            deployment_name=deployment_name,
            api_base=api_base,
            api_versinotallow=api_version,
            api_type=api_type,  # type: ignore
            organizatinotallow=organization,
            max_retries=max_retries,
            request_timeout=request_timeout,
            reporter=reporter,
        )


        self.model = model
        self.encoding_name = encoding_name
        self.max_tokens = max_tokens
        self.token_encoder = tiktoken.get_encoding(self.encoding_name)
        self.retry_error_types = retry_error_types


    def embed(self, text: str, **kwargs: Any) -> list[float]:
        """
        Embed text using OpenAI Embedding's sync function.


        For text longer than max_tokens, chunk texts into max_tokens, embed each chunk, then combine using weighted average.
        Please refer to: https://github.com/openai/openai-cookbook/blob/main/examples/Embedding_long_inputs.ipynb
        """
        token_chunks = chunk_text(
            text=text, token_encoder=self.token_encoder, max_tokens=self.max_tokens
        )
        chunk_embeddings = []
        chunk_lens = []
        for chunk in token_chunks:
            try:
                embedding, chunk_len = self._embed_with_retry(chunk, **kwargs)
                chunk_embeddings.append(embedding)
                chunk_lens.append(chunk_len)
            # TODO: catch a more specific exception
            except Exception as e:  # noqa BLE001
                self._reporter.error(
                    message="Error embedding chunk",
                    details={self.__class__.__name__: str(e)},
                )


                continue
        chunk_embeddings = np.average(chunk_embeddings, axis=0, weights=chunk_lens)
        chunk_embeddings = chunk_embeddings / np.linalg.norm(chunk_embeddings)
        return chunk_embeddings.tolist()


    async def aembed(self, text: str, **kwargs: Any) -> list[float]:
        """
        Embed text using OpenAI Embedding's async function.


        For text longer than max_tokens, chunk texts into max_tokens, embed each chunk, then combine using weighted average.
        """
        token_chunks = chunk_text(
            text=text, token_encoder=self.token_encoder, max_tokens=self.max_tokens
        )
        chunk_embeddings = []
        chunk_lens = []
        embedding_results = await asyncio.gather(*[
            self._aembed_with_retry(chunk, **kwargs) for chunk in token_chunks
        ])
        embedding_results = [result for result in embedding_results if result[0]]
        chunk_embeddings = [result[0] for result in embedding_results]
        chunk_lens = [result[1] for result in embedding_results]
        chunk_embeddings = np.average(chunk_embeddings, axis=0, weights=chunk_lens)  # type: ignore
        chunk_embeddings = chunk_embeddings / np.linalg.norm(chunk_embeddings)
        return chunk_embeddings.tolist()


    def _embed_with_retry(
        self, text: str | tuple, **kwargs: Any
    ) -> tuple[list[float], int]:
        try:
            retryer = Retrying(
                stop=stop_after_attempt(self.max_retries),
                wait=wait_exponential_jitter(max=10),
                reraise=True,
                retry=retry_if_exception_type(self.retry_error_types),
            )
            for attempt in retryer:
                with attempt:
                    embedding = (
                        OllamaEmbeddings(
                            model=self.model,
                        ).embed_query(text)
                        or []
                    )
                    return (embedding, len(text))
        except RetryError as e:
            self._reporter.error(
                message="Error at embed_with_retry()",
                details={self.__class__.__name__: str(e)},
            )
            return ([], 0)
        else:
            # TODO: why not just throw in this case?
            return ([], 0)


    async def _aembed_with_retry(
        self, text: str | tuple, **kwargs: Any
    ) -> tuple[list[float], int]:
        try:
            retryer = AsyncRetrying(
                stop=stop_after_attempt(self.max_retries),
                wait=wait_exponential_jitter(max=10),
                reraise=True,
                retry=retry_if_exception_type(self.retry_error_types),
            )
            async for attempt in retryer:
                with attempt:
                    embedding = (
                        await OllamaEmbeddings(
                            model=self.model,
                        ).embed_query(text) or [] )
                    return (embedding, len(text))
        except RetryError as e:
            self._reporter.error(
                message="Error at embed_with_retry()",
                details={self.__class__.__name__: str(e)},
            )
            return ([], 0)
        else:
            # TODO: why not just throw in this case?
            return ([], 0)


5、GraphRAG 效果測試

第一、local 查詢

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)


第二、global 查詢

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)


GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)



本文轉(zhuǎn)載自公眾號玄姐聊AGI  作者:玄姐

原文鏈接:??https://mp.weixin.qq.com/s/cze6t8Fass2YKgjxSDPniw??

?著作權歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
av免费在线一区二区三区| 日韩精品一区二区av| 日韩成人亚洲| 亚洲三级电影网站| 久久久福利视频| 中国女人一级一次看片| 午夜国产欧美理论在线播放| 亚洲第一免费网站| 超碰超碰在线观看| 3344国产永久在线观看视频| 国产精品九色蝌蚪自拍| 国产精品乱码视频| 中文字幕视频一区二区| 欧美婷婷在线| 中文字幕国产亚洲| 成人性生活免费看| japansex久久高清精品| 欧美日韩亚洲一区二区三区| 中文字幕中文字幕在线中一区高清| 高清乱码毛片入口| 麻豆一区二区在线| 欧美诱惑福利视频| 国产精品999久久久| 日韩久久电影| 亚洲美女精品久久| 黄色av电影网站| 亚洲国产天堂| 欧美性猛交xxxx黑人交| www.浪潮av.com| 丝袜在线视频| 自拍偷拍亚洲综合| 日韩成人在线资源| 亚洲 欧美 自拍偷拍| 国产成人在线免费| 国产日韩视频在线观看| 国产精品va无码一区二区三区| 欧美影视一区| zzijzzij亚洲日本成熟少妇| 国产精品20p| 欧美亚洲国产日韩| 欧美xxxx在线观看| 青青草原播放器| 久久人体av| 欧美亚洲综合在线| 丰满少妇在线观看| 全亚洲第一av番号网站| 天天av天天翘天天综合网色鬼国产| 日韩精品久久一区二区| 最新日本在线观看| 一区二区在线观看免费视频播放 | 色综合av综合无码综合网站| 波多野结衣在线高清| 一区二区三区精品在线观看| 国产欧美123| 中文字幕伦理免费在线视频| 亚洲免费电影在线| 喜爱夜蒲2在线| 影音先锋中文在线视频| 亚洲精品视频一区二区| 天天干天天色天天爽| 黄色av网站在线播放| 亚洲人成7777| 欧美激情亚洲天堂| 阿v视频在线观看| 天天综合网天天综合色| 成人av一级片| 另类中文字幕国产精品| 欧美日韩一区三区四区| 天天看片天天操| 精品一区二区三区视频在线播放| 日韩欧美综合一区| 大尺度在线观看| 欧美成人午夜77777| 亚洲久久久久久久久久| 国产一级久久久久毛片精品| 日韩在线不卡| 色综合久久久888| 亚洲国产精品成人无久久精品| 国产精品毛片在线| 国产精品日韩久久久久| 国产精品久久久久久久久久久久久久久久久久 | 亚洲美女偷拍久久| 天堂8在线天堂资源bt| 国产盗摄——sm在线视频| 欧美丝袜美女中出在线| 日本中文字幕二区| ccyy激情综合| 国产亚洲一区二区精品| 侵犯稚嫩小箩莉h文系列小说| 精久久久久久| 国产精品盗摄久久久| aaa一区二区| 97久久精品人人做人人爽| 日韩视频在线播放| 日韩三级免费| 色狠狠一区二区三区香蕉| 色偷偷中文字幕| 亚洲影院天堂中文av色| 久久婷婷国产麻豆91天堂| 日韩av男人天堂| 免费观看日韩av| 国模一区二区三区私拍视频| 99精品老司机免费视频| 亚洲高清免费在线| 在线观看国产一级片| 国产精品调教视频| 久久久精品国产亚洲| av资源免费观看| 国产精品亚洲第一| 日本视频精品一区| 国产经典三级在线| 欧洲亚洲精品在线| 中国一级特黄录像播放| 91综合视频| 国产999精品久久久影片官网| 国产精品主播一区二区| 久久久91精品国产一区二区精品| a级片一区二区| 免费一级欧美在线观看视频| 亚洲韩国日本中文字幕| 18岁成人毛片| 看片网站欧美日韩| 欧洲精品国产| 一区二区三区四区日本视频| 日韩久久久久久| 三级黄色录像视频| 日本美女一区二区| 久久久久久a亚洲欧洲aⅴ| 欧美6一10sex性hd| 欧美一区二区三区视频免费播放| 中文字幕第24页| 香蕉久久夜色精品国产| 精品999在线观看| 欧洲精品二区| 日韩欧美黄色影院| 婷婷色中文字幕| 久久99国产精品久久99果冻传媒| 日韩精品久久久免费观看| 国产乱码精品一区二三赶尸艳谈| 日韩视频在线永久播放| 在线观看美女av| 国产在线一区观看| 椎名由奈jux491在线播放 | 欧美卡1卡2卡| 91导航在线观看| 日韩高清不卡在线| 亚洲 日韩 国产第一区| 免费污视频在线一区| 亚洲偷熟乱区亚洲香蕉av| 中文人妻av久久人妻18| 久久青草欧美一区二区三区| 不卡影院一区二区| 国产精品一区二区av日韩在线| 91成人在线播放| 欧美日本韩国一区二区| 在线免费av一区| 欧美美女性生活视频| 久久er精品视频| 国产盗摄视频在线观看| 亚洲一区二区电影| 欧美激情乱人伦一区| 欧美一级淫片aaaaaa| 狠狠爱在线视频一区| 亚洲av无码一区二区三区人 | 91福利国产成人精品照片| 免费一级做a爰片久久毛片潮| 日韩—二三区免费观看av| 亚洲欧美国产不卡| 日韩一二三区在线观看| 97国产精品久久| 欧美视频综合| 欧美色视频在线| 免费在线观看一级片| av亚洲精华国产精华精华 | 亚州一区二区三区| 久久好看免费视频| 亚洲国产视频一区二区三区| 无吗不卡中文字幕| 69精品无码成人久久久久久| 精品系列免费在线观看| 大陆av在线播放| 你微笑时很美电视剧整集高清不卡| 国产欧美日韩免费| 国产精品久久久久久福利| 欧美精品一区二区三区久久久 | 日本视频一区二区不卡| 国产一区二区视频在线看| 97视频在线播放| 日本不卡三区| 亚洲精品第一国产综合精品| 伊人中文字幕在线观看| 日韩一区欧美小说| 亚洲少妇18p| 另类的小说在线视频另类成人小视频在线 | 911精品美国片911久久久 | 国产爆初菊在线观看免费视频网站| 欧美精品99久久久**| 国产精久久久久久| 综合久久综合久久| 亚洲av无码一区二区二三区| 国精品**一区二区三区在线蜜桃| 国产成人无码精品久久久性色| 手机亚洲手机国产手机日韩| 精品一区久久| 秋霞午夜一区二区三区视频| 国产成人精品视频在线| 黑人精品视频| 欧美成人全部免费| 国产小视频免费在线网址| 欧美电视剧在线看免费| 一个人看的www日本高清视频| 午夜精品在线看| 99久久99久久精品国产| 国产欧美一区二区三区沐欲| 天堂www中文在线资源| 国产一区二区三区免费看| 婷婷丁香激情网| 国产精品美女久久久| 免费人成在线观看视频播放| 手机在线电影一区| 亚洲成色www久久网站| 亚洲国产欧美日韩在线观看第一区 | 中文字幕免费观看视频| 色综合久久久久综合| 日韩免费av片| 亚洲高清视频中文字幕| 青娱乐91视频| 亚洲精品国产品国语在线app| 国产精品suv一区二区88| 国产欧美精品区一区二区三区| 中文乱码人妻一区二区三区视频| 成人自拍视频在线| 无套白嫩进入乌克兰美女| 秋霞影院一区二区| 国产wwwxx| 日本色综合中文字幕| 不要播放器的av网站| 视频一区中文字幕国产| 欧美黄网站在线观看| 亚洲免费网址| 日韩精品一区二区三区久久| 国产精品呻吟| 欧美黄色免费影院| 视频一区中文字幕国产| 色多多视频在线播放| 老司机精品视频一区二区三区| 亚洲成人福利在线观看| 免费一级欧美片在线观看| 国产又猛又黄的视频| 蜜臀av性久久久久蜜臀av麻豆| 午夜免费福利在线| 久久国内精品视频| а 天堂 在线| 国产成人小视频| 婷婷五月精品中文字幕| 不卡av免费在线观看| 在线免费观看a级片| 91视频一区二区| 日本一级免费视频| 亚洲视频图片小说| 久久久久久久国产精品毛片| 亚洲成人动漫一区| 你懂的国产在线| 91官网在线观看| 97精品人妻一区二区三区| 日韩视频免费直播| 天天综合网在线观看| 亚洲欧美激情视频| 草草影院在线观看| 免费91在线视频| sm在线观看| 国产成人精品免费视频| 久久亚洲精品人成综合网| av一区二区三区四区电影| 国产一级成人av| 日本一区二区三区四区高清视频 | 欧美裸身视频免费观看| 99爱在线视频| 国产精品美乳在线观看| 日韩免费精品| 美日韩精品免费| 综合国产在线| 免费av网址在线| 国产久卡久卡久卡久卡视频精品| 亚洲色图14p| 18涩涩午夜精品.www| 国产成人在线观看网站| 欧美午夜电影一区| 日韩永久免费视频| 色噜噜久久综合伊人一本| 毛片网站在线看| 国产成人在线一区| 精品视频成人| 日韩视频在线播放| 激情另类综合| 中文字幕成人在线视频| 不卡的看片网站| 男人天堂资源网| 狠狠色香婷婷久久亚洲精品| 中文文字幕一区二区三三| 欧美精品一区二区在线观看| 午夜免费福利在线观看| 欧美在线观看视频| 欧美视频三区| 亚洲精品一区二| 羞羞视频在线观看欧美| 亚洲最大视频网| 国产欧美日韩久久| 中日韩精品视频在线观看| 91精品国产品国语在线不卡| 国产毛片在线看| 97精品欧美一区二区三区| 国产一区二区三区免费在线| 色噜噜色狠狠狠狠狠综合色一| 999在线观看精品免费不卡网站| 亚洲涩涩在线观看| 国产午夜精品久久久久久久 | 先锋影音久久| 亚洲最大视频网| 亚洲欧美乱综合| 一级特黄特色的免费大片视频| 亚洲欧美日韩国产中文专区| 18video性欧美19sex高清| 91传媒在线免费观看| 欧美3p在线观看| 亚洲第一中文av| 久久综合国产精品| 国产欧美一区二区三区在线看蜜臂| 日韩一区二区精品| 超碰在线网址| 成人羞羞国产免费| 国产精品久久久乱弄| 手机av在线网| 中文字幕在线免费不卡| 亚洲一区在线观| 中文字幕亚洲综合久久筱田步美| 午夜欧美巨大性欧美巨大| 免费国产一区二区| 国产精品嫩草99av在线| 玖草视频在线观看| 黑丝美女久久久| 国产在线视频资源| 国产精品九九久久久久久久| 欧洲激情综合| 日韩一区二区三区不卡视频| 国产精品网站在线| 一女二男一黄一片| 欧美成人激情视频| 澳门精品久久国产| 国产h视频在线播放| 久久久久久亚洲综合| 中文字幕网址在线| 欧美成人自拍视频| 久久悠悠精品综合网| 日本精品一区二区三区四区| 国产欧美综合色| 亚洲中文字幕在线观看| 精品国内亚洲在观看18黄| 国产精品久久久久久久久久久久久久久 | 免费观看成人高| 日本欧美大码aⅴ在线播放| 黄色免费一级视频| 91精品国产色综合久久不卡电影| 污网站在线免费看| 精品国产综合| 日本怡春院一区二区| 欧美成人777| 亚洲精品久久久久久久久久久久久| 日韩激情电影免费看| 三区精品视频观看| 国产一区欧美二区| 亚洲精品www久久久久久| 亚洲欧美国产视频| www.久久爱.com| 免费一级特黄毛片| 久久久久久99久久久精品网站| 国产又大又长又粗| 97在线免费观看| 日韩成人影院| 99精品一区二区三区无码吞精| 色偷偷久久人人79超碰人人澡| 日韩精品一区二区三区不卡| 国产精品亚洲人成在99www| 国产嫩草在线观看| 亚洲精品国产精品乱码不99| 亚洲人视频在线观看| 91精品国产自产在线| 亚洲区第一页| 中文字幕91视频| 亚洲国产99精品国自产| 素人啪啪色综合| 久久亚洲精品无码va白人极品| 国产网站一区二区| 亚洲AV无码成人片在线观看 | 国产第一亚洲| 老子影院午夜伦不卡大全| 国产日韩欧美制服另类| www.成人精品| 国产精品精品国产| 亚洲免费精品|