精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

LangGraph的stream_mode到底怎么選?我調了一下午終于搞明白了 原創

發布于 2025-8-22 09:05
瀏覽
0收藏

最近在重構我們的AI對話系統,從簡單的請求-響應模式升級到實時流式處理。過程中發現LangGraph的stream_mode遠比文檔上寫的復雜,今天把對應的實踐經驗分享出來。

stream_mode到底是什么

簡單說,stream_mode就是控制你在流式處理時能拿到什么數據。簡單理解就是你的Graph在執行時,每完成一個節點都會產生輸出。stream_mode決定你能看到什么:

  • 是看到完整的狀態快照?
  • 還是只看變化的部分?
  • 或者只關心LLM的輸出?

4種模式

values

這是默認的,每次返回完整的狀態。說實話,大部分時候用這個就夠了:

from langgraph.graph import StateGraph, END
from typing import TypedDict, Annotated
import operator
import time


# 定義狀態類型
class GraphState(TypedDict):
    """
    Graph的狀態定義

    - messages: 存儲對話消息列表
    - step_count: 記錄執行步驟數
    - result: 最終結果
    """
    messages: Annotated[list, operator.add]  # 使用operator.add來合并列表
    step_count: int
    result: str


def step_1(state: GraphState) -> GraphState:
    """
    第一個處理步驟:初始化和數據準備
    """
    print("?? 執行步驟1: 數據準備階段")
    time.sleep(1)  # 模擬處理時間

    return {
        "messages": ["步驟1: 開始數據準備"],
        "step_count": state.get("step_count", 0) + 1,
        "result": "數據準備完成"
    }


def step_2(state: GraphState) -> GraphState:
    """
    第二個處理步驟:數據處理
    """
    print("?? 執行步驟2: 數據處理階段")
    time.sleep(1.5)  # 模擬處理時間

    return {
        "messages": ["步驟2: 正在處理數據"],
        "step_count": state.get("step_count", 0) + 1,
        "result": "數據處理完成,準備分析"
    }


def step_3(state: GraphState) -> GraphState:
    """
    第三個處理步驟:數據分析和生成結果
    """
    print("?? 執行步驟3: 數據分析階段")
    time.sleep(2)  # 模擬處理時間

    total_messages = len(state.get("messages", []))

    return {
        "messages": ["步驟3: 分析完成,生成最終結果"],
        "step_count": state.get("step_count", 0) + 1,
        "result": f"分析完成!總共處理了 {total_messages + 1} 條消息,執行了 {state.get('step_count', 0) + 1} 個步驟"
    }


def create_workflow():
    """
    創建LangGraph工作流
    """
    # 創建狀態圖
    workflow = StateGraph(GraphState)

    # 添加節點
    workflow.add_node("step_1", step_1)
    workflow.add_node("step_2", step_2)
    workflow.add_node("step_3", step_3)

    # 定義邊:step_1 -> step_2 -> step_3 -> END
    workflow.set_entry_point("step_1")
    workflow.add_edge("step_1", "step_2")
    workflow.add_edge("step_2", "step_3")
    workflow.add_edge("step_3", END)

    # 編譯圖
    app = workflow.compile()
    return app


def demo_stream_values():
    """
    演示 stream_mode="values" 的用法

    stream_mode="values" 會返回每個步驟完成后的完整狀態值
    這讓我們可以實時監控整個graph的狀態變化
    """
    print("=" * 60)
    print("?? LangGraph Stream Mode Demo - stream_mode='values'")
    print("=" * 60)

    # 創建工作流
    app = create_workflow()

    # 初始狀態
    initial_state = {
        "messages": [],
        "step_count": 0,
        "result": ""
    }

    print("\n?? 開始流式執行,實時顯示每個步驟的狀態變化:")
    print("-" * 60)

    # 使用stream方法,設置stream_mode="values"
    for i, output in enumerate(app.stream(initial_state, stream_mode="values")):
        print(f"\n?? 步驟 {i} 完成后的狀態:")
        print(f"   ?? 消息列表: {output.get('messages', [])}")
        print(f"   ?? 步驟計數: {output.get('step_count', 0)}")
        print(f"   ? 當前結果: {output.get('result', '')}")
        print("-" * 40)

    print("\n? 工作流執行完成!")

我一開始就是用的這個,結果發現數據量特別大。比如我們有個處理報表的流程,狀態里存了一個幾千行的DataFrame,每個節點都要傳輸這么大的數據,難怪客戶端卡。

updates

后來改成updates模式,立馬快了很多:

def demo_update_values():
    """
    對比不同stream_mode的效果
    """
    print("\n" + "=" * 60)
    print("?? Stream Mode 對比演示")
    print("=" * 60)

    app = create_workflow()
    initial_state = {"messages": [], "step_count": 0, "result": ""}

    # 演示 stream_mode="updates"
    print("\n?? stream_mode='updates' - 只顯示每步的更新內容:")
    for output in app.stream(initial_state, stream_mode="updates"):
        for node_name, updates in output.items():
            print(f"{node_name} 更新了: {updates}")

這個模式特別適合生產環境。比如你的狀態里有個huge_data字段一直不變,用values模式每次都傳,用updates就只傳真正變化的部分。

不過要注意,你拿到的是增量更新,需要自己維護完整狀態:

# 自己維護狀態
current_state = {}
for chunk in app.stream(input_data, stream_mode="updates"):
    for node_name, updates in chunk.items():
        current_state.update(updates)
        # 現在current_state是最新的完整狀態

debug

這個模式我只在開發時用,信息特別詳細:

for chunk in app.stream(input_data, stream_mode="debug"):
    print(f"Debug info: {chunk}")

會輸出類似這樣的信息:

  • 節點開始執行
  • 節點執行結束
  • 狀態變化
  • 錯誤信息
  • 執行時間

有一次一個節點莫名其妙執行了兩次,就是用debug模式發現的,原來是我的條件邊寫錯了。

messages

如果你在做聊天機器人,這個模式能省很多事.

from typing import TypedDict, List
from langgraph.graph import StateGraph, START
from langchain_openai import ChatOpenAI
from langchain_core.messages import BaseMessage


class SimpleState(TypedDict):
    topic: str
    joke: str
    # 注意:這里沒有 messages 字段!

model = ChatOpenAI(model="gpt-4o-mini")

def call_model(state: SimpleState):
    """調用 LLM 生成笑話"""
    # 這里調用了 LLM
    llm_response = model.invoke([
        {"role": "user", "content": f"Generate a joke about {state['topic']}"}
    ])
    # 返回的是 joke 字段,不是 messages
    return {"joke": llm_response.content}

graph1 = (
    StateGraph(SimpleState)
    .add_node("call_model", call_model)
    .add_edge(START, "call_model")
    .compile()
)

# stream_mode="messages" 仍然可以工作!
# 因為它攔截的是 model.invoke() 調用時產生的 tokens
for msg, metadata in graph1.stream({"topic": "cats"}, stream_mode="messages"):
    if msg.content:
        print(msg.content, end="|")
        
# 輸出: Why| did| the| cat|...(流式輸出)

你可能會覺得State里并沒有messages字段,為什么stream_mode="messages" 仍舊能工作呢?這是因為:

當您使用 stream_mode="messages" 時,LangGraph 做了以下事情:

1. **Hook 機制**:
   - LangGraph 在底層使用回調(callbacks)系統
   - 當檢測到 stream_mode="messages" 時,它會自動將 LLM 的 invoke 
     方法切換到 stream 模式

2. **事件監聽**:
   - 監聽所有 LangChain 模型的 on_llm_new_token 事件
   - 這些事件在 LLM 生成 tokens 時觸發

3. **數據流**:

用戶代碼調用 model.invoke() ↓ LangGraph 檢測到 stream_mode="messages" ↓ 自動將 invoke 轉換為 stream 調用 ↓ 捕獲 on_llm_new_token 事件 ↓ 將 tokens 作為 (message_chunk, metadata) 流式返回

4. **獨立于 State**:
- stream_mode="messages" 工作在更底層
- 它不關心 State 的結構
- 只要有 LLM 調用,就能捕獲 tokens
"""

# stream_mode="messages" 會捕獲所有節點中的 LLM 調用
for msg, metadata in graph3.stream(
    {"input_text": "AI development"}, 
    stream_mode="messages"
):
    if msg.content:
        node = metadata.get("langgraph_node", "unknown")
        print(f"[{node}] {msg.content[:20]}...")

不同模式的區別如下:

print("\n不同 stream_mode 的區別:")

# 1. stream_mode="values" - 返回完整的 State
for chunk in graph1.stream({"topic": "cats"}, stream_mode="values"):
    print(f"Values mode - State: {chunk}")
    # 輸出: {'topic': 'cats', 'joke': '完整的笑話內容'}

# 2. stream_mode="updates" - 返回 State 的更新
for chunk in graph1.stream({"topic": "dogs"}, stream_mode="updates"):
    print(f"Updates mode - Updates: {chunk}")
    # 輸出: {'call_model': {'joke': '完整的笑話內容'}}

# 3. stream_mode="messages" - 返回 LLM tokens
for msg, metadata in graph1.stream({"topic": "birds"}, stream_mode="messages"):
    if msg.content:
        print(f"Messages mode - Token: {msg.content[:10]}...")
        # 輸出: 流式的 tokens

消息增強的處理類

class EnhancedMessageProcessor:
    """增強的消息處理器"""
    
    def __init__(self, verbose: bool = True, show_tools: bool = True):
        self.verbose = verbose
        self.show_tools = show_tools
        self.message_buffer = []
        self.tool_calls_buffer = []
        self.current_node = None
        self.stats = {
            "total_messages": 0,
            "ai_messages": 0,
            "tool_messages": 0,
            "total_tokens": 0,
            "tool_calls": 0
        }
    
    def process(self, msg: BaseMessage, metadata: dict) -> None:
        """處理單個消息"""
        self.stats["total_messages"] += 1
        node = metadata.get("langgraph_node", "unknown")
        
        if node != self.current_node:
            if self.current_node:
                self._flush_buffer()
            self.current_node = node
            if self.verbose:
                print(f"\n?? [{node}]", flush=True)
        
        # 處理不同類型的消息
        if isinstance(msg, AIMessageChunk):
            self._process_ai_chunk(msg, metadata)
        elif isinstance(msg, AIMessage):
            self._process_ai_message(msg, metadata)
        elif isinstance(msg, ToolMessage):
            self._process_tool_message(msg, metadata)
        elif isinstance(msg, HumanMessage):
            self._process_human_message(msg, metadata)
        else:
            self._process_other_message(msg, metadata)
    
    def _process_ai_chunk(self, msg: AIMessageChunk, metadata: dict):
        """處理 AI 消息塊"""
        self.stats["ai_messages"] += 1
        
        # 處理文本內容
        if msg.content:
            self.message_buffer.append(msg.content)
            if self.verbose:
                print(msg.content, end="", flush=True)
            self.stats["total_tokens"] += len(msg.content.split())
        
        # 處理工具調用塊
        if hasattr(msg, 'tool_call_chunks') and msg.tool_call_chunks:
            for chunk in msg.tool_call_chunks:
                self.tool_calls_buffer.append(chunk)
                if self.verbose and self.show_tools:
                    if chunk.get('name'):
                        print(f"\n?? 準備調用: {chunk['name']}", end="")
                    if chunk.get('args'):
                        print(f" {chunk['args']}", end="")
        
        # 處理完整的工具調用
        if hasattr(msg, 'tool_calls') and msg.tool_calls:
            self.stats["tool_calls"] += len(msg.tool_calls)
            if self.verbose and self.show_tools:
                print(f"\n?? 工具調用檢測到:")
                for tc in msg.tool_calls:
                    print(f"   ? {tc['name']}: {tc.get('args', {})}")
    
    def _process_ai_message(self, msg: AIMessage, metadata: dict):
        """處理完整的 AI 消息"""
        if msg.content and self.verbose:
            print(f"\n? AI完整響應: {msg.content[:100]}...")
        
        if hasattr(msg, 'tool_calls') and msg.tool_calls and self.show_tools:
            print(f"\n?? 即將執行工具:")
            for tc in msg.tool_calls:
                print(f"   ? {tc['name']}({tc.get('args', {})})")
    
    def _process_tool_message(self, msg: ToolMessage, metadata: dict):
        """處理工具消息"""
        self.stats["tool_messages"] += 1
        if self.verbose and self.show_tools:
            try:
                # 嘗試解析 JSON 結果
                result = json.loads(msg.content) if msg.content else {}
                print(f"\n?? 工具結果:")
                for key, value in result.items():
                    print(f"   ? {key}: {value}")
            except:
                print(f"\n?? 工具結果: {msg.content}")
    
    def _process_human_message(self, msg: HumanMessage, metadata: dict):
        """處理人類消息"""
        if self.verbose:
            print(f"\n?? 用戶: {msg.content}")
    
    def _process_other_message(self, msg: BaseMessage, metadata: dict):
        """處理其他類型消息"""
        if hasattr(msg, 'content') and msg.content and self.verbose:
            print(f"\n?? {type(msg).__name__}: {msg.content}")
    
    def _flush_buffer(self):
        """清空緩沖區"""
        if self.message_buffer:
            full_message = "".join(self.message_buffer)
            self.message_buffer = []
        
        if self.tool_calls_buffer:
            self.tool_calls_buffer = []
    
    def get_stats(self) -> dict:
        """獲取統計信息"""
        return self.stats

實際案例

分享一個真實的優化案例。我們有個數據分析的工作流:

class AnalysisState(TypedDict):
    raw_data: pd.DataFrame  # 原始數據,很大
    processed_data: dict    # 處理后的數據
    summary: str           # 分析總結
    step_info: str         # 當前步驟信息

# 之前的代碼(慢)
asyncfor chunk in app.astream(initial_state):  # 默認values模式
    # 每次都傳輸完整的DataFrame
    print(f"當前步驟: {chunk.get('step_info')}")
    # 客戶端:為啥這么卡?

# 優化后(快)
asyncfor chunk in app.astream(initial_state, stream_mode="updates"):
    for node_name, updates in chunk.items():
        # 只傳輸變化的部分
        if"step_info"in updates:
            print(f"當前步驟: {updates['step_info']}")
        if"summary"in updates:
            print(f"分析結果: {updates['summary']}")

效果立竿見影,傳輸的數據量少了90%。

選擇建議

開發調試階段:

  • 用debug模式,能看到所有細節
  • 出問題時方便定位

生產環境:

  • 優先用updates模式,性能最好
  • 只有真的需要完整狀態時才用values

聊天應用:

  • 直接用messages模式,別自己解析了

性能敏感場景:

  • 一定要用updates
  • 我們測過,數據量大的時候updates比values快3-5倍

模式組合

最后貼個不同模式組合的例子:

for stream_mode, chunk in agent.stream(
            {"messages": [{"role": "user", "content": "book a hotel"}]},
            config,
            stream_mode=["messages", "updates"],
        ):

    if stream_mode == "messages":
        print(chunk)
        if isinstance(chunk, tuple) and len(chunk) == 2:
            message_chunk, metadata = chunk

            if hasattr(message_chunk, 'content') and message_chunk.content:
                print(message_chunk.content, end="", flush=True)
                # messages.append(message_chunk.content)

    elif stream_mode == "updates":
        # Check for interrupt signal in updates
        if isinstance(chunk, dict) and"__interrupt__"in chunk:
            is_interrupted = True
            interrupt_info = chunk["__interrupt__"]
            print(f"\n\n?? INTERRUPT DETECTED!")
            print(f"   Info: {interrupt_info}")
            # Don't break - let it finish streaming current content

        # Also check for tool calls that might trigger interrupts
        if isinstance(chunk, dict):
            for key, value in chunk.items():
                if isinstance(value, dict) and"messages"in value:
                    for msg in value.get("messages", []):
                        if hasattr(msg, "tool_calls") and msg.tool_calls:
                            print(f"\n?? Tool call detected: {msg.tool_calls[0].get('name', 'unknown')}")

總結

stream_mode這個參數看起來簡單,但選對了能省很多事:

  • 別無腦用默認的values,根據場景選擇
  • 生產環境首選updates,真的快很多
  • debug只在開發時用
  • messages是給聊天應用的特供

?

本文轉載自??AI 博物院???? 作者:longyunfeigu

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
欧美日韩爱爱视频| 欧美性色黄大片手机版| 国产精品一区二区欧美| 天堂中文在线网| 红杏成人性视频免费看| 91黄视频在线| www.在线观看av| 波多野结衣在线网站| 国产精品一区二区久激情瑜伽| 91tv亚洲精品香蕉国产一区7ujn| 久久久久久国产免费a片| 精品一区二区三区视频在线播放| 精品久久久在线观看| 午夜老司机精品| 日本韩国免费观看| 精品亚洲成a人| 5278欧美一区二区三区| 丝袜 亚洲 另类 欧美 重口| 美女亚洲一区| 亚洲福利视频网| 一级片免费在线观看视频| 国产剧情av在线播放| 中文字幕亚洲不卡| 日本一区二区三区视频在线播放| 国产18精品乱码免费看| 蜜桃免费网站一区二区三区| 欧美性一区二区三区| 国产高清在线免费观看| 色乱码一区二区三区网站| 日韩精品视频在线播放| 黑人无套内谢中国美女| 日韩欧国产精品一区综合无码| 精品欧美一区二区三区| 在线观看成人免费| 思思99re6国产在线播放| 久久久国产一区二区三区四区小说 | 欧美成人精品欧美一级乱黄| 欧美一区在线看| www.日韩欧美| 97在线观看免费高| 久久婷婷蜜乳一本欲蜜臀| 亚洲人午夜精品| 88久久精品无码一区二区毛片| jizz久久精品永久免费| 欧美大片在线观看一区二区| 老司机午夜性大片| 欧美大陆国产| 欧美美女黄视频| 99日在线视频| 91成人在线网站| 6080日韩午夜伦伦午夜伦| 色戒在线免费观看| 亚洲国产一区二区久久| 欧美日韩精品三区| 九九热精品在线播放| 国产成人77亚洲精品www| 欧美午夜精品免费| 亚洲免费999| 麻豆国产精品| 精品免费国产二区三区| 精品无码人妻少妇久久久久久| 911精品国产| 亚洲精品mp4| 亚洲综合网在线观看| 欧美日韩一区二区三区视频播放| 尤物九九久久国产精品的特点| 成年人在线免费看片| 亚洲a在线视频| 色综合视频一区中文字幕| www.天天色| 日韩在线卡一卡二| 国产日韩欧美日韩| 精品人妻伦一区二区三区久久| 国产成人免费视频一区| 国产欧美一区二区在线播放| 欧美少妇另类| 国产精品免费观看视频| 日本a级片在线观看| 91高清视频在线观看| 色婷婷av一区二区三区之一色屋| 人妻无码视频一区二区三区| 欧美一级做一级爱a做片性| 日韩无一区二区| 免费成人深夜夜行p站| av在线不卡免费观看| 久热精品在线视频| av黄色在线看| 久久精品国产99国产| 国产超碰91| 国产一级免费在线观看| 亚洲欧美一区二区三区久本道91| 国产在线播放观看| 蜜桃视频成人m3u8| 日韩女优制服丝袜电影| 亚洲精品国产一区黑色丝袜| 亚洲精品电影| 日韩av片永久免费网站| 精品区在线观看| 欧美激情一区二区| 男女猛烈激情xx00免费视频| 成人一级视频| 亚洲国产成人精品女人久久久| 成年人在线免费看片| 亚洲国产99| 亚洲一区二区三区在线免费观看 | 成人av在线资源| 亚洲欧美国产精品桃花| 国产h片在线观看| 欧美剧情电影在线观看完整版免费励志电影 | 久久蜜桃一区二区| 热久久最新地址| av免费在线一区| 日韩av在线高清| 成人免费毛片东京热| 人妖欧美一区二区| 精品高清视频| 伦理在线一区| 91麻豆精品91久久久久同性| 三上悠亚影音先锋| 亚洲精品欧洲| 国产精品区一区| 大片免费在线看视频| 欧美性色黄大片手机版| aaaaa级少妇高潮大片免费看| 午夜精品电影| 亚洲a中文字幕| yiren22综合网成人| 欧美三级免费观看| 国产精品嫩草av| 国产精品草草| 99久re热视频这里只有精品6| 久草资源在线| 69成人精品免费视频| 亚洲а∨天堂久久精品2021| 免费欧美在线| 欧美xxxx黑人又粗又长密月| 成人一级福利| 亚洲精品按摩视频| 日韩污视频在线观看| 成人做爰69片免费看网站| 男人天堂网站在线| 亚洲日本va中文字幕| 美女精品久久久| 国产人妻精品一区二区三区| 亚洲欧美综合色| 可以看污的网站| 国产精品88久久久久久| 国产在线日韩在线| 拍真实国产伦偷精品| 欧美日韩mp4| 51精品免费网站| 国产精品一区二区三区乱码| 亚洲一区 在线播放| 日韩精品一级| 韩国视频理论视频久久| 亚洲色偷精品一区二区三区| 欧美日韩国产在线看| 人妻少妇一区二区| 免费精品视频最新在线| 正在播放国产精品| 日韩高清二区| 午夜精品在线观看| 国产高清一级毛片在线不卡| 欧美亚洲综合久久| 夫妻性生活毛片| 不卡一区中文字幕| 男人天堂999| 欧美日韩在线二区| 91精品国产综合久久香蕉的用户体验| 9色在线视频| 日韩三级在线免费观看| 日本五十熟hd丰满| 国产日韩欧美综合在线| 爱豆国产剧免费观看大全剧苏畅| 欧美日韩国产高清| 精品日韩美女| 亚洲男人在线| 97久久超碰福利国产精品…| 福利在线播放| 日韩免费一区二区| 国产成人无码一区二区在线播放| 国产日产精品1区| 亚洲高清av一区二区三区| 一区二区三区成人精品| 亚洲综合五月天| а√中文在线天堂精品| 国产91在线高潮白浆在线观看| 日韩av中文| 日韩av中文字幕在线播放| 亚洲视频在线观看免费视频| 一区二区久久久久久| 爱爱免费小视频| 高清不卡一二三区| 国产视频手机在线播放| 韩国在线一区| 亚洲日本欧美在线| 日本中文字幕在线一区| 91系列在线观看| 69久成人做爰电影| 九九久久精品一区| 春暖花开成人亚洲区| 欧美精品一区二区三区高清aⅴ | 韩国v欧美v日本v亚洲v| 久久国产亚洲精品无码| 国产精品久久久久久麻豆一区软件 | 日韩黄色片视频| 国产精品草草| youjizz.com亚洲| 精品视频国产| 久草热久草热线频97精品| 亚洲精品观看| 国产在线观看不卡| 成人日韩在线观看| 亚洲18私人小影院| 99福利在线| 中文字幕日本欧美| 国产女主播在线直播| 亚洲国产精品字幕| www.日韩高清| 欧美精品日日鲁夜夜添| 自拍偷拍18p| 欧美性猛交xxxx黑人| 国产精品免费人成网站酒店| 中文字幕国产一区| 国产成人精品无码免费看夜聊软件| 盗摄精品av一区二区三区| 日本美女视频一区| 蜜桃视频在线观看一区二区| 精品久久久噜噜噜噜久久图片| 亚洲作爱视频| 妞干网在线视频观看| 好吊视频一区二区三区四区| 国产又粗又大又爽的视频| 日韩大片在线| 亚洲精品一区二区三| 精品国产欧美日韩| 日本精品一区| 精品国产一区二区三区小蝌蚪| 欧美激情导航| 九一成人免费视频| 欧美一进一出视频| 精品国产aⅴ| 亚洲v国产v在线观看| 日本一本不卡| 手机成人av在线| 亚洲天天综合| 日本免费成人网| 国产精品大片| 免费无码不卡视频在线观看| 国产视频一区三区| 日韩av片在线看| 日韩高清不卡在线| 亚洲免费一级视频| 国产乱人伦偷精品视频免下载 | 日韩精品一区在线视频| 亚洲欧洲午夜| 国产a级片免费观看| 蜜臀91精品一区二区三区| 午夜免费一级片| 国产精品自拍毛片| 亚洲av无码一区二区三区观看| 91色九色蝌蚪| 人妻无码一区二区三区免费| 中文字幕制服丝袜一区二区三区 | 97在线电影| 国产精品久久久网站| 九九九九精品| 成人3d精品动漫精品一二三| 青少年xxxxx性开放hg| 欧美福利在线| 久久国产亚洲精品无码| 理论电影国产精品| 自拍视频第一页| 2017欧美狠狠色| 视频国产一区二区| 午夜精品久久久久影视| 青青艹在线观看| 日韩欧美的一区二区| 亚洲av成人无码久久精品老人 | 天然素人一区二区视频| 国产一区二区丝袜| 国产精品巨作av| 无遮挡亚洲一区| 很黄很黄激情成人| aa免费在线观看| 国模娜娜一区二区三区| 天堂www中文在线资源| 欧美激情在线一区二区三区| 国产精品成人免费观看| 日本丶国产丶欧美色综合| 午夜精品久久久久久久第一页按摩| 日韩av综合网| 91极品在线| 国产国语刺激对白av不卡| 成人在线分类| 日韩欧美激情一区二区| 欧美日韩一区自拍| 午夜精品中文字幕| 91亚洲永久精品| 青草草在线视频| 欧美制服丝袜第一页| 黄色片一区二区| 久热爱精品视频线路一| 日韩一级二级| 麻豆91av| 91久久中文| 巨乳女教师的诱惑| 国产精品天美传媒| 无码人妻av一区二区三区波多野| 欧美一级夜夜爽| 99青草视频在线播放视| 91成人福利在线| 136导航精品福利| 艳母动漫在线免费观看| 日韩电影一区二区三区四区| 国产精品成人99一区无码| 亚洲激情av在线| 一本色道久久综合无码人妻| 亚洲欧美日韩国产成人| 韩日毛片在线观看| 翡翠波斯猫1977年美国| 97国产成人高清在线观看| 男人的天堂日韩| 久久久精品免费网站| 日韩视频在线观看一区| 亚洲白拍色综合图区| 宅男网站在线免费观看| 国产欧美一区二区白浆黑人| 精品一区在线| 欧美日韩中文在线视频| 99精品1区2区| 久久久久久久久久影院| 精品第一国产综合精品aⅴ| 青青青国内视频在线观看软件| 91在线高清视频| 一区二区三区毛片免费| 午夜大片在线观看| 亚洲欧美综合色| 国产精品一区二区三区在线免费观看| 在线观看不卡av| 亚洲精品66| 日本特级黄色大片| 国产精品一二二区| 久久免费在线观看视频| 精品乱人伦小说| av影院在线免费观看| 加勒比在线一区二区三区观看| 一区二区福利| a级片在线观看| 欧美视频一区二区三区四区| 337p日本欧洲亚洲大胆鲁鲁| 国产精品最新在线观看| 97精品一区二区| 国产无套精品一区二区三区| 亚洲综合在线第一页| 人妻无码中文字幕免费视频蜜桃| 9.1国产丝袜在线观看| 美日韩中文字幕| av中文字幕网址| 亚洲午夜久久久久久久久电影院| 日本wwwxxxx| 国产精品96久久久久久| 久久国产小视频| 美国黄色一级视频| 一本一本大道香蕉久在线精品| 国产视频精选在线| 成人激情av在线| 精品999网站| 久久只有这里有精品| 欧美三级一区二区| 2024最新电影在线免费观看| 精品亚洲欧美日韩| 免费欧美日韩国产三级电影| 一区视频免费观看| 日韩精品视频免费在线观看| 国产91亚洲精品久久久| 屁屁影院ccyy国产第一页| 26uuu精品一区二区在线观看| 一级黄色在线观看| 欧美成人激情视频| 性欧美lx╳lx╳| 亚洲一区精品视频在线观看| 亚洲成人免费影院| 老司机福利在线视频| 高清免费日韩| 日本不卡一区二区三区高清视频| 国产精品 欧美激情| 亚洲欧洲在线免费| 麻豆精品一区| 国产精彩免费视频| 亚洲午夜激情网站| 在线国产91| 免费久久久一本精品久久区| 国产一区二区三区蝌蚪| 中文字幕精品无码一区二区| 久热精品在线视频| 成人av国产| 特大黑人巨人吊xxxx| 欧美一二三区精品| 91精品店在线|