精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大模型體驗之Qwen2模型 原創

發布于 2024-12-5 11:08
瀏覽
0收藏

前言

在上一章【??大模型的三大架構及T5體驗??】中,我們體驗了Encoder-Decoder架構的T5模型。本章內容,我們將以Decoder-Only架構的Qwen模型入手,了解Qwen模型結構、聊天模板的概念以及通過大模型進行翻譯、信息抽取等任務的嘗試。

模型選擇

訪問ModelScope官網,在模型庫搜索??Qwen2??。

大模型體驗之Qwen2模型-AI.x社區

補充說明:

  • Qwen2-7B是一個通用的Base模型。
    Qwen2-7B-Instruct是經過監督微調SFT的模型,在處理指令時的表現通常會更好。

Qwen模型簡介

Qwen2是Qwen大型語言模型的新系列,基于LLaMA架構,由Qwen團隊進行訓練。

  • 參數規模:Qwen2系列模型的參數范圍從0.5億到72億,Qwen2-7B對應是70億參數規模。
  • 上下文長度:Qwen2-7B-Instruct支持最長達131,072個標記的上下文長度,能夠處理大量輸入。
  • 應用場景:Qwen2模型可應用于多種自然語言處理任務,包括語言理解、語言生成、多語言能力、編碼、數學推理等。
  • 開源情況:Qwen2模型是開源的,Github地址:https://github.com/QwenLM/Qwen2
  • 技術博客:https://qwenlm.github.io/blog/qwen2/
  • 技術文檔:https://qwen.readthedocs.io/en/latest/

模型下載

第一步:啟動ModelScope平臺的PAI-DSW的GPU環境

第二步:在終端中,輸入以下命令進行模型下載:

git clone https://www.modelscope.cn/qwen/qwen2-7b-instruct.git

Qwen2模型目錄簡介

qwen2-7b-instruct/
│
├──.gitattributes                     # Git屬性文件,用于配置Git的行為。
│
├── config.json                        # 模型配置文件,包含模型的基本參數和設置。
│
├── configuration.json                 # 系統初始化配置文件,定義系統啟動時的配置。
│
├── generation_config.json             # 生成配置文件,包含文本生成時的參數設置。
│
├── LICENSE                            # 許可證文件,說明模型的使用條款和條件。
│
├── merges.txt                         # 詞匯合并文件,通常用于處理子詞分割。
│
├── model-00001-of-00004.safetensors# 模型權重文件(第1部分),使用Safetensors格式存儲。
├── model-00002-of-00004.safetensors# 模型權重文件(第2部分),使用Safetensors格式存儲。
├── model-00003-of-00004.safetensors# 模型權重文件(第3部分),使用Safetensors格式存儲。
├── model-00004-of-00004.safetensors# 模型權重文件(第4部分),使用Safetensors格式存儲。
│
├── model.safetensors.index.json       # 模型索引文件,包含模型權重的索引信息。
│
├── README.md                          # 項目說明文件,提供模型的使用說明和相關信息。
│
├── tokenizer.json                     # 分詞器配置文件,定義分詞器的參數和設置。
│
├── tokenizer_config.json              # 分詞器初始化配置文件,包含分詞器的啟動配置。
│
└── vocab.json                         # 詞匯表文件,列出模型可識別的所有詞匯。

模型使用

第一步:創建Jupyter Notebook文件

在與qwen2-7b-instruct同一目錄下,新建Jupyter Notebook文件,命名為qwen2測試.ipynb

workspace/
├── qwen2-7b-instruct/  
├── qwen2測試.ipynb

第二步:運行測試代碼 在qwen2測試.ipynb中,輸入以下代碼:

# 導入依賴組件
from modelscope importAutoModelForCausalLM
from modelscope importAutoTokenizer

# 判斷設備
device ="cuda"# the device to load the model onto

# 模型ID,對應git clone的模型文件夾名稱
model_id ="qwen2-7b-instruct"


# 加載模型
model =AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype="auto",
    device_map="auto"
)

# 加載分詞器
tokenizer =AutoTokenizer.from_pretrained(model_id)

# 準備提示詞
messages =[
{"role":"system","content":"""
            You are a helpful assistant.
            """},
{"role":"user","content":"""
            中華人民共和國的首都是哪里?
    """}
]

# 應用聊天模板
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)

# 輸入內容轉ID
model_inputs = tokenizer([text], return_tensors="pt").to(device)

# 模型預測
generated_ids = model.generate(
    model_inputs.input_ids,
    max_new_tokens=512
)

# 刪除問句信息
generated_ids =[
    output_ids[len(input_ids):]for input_ids, output_ids inzip(model_inputs.input_ids, generated_ids)
]

# 翻譯答案
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

# 輸出結果
print(response)

運行結果:

大模型體驗之Qwen2模型-AI.x社區

代碼理解

導入依賴及初始化部分

# 導入依賴組件
from modelscope import AutoModelForCausalLM
from modelscope import AutoTokenizer

# 判斷設備
device = "cuda" # the device to load the model onto

# 模型ID,對應git clone的模型文件夾名稱
model_id = "qwen2-7b-instruct"

上述的model_id對應本地下載的模型文件夾名稱,特別注意文件名及大小寫保持一致。

模型結構

在Jupyter Notebook中打印??model??的模型結構,得到如下內容:

Qwen2ForCausalLM(
(model):Qwen2Model(
(embed_tokens):Embedding(152064,3584)
(layers):ModuleList(
(0-27):28 x Qwen2DecoderLayer(
(self_attn):Qwen2SdpaAttention(
(q_proj):Linear(in_features=3584, out_features=3584, bias=True)
(k_proj):Linear(in_features=3584, out_features=512, bias=True)
(v_proj):Linear(in_features=3584, out_features=512, bias=True)
(o_proj):Linear(in_features=3584, out_features=3584, bias=False)
(rotary_emb):Qwen2RotaryEmbedding()
)
(mlp):Qwen2MLP(
(gate_proj):Linear(in_features=3584, out_features=18944, bias=False)
(up_proj):Linear(in_features=3584, out_features=18944, bias=False)
(down_proj):Linear(in_features=18944, out_features=3584, bias=False)
(act_fn):SiLU()
)
(input_layernorm):Qwen2RMSNorm()
(post_attention_layernorm):Qwen2RMSNorm()
)
)
(norm):Qwen2RMSNorm()
)
(lm_head):Linear(in_features=3584, out_features=152064, bias=False)
)
  • Qwen2ForCausalLM 是一個Decoder-Only結構模型。
  • ??embed_tokens?? 對應輸出層的上文處理外掛部分。
  • ??layers?? 對應Decoder部分,由28個Qwen2DecoderLayer構成。

??self_attn?? 對應mask自注意力機制部分。由于Decoder-Only結構,所以該模型沒有融合注意力機制部分。

??mlp??:多層感知機結構

  • ??lm_head??:對應全鏈接輸出層,負責將模型的輸出映射到詞匯表的維度。

分詞器tokenizer

在Jupyter Notebook中打印??model??的模型結構,得到如下內容:

Qwen2TokenizerFast(name_or_path='qwen2-7b-instruct', vocab_size=151643,
        model_max_length=131072, is_fast=True, padding_side='right',
        truncation_side='right',
        special_tokens={
'eos_token':'<|im_end|>',
'pad_token':'<|endoftext|>',
'additional_special_tokens':['<|im_start|>','<|im_end|>']},
            clean_up_tokenization_spaces=False),
            added_tokens_decoder={
151643:AddedToken("<|endoftext|>", rstrip=False, lstrip=False, single_word=False, normalized=False, special=True),
151644:AddedToken("<|im_start|>", rstrip=False, lstrip=False, single_word=False, normalized=False, special=True),
151645:AddedToken("<|im_end|>", rstrip=False, lstrip=False, single_word=False, normalized=False, special=True),
}
  • ??vocab_size??:詞匯表包含151,643個詞匯。
  • ??model_max_length??:支持的最大輸入長度為131,072個token。
  • 特殊標記有:

??<|im_start|>??: 表示開始一個對話。

??<|im_end|>??: 表示結束一個對話。

??|endoftext|??: 表示文本結束。

查看參數量

total_params = sum(p.numel() for p in model.parameters())
print(f"模型參數總量: {total_params}")

# 運行結果:
# 模型參數總量: 7615616512

使用上述測試可以查看模型的參數量,對應為76億。

message

messages = [
    {"role": "system", "content": """
            You are a helpful assistant.
            """},
    {"role": "user", "content": """
            中華人民共和國的首都是哪里?
    """}
]
  • ??messages?? 是一個包含對話信息的列表。
  • 每個消息都有一個??role?? 字段,表示消息的發送者角色。常見的角色有:

??"system"??:系統角色,用于設置助手的行為或提供上下文信息。

??"user"??:用戶角色,表示提問或請求的內容。

  • 每個消息都有一個??content?? 字段,包含具體的文本內容。這個字段存儲了角色所傳達的信息。

聊天模板

在Jupyter Notebook中打印??text??,得到如下內容:

'<|im_start|>system\n\n   
You are a helpful assistant.\n   
<|im_end|>\n<|im_start|>user\n\n   
中華人民共和國的首都是哪里?\n    
<|im_end|>\n<|im_start|>assistant\n'
  • ? 以上內容即傳入給模型的上文內容,然后由大模型進行自回歸式補全,其原理與【課程總結】day21(上):Transformer源碼深入理解之預測過程類似

模型輸出

在Jupyter Notebook中,使用以下測試代碼,可以看到模型輸出的原始內容。

# 模型預測
generated_ids = model.generate(
    model_inputs.input_ids,
    max_new_tokens=512
)

# 刪除問句信息
# generated_ids = [
#     output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
# ]

# 翻譯答案
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=False)[0]

# 輸出結果
print(response)

輸出結果:

<|im_start|>system

            You are a helpful assistant.
            <|im_end|>
<|im_start|>user

            中華人民共和國的首都是哪里?
    <|im_end|>
<|im_start|>assistant
中華人民共和國的首都是北京。<|im_end|>
  • 將??skip_special_tokens?? 設置為False,可以輸出完整的對話內容。如果改為True,則輸出內容會去掉im_start等特殊字符。

streamlit調用模型

為了便于修改message的內容,接下來我們通過streamlit搭建一個簡易的調用Qwen2的頁面,來測試模型的不同任務勝任能力。

安裝streamlit

pip install streamlit

下載模型

實測Qwen2-7B模型在魔搭社區GPU環境上運行會因為顯存不足,導致無法有效運行,所以這里我們選擇使用Qwen2-0.5B-Instruction模型。

git clone https://www.modelscope.cn/qwen/Qwen2-0.5B-Instruct.git

創建代碼

創建app.py文件,代碼內容如下:

import streamlit as st
from modelscope importAutoModelForCausalLM,AutoTokenizer
import torch

# 判斷設備
device ="cuda"if torch.cuda.is_available()else"cpu"

# 模型ID
model_id ="Qwen2-0.5B-Instruct"

# 加載模型
model =AutoModelForCausalLM.from_pretrained(model_id).to(device)

tokenizer =AutoTokenizer.from_pretrained(model_id)

# Streamlit 頁面標題
st.title("聊天助手")

# 輸入系統內容
system_content = st.text_area("輸入系統內容","You are a helpful assistant.")

# 輸入用戶內容
user_content = st.text_area("輸入用戶內容","中華人民共和國的首都是哪里?")

# 提交按鈕
if st.button("獲取回答"):
# 準備提示詞
    messages =[
{"role":"system","content": system_content},
{"role":"user","content": user_content}
]

# 應用聊天模板
    text = tokenizer.apply_chat_template(
        messages,
        tokenize=False,
        add_generation_prompt=True
)

# 輸入內容轉ID
    model_inputs = tokenizer([text], return_tensors="pt").to(device)

# 模型預測
    generated_ids = model.generate(
        model_inputs.input_ids,
        max_new_tokens=512
)

# 刪除問句信息
    generated_ids =[
        output_ids[len(input_ids):]for input_ids, output_ids inzip(model_inputs.input_ids, generated_ids)
]

# 翻譯答案
    response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

# 輸出結果
    st.subheader("模型回答")
    st.write(response)

運行代碼

在終端中運行以下命令

streamlit run app.py

啟動后點擊??Local URL: http://localhost:8501?? 得到如下效果:

大模型體驗之Qwen2模型-AI.x社區

特別說明:在使用streamlit啟動頁面前,請在終端命令行中使用 ??nvidia-smi?? 查看顯存的釋放情況;如果顯存未釋放,建議在Jupyter Notebook中Shutdown Kernel以便釋放顯存。

大模型能力

大模型有著非常強的能力,通過修改system和user中的內容,可以勝任不同的任務。

翻譯任務

在streamlit頁面中編輯框中輸入對應內容:

  • 系統內容:??你是一個翻譯助手,請將輸入的文本翻譯成英文。??
  • 用戶內容:??中國隊在巴黎奧運會中取得了11金7銀6銅的成績,?位列獎牌榜首位。???

運行結果:

大模型體驗之Qwen2模型-AI.x社區

情感識別任務

  • 系統內容:??你是一個情感識別機器人,請將用戶的輸入做情感分類。
      如果是正面的情感,請輸出:正面
      如果是負面的情感,請輸出:負面
      如果是中性的情感,請輸出:中性?
    ?
  • 用戶內容:??送餐快,態度也特別好,辛苦啦謝謝??

運行結果:

大模型體驗之Qwen2模型-AI.x社區

說明:

  • 大模型的能力確實很強,分類效果遠遠好于之前的機器學習模型。

信息提取任務

  • 系統內容:??你是一個信息抽取機器人,請從用戶的投訴中抽取核心信息,輸出格式請參考:
    {
    'name':'投訴人的姓名',
    ‘phone’:'投訴人的電話號碼',
    'reason':'投訴原因',
    'appeal':'投訴人期望的解決辦法',
    },
    請意:務必嚴格按照用戶輸入來抽取信息,切記隨意捏造答案!如果沒有相關的信息,請直接把該字段賦值為"不知道"。?
    ?
  • 用戶內容:??我是樓下的小李子,家里快遞丟了3天了,給你們打電話也打不通!趕緊處理!否則,我要給撥打市長熱線了。??運行結果:
  • 大模型體驗之Qwen2模型-AI.x社區

閱讀理解任務

  • 系統內容:??你是一個閱讀理解機器人,請認真閱讀用戶的輸入內容,嚴格根據文章的內容來回答用戶的問題。
    注意:如果文章中沒有出現相關問題的答案,請直接回答"不知道"。?
    ?
  • 用戶內容:??諸葛亮(181年—234年10月8日),字孔明,號臥龍,瑯琊陽都(今山東省沂南縣)人 [126],三國時期蜀漢丞相,中國古代杰出的政治家、軍事家、戰略家 [256]、發明家、文學家。 [164]
    諸葛亮早年隨叔父諸葛玄到荊州,諸葛玄死后,諸葛亮躬耕于南陽。 [1-4]劉備依附荊州劉表時三顧茅廬,諸葛亮向劉備提出占據荊州、益州,聯合孫權共同對抗曹操的《隆中對》,劉備根據諸葛亮的策略,成功占領荊州、益州之地,與孫權、曹操形成三足鼎立之勢。章武元年(221年),劉備稱帝,任命諸葛亮為丞相。劉備伐吳于夷陵之戰失敗后,劉備于永安托孤于諸葛亮。劉禪繼位后,封諸葛亮為武鄉侯,領益州牧。諸葛亮勤勉謹慎,大小政事必親自處理,賞罰嚴明;與東吳聯盟,改善和西南各族的關系;實行屯田政策,加強戰備。諸葛亮前后五次北伐中原,但未能實現興復漢室的目標。終因積勞成疾,于建興十二年(234年)病逝于五丈原(今陜西省寶雞市岐山境內),享年五十四歲 [5]。后主劉禪追謚為忠武侯,后世常以“武侯”尊稱。東晉桓溫追封為“武興王”。 [6]
    諸葛亮散文代表作有《出師表》《誡子書》等。曾發明木牛流馬、孔明燈等,并改造連弩,叫作諸葛連弩,可一弩十矢俱發。 [162]諸葛亮一生“鞠躬盡瘁,死而后已”,是中國傳統文化中“忠臣”與“智者”的代表人物。
    諸葛亮的注明著作是什么??
    ?

運行結果:

大模型體驗之Qwen2模型-AI.x社區

文本摘要任務

  • 系統內容:??你是一個文本摘要機器人,請將用戶輸入的文章輸出摘要,要求100字以內。??
  • 用戶內容:??魯迅(1881年9月25日—1936年10月19日),原名周樟壽,后改名周樹人,字豫山,后改字豫才,浙江紹興人。中國著名文學家、思想家、革命家、教育家、美術家、書法家、民主戰士,新文化運動的重要參與者,中國現代文學的奠基人之一。 [181-185]
    他早年與厲綏之和錢均夫同赴日本公費留學,于日本仙臺醫科專門學校肄業。 [172] [180]“魯迅”,是他在1918年發表《狂人日記》時所用的筆名,也是最為廣泛的筆名。 [1-6]
    魯迅一生在文學創作、文學批評、思想研究、文學史研究、翻譯、美術理論引進、基礎科學介紹和古籍校勘與研究等多個領域具有重大貢獻。他對于五四運動以后的中國社會思想文化發展具有重大影響,蜚聲世界文壇,尤其在韓國、日本思想文化領域有極其重要的地位和影響,被譽為“二十世紀東亞文化地圖上占最大領土的作家”。?
    ?運行結果:
  • 大模型體驗之Qwen2模型-AI.x社區

回想2019年在搜狗時,參加了一年一度的《黑客馬拉松大賽》,其中我們小組的主題就是進行文本摘要提取。當時只是使用word2vec詞向量提取后進行機器學習,雖然創意較好,但是效果并不理想。如今對比大模型的效果,真是感慨技術進步之快。

少樣本學習推理任務

  • 系統內容:??請學習下面用戶給定的樣本,據此做出相關的推理:
      {'input':'北京', 'output':'北京烤鴨'}
      {'input':'山西', 'output':'肉夾饃'}?
    ?
  • 用戶內容:??  蘭州??運行結果:
  • 大模型體驗之Qwen2模型-AI.x社區

內容小結

  • Qwen系列模型是Decoder-Only模型,其中Qwen2-7B-Instruct是經過監督微調SFT的模型,參數支持70億。
  • Qwen模型可以支持多種任務,如:翻譯任務、信息提取、情感識別、文本摘要、少樣本學習推理任務等。

?

本文轉載自公眾號一起AI技術 作者:熱情的Dongming

原文鏈接:??https://mp.weixin.qq.com/s/Km3UBe7YNaePeRDkPpHKSA??

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
国产粉嫩在线观看| 亚洲精品成人电影| 第一社区sis001原创亚洲| 在线视频一区二区免费| 在线看无码的免费网站| 高h调教冰块play男男双性文| 国产在线不卡| 亚洲男人的天堂在线播放| 黄色一级免费大片| 在线网址91| 久久五月婷婷丁香社区| 91久久在线视频| 日产精品久久久久久久| 欧美一区二区三区高清视频| 日韩欧美一区二区视频| 成人一级片网站| 污污的网站在线免费观看| 91网站在线观看视频| 国产精品一区二区在线| 日产电影一区二区三区| 色琪琪久久se色| 日韩av在线最新| 国产美女18xxxx免费视频| 国内在线免费视频| 自拍偷拍国产精品| 欧美久久在线| 亚洲爱情岛论坛永久| 日韩精品乱码av一区二区| 欧美日韩国产成人高清视频| 国产美女免费网站| 精品伊人久久久| 欧美一区二区三区日韩视频| 超碰97人人射妻| 97超碰在线免费| 亚洲桃色在线一区| 日韩欧美亚洲在线| 天堂av一区二区三区| 国产综合色视频| 国产精品久久久久久av福利软件| 国产一级视频在线| 欧美二区不卡| 久久黄色av网站| 青青草自拍偷拍| 中文字幕伦av一区二区邻居| 精品国产sm最大网站| 欧美精品色视频| 久久精品 人人爱| 在线视频一区二区三| 国产性xxxx18免费观看视频| av资源一区| 亚洲综合丁香婷婷六月香| 一本一本久久a久久精品综合妖精| 午夜福利一区二区三区| 成熟亚洲日本毛茸茸凸凹| 亚洲已满18点击进入在线看片| 亚洲综合成人av| 日本在线播放一区二区三区| 国产va免费精品高清在线观看| 91porny在线| 最新亚洲一区| 97在线免费观看视频| 久久久久亚洲AV| 欧美日本中文| 欧美激情性做爰免费视频| 美女福利视频在线观看| 91精品啪在线观看国产18| 按摩亚洲人久久| 欧美第一页在线观看| 久久久久美女| 欧美成人免费全部| 久久久久久久久久一区二区三区 | 欧美日韩三级一区| 91香蕉视频污版| 日韩五码电影| 日韩三区在线观看| 五月天丁香社区| 欧美wwwsss9999| 国产一区二区av| 国产精品麻豆免费版现看视频| 久久裸体网站| 久久国产加勒比精品无码| 日本老熟俱乐部h0930| 亚洲国产免费看| 91av在线精品| 999视频在线| 九九九久久久精品| aa成人免费视频| 青青草在线视频免费观看| 国产欧美一区二区三区沐欲| 国产奶头好大揉着好爽视频| 精精国产xxxx视频在线中文版 | 在线看成人av电影| 日本电影在线观看| 欧美性猛交视频| www.com久久久| 澳门久久精品| 亚洲一级黄色av| 顶臀精品视频www| 国产精品一二| 成人激情综合网| 欧美一级淫片aaaaaa| 久久久www成人免费毛片麻豆| 日韩欧美精品在线不卡| 羞羞的视频在线观看| 午夜电影一区二区三区| www.精品在线| 欧美调教视频| 久久久91精品| 国产超碰人人爽人人做人人爱| 日本91福利区| 国产免费一区二区三区| 午夜老司机在线观看| 亚洲在线观看免费视频| 久久久久久久少妇| 成人激情自拍| 久久精品国产91精品亚洲| 亚洲国产精品午夜在线观看| 日本特黄久久久高潮| 国产精品区一区二区三含羞草| a中文在线播放| 午夜欧美视频在线观看| www.cao超碰| 久久91麻豆精品一区| 欧美日韩不卡合集视频| 天天天天天天天干| 99精品一区二区| 嫩草影院中文字幕| 色999久久久精品人人澡69| 亚洲精品在线观看网站| 国产精品视频一区二区在线观看| 99亚洲一区二区| 97人人模人人爽视频一区二区 | 久久精品国产一区二区三区| 国产成人在线免费观看视频| 国产盗摄女厕一区二区三区| 亚洲国产欧美不卡在线观看 | 国产精品午夜一区二区欲梦| 少妇av在线播放| 亚洲综合999| 黄色三级视频在线播放| 日本欧美视频| 国产福利视频一区二区| 天天摸夜夜添狠狠添婷婷| 亚洲精品欧美二区三区中文字幕| 干日本少妇首页| 久久九九热re6这里有精品 | 日韩欧美中文字幕公布| 国产精品久久国产精麻豆96堂| 久久久久综合| 欧美二区三区| 唐人社导航福利精品| 日韩精品中文字| 国产成人无码精品久久久久| 成人国产亚洲欧美成人综合网| 欧美大黑帍在线播放| 日本免费精品| 欧美精品在线视频观看| www.成人精品| 亚洲一区二区三区免费视频| 69久久精品无码一区二区| 91精品1区| 亚洲最大的av网站| 色婷婷av在线| 亚洲成人网在线| 日韩免费视频网站| 久久综合久久鬼色中文字| 99爱视频在线| 国产一区二区三区四区大秀| 国产精品久久99久久| 高清在线观看av| 欧美日韩精品高清| 乱h高h女3p含苞待放| 国产福利一区二区| 亚洲国产精品无码观看久久| 久久九九热re6这里有精品| 538国产精品视频一区二区| 色综合888| 欧美色电影在线| 加勒比婷婷色综合久久| 东方欧美亚洲色图在线| 国产精品后入内射日本在线观看| 婷婷综合一区| 国产精品视频999| h网站久久久| 亚洲精品videossex少妇| 精品黑人一区二区三区| 国产精品久久三| 麻豆网站免费观看| 一区视频在线看| 色播亚洲视频在线观看| 亚洲热av色在线播放| 欧美激情手机在线视频| 免费国产在线观看| 91麻豆精品国产91久久久久| 日本少妇在线观看| 欧美国产一区二区| 国产乱国产乱老熟300部视频| 欧美一级播放| 综合久久国产| 偷窥自拍亚洲色图精选| 亚洲一区二区在线播放| 成人午夜视屏| 欧美老少配视频| 久久电影中文字幕| 日韩一区二区不卡| 欧美一区二区三区网站| 亚洲欧美偷拍三级| 成人免费毛片糖心| 国产成人av电影在线播放| 成人在线观看黄| 欧美午夜在线视频| 日本一区二区三区视频免费看| 日韩精品中文字幕一区二区| 国产精品第二页| av福利在线导航| 久久久精品国产亚洲| 日色在线视频| 欧美精品一区二区三区一线天视频| 波多野结衣网站| 欧美日韩精品在线视频| 欧美 日韩 国产 一区二区三区| 久久免费精品国产久精品久久久久| 1314成人网| 捆绑调教美女网站视频一区| 国产免费观看高清视频| 中文字幕一区二区精品区| 免费中文日韩| 国产suv精品一区| 亚洲专区国产精品| 精品176极品一区| 日韩免费在线观看视频| 黄色漫画在线免费看| 精品中文字幕在线| 国产欧美久久久久久久久| 亚洲日本中文字幕| 污视频网站在线播放| 日韩欧美一区二区视频| 国产女人高潮的av毛片| 欧美久久久久久久久久| 中文字字幕在线观看| 色狠狠色狠狠综合| 一级片视频在线观看| 亚洲成人av中文| 一区二区三区免费高清视频 | 亚洲aⅴ天堂av在线电影软件| 久久夜色精品国产噜噜av小说| 91精品国产高清久久久久久91裸体| 国产精品伦一区二区| 国产精品video| www.精品| 国产精品av免费在线观看| 神马电影网我不卡| 国产精品久久久久影院日本| 成人va天堂| 国产精品久久久久久婷婷天堂 | 一本色道综合亚洲| 天天操夜夜操视频| 一本大道久久a久久精品综合| www毛片com| 欧美在线免费播放| wwwwww在线观看| 欧美精品 国产精品| 国产精品国产一区二区三区四区 | 超碰在线播放91| 免费在线欧美视频| 欧美午夜精品理论片| 国产另类ts人妖一区二区| 国产裸体视频网站| 波波电影院一区二区三区| 好吊色视频一区二区三区| 99国产麻豆精品| 成人激情五月天| 日韩一区中文字幕| 免费在线视频观看| 精品久久久久久久久久| 国产寡妇亲子伦一区二区三区四区| 日本韩国精品在线| 6—12呦国产精品| 精品久久久久久久久久久久久久久| 日韩中文字幕影院| 亚洲男人天堂九九视频| 91大神在线网站| 欧美大片免费观看在线观看网站推荐| 丁香花电影在线观看完整版| 欧洲亚洲妇女av| 精品久久在线| 国产精品久久久久久久小唯西川| 日韩手机在线| 一区二区三区电影| 激情久久久久| 欧美三级理论片| 粉嫩一区二区三区性色av| 风间由美一二三区av片| 中文字幕一区av| 日韩黄色三级视频| 欧美主播一区二区三区| 精品人妻伦一区二区三区久久| 国产偷国产偷亚洲清高网站| 日本在线视频网| 亚州国产精品久久久| xxxxx.日韩| 国产伦精品一区二区三区在线| 教室别恋欧美无删减版| 800av在线免费观看| 日本午夜一本久久久综合| 无码成人精品区在线观看| 欧美激情中文字幕| 日本少妇毛茸茸高潮| 欧美一区二区在线观看| 欧美精品久久久久久久久久丰满| 久久天天躁狠狠躁夜夜躁2014| 忘忧草在线日韩www影院| 95av在线视频| 欧美一二区在线观看| 国产av麻豆mag剧集| 精品一区免费av| 人妻丰满熟妇aⅴ无码| 亚洲伦在线观看| 欧美brazzers| 精品国产自在久精品国产| 欧美成人精品一区二区男人看| 热99久久精品| 久久亚洲黄色| www.av蜜桃| 国产久卡久卡久卡久卡视频精品| 一级片久久久久| 欧美日韩免费在线| 好吊色视频一区二区| 久久影视免费观看| 欧美日韩免费电影| 午夜精品一区二区在线观看 | 猛男gaygay欧美视频| 欧美日韩不卡在线视频| 国产成人在线看| 黄色片子在线观看| 欧美色男人天堂| 成人av一区| 国产精品扒开腿做| 伊人久久大香线蕉| 久久9精品区-无套内射无码| 成人听书哪个软件好| 国产真人真事毛片| 日韩限制级电影在线观看| www在线免费观看视频| 亚洲a级在线观看| 天天射—综合中文网| 色一情一区二区三区| 日韩毛片精品高清免费| 国产美女精品视频国产| 日韩在线观看免费av| 日韩一区中文| 可以免费看的黄色网址| 国产综合久久久久影院| 亚洲熟女www一区二区三区| 欧美顶级少妇做爰| a在线免费观看| 99re6在线| 一区视频在线| 国产高清自拍视频| 狠狠躁夜夜躁人人爽超碰91| 五月激情婷婷网| 日韩**中文字幕毛片| 欧美久久精品一级c片| 污片在线免费看| 亚洲天堂网中文字| 丰满人妻一区二区三区无码av | 亚洲一二三区精品| 久久精品久久精品| 国产探花在线免费观看| 欧美va天堂va视频va在线| 99久久精品免费看国产小宝寻花| 精品免费二区三区三区高中清不卡| 新狼窝色av性久久久久久| 一区二区三区久久久久| 欧美日韩午夜影院| 成人福利片网站| 国产一区二区无遮挡| 老司机久久99久久精品播放免费| 国产精品酒店视频| 日韩欧美视频一区| 不卡一二三区| 一级黄色免费在线观看| 成人网在线播放| 天天干天天色综合| 久久综合88中文色鬼| 久久视频在线观看| 亚洲 欧美 另类人妖| 一区二区欧美精品| 男操女在线观看| 91沈先生作品| 国产日韩1区| 69夜色精品国产69乱| 精品国产自在久精品国产| 欧美性xxx| 韩国无码av片在线观看网站| 久久女同互慰一区二区三区| 精品久久无码中文字幕| 青青草99啪国产免费| 欧美在线黄色| 人人人妻人人澡人人爽欧美一区|