精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大語言模型量化方法對(duì)比:GPTQ、GGUF、AWQ

人工智能
在過去的一年里,大型語言模型(llm)有了飛速的發(fā)展,在本文中,我們將探討幾種(量化)的方式,除此以外,還會(huì)介紹分片及不同的保存和壓縮策略。

在過去的一年里,大型語言模型(llm)有了飛速的發(fā)展,在本文中,我們將探討幾種(量化)的方式,除此以外,還會(huì)介紹分片及不同的保存和壓縮策略。

說明:每次加載LLM示例后,建議清除緩存,以防止出現(xiàn)OutOfMemory錯(cuò)誤。

del model, tokenizer, pipe
 
 import torch
 torch.cuda.empty_cache()

如果在jupyter中無法釋放顯存,請(qǐng)重啟這個(gè)jupyter notebook。

模型加載

加載LLM的最直接、最普通的方式是通過??Transformers。HuggingFace已經(jīng)創(chuàng)建了一個(gè)套件,我們能夠直接使用

pip install git+https://github.com/huggingface/transformers.git
 pip install accelerate bitsandbytes xformers

安裝完成后,我們可以使用以下管道輕松加載LLM:

from torch import bfloat16
 from transformers import pipeline
 
 # Load in your LLM without any compression tricks
 pipe = pipeline(
    "text-generation", 
    model="HuggingFaceH4/zephyr-7b-beta", 
    torch_dtype=bfloat16, 
    device_map="auto"
 )

我們這里使用zephyr-7b-beta作為示例

這種加載LLM的方法通常不會(huì)執(zhí)行任何壓縮技巧。我們來做個(gè)使用的示例

messages = [
    {
        "role": "system",
        "content": "You are a friendly chatbot.",
    },
    {
        "role": "user", 
        "content": "Tell me a funny joke about Large Language Models."
    },
 ]
 prompt = pipe.tokenizer.apply_chat_template(
    messages, 
    tokenize=False, 
    add_generation_prompt=True
 )

使用內(nèi)部提示模板生成的提示是這樣構(gòu)造的:

然后,我們可將提示傳遞給LLM來生成答案:

outputs = pipe(
    prompt, 
    max_new_tokens=256, 
    do_sample=True, 
    temperature=0.1, 
    top_p=0.95
 )
 print(outputs[0]["generated_text"])

這是一個(gè)最直接的使用流程,但是對(duì)于純推理,這種方法效率是最低的,因?yàn)樵跊]有任何壓縮或量化策略的情況下加載整個(gè)模型。

分片

在我們進(jìn)入量化策略之前,我們先介紹一個(gè)前置的方法:分片。通過分片可以將模型分割成小塊,每個(gè)分片包含模型的較小部分,通過在不同設(shè)備上分配模型權(quán)重來解決GPU內(nèi)存限制。

雖然它沒有任何的壓縮和量化,但是這種方法算是一個(gè)最簡單的加載大模型的方案。

比如Zephyr-7B-β,實(shí)際上已經(jīng)分片了!如果進(jìn)入模型并點(diǎn)擊“Files and versions”鏈接,可以看到模型被分成了8個(gè)部分。

模型的分片非常簡單,可以直接使用Accelerate 包:

from accelerate import Accelerator
 
 # Shard our model into pieces of 1GB
 accelerator = Accelerator()
 accelerator.save_model(
    model=pipe.model, 
    save_directory="/content/model", 
    max_shard_size="4GB"
 )

這樣將模型分成4GB的分片

量化

大型語言模型由一堆權(quán)重和激活表示。這些值通常由通常的32位浮點(diǎn)(float32)數(shù)據(jù)類型表示。

比特的數(shù)量告訴你它可以表示多少個(gè)值。Float32可以表示1.18e-38和3.4e38之間的值,相當(dāng)多的值!比特?cái)?shù)越少,它能表示的值就越少。

如果我們選擇較低的位大小,那么模型就會(huì)變得不那么準(zhǔn)確,但它表示更少的值,從而降低其大小和內(nèi)存需求。

量化是指將LLM從其原始Float32表示轉(zhuǎn)換為更小的表示。我們不希望簡單地使用較小的位變體,而是希望在不丟失太多信息的情況下將較大的位表示映射到較小的位。

所以一般情況下,我們經(jīng)常使用一種名為4bit-NormalFloat (NF4)的新格式來實(shí)現(xiàn)這一點(diǎn)。這個(gè)數(shù)據(jù)類型做了一些特殊的技巧,以便有效地表示更大的位數(shù)據(jù)類型。它包括三個(gè)步驟:

歸一化:將模型的權(quán)重歸一化,以便我們期望權(quán)重落在一定范圍內(nèi)。這允許更有效地表示更常見的值。

量化:將權(quán)重量化為4位。在NF4中,量化級(jí)別相對(duì)于歸一化權(quán)重是均勻間隔的,從而有效地表示原始的32位權(quán)重。

去量化:雖然權(quán)重以4位存儲(chǔ),但它們?cè)谟?jì)算期間被去量化,從而在推理期間提高性能。

我們可以直接使用Bitsandbytes庫進(jìn)行量化操作:

from transformers import BitsAndBytesConfig
 from torch import bfloat16
 
 # Our 4-bit configuration to load the LLM with less GPU memory
 bnb_config = BitsAndBytesConfig(
    load_in_4bit=True, # 4-bit quantization
    bnb_4bit_quant_type='nf4', # Normalized float 4
    bnb_4bit_use_double_quant=True, # Second quantization after the first
    bnb_4bit_compute_dtype=bfloat16 # Computation type
 )

上面的配置指定要使用的量化級(jí)別。比如4位量化表示權(quán)重,但用16位進(jìn)行推理。

然后在管道中加載模型就很簡單了:

from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
 
 # Zephyr with BitsAndBytes Configuration
 tokenizer = AutoTokenizer.from_pretrained("HuggingFaceH4/zephyr-7b-alpha")
 model = AutoModelForCausalLM.from_pretrained(
    "HuggingFaceH4/zephyr-7b-alpha",
    quantization_cnotallow=bnb_config,
    device_map='auto',
 )
 
 # Create a pipeline
 pipe = pipeline(model=model, tokenizer=tokenizer, task='text-generation')

接下來使用與之前相同的提示:

outputs = pipe(
    prompt, 
    max_new_tokens=256, 
    do_sample=True, 
    temperature=0.7, 
    top_p=0.95
 )
 print(outputs[0]["generated_text"])

量化是一種強(qiáng)大的技術(shù),可以減少模型的內(nèi)存需求,同時(shí)保持性能相似。它允許更快的加載、使用和微調(diào)llm,即使使用較小的gpu。

預(yù)量化(GPTQ、AWQ、GGUF)

我們已經(jīng)探索了分片和量化技術(shù)。但是量化是在每次加載模型時(shí)進(jìn)行的,這是非常耗時(shí)的操作,有沒有辦法直接保存量化后的模型,并且在使用時(shí)直接加載呢?

TheBloke是HuggingFace上的一個(gè)用戶,它為我們執(zhí)行了一系列量化操作,我想用過大模型的人一定對(duì)它非常的熟悉吧

這些量化模型包含了很多格式GPTQ、GGUF和AWQ,我們來進(jìn)行介紹

1、GPTQ: Post-Training Quantization for GPT Models

GPTQ是一種4位量化的訓(xùn)練后量化(PTQ)方法,主要關(guān)注GPU推理和性能。

該方法背后的思想是,嘗試通過最小化該權(quán)重的均方誤差將所有權(quán)重壓縮到4位。在推理過程中,它將動(dòng)態(tài)地將其權(quán)重去量化為float16,以提高性能,同時(shí)保持低內(nèi)存。

我們需要在HuggingFace Transformers中的gptq類模型中加載:

pip install optimum
 pip install auto-gptq --extra-index-url https://huggingface.github.io/autogptq-index/whl/cu118/

然后找到需要加載的模型,比如“TheBloke/zephyr-7B-beta-GPTQ”,進(jìn)行加載

from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
 
 # Load LLM and Tokenizer
 model_id = "TheBloke/zephyr-7B-beta-GPTQ"
 tokenizer = AutoTokenizer.from_pretrained(model_id, use_fast=True)
 model = AutoModelForCausalLM.from_pretrained(
    model_id,
    device_map="auto",
    trust_remote_code=False,
    revisinotallow="main"
 )
 
 # Create a pipeline
 pipe = pipeline(model=model, tokenizer=tokenizer, task='text-generation')

盡管我們安裝了一些額外的依賴項(xiàng),但我們可以使用與之前相同的管道,也就是是不需要修改代碼,這是使用GPTQ的一大好處。

GPTQ是最常用的壓縮方法,因?yàn)樗槍?duì)GPU使用進(jìn)行了優(yōu)化。但是如果你的GPU無法處理如此大的模型,那么從GPTQ開始切換到以cpu為中心的方法(如GGUF)是絕對(duì)值得的。

2、GPT-Generated Unified Format

盡管GPTQ在壓縮方面做得很好,但如果沒有運(yùn)行它的硬件,那么就需要使用其他的方法。

GGUF(以前稱為GGML)是一種量化方法,允許用戶使用CPU來運(yùn)行LLM,但也可以將其某些層加載到GPU以提高速度。

雖然使用CPU進(jìn)行推理通常比使用GPU慢,但對(duì)于那些在CPU或蘋果設(shè)備上運(yùn)行模型的人來說,這是一種非常好的格式。

使用GGUF非常簡單,我們需要先安裝ctransformers包:

pip install ctransformers[cuda]

然后加載模型“TheBloke/zephyr-7B-beta-GGUF”,

from ctransformers import AutoModelForCausalLM
 from transformers import AutoTokenizer, pipeline
 
 # Load LLM and Tokenizer
 # Use `gpu_layers` to specify how many layers will be offloaded to the GPU.
 model = AutoModelForCausalLM.from_pretrained(
    "TheBloke/zephyr-7B-beta-GGUF",
    model_file="zephyr-7b-beta.Q4_K_M.gguf",
    model_type="mistral", gpu_layers=50, hf=True
 )
 tokenizer = AutoTokenizer.from_pretrained(
    "HuggingFaceH4/zephyr-7b-beta", use_fast=True
 )
 
 # Create a pipeline
 pipe = pipeline(model=model, tokenizer=tokenizer, task='text-generation')

加載模型后,我們可以運(yùn)行如下提示:

outputs = pipe(prompt, max_new_tokens=256)
 print(outputs[0]["generated_text"])

如果你想同時(shí)利用CPU和GPU, GGUF是一個(gè)非常好的格式。

3、AWQ: Activation-aware Weight Quantization

除了上面兩種以外,一種新格式是AWQ(激活感知權(quán)重量化),它是一種類似于GPTQ的量化方法。AWQ和GPTQ作為方法有幾個(gè)不同之處,但最重要的是AWQ假設(shè)并非所有權(quán)重對(duì)LLM的性能都同等重要。

也就是說在量化過程中會(huì)跳過一小部分權(quán)重,這有助于減輕量化損失。所以他們的論文提到了與GPTQ相比的可以由顯著加速,同時(shí)保持了相似的,有時(shí)甚至更好的性能。

該方法還是比較新的,還沒有被采用到GPTQ和GGUF的程度。

對(duì)于AWQ,我們將使用vLLM包:

pip install vllm

使用vLLM可以直接加載模型:

from vllm import LLM, SamplingParams
 
 # Load the LLM
 sampling_params = SamplingParams(temperature=0.0, top_p=1.0, max_tokens=256)
 llm = LLM(
    model="TheBloke/zephyr-7B-beta-AWQ", 
    quantizatinotallow='awq', 
    dtype='half', 
    gpu_memory_utilizatinotallow=.95, 
    max_model_len=4096
 )

然后使用.generate運(yùn)行模型:

output = llm.generate(prompt, sampling_params)
 print(output[0].outputs[0].text)

就是這樣。

責(zé)任編輯:華軒 來源: DeepHub IMBA
相關(guān)推薦

2025-11-17 08:00:00

LLMAWQGPTQ

2023-11-27 09:00:00

GPTQ大型語言模型

2025-04-16 02:30:00

2023-04-10 10:32:00

模型排序

2025-09-28 01:55:00

GGUF大模型GPT

2022-08-01 10:15:06

AI模型Meta

2025-03-26 10:57:40

PyTorchGGUF

2025-07-01 07:24:56

2023-07-03 16:15:46

模型訓(xùn)練

2025-08-25 07:00:00

大語言模型LLM人工智能

2023-10-11 09:00:00

2023-12-27 11:31:27

2024-08-05 14:36:17

大型語言模型量化

2024-07-17 09:27:28

2024-01-12 10:29:26

2024-04-26 06:46:27

量化剪枝模型

2025-04-22 08:08:37

2024-04-19 09:37:49

Ollama大語言模型開源

2023-11-27 14:48:34

人工智能深度學(xué)習(xí)大語言模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

一区二区三区波多野结衣在线观看 | 亚洲一区二区三区影院| 91久久精品国产91久久性色tv| 久久黄色免费视频| 妖精视频一区二区三区| 欧美日韩第一区日日骚| 欧美精品久久久久久久久久久| 国产在线一二三| 国产伦精品一区二区三区视频青涩| 国内精品久久久久久| 中文字幕在线看高清电影| 日本免费成人| 欧美日韩国产一区二区三区| 亚洲最大免费| 亚洲色偷精品一区二区三区| 精彩视频一区二区三区| 51视频国产精品一区二区| 婷婷激情四射网| 亚洲区小说区| 精品国产乱码久久久久久蜜臀| 韩国中文字幕av| 国产乱码精品一区二三赶尸艳谈| 国产精品成人免费在线| 日本精品一区二区| 好男人在线视频www| 精品一区二区在线观看| 日本精品va在线观看| 东方av正在进入| 欧美色网址大全| 精品视频久久久| 一二三区视频在线观看| 亚洲综合视频| 欧美亚洲国产一区二区三区va| 2018国产在线| 国内高清免费在线视频| 中文字幕亚洲电影| 欧美日韩电影一区二区| 欧美 中文字幕| 国产成人在线观看| 国产国语videosex另类| 在线观看日本网站| 日韩视频一区| 国内精品久久影院| 国产一级特黄视频| 亚洲一本视频| 久久久久久69| 亚洲精品在线观看av| 欧美激情综合| 欧美高清自拍一区| 欧美极品aaaaabbbbb| 亚洲精品中文字幕乱码| 久久久精品久久久久| 四虎地址8848| 91精品啪在线观看国产18| 色婷婷成人综合| 国产人与禽zoz0性伦| 97人人精品| 久久综合电影一区| 欧美第一页在线观看| 中文字幕免费一区二区三区| 久久亚洲电影天堂| 特级片在线观看| 国产在线日韩| 51精品在线观看| 无码人妻aⅴ一区二区三区有奶水| 国产婷婷精品| 国产z一区二区三区| 中文字幕av第一页| 麻豆成人在线观看| 91亚洲精品丁香在线观看| 亚洲狼人综合网| 99精品欧美一区二区三区综合在线| 国内精品二区| 国产在线视频资源| 亚洲视频在线一区二区| 999久久欧美人妻一区二区| av老司机免费在线| 欧美日韩在线免费观看| 色综合手机在线| 国产一区二区三区黄网站| 精品国产乱码久久久久久影片| 国产精品无码毛片| 第九色区aⅴ天堂久久香| 日韩少妇与小伙激情| 免费在线观看黄色av| 国产精品久久久免费| 国产精品视频自在线| 国产激情无套内精对白视频| 91网址在线看| 一区二区冒白浆视频| 女人黄色免费在线观看| 日韩欧美精品网站| 一级黄色在线播放| 神马午夜久久| 久久久国产精品视频| 亚洲日本韩国在线| 日本午夜精品视频在线观看 | 国产精品黄色在线观看| 大西瓜av在线| h1515四虎成人| 精品久久久久久久久久久久包黑料 | 网友自拍一区| 久久久av一区| 人人草在线观看| 国产成人免费网站| 日韩精品久久久毛片一区二区| 八戒八戒神马在线电影| 日本道在线观看一区二区| 亚洲欧美日韩中文字幕在线观看| 国产精品日韩精品中文字幕| 色综合男人天堂| 亚洲成人av网址| eeuss影院一区二区三区| 亚洲一区二区四区| 黑人巨大亚洲一区二区久| 日韩欧美第一区| 网站永久看片免费| 男人的天堂亚洲在线| 99久久精品免费看国产四区| 69久久夜色| 色婷婷国产精品| 精品人妻伦一二三区久| 亚洲精品一区二区妖精| 国产精品入口免费视频一| 亚洲人成色777777老人头| 亚洲制服欧美中文字幕中文字幕| 久久99爱视频| 精品久久精品| 日本一区二区三区在线播放| 人人妻人人澡人人爽精品日本| 久久一本综合| 久久看人人爽人人| 国产色一区二区三区| 亚洲tv在线| 在线日韩精品视频| 男人天堂2024| 91浏览器在线视频| 日本人体一区二区| 日韩视频1区| 欧美超级乱淫片喷水| 91精东传媒理伦片在线观看| 国产欧美精品一区二区三区四区| 日韩精品视频久久| 欧美freesex8一10精品| 97热精品视频官网| 日本黄色不卡视频| 亚洲国产精品麻豆| 亚洲国产精品第一页| 中文无码久久精品| 亚洲综合社区网| 青青草原av在线| 日韩欧美电影一二三| 国产在线视频第一页| 国产成人aaaa| 欧美 国产 综合| 丝袜久久网站| 日韩av第一页| a√在线中文网新版址在线| 欧美亚州韩日在线看免费版国语版| 国产真实乱人偷精品人妻| 日韩福利电影在线| 亚洲五月六月| 天天干在线播放| 久久中文字幕av| 成人免费看吃奶视频网站| 巨大荫蒂视频欧美另类大| 欧美一级黄色大片| 国产一国产二国产三| 成人黄色av网站在线| 18岁网站在线观看| 欧美自拍偷拍| 成人中心免费视频| 波多野结衣精品| 亚洲国产另类 国产精品国产免费| 日本黄色片视频| 久久久亚洲欧洲日产国码αv| 国产精品人人爽人人爽| 亚洲国产成人精品女人| 国产一区二区自拍| 在线观看精品| 麻豆国产精品va在线观看不卡 | 国产综合久久久久久久久久久久| 99中文字幕在线观看| 国产主播性色av福利精品一区| 欧美在线视频观看| 2017亚洲天堂1024| 精品日韩欧美一区二区| 狠狠人妻久久久久久| 国产精品久久久久三级| 亚洲妇女无套内射精| 性色一区二区| 国产一区一区三区| 欧美黄色网视频| 国产精品中文字幕在线| 久久香蕉一区| 中文字幕亚洲情99在线| 亚洲经典一区二区| 欧美在线视频全部完| 免费中文字幕在线| 国产婷婷色一区二区三区 | 日韩三级网址| 国产精品亚洲美女av网站| av电影免费在线看| 日韩有码在线电影| 日本国产在线| 精品国产凹凸成av人网站| 在线免费观看高清视频| 无吗不卡中文字幕| 国产a免费视频| 国产精品妹子av| 国产精品无码一区二区三区免费 | 91精品国产欧美一区二区18| 日产欧产va高清| 国产精品久久看| 亚洲av成人片色在线观看高潮| 紧缚奴在线一区二区三区| 成人免费无码av| 一区二区久久| 久久99久久久久久| 婷婷另类小说| 亚州欧美一区三区三区在线| 精品中国亚洲| 成人免费在线看片| 在线观看欧美| 国产精品香蕉国产| 天然素人一区二区视频| 91精品国产高清久久久久久91 | 在线成人精品视频| 毛片av一区二区三区| 大肉大捧一进一出好爽动态图| 亚洲第一黄色| 欧美精品卡一卡二| 欧美激情在线| 日韩一级特黄毛片| 综合av在线| 制服诱惑一区| 欧美国产偷国产精品三区| 日韩三级在线播放| 国产成人一区二区三区影院| 九九九久久久| 欧美五码在线| 精品视频一区二区三区四区| 懂色av一区二区| 国产精品免费一区二区三区在线观看 | 蜜桃视频免费观看一区| 粉嫩虎白女毛片人体| 午夜一区不卡| 国产黄色特级片| 视频在线在亚洲| 中文字幕国产传媒| 蜜臀精品一区二区三区在线观看| 中文字幕第36页| 久久精品理论片| 亚洲图色中文字幕| 国产一区视频在线看| 国产精品久久久久久9999| 韩国一区二区三区| 可以看的av网址| 不卡视频免费播放| a毛片毛片av永久免费| 久久久久久免费网| 少妇一级黄色片| 日韩久久一区二区| 久久精品波多野结衣| 亚洲国产综合在线| 亚洲黄色小说图片| 欧美中文字幕久久| 国产精品视频一二区| 欧美精品 国产精品| 国产丰满果冻videossex| 精品国产人成亚洲区| 偷拍自拍在线视频| 夜夜嗨av一区二区三区四区| 日本成人网址| 久久久久成人精品| 欧美momandson| 国产在线视频一区| 在线观看视频一区二区三区| 精品中文字幕一区| 色婷婷亚洲mv天堂mv在影片| 久久亚洲国产成人精品无码区| 亚洲人妖在线| 欧美伦理片在线观看| 成人午夜短视频| 一区二区伦理片| 亚洲欧美激情视频在线观看一区二区三区| 青娱乐免费在线视频| 欧美性猛交xxxx富婆| 97超碰人人草| 国产视频精品xxxx| 伦xxxx在线| 2019中文字幕在线| 北岛玲精品视频在线观看| 精品国产综合| 天天操综合网| 国产免费毛卡片| 激情综合网天天干| 欧美色图亚洲激情| 亚洲欧美偷拍另类a∨色屁股| 欧美三级一区二区三区| 在线成人免费视频| 青青免费在线视频| 色综合男人天堂| 日韩黄色三级在线观看| 久久精品女人的天堂av| 欧美福利视频| 国产一级做a爰片久久| 不卡的av中国片| 在线观看美女av| 色婷婷激情久久| 污视频网站在线播放| 美女黄色丝袜一区| 日韩制服诱惑| 久久这里精品国产99丫e6| 欧美va天堂在线| 亚洲一区二区在线视频观看| 久久一夜天堂av一区二区三区| 欧美成欧美va| 这里只有精品免费| 91美女视频在线| 国产va免费精品高清在线观看| 91蝌蚪精品视频| 日日噜噜夜夜狠狠久久丁香五月| 日本成人中文字幕| 蜜臀av一区二区三区有限公司| 亚洲午夜免费福利视频| 国产农村老头老太视频| 伊人一区二区三区久久精品| 在线视频cao| 狠狠色综合色区| 在线播放亚洲| 久久精品aⅴ无码中文字字幕重口| 国产精品毛片久久久久久久| 波多野结衣大片| 亚洲男人av电影| 97成人资源| 免费精品视频一区| 亚洲永久视频| 丝袜美腿中文字幕| 色婷婷av一区| 国产在线一二三| 国产精品久久久久久超碰| 久久99国产成人小视频| 狠狠爱免费视频| 久久精品一区二区三区四区| 黄色av一级片| 国产午夜精品一区二区三区| 3d性欧美动漫精品xxxx软件| 欧美日韩国产综合在线| 久久电影一区| 国产伦精品一区二区三区视频女| 91久久精品网| 自拍视频在线免费观看| 成人中文字幕+乱码+中文字幕| 自拍日韩欧美| 欧美夫妇交换xxx| 狠狠色狠狠色综合日日小说| 日韩av资源| 国产精品999| 99热在线成人| 下面一进一出好爽视频| 亚洲国产成人av网| 亚洲av成人无码网天堂| 日本精品久久久| 99久久精品国产亚洲精品| 国产精品久久久久久久99| 亚洲一区二区三区免费视频| 好吊色视频一区二区| 日韩免费av一区二区| 日韩av免费大片| 中文字幕无码毛片免费看| 午夜视频一区二区三区| 麻豆国产在线播放| 成人国产精品av| 亚洲婷婷免费| 午夜在线观看一区| 日韩一区二区三区视频在线观看| 日本在线视频www鲁啊鲁| 久久婷婷人人澡人人喊人人爽| 快she精品国产999| 日本精品在线免费观看| 亚洲精品一区二区三区福利| 欧美成人精品一区二区男人小说| 亚洲在线不卡| 成人福利视频在线| 中国黄色一级视频| 欧美大片欧美激情性色a∨久久| 一本色道久久综合狠狠躁的番外| 日本中文字幕影院| 精品久久久久久久久久ntr影视| 国产1区2区3区在线| 99视频国产精品免费观看| 免费永久网站黄欧美| 日韩精品一区二区亚洲av性色 | 亚洲国产一区二区三区高清| 亚洲一区二区自偷自拍| 精品少妇一区二区三区视频免付费| 97成人资源| 2019日韩中文字幕mv| 欧美激情一区二区三区四区|