精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

QLoRa:利用GPU微調(diào)大型語言模型

譯文 精選
開發(fā) 前端
文章介紹了QLoRa(Quantized LLMs with Low-Rank Adapters),一種在消費(fèi)者級(jí)別的硬件上微調(diào)大型語言模型(LLM)的新方法。QLoRa通過引入4位量化、雙重量化和利用nVidia統(tǒng)一內(nèi)存進(jìn)行分頁,大大減少了微調(diào)所需的內(nèi)存,同時(shí)保持了與標(biāo)準(zhǔn)微調(diào)相當(dāng)?shù)男阅堋?/div>

點(diǎn)擊參加51CTO網(wǎng)站內(nèi)容調(diào)查問卷

譯者 | 崔皓

審校 | 重樓

摘要

文章介紹了QLoRa(Quantized LLMs with Low-Rank Adapters),一種在消費(fèi)者級(jí)別的硬件上微調(diào)大型語言模型(LLM)的新方法。QLoRa通過引入4位量化、雙重量化和利用nVidia統(tǒng)一內(nèi)存進(jìn)行分頁,大大減少了微調(diào)所需的內(nèi)存,同時(shí)保持了與標(biāo)準(zhǔn)微調(diào)相當(dāng)?shù)男阅堋N恼逻€提供了如何使用QLoRa微調(diào)一個(gè)擁有200億參數(shù)的GPT模型的詳細(xì)步驟,包括硬件和軟件的要求,以及如何準(zhǔn)備數(shù)據(jù)集和進(jìn)行微調(diào)。

開篇

微調(diào)具有數(shù)十億參數(shù)的模型現(xiàn)在可以在消費(fèi)者硬件上實(shí)現(xiàn)。大多數(shù)大型語言模型(LLM)過于龐大,無法在消費(fèi)者硬件上進(jìn)行微調(diào)。例如,要微調(diào)一個(gè)擁有650億參數(shù)的模型,我們需要超過780 Gb的GPU內(nèi)存。這相當(dāng)于十個(gè)A100 80 Gb的GPU。換句話說,您需要云計(jì)算來微調(diào)您的模型。現(xiàn)在,有了QLoRa,只需要一個(gè)A100就可以做到。

在這篇博客文章中,將介紹QLoRa的工作原理,同時(shí)會(huì)描述如何使用QLoRa在GPU上微調(diào)一個(gè)擁有200億參數(shù)的GPT模型。

注意:我使用我自己的nVidia RTX 3060 12 Gb來運(yùn)行這篇文章中的所有命令。您也可以使用Google Colab的免費(fèi)實(shí)例來達(dá)到相同的效果。如果你想使用一個(gè)內(nèi)存更小的GPU,就必須選擇更小的LLM。

QLoRa:使用低秩適配器的量化LLM

2021年6月,Hu等人(2021)在一篇論文中提出這樣一個(gè)概念,就是為L(zhǎng)LM引入低秩適配器(Low-Rank Adapters)。

【編者:低秩low rank是指一個(gè)矩陣的秩(rank)比較低,也就是說,這個(gè)矩陣中的行向量或列向量之間存在一定的線性相關(guān)性,可以用更少的向量來表示整個(gè)矩陣。在某些應(yīng)用中,低秩的矩陣可以幫助我們更好地理解數(shù)據(jù)的結(jié)構(gòu)和特征,例如在降維、數(shù)據(jù)壓縮、圖像處理等領(lǐng)域中都有廣泛的應(yīng)用。

LoRa為L(zhǎng)LM的每一層添加了微小量的可訓(xùn)練參數(shù),即適配器,并凍結(jié)所有原始參數(shù)。對(duì)于微調(diào),我們只需要更新適配器權(quán)重,這大大減少了內(nèi)存占用。

QLoRa通過引入4位量化、雙重量化和利用nVidia統(tǒng)一內(nèi)存進(jìn)行分頁。

下面簡(jiǎn)單描述,其工作原理:

  • 4位NormalFloat量化:這是一種改進(jìn)量化的方法。它確保每個(gè)量化箱中的值數(shù)量相等。這避免了計(jì)算問題和異常值的錯(cuò)誤。
  • 雙重量化:QLoRa的作者將其定義為:“對(duì)量化常數(shù)進(jìn)行量化以節(jié)省更多內(nèi)存的過程。”
  • 使用統(tǒng)一內(nèi)存進(jìn)行分頁:它依賴于NVIDIA統(tǒng)一內(nèi)存功能,并自動(dòng)處理CPU和GPU之間的頁到頁傳輸。它確保GPU處理無誤,特別是在GPU可能內(nèi)存不足的情況下。

所有這些步驟都大大減少了微調(diào)所需的內(nèi)存,同時(shí)幾乎與標(biāo)準(zhǔn)微調(diào)的性能相當(dāng)。

使用QLoRa微調(diào)GPT模型

QLoRa的硬件要求:

  • GPU:以下演示適用于擁有12 Gb VRAM的GPU,對(duì)于參數(shù)少于200億的模型,例如GPT-J。我用我的RTX 3060 12 Gb運(yùn)行了它。如果你有一個(gè)更大的卡,擁有24 Gb的VRAM,你可以用一個(gè)200億參數(shù)的模型,例如GPT-NeoX-20b。
  • RAM:我建議最少6 Gb。大多數(shù)最新的計(jì)算機(jī)都有足夠的RAM。
  • 硬盤:GPT-J和GPT-NeoX-20b都是非常大的模型。我建議至少有80 Gb的可用空間。

如果你的機(jī)器不滿足這些要求,Google Colab的免費(fèi)實(shí)例將足夠。

【編者:Google Colab是一種云端的Jupyter Notebook環(huán)境,由Google提供,用戶可以在其中編寫和運(yùn)行Python代碼。它提供了免費(fèi)的GPU和TPU資源,使得用戶可以在云端進(jìn)行機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的實(shí)驗(yàn),而無需購(gòu)買昂貴的硬件設(shè)備。同時(shí),Google Colab還與Google Drive集成,用戶可以將Notebook存儲(chǔ)在自己的Google Drive中,并與其他人共享。

QLoRa的軟件要求:

我們需要CUDA。確保它已經(jīng)安裝在你的機(jī)器上。

【編者:CUDA (Compute Unified Device Architecture) 是由 NVIDIA 開發(fā)的一種并行計(jì)算平臺(tái)和編程模型,它允許開發(fā)人員使用 C/C++、Fortran 等高級(jí)語言編寫并行計(jì)算程序,利用 NVIDIA GPU 的并行計(jì)算能力加速計(jì)算。CUDA 可以在多種操作系統(tǒng)上運(yùn)行,包括 Windows、Linux 和 macOS。它被廣泛應(yīng)用于科學(xué)計(jì)算、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、圖像處理、計(jì)算機(jī)視覺等領(lǐng)域。

此同時(shí)還需要如下依賴項(xiàng):

  • bitsandbytes:一個(gè)包含我們需要量化LLM所需的所有內(nèi)容的庫(kù)。
  • Hugging Face Transformers和Accelerate:這些是用于有效訓(xùn)練Hugging Face Hub模型的標(biāo)準(zhǔn)庫(kù)。
  • PEFT:一個(gè)提供各種方法實(shí)現(xiàn)只微調(diào)少量(額外)模型參數(shù)的庫(kù)。我們需要它來進(jìn)行LoRa。
  • Datasets:并不是必選項(xiàng)。我們只會(huì)用它來獲取一個(gè)用于微調(diào)的數(shù)據(jù)集。當(dāng)然,你也可以提供你自己的數(shù)據(jù)集。

我們可以使用PIP獲取所有這些:

pip install -q -U bitsandbytes
pip install -q -U git+https://github.com/huggingface/transformers.git 
pip install -q -U git+https://github.com/huggingface/peft.git
pip install -q -U git+https://github.com/huggingface/accelerate.git
pip install -q datasets

接下來,我們可以開始編寫Python腳本。

加載和量化GPT模型

我們需要以下導(dǎo)入來加載和量化LLM。

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig

對(duì)于這個(gè)演示,我們將微調(diào)EleutherAI預(yù)訓(xùn)練的GPT NeoX模型。這是一個(gè)擁有200億參數(shù)的模型。注意:GPT NeoX有一個(gè)寬松的許可證(Apache 2.0)允許商業(yè)使用。

我們可以從Hugging Face Hub獲取這個(gè)模型和相關(guān)的tokenizer:

model_name = "EleutherAI/gpt-neox-20b"
#Tokenizer
tokenizer = AutoTokenizer.from_pretrained(model_name)

然后,我們需要詳細(xì)描述量化器的配置,如下:

quant_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=torch.bfloat16)
  • load_in_4bit:模型將以4位精度加載到內(nèi)存中。
  • bnb_4bit_use_double_quant:我們將進(jìn)行QLoRa提出的雙重量化。
  • bnb_4bit_quant_type:這是量化的類型。“nf4”代表4位NormalFloat。
  • bnb_4bit_compute_dtype:雖然我們以4位加載和存儲(chǔ)模型,但我們?cè)谛枰獣r(shí)會(huì)部分地反量化它,并以16位精度(bfloat16)進(jìn)行所有的計(jì)算。

所以現(xiàn)在我們可以以4位加載模型:

model = AutoModelForCausalLM.from_pretrained(model_name, quantization_config=quant_config, device_map={"":0})

然后,我們啟用梯度檢查點(diǎn):

model.gradient_checkpointing_enable()

為L(zhǎng)oRa預(yù)處理GPT模型

這是我們使用PEFT的地方。我們?yōu)長(zhǎng)oRa準(zhǔn)備模型,為每一層添加可訓(xùn)練的適配器。

【編者:PEFT(參數(shù)高效微調(diào))庫(kù)是一個(gè)由HuggingFace支持的庫(kù),它支持LoRa(低秩適應(yīng))

from peft import prepare_model_for_kbit_training, LoraConfig, get_peft_model
model = prepare_model_for_kbit_training(model)
config = LoraConfig(
    r=8, 
    lora_alpha=32, 
    target_modules=["query_key_value"], 
    lora_dropout=0.05, 
    bias="none", 
    task_type="CAUSAL_LM")
model = get_peft_model(model, config)

在LoraConfig中,你可以調(diào)整r、alpha和dropout以在你的任務(wù)上獲得更好的結(jié)果。你可以在PEFT倉(cāng)庫(kù)中找到更多的選項(xiàng)和細(xì)節(jié)。

使用LoRa,我們只添加了800萬參數(shù)。我們將只訓(xùn)練這些參數(shù)并凍結(jié)其他所有內(nèi)容。微調(diào)應(yīng)該很快。

準(zhǔn)備你的數(shù)據(jù)集

對(duì)于這個(gè)演示,我使用了“english_quotes”數(shù)據(jù)集。這是一個(gè)由著名引語組成的數(shù)據(jù)集,根據(jù)CC BY 4.0許可分發(fā)。

markdown
from datasets import load_dataset
data = load_dataset("Abirate/english_quotes")
data = data.map(lambda samples: tokenizer(samples["quote"]), batched=True)

使用QLoRa微調(diào)GPT-NeoX-20B

最后,使用Hugging Face Transformers進(jìn)行微調(diào)非常標(biāo)準(zhǔn)。

import transformers
tokenizer.pad_token = tokenizer.eos_token
trainer = transformers.Trainer(
    model=model,
    train_dataset=data["train"],
    args=transformers.TrainingArguments(
        per_device_train_batch_size=1,
        gradient_accumulation_steps=8,
        warmup_steps=2,
        max_steps=20,
        learning_rate=2e-4,
        fp16=True,
        logging_steps=1,
        output_dir="outputs",
        optim="paged_adamw_8bit"
    ),
    data_collator=transformers.DataCollatorForLanguageModeling(tokenizer, mlm=False),
)
trainer.train()

不要忘記optim=”paged_adamw_8bit”。它激活了分頁以更好地管理內(nèi)存。沒有它,程序會(huì)報(bào)內(nèi)存不足的錯(cuò)誤。

運(yùn)行這個(gè)微調(diào)應(yīng)該只需要在Google Colab上花費(fèi)5分鐘。

VRAM消耗應(yīng)該在15 Gb達(dá)到峰值。

就這樣,我們免費(fèi)微調(diào)了一個(gè)LLM!

使用QLoRa的GPT推理

我們微調(diào)的QLoRa模型可以直接使用標(biāo)準(zhǔn)的Hugging Face Transformers進(jìn)行推理,如下:

text = "Ask not what your country
device = "cuda:0"
inputs = tokenizer(text, return_tensors="pt").to(device)
outputs = model.generate(**inputs, max_new_tokens=20)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

你應(yīng)該得到這樣的輸出:

Ask not what your country can do for you, ask what you can do for your country.”– John F.

輸出翻譯:“不要問你的國(guó)家能為你做什么,問你能為你的國(guó)家做什么。”– 約翰·F。

我們得到了預(yù)期的結(jié)果。對(duì)于5分鐘的微調(diào)來說,已經(jīng)不錯(cuò)了!

結(jié)論

在大型語言模型變得更大的同時(shí)我們找到了響應(yīng)的微調(diào)工具,QLoRa可以在消費(fèi)者硬件上對(duì)模型進(jìn)行微調(diào)和推理。有了QLoRa的幫助,我們可以在不依賴云計(jì)算的情況下,微調(diào)數(shù)十億參數(shù)的模型,根據(jù)QLoRa的相關(guān)論文描述,微調(diào)并沒有帶來性能的顯著下降。

譯者介紹

崔皓,51CTO社區(qū)編輯,資深架構(gòu)師,擁有18年的軟件開發(fā)和架構(gòu)經(jīng)驗(yàn),10年分布式架構(gòu)經(jīng)驗(yàn)。

原文標(biāo)題:QLoRa: Fine-Tune a Large Language Model on Your GPU,作者:Benjamin Marie

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2023-06-02 15:47:49

2025-05-08 05:00:00

2024-03-18 13:36:36

大型語言模型個(gè)人可識(shí)別信息

2024-11-21 08:22:45

2024-06-13 10:52:43

2024-07-01 09:00:00

2024-05-06 12:24:00

模型訓(xùn)練

2024-05-06 12:22:00

AI訓(xùn)練

2024-03-20 10:31:27

2024-11-11 13:33:28

2025-06-24 08:52:54

2024-04-16 16:14:01

人工智能LLMRAG

2025-04-10 07:59:51

2024-04-26 11:30:43

GenAILinkedIn人工智能

2023-06-19 16:05:22

大型語言模型人工智能

2023-10-07 10:41:54

語言模型微調(diào)BitFit

2025-08-19 10:10:46

2025-08-05 03:22:00

LLM系統(tǒng)語言模型

2024-03-25 08:00:00

2022-08-24 15:08:19

模型數(shù)據(jù)技術(shù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

性直播体位视频在线观看| 国产精品无码粉嫩小泬| 国产+成+人+亚洲欧洲在线| 亚洲成人自拍偷拍| 日韩欧美一区二区三区四区五区| 在线免费看毛片| 黄色成人av网站| 国产一区二区三区免费视频| 日本伊人久久| 亚洲AV无码精品国产| 亚洲国产精品日韩专区av有中文| 欧美mv和日韩mv国产网站| 超碰97人人射妻| 成人日日夜夜| 国产亚洲福利社区一区| 亚洲影视九九影院在线观看| 天天干天天干天天操| 天天影视欧美综合在线观看| 日韩精品亚洲视频| 97人人模人人爽人人澡| 91精品xxx在线观看| 亚洲综合一二区| 在线免费观看成人| 国产色在线 com| 成人不卡免费av| 成人亚洲欧美一区二区三区| 亚洲精品男人的天堂| 欧美午夜不卡| 久久精品这里热有精品| 蜜臀久久99精品久久久久久| 美女视频亚洲色图| 欧美大黄免费观看| 国产又粗又长又爽又黄的视频| 中文字幕 在线观看| 亚洲国产日日夜夜| 日本a在线天堂| 日本高清视频在线观看| 久久精品欧美日韩精品| 久久综合久久久| 日本久久一级片| 国产aⅴ综合色| 3d蒂法精品啪啪一区二区免费| 亚洲精品一区二区二区| 日韩综合在线视频| 日本久久精品视频| 五月婷婷中文字幕| 99人久久精品视频最新地址| 欧美疯狂xxxx大交乱88av| 97成人资源站| 欧美片第1页综合| 欧美日韩国产成人高清视频| 麻豆视频在线免费看| 91精品电影| 欧美成人免费一级人片100| 2014亚洲天堂| 久久久久久久久久久妇女| xxxx性欧美| 国产激情无码一区二区三区| 日韩欧美一区二区三区在线视频| 日韩中文字幕视频在线| 狂野欧美性猛交| 91综合在线| 久久视频在线看| 极品久久久久久| 国产一区激情| 欧美在线观看网站| 不卡av电影在线| 喷水一区二区三区| 成人做爰www免费看视频网站| 国产又粗又大又黄| 国产成人午夜电影网| 动漫3d精品一区二区三区| 欧美熟妇乱码在线一区| 91在线播放网址| 日韩福利二区| 成人高清免费在线| 亚洲国产日韩一区二区| 精品视频一区二区在线| 黄色精品视频网站| 精品美女在线播放| 内射中出日韩无国产剧情| 不卡视频在线| 欧美黑人性视频| 亚洲欧美一区二区三区在线观看 | 日本福利视频在线观看| 啦啦啦中文在线观看日本| 大伊人狠狠躁夜夜躁av一区| 国产一级做a爰片久久| 日韩精品亚洲专区在线观看| 日韩精品久久久久| 国产视频精品免费| 影音先锋久久久| 国产精品夫妻激情| xxxx国产精品| 日本一区二区三区dvd视频在线 | 99视频一区| 国产日韩欧美黄色| 日本波多野结衣在线| 中文字幕乱码久久午夜不卡| 国产精品一二三在线观看| 天堂中文在线播放| 91麻豆精品国产91| 中文字幕狠狠干| 国产精品大片免费观看| 国产精品国产三级国产aⅴ9色| 精品国产18久久久久久| 国产无遮挡一区二区三区毛片日本| 黄色影视在线观看| 欧美暴力调教| 亚洲第一区中文字幕| 免费黄色国产视频| 免播放器亚洲| 国产欧美日韩一区| 制服丝袜中文字幕在线| 欧美日韩午夜在线| 少妇特黄一区二区三区| 欧美三级第一页| 国产欧美一区二区三区视频| 婷婷亚洲一区二区三区| 怡红院av一区二区三区| 污片在线免费看| 国产伦精品一区二区三区千人斩| 欧美激情一级欧美精品| 一级aaaa毛片| 中文字幕+乱码+中文字幕一区| 欧美极品欧美精品欧美| 粉嫩av一区二区| 久久久久久999| 国产视频一区二区三| 国产精品天干天干在观线 | 毛片av一区二区三区| 久久人人97超碰人人澡爱香蕉| 污视频在线看网站| 欧美一区二区在线播放| 欧美h片在线观看| 免费观看久久久4p| 日韩精品av一区二区三区| 涩涩涩在线视频| 精品视频偷偷看在线观看| 日韩美女黄色片| aa级大片欧美| 人妻少妇精品无码专区二区| 精品欧美午夜寂寞影院| 欧美黑人巨大xxx极品| 亚洲va欧美va| 亚洲成av人片在www色猫咪| 日批免费观看视频| 亚洲国产免费看| 国产一区精品在线| 中文字幕在线直播| 亚洲片在线资源| 波多野结衣视频在线观看| 久久久国产精品麻豆| 欧美精品第三页| 国产一区二区亚洲| 国产免费成人av| 91小视频xxxx网站在线| 欧美电影免费提供在线观看| 国产中文字幕免费| 91蜜桃在线免费视频| 国产特级淫片高清视频| 久久综合影院| 91精品国产综合久久男男 | 91av视频导航| 久草福利在线| 9191成人精品久久| www.色小姐com| 99久久亚洲一区二区三区青草| 国产乱子伦农村叉叉叉| 国产欧美日韩在线观看视频| 国产精品狼人色视频一区| 香蕉视频在线播放| 精品国产青草久久久久福利| 欧美激情黑白配| 国产精品欧美久久久久无广告| 亚洲高清在线不卡| 亚洲激情黄色| 日韩福利影院| 中文字幕区一区二区三| 4p变态网欧美系列| 91caoporn在线| 欧美大胆一级视频| 手机av免费观看| 亚洲欧美日韩国产中文在线| 黄色网址在线视频| 久久成人精品无人区| 国产av熟女一区二区三区| 国产99精品一区| **亚洲第一综合导航网站| 欧美aaaaa性bbbbb小妇| 日韩视频免费看| 日韩大胆视频| 日韩欧美在线不卡| 久久久成人免费视频| 亚洲女女做受ⅹxx高潮| 国精产品一区一区三区免费视频| 久久99精品国产.久久久久久| 黄色一级视频在线播放| 91超碰成人| 日本不卡一区| julia中文字幕一区二区99在线| 欧美最顶级丰满的aⅴ艳星| 黄色网页在线免费看| 亚洲欧美日韩一区二区在线| www.97av.com| 欧美日韩在线直播| 中文字幕在线观看视频网站| 亚洲色图另类专区| 国产91丝袜美女在线播放| 不卡影院免费观看| 欧美视频国产视频| 日本sm残虐另类| 日本三级免费网站| 国内揄拍国内精品久久| 一区二区免费电影| 欧美激情在线精品一区二区三区| 高清国产在线一区| 国产精品日本一区二区不卡视频 | 日本日本19xxxⅹhd乱影响| 68国产成人综合久久精品| 奇米精品在线| 欧美国产极品| 国产亚洲精品美女久久久m| 亚洲成a人片777777久久| 国产精品9999| 伊人色综合一区二区三区影院视频| 欧美大片在线免费观看| 黄色网在线免费看| 精品国产视频在线| 午夜在线视频| 中文字幕亚洲情99在线| 免费在线观看污视频| 欧美岛国在线观看| www.激情五月| 欧美一级搡bbbb搡bbbb| 国产精品视频一区二区三区,| 欧美在线free| 亚洲性猛交富婆| 91成人免费在线视频| av片免费观看| 欧美三级日韩在线| 啪啪小视频网站| 欧美性生活一区| 在线观看国产一区二区三区| 欧美午夜视频网站| 伊人精品在线视频| 51精品国自产在线| 国产不卡精品视频| 日韩免费电影网站| 天天干,天天操,天天射| 亚洲精品第一国产综合精品| 午夜影院免费视频| 亚洲欧美日韩中文在线| 成人精品福利| 日韩日本欧美亚洲| 手机电影在线观看| 国语自产精品视频在免费| 变态调教一区二区三区| 91精品国产777在线观看| 乱人伦视频在线| 国产成人精品一区| 欧美高清影院| 97在线电影| 精品久久ai电影| 色女孩综合网| 亚洲精品成人影院| 精品久久一二三| 天堂蜜桃91精品| 日本国产一级片| 成人午夜视频福利| 日韩精品无码一区二区三区久久久| 国产精品热久久久久夜色精品三区| 福利视频第一页| 一区二区三区日韩精品| 亚洲另类欧美日韩| 欧美日韩精品一区二区| 精品国产999久久久免费| 日韩精品视频免费在线观看| 成年人视频在线看| 欧美乱大交做爰xxxⅹ性3| 日本乱码一区二区三区不卡| 国产精品老女人精品视频| 日本一区精品视频| 日本一区二区精品| 好看的亚洲午夜视频在线| 青青在线视频观看| 狠狠网亚洲精品| 少妇特黄一区二区三区| 亚洲精品视频免费观看| 九一国产在线观看| 51精品秘密在线观看| 深夜福利视频在线免费观看| 日韩在线高清视频| 小早川怜子影音先锋在线观看| 国产精品自产拍在线观看中文| 999久久久久久久久6666| 日韩欧美亚洲精品| 亚洲午夜黄色| 毛片毛片毛片毛| 91丨九色porny丨蝌蚪| 成人免费视频国产免费观看| 色婷婷一区二区| 成人免费一级视频| 最近中文字幕mv在线一区二区三区四区| 欧美aaaaaaa| 成人美女av在线直播| 亚洲色图美女| 日韩欧美精品免费| 国产一区欧美二区| 日本理论中文字幕| 偷偷要91色婷婷| 999免费视频| 中文字幕在线观看日韩| 丝袜诱惑一区二区| 国产精品10p综合二区| 亚洲欧洲中文字幕| 一区二区三区 欧美| 国产午夜精品理论片a级大结局| 日本少妇激情视频| 日韩欧美亚洲国产另类| 午夜视频在线免费观看| 国产91在线高潮白浆在线观看| 精品亚洲免a| 久久亚洲a v| 国产精品1024| 免费在线观看h片| 91麻豆精品国产91久久久久 | 久久久久久久久爱| 免费一区二区三区在线视频| 中国一区二区三区| 久久66热偷产精品| 精品视频第一页| 欧美日韩国产123区| 91社区在线| 国产精品高潮视频| 欧美一级精品| 91极品视频在线观看| 国产精品麻豆网站| 亚洲一区在线观| 久久精品视频在线播放| 欧美亚洲人成在线| 亚洲一区二区在线免费观看| 美腿丝袜亚洲综合| 日本裸体美女视频| 777奇米成人网| 亚洲精品白浆| 国产精品视频一区二区三区经| 国产精品v一区二区三区| xxxx视频在线观看| 五月综合激情日本mⅴ| 神马久久久久| 日韩美女中文字幕| 日韩精品看片| 亚洲欧美天堂在线| 一区二区三区在线观看国产| 亚洲AV无码乱码国产精品牛牛| 国模吧一区二区| 网友自拍一区| 国产又粗又长又大的视频| 国产精品毛片大码女人| 国产农村妇女毛片精品久久| 欧美尺度大的性做爰视频| 91精品国产乱码久久久竹菊| 俄罗斯av网站| 国产欧美一区二区三区网站| 一级全黄裸体免费视频| 美女视频久久黄| 高清精品xnxxcom| 精品中文字幕av| 中文一区二区完整视频在线观看| 国产精品高潮呻吟av| 欧美激情乱人伦| 久久99国产成人小视频| www.51色.com| 亚洲va天堂va国产va久| 日本大片在线观看| 国产女人精品视频| 好吊视频一区二区三区四区| 99re久久精品国产| 欧美日韩精品欧美日韩精品一| av片在线观看| 欧美18视频| 国产精品资源网| 久久夜色精品国产噜噜亚洲av| 久久韩剧网电视剧| 老司机aⅴ在线精品导航| 羞羞的视频在线| 午夜精品影院在线观看| avtt在线播放| 国产伦一区二区三区色一情| 日韩精品国产精品| 久久精品免费在线| 国产一区av在线| 高清日韩欧美| www.久久av.com| 欧美午夜无遮挡| 在线观看男女av免费网址| 欧美日韩在线一二三| 国产精品一二一区| 久久国产香蕉视频|