精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

實戰(zhàn) LLaMA Factory:在國產(chǎn)DCU上高效微調(diào) Llama 3 模型

發(fā)布于 2025-6-5 06:55
瀏覽
0收藏

一、前言

隨著大語言模型(LLM)的飛速發(fā)展,如何在特定領域或任務上對預訓練模型進行高效微調(diào),已成為業(yè)界關注的焦點。LLaMA Factory 作為一個功能強大且易于上手的 LLM 微調(diào)框架,受到了廣泛關注。本文將聚焦于在國產(chǎn) DCU 平臺上,利用 LLaMA Factory 對 Llama 3 模型進行 LoRA 微調(diào)的實踐過程,并分享其中的關鍵步驟與經(jīng)驗。

?? 海光DCU實戰(zhàn)項目來了!助您輕松駕馭大模型與HPC開發(fā) ??

為幫助開發(fā)者更便捷在海光DCU上進行大模型(訓練、微調(diào)、推理)及科學計算,我依托海光DCU開發(fā)者社區(qū),精心打造了一個開箱即用的實戰(zhàn)項目 —— “dcu-in-action”!

旨在為您提供:

? ?? 直接上手的代碼示例與實踐指南

? ? 加速您在海光DCU上的開發(fā)與部署流程

歡迎各位開發(fā)者:

? 訪問項目GitHub倉庫,深入體驗、參與貢獻,共同完善: https://github.com/FlyAIBox/dcu-in-action

? 如果項目對您有幫助,請我們點亮一個寶貴的 Star ??

二、環(huán)境準備與 LLaMA Factory 安裝

本次實踐的環(huán)境基于國產(chǎn)海光 DCU K100-AI,DTK 版本為 25.04。核心軟件棧包括 Python 3.10 以及針對 DCU 優(yōu)化的 PyTorch (torch==2.4.1+das.opt2.dtk2504) 及其相關深度學習庫(如 lmslim, flash-attn,vllm,deepspeed 的特定版本)。

1. 創(chuàng)建虛擬環(huán)境

conda create -n dcu_llm_fine python=3.10
conda activate dcu_llm_fine

2. 安裝 DCU 特定深度學習庫

根據(jù)文檔指引,從光合開發(fā)者社區(qū)下載并安裝適配 DCUK100-AI (DTK 25.04, Python 3.10) 的 PyTorch, lmslim,flash-attn, vllm deepspeed 等 whl 包。確保各組件版本嚴格對應。

3. 安裝 LLaMA Factory

git clone http://developer.hpccube.com/codes/OpenDAS/llama-factory.git
cd /your_code_path/llama_factory
pip install -e ".[torch,metrics]"

注意:如遇包沖突,可嘗試 pip install --no-deps -e .。

三、Llama 3 LoRA 微調(diào)實戰(zhàn)

我們以 Meta-Llama-3-8B-Instruct 模型為例,采用 LoRA (Low-Rank Adaptation) 方法進行監(jiān)督式微調(diào) (SFT)。

1. 微調(diào)配置文件解析 (llama3_lora_sft.yaml)

以下是核心配置參數(shù):

### model
model_name_or_path:/root/.cache/modelscope/hub/models/LLM-Research/Meta-Llama-3-8B-Instruct# 模型路徑
trust_remote_code:true

### method
stage:sft                      # 微調(diào)階段:監(jiān)督式微調(diào)
do_train:true
finetuning_type:lora           # 微調(diào)方法:LoRA
lora_rank:8                    # LoRA 秩
lora_target:all                # LoRA 應用目標:所有線性層

### dataset
dataset:identity,alpaca_en_demo# 使用的數(shù)據(jù)集
template:llama3                # 對話模板
cutoff_len:2048                # 序列截斷長度
max_samples:1000               # 每個數(shù)據(jù)集最大樣本數(shù)
overwrite_cache:true
preprocessing_num_workers:16   # 預處理進程數(shù)

### output
output_dir:saves/llama3-8b/lora/sft# 輸出目錄
logging_steps:10
save_steps:500
plot_loss:true
overwrite_output_dir:true
save_only_model:false          # 保存完整checkpoint而非僅模型

### train
per_device_train_batch_size:1# 每GPU批大小
gradient_accumulation_steps:8# 梯度累積步數(shù)
learning_rate:1.0e-4           # 學習率
num_train_epochs:3.0           # 訓練輪次
lr_scheduler_type:cosine       # 學習率調(diào)度器
warmup_ratio:0.1               # 預熱比例
bf16:true                      # 使用bf16混合精度
ddp_timeout:180000000
resume_from_checkpoint: null

2. 啟動微調(diào)

llamafactory-cli train examples/train_lora/llama3_lora_sft.yaml

3. 微調(diào)過程關鍵日志輸出與解讀

環(huán)境初始化與分布式設置 (日志時間: 21:16:40 - 21:16:51)

? Setting ds_accelerator to cuda (auto detect)

? Initializing 8 distributed tasks at: 127.0.0.1:54447

? 各 GPU 進程 (如 [PG 0 Rank 2]) 初始化 NCCL,日志顯示 size: 8, global rank: 2, TIMEOUT(ms): 180000000000。

? 各進程確認信息,例如 Process rank: 2, world size: 8, device: cuda:2, distributed training: True, compute dtype: torch.bfloat16?,表明已啟用 bf16 混合精度。

? Set ddp_find_unused_parameters to False in DDP training since LoRA is enabled.

Tokenizer 與模型配置加載 (日志時間: 21:16:51 - 21:16:52)

? 加載 tokenizer.json, tokenizer.model 等文件。

? 加載模型配置文件 /root/.cache/modelscope/hub/models/LLM-Research/Meta-Llama-3-8B-Instruct/config.json,確認模型架構如 hidden_size: 4096, num_hidden_layers: 32, torch_dtype: "bfloat16"。

數(shù)據(jù)集加載與預處理 (日志時間: 21:16:52 - 21:17:01)

? Add pad token: <|eot_id|>,Add <|eot_id|>,<|eom_id|> to stop words.

? 加載數(shù)據(jù)集 identity.json (91條樣本) 和 alpaca_en_demo.json (1000條樣本)。

? Converting format of dataset (num_proc=16) 和 Running tokenizer on dataset (num_proc=16),共處理 1091 條樣本。

? 展示了處理后的一個訓練樣本 training example,包括 input_ids, inputs (已格式化模板) 和 label_ids (prompt部分為-100)。

基礎模型權重加載與 LoRA 適配器設置 (日志時間: 21:17:01 - 21:17:16)

? KV cache is disabled during training.

? 加載模型權重 /root/.cache/modelscope/hub/models/LLM-Research/Meta-Llama-3-8B-Instruct/model.safetensors.index.json,共4個分片。

? 出現(xiàn)警告: Using the SDPA attention implementation on multi-gpu setup with ROCM may lead to performance issues due to the FA backend. Disabling it to use alternative backends.

? Gradient checkpointing enabled.

? Fine-tuning method: LoRA

? Found linear modules: v_proj,q_proj,k_proj,down_proj,o_proj,gate_proj,up_proj (這些是 lora_target: all 選中的層)。

? trainable params: 20,971,520 || all params: 8,051,232,768 || trainable%: 0.2605,明確了 LoRA 引入的可訓練參數(shù)量和占比。

Trainer 初始化與訓練循環(huán) (日志時間: 21:17:16 - 21:22:15)

? ***** Running training *****

? Num examples = 1,091, Num Epochs = 3

? Instantaneous batch size per device = 1, Total train batch size (w. parallel, distributed & accumulation) = 64

? Gradient Accumulation steps = 8, Total optimization steps = 51

? 訓練日志周期性輸出 (每 logging_steps: 10次迭代,但日志中是按優(yōu)化步聚合后展示的):

 {'loss': 1.4091, 'grad_norm': 1.0385..., 'learning_rate': 9.8063...e-05, 'epoch': 0.58}

 {'loss': 1.0404, 'grad_norm': 0.6730..., 'learning_rate': 7.7959...e-05, 'epoch': 1.17}

 {'loss': 0.9658, 'grad_norm': 0.4174..., 'learning_rate': 4.4773...e-05, 'epoch': 1.75}

 {'loss': 0.9389, 'grad_norm': 0.3942..., 'learning_rate': 1.4033...e-05, 'epoch': 2.34}

 {'loss': 0.894, 'grad_norm': 0.4427..., 'learning_rate': 1.2179...e-07, 'epoch': 2.92}

? 訓練過程中反復出現(xiàn) UserWarning: 1Torch was not compiled with memory efficient attention. (Triggered internally at /home/pytorch/aten/src/ATen/native/transformers/hip/sdp_utils.cpp:627.)

訓練完成與模型保存 (日志時間: 15:22:15 - 15:22:17)

? Saving model checkpoint to saves/llama3-8b/lora/sft/checkpoint-51

? 最終訓練指標 ***** train metrics *****:

epoch = 2.9781

train_loss = 1.0481

train_runtime = 0:04:56.32 (即 296.3281秒)

train_samples_per_second = 11.045

train_steps_per_second = 0.172

? Figure saved at: saves/llama3-8b/lora/sft/training_loss.png

? NCCL 通信器關閉,各進程資源清理。

四、模型推理測試

微調(diào)完成后,我們加載 LoRA 適配器進行推理測試。

1. 推理配置文件 (llama3_lora_sft.yaml for inference)

model_name_or_path: /root/.cache/modelscope/hub/models/LLM-Research/Meta-Llama-3-8B-Instruct
adapter_name_or_path: saves/llama3-8b/lora/sft # 加載微調(diào)后的LoRA適配器
template: llama3
infer_backend: huggingface # 推理后端
trust_remote_code: true

2. 啟動推理

llamafactory-cli chat examples/inference/llama3_lora_sft.yaml

3. 推理過程關鍵日志輸出與測試結果

模型加載 (日志時間: 17:30:16 - 17:31:18)

? 加載基礎模型 Tokenizer, config (torch_dtype: "bfloat16", use_cache: true) 和權重 (model.safetensors.index.json, 4個分片)。

? KV cache is enabled for faster generation.

? 再次出現(xiàn) SDPA on ROCm 性能警告。

? 加載 LoRA 適配器: Loaded adapter(s): saves/llama3-8b/lora/sft。

? Merged 1 adapter(s).,確認 LoRA 權重已合并到基礎模型。

? 加載后模型參數(shù)量 all params: 8,030,261,248。

交互測試結果

? User:

你是誰
  • Assistant:

我是 {{name}},由 {{author}} 訓練的 AI 助手。我旨在為您提供幫助,回答問題和完成任務。

評析:輸出中的 {{name}}? 和 {{author}}? 占位符,表明模型學習了微調(diào)數(shù)據(jù) identity.json 中的模板格式。

五、模型導出

將微調(diào)后的 LoRA 權重與基礎模型合并,并導出為獨立模型。

1. 導出配置文件 (llama3_lora_sft.yaml for export)

### Note: DO NOT use quantized model or quantization_bit when merging lora adapters

### model
model_name_or_path:/root/.cache/modelscope/hub/models/LLM-Research/Meta-Llama-3-8B-Instruct
adapter_name_or_path:saves/llama3-8b/lora/sft
template:llama3
trust_remote_code:true

### export
export_dir:output/llama3_lora_sft# 導出目錄
export_size:5                     # 模型分片大小上限 (GB)
export_device:cpu                 # 導出時使用的設備
export_legacy_format:false        # 不使用舊格式,優(yōu)先safetensors

重要提示:配置文件中明確指出,合并 LoRA 適配器時不應使用已量化的模型。

2. 啟動導出

llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml

3. 導出過程關鍵日志輸出 (日志時間: 18:06:54 - 18:08:22)

? 加載基礎模型 Tokenizer, config (torch_dtype: "bfloat16") 和權重 (4個分片)。

? 加載 LoRA 適配器: Loaded adapter(s): saves/llama3-8b/lora/sft。

? Merged 1 adapter(s).,LoRA 權重與基礎模型合并。

? Convert model dtype to: torch.bfloat16.

? 配置文件保存: Configuration saved in output/llama3_lora_sft/config.json 和 output/llama3_lora_sft/generation_config.json。

? 模型權重保存: The model is bigger than the maximum size per checkpoint (5GB) and is going to be split in 4 checkpoint shards. You can find where each parameters has been saved in the index located at output/llama3_lora_sft/model.safetensors.index.json. (根據(jù)配置 export_size: 5)

? Tokenizer 文件保存: tokenizer config file saved in output/llama3_lora_sft/tokenizer_config.json 和 special_tokens_map.json。

? 額外功能: Ollama modelfile saved in output/llama3_lora_sft/Modelfile。

七、總結與展望

本次實踐完整地展示了使用 LLaMA Factory 在國產(chǎn) DCU 平臺上對 Llama 3 模型進行 LoRA 微調(diào)、推理和導出的流程。LLaMA Factory 憑借其清晰的配置和便捷的命令行工具,顯著降低了 LLM 微調(diào)的門檻。 通過對各階段關鍵日志輸出和測試信息的詳細解讀,我們可以更直觀地把握模型在訓練中的學習動態(tài)、在推理中的行為表現(xiàn)以及導出后的結構。

本文轉載自 ?????螢火AI百寶箱??????,作者: 螢火AI百寶箱

收藏
回復
舉報
回復
相關推薦
欧美视频中文字幕在线| 久久午夜精品| 亚洲精品美女久久| 国产三级日本三级在线播放| 福利小视频在线观看| 国产自产v一区二区三区c| 久久久久久久av| av女人的天堂| 亚洲一区二区三区在线免费| 在线观看日韩国产| 屁屁影院ccyy国产第一页| 亚洲aⅴ乱码精品成人区| 久久国产夜色精品鲁鲁99| 久久久久久久久久久av| 国产福利在线导航| 欧美三级午夜理伦三级小说| 欧美精品v国产精品v日韩精品 | 亚洲情侣在线| 亚洲另类xxxx| 亚洲色图欧美另类| 另类一区二区| 日韩欧美第一页| 国风产精品一区二区| 韩国福利在线| caoporm超碰国产精品| 亚洲sss综合天堂久久| 久久久久久久久久成人| 亚洲高清不卡| 欧美日韩成人在线播放| 日韩亚洲欧美中文字幕| 九九亚洲精品| 亚洲激情视频在线| 欧美一级大片免费看| 另类一区二区三区| 欧美亚洲国产一区二区三区va| 欧美精品一区二区三区三州| 91精选在线| 国产精品久久网站| 日产精品一线二线三线芒果| 天堂а√在线8种子蜜桃视频| 国产在线不卡一区| 成人福利在线观看| 91国内精品视频| 麻豆精品一区二区| 国产精品国内视频| 成人黄色三级视频| 日韩—二三区免费观看av| 欧洲永久精品大片ww免费漫画| 精品91久久久| 国产欧美在线| 日韩av不卡在线| youjizz在线视频| 亚洲制服少妇| 日韩av不卡电影| 中文字幕精品视频在线观看| 久久深夜福利| 国产不卡在线观看| 中文字幕1区2区3区| 日本午夜精品视频在线观看| 国产精品视频网| 亚洲一级视频在线观看| 韩国一区二区三区| 97se视频在线观看| 熟妇人妻一区二区三区四区| 91麻豆高清视频| 免费精品视频一区| 91在线视频免费看| 亚洲人成在线观看一区二区| 免费日韩在线观看| 大香伊人中文字幕精品| 欧美日韩免费观看中文| 十八禁视频网站在线观看| 国产精品麻豆成人av电影艾秋| 欧美久久婷婷综合色| 无套白嫩进入乌克兰美女| 中文字幕一区日韩精品| 日韩av在线精品| 免费视频91蜜桃| 一区二区蜜桃| 97超级碰在线看视频免费在线看| 人人爽人人爽人人片av| 久久国产精品一区二区| y111111国产精品久久婷婷| 亚洲av成人精品一区二区三区在线播放| 91老师国产黑色丝袜在线| 亚洲日本一区二区三区在线不卡| 成人在线观看免费网站| 欧美日韩精品二区| 国产精品视频中文字幕| 伊人久久影院| 一区二区三区日韩在线| 免费毛片在线播放免费| 性欧美长视频| 亚洲va男人天堂| 亚洲色图21p| 亚洲图片激情小说| jizzjizzxxxx| 高清国产一区二区三区四区五区| 日韩av在线影院| 伊人久久久久久久久久久久久久| 一区二区久久| 成人性生交大片免费看小说 | 久久婷婷久久一区二区三区| 综合久久国产| 高清不卡av| 精品欧美一区二区三区精品久久| 亚洲黄色免费视频| 最新国产乱人伦偷精品免费网站| 国产欧美va欧美va香蕉在| 少妇喷水在线观看| 日韩一区欧美一区| 国产第一页视频| 91在线一区| www.日韩av.com| 成人av网站在线播放| 成人丝袜18视频在线观看| 一区二区三区四区视频在线观看| 一区二区三区四区日本视频| 欧美刺激午夜性久久久久久久| 久久久久亚洲AV成人无在| 99亚洲一区二区| 91亚色免费| 黄色片网站在线| 欧美日韩免费观看一区二区三区 | 国产精品人人做人人爽人人添| 亚洲熟妇国产熟妇肥婆| 日韩一级淫片| 久久久精品2019中文字幕神马| 欧美日韩在线视频播放| 99re视频精品| 国产精品网站免费| 1313精品午夜理伦电影| 欧美猛交ⅹxxx乱大交视频| 一本一道精品欧美中文字幕| 国产亚洲精品超碰| 国产精品-区区久久久狼| 韩国精品福利一区二区三区| 久久91精品国产| 国产欧美日韩成人| 国产精品久久久久久久久图文区| 日韩av手机版| 日韩片欧美片| 国产日韩在线视频| 欧美18一19xxx性| 欧美日韩在线综合| 男女全黄做爰文章| 久久99精品一区二区三区三区| 亚洲看片网站| 欧美成人aaa| 久久天天躁狠狠躁夜夜躁2014| 夜夜爽8888| 一区二区中文视频| 善良的小姨在线| 欧美日韩天堂| 国产精品一区在线观看| 国产色播av在线| 亚洲精品中文字| av一级在线观看| 欧美国产乱子伦 | 天天干天天干天天干天天| 99re66热这里只有精品3直播| 欧美视频在线播放一区| 国产精品欧美三级在线观看| 国产精品视频在线观看| 米奇777四色精品人人爽| 欧美一区日韩一区| 国产无遮挡aaa片爽爽| 91看片淫黄大片一级在线观看| jizzjizzxxxx| 99re6这里只有精品| 亚洲影院色在线观看免费| 欧美伦理免费在线| 亚洲精品中文字幕女同| 中文字幕视频免费观看| 一区二区三区日韩欧美| 99久久人妻精品免费二区| 日韩va欧美va亚洲va久久| 一本一道久久a久久综合精品| 秋霞影院一区| 欧美一区亚洲一区| 高h视频在线观看| 亚洲成人一区二区| 国产av不卡一区二区| 日韩欧美中文字幕在线视频| 国内精品久久久久久久久| 视频一区二区三区在线看免费看| 欧美在线免费播放| 全程偷拍露脸中年夫妇| 91亚洲精品乱码久久久久久蜜桃| 日韩精品免费播放| 欧美精品观看| 日本在线观看一区| 北条麻妃一区二区三区在线观看 | 樱桃视频成人在线观看| 精品国产一区二区三区久久| 四虎在线视频免费观看| 欧美午夜精品电影| 日本一区二区三区免费视频| 欧美激情自拍偷拍| 北京富婆泄欲对白| 激情欧美日韩一区二区| 六月丁香婷婷在线| 欧美欧美天天天天操| 日韩高清在线播放| 国产suv精品一区| 成人精品视频久久久久| 乡村艳史在线观看| 欧美夫妻性视频| 99免在线观看免费视频高清| 亚洲国产91色在线| 国产一区二区在线视频聊天| 欧美日韩中文字幕日韩欧美| 欧美日韩精品在线观看视频| 国产精品无码永久免费888| 污污免费在线观看| 国产真实精品久久二三区| 国产精品无码一本二本三本色| 亚洲大胆在线| 欧美做暖暖视频| 日本不卡免费一区| 精品久久蜜桃| 99精品在免费线中文字幕网站一区| 国产精品一二三在线| 国模套图日韩精品一区二区| 高清亚洲成在人网站天堂| 超碰在线网址| 久久好看免费视频| 黄色片在线免费看| 亚洲韩国青草视频| 欧美视频在线观看一区二区三区| 欧美一区二区视频免费观看| 一区不卡在线观看| 91福利精品视频| www.色国产| 色综合天天视频在线观看| 亚洲精品国产精品乱码| 亚洲福利视频三区| 国产无精乱码一区二区三区| 亚洲一区二区三区四区中文字幕| www.av视频| 一区二区高清免费观看影视大全| 最新一区二区三区| 亚洲欧美另类久久久精品2019| 日韩av手机在线免费观看| 最近日韩中文字幕| 极品久久久久久| 亚洲一区二区视频在线| 精品肉丝脚一区二区三区| 亚洲国产欧美另类丝袜| 国产午夜小视频| 精品人伦一区二区三区蜜桃网站| 伊人久久综合视频| 一本久道中文字幕精品亚洲嫩| 亚洲中文一区二区| 欧美人体做爰大胆视频| 国产一区二区三区三州| 日韩欧美aaaaaa| 黄色片一区二区三区| 亚洲国产日韩欧美综合久久| 色吊丝在线永久观看最新版本| 亚洲欧美中文日韩在线v日本| 国产精品免费观看| 久久黄色av网站| 久草免费在线色站| 欧美一级bbbbb性bbbb喷潮片| 最新欧美电影| 亚洲自拍欧美色图| 久久aimee| 日本一区二区三区视频在线播放 | 播播国产欧美激情| 在线观看小视频| 97超级碰碰碰久久久| 天天综合网站| 亚洲va欧美va国产综合剧情 | 日韩成人av网| 国产1区2区3区在线| 久久影视免费观看| 欧美调教sm| 91九色单男在线观看| 成人看片黄a免费看视频| 欧美精品v日韩精品v国产精品| 日韩电影免费网站| 可以看毛片的网址| 日韩电影一区二区三区四区| 九九九久久久久久久| 2021国产精品久久精品| 久久爱一区二区| 精品国产鲁一鲁一区二区张丽| 中文字幕在线2019| 亚洲成人黄色在线| 免费大片在线观看www| 97在线视频免费看| 成人豆花视频| 欧美日韩影视| 在线精品国产欧美| 日韩三级电影视频| 国产精品久久久久久久久粉嫩av| 一级毛片精品毛片| 日韩欧美精品一区二区三区经典 | 成人动漫精品一区二区| 91久久免费视频| 亚洲午夜一区二区三区| 怡春院在线视频| 日韩av在线免费观看| 91国内在线| 免费高清视频在线观看| 首页国产欧美日韩丝袜| 人妻体体内射精一区二区| 久久中文娱乐网| 欧美三级日本三级| 欧美亚州韩日在线看免费版国语版| 久久国产精品国产精品| 成人妖精视频yjsp地址| 老司机精品免费视频| 色综合中文综合网| 免费的黄色av| 超薄丝袜一区二区| 久久天堂影院| 日韩高清av| 制服诱惑一区| 亚洲女人av| 久草免费资源站| 日韩一区有码在线| 波多野结衣mp4| 亚洲精品视频免费| av伦理在线| 国产精品国模大尺度私拍| 91精品亚洲| 91女神在线观看| 农村妇女精品一二区| 老司机午夜免费精品视频| 中文字幕一区二区三区乱码不卡| 亚洲欧美日韩一区二区| 在线视频你懂得| 中文在线不卡视频| 日韩高清在线| 欧美综合77777色婷婷| 久久精品导航| 成人午夜剧场视频网站| 富二代精品短视频| 在线观看xxx| 91av在线看| 西野翔中文久久精品字幕| 国产黄页在线观看| 久久综合色鬼综合色| 午夜婷婷在线观看| 亚洲深夜福利在线| 国产在线|日韩| 亚洲欧洲日韩综合二区| 久久99热狠狠色一区二区| 91日韩中文字幕| 91精品国产91久久综合桃花| 污污的网站在线免费观看| 99理论电影网| 日韩视频一区二区三区在线播放免费观看| 久久人妻一区二区| 一本在线高清不卡dvd| 国产高清一区在线观看| 国产日韩在线视频| 欧美激情第二页| 中出视频在线观看| 欧美性色19p| 欧美r级在线| 亚洲最大的成人网| av成人黄色| x88av在线| 欧美一区二区精品| yellow在线观看网址| 欧美精品一区在线| 黄网站免费久久| 日韩黄色精品视频| 一区二区欧美在线| 久久爱www.| 成人综合视频在线| 亚洲欧洲在线观看av| 丰满人妻一区二区三区免费视频| 欧美伊久线香蕉线新在线| 国产一区二区三区站长工具| 激情久久综合网| 欧美日韩午夜视频在线观看| 三区四区电影在线观看| 97久久天天综合色天天综合色hd| 亚洲视频1区| 亚洲欧美综合7777色婷婷| 亚洲成人久久网| 深夜福利亚洲| 久久精品国产精品亚洲色婷婷| 国产精品久久久久影院| 亚洲精品一区二区口爆| 国产精品露脸av在线| 精品动漫一区| 欧美xxxooo| 亚洲人成人99网站| 午夜久久av| 在线观看高清免费视频| 性感美女极品91精品| 午夜激情视频在线观看| 九色综合日本| 国产成人精品在线看| 国产在线观看第一页|