精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大模型三階段訓練方法(LLaMa Factory) 原創

發布于 2024-12-10 12:32
瀏覽
0收藏

前言

本章我們將通過 LLaMA-Factory 具體實踐大模型訓練的三個階段,包括:預訓練、監督微調和偏好糾正。

大模型訓練回顧

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

訓練目標

訓練一個醫療大模型

訓練過程實施

準備訓練框架

??LLaMA Factory??是一款開源低代碼大模型微調框架,集成了業界最廣泛使用的微調技術,支持通過Web UI界面零代碼微調大模型,目前已經成為開源社區內最受歡迎的微調框架,GitHub星標超過2萬。

運行環境要求

  • ?硬件:
  • GPU:推薦使用24GB顯存的顯卡或者更高配置
  • 軟件:
  • python:3.10
  • pytorch:2.1.2 + cuda12.1
  • 操作系統:Ubuntu 22.04

推薦選擇DSW官方鏡像:??modelscope:1.14.0-pytorch2.1.2-gpu-py310-cu121-ubuntu22.04??

下載訓練框架

第一步:登錄ModelScope平臺,啟動PAI-DSW的GPU環境,并進入容器。

第二步:在容器中,通過命令行拉取代碼。

# 拉取代碼
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

# 進入代碼目錄
cd LLaMA-Factory

# 安裝依賴
pip install -e ".[torch,metrics]"

第三步:檢查環境是否安裝成功。

llamafactory-cli version

正常安裝成功顯示如下:

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

  1. 如果安裝不成功,需要根據提示信息進行逐個問題解決。
  2. 一般情況下,在ModelScope平臺中,一般會出現??Keras??? 版本不匹配的問題,可以運行??pip install tf-keras??解決。

第四步:進行端口映射命令 由于阿里云平臺的端口映射似乎存在問題,這會導致啟動LLaMA Factory的Web界面顯示異常,所以需要手動在命令行運行如下命令:

export GRADIO_SERVER_PORT=7860 GRADIO_ROOT_PATH=/${JUPYTER_NAME}/proxy/7860/

第五步:命令行下運行命令,啟動WebUI界面

llamafactory-cli webui

啟動后,點擊返回信息中的http://0.0.0.0:7860,可以看到Web界面。

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

準備訓練模型

選擇模型

在開展大模型訓練之前,由于我們不能從零開始訓練一個大模型(時間及資源都不允許!),所以我們需要選擇一個已經訓練好的模型,作為基礎模型進行訓練。

在ModelScope平臺,我們選擇??Qwen2-0.5B??模型作為底座模型。

下載模型

第一步:拉取代碼

git clone https://www.modelscope.cn/qwen/Qwen2-0.5B.git

第二步:在??LLaMA-Factory??下創建models目錄,方便后續模型都維護在該目錄下。

第三步:移動模型目錄到??LLaMA-Factory???的??models??目錄下。

LLaMA-Factory/
|-models/
    |-Qwen2-0.5B/

驗證模型

第一步:在??LLaMA-Factory??的WebUI界面,進行相關配置。

  • Model name:??Qwen2-0.5B??
  • Model path:??models/Qwen2-0.5B??

??models/Qwen2-0.5B??? 對應 ??下載模型?? 第三步中的路徑。由于Linux系統是大小寫敏感,所以需要特別注意頁面配置路徑與實際路徑大小寫要保持一致。

第二步:切換Tab為 ??Chat??? , 點擊 ??Load model??按鈕。 模型加載成功后,會顯示如下界面。

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

如果出現錯誤,可以通過切換到啟動??LLaMA Factory??的命令行查看日志信息排查問題。

第三步:在Chat的對話框中,輸入簡單信息驗證模型能否使用。

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

由于當前加載的??Qwen2-0.5B??是一個基礎模型,所以其對話能力會非常弱,這里我們主要是驗證模型加載的整體流程是否通順。

第1階段:預訓練

?由于大模型的預訓練需要數千個GPU并持續數月的時間,所以一般情況下實際工作中并不會涉及到預訓練,本篇文章我們只做的簡單流程體驗。

準備訓練數據

說明:LLaMa-Factory的Github上有訓練數據格式的詳細說明,請見README_zh。

  • 預訓練數據格式:??[
    {"text""document"},
    {"text""document"}
    ]?
    ?
  • 數據集樣例

按照數據集樣例,我們準備如下的自定義預訓練數據集,保存到??data/custom_pt_train_data.json??。

[
  {"text":"患者在過去的五年中多次出現頭痛癥狀。"},
{"text":"研究表明,適量運動有助于改善心血管健康。"},
{"text":"高血壓患者需定期監測血壓水平。"},
{"text":"糖尿病患者應注意飲食控制和胰島素使用。"},
{"text":"流感疫苗每年接種可以有效預防流感。"},
{"text":"保持良好的睡眠習慣對心理健康至關重要。"},
{"text":"慢性咳嗽可能是肺部疾病的早期征兆。"},
{"text":"定期體檢可以幫助早期發現健康問題。"},
{"text":"心理咨詢對緩解焦慮和抑郁癥狀有效。"},
{"text":"飲食中增加纖維素有助于消化系統健康。"},
{"text":"適量飲水對維持身體正常功能非常重要。"},
{"text":"戒煙可以顯著降低患肺癌的風險。"},
{"text":"高膽固醇水平可能導致心臟病。"},
{"text":"保持健康體重有助于降低多種疾病風險。"},
{"text":"心理健康與身體健康密切相關。"},
{"text":"兒童應定期進行視力和聽力檢查。"},
{"text":"老年人易患骨質疏松癥,需注意補鈣。"},
{"text":"過度飲酒會對肝臟造成嚴重損害。"},
{"text":"心臟病患者應遵循醫生的治療方案。"},
{"text":"良好的飲食習慣可以改善生活質量。"},
{"text":"運動可以幫助減少壓力和焦慮。"},
{"text":"戒煙后,肺部功能會逐漸恢復。"},
{"text":"高血糖可能導致多種并發癥。"},
{"text":"定期鍛煉有助于提高免疫力。"},
{"text":"適量的社交活動可以提高生活滿意度。"},
{"text":"健康的生活習慣可以改善整體健康狀況。"},
{"text":"心理健康教育應引起全社會的重視。"}
]

注冊自定義數據

根據LLaMa-Factory的README,我們需要在??dataset_info.json??中按照以下格式注冊自定義的數據集。

  • 數據集注冊格式:??"數據集名稱": {
    "file_name""data.json",
    "columns": {
      "prompt""text"
    }
    }?
    ?

我們在??data/dataset_info.json??中添加如下數據集:

"custom_pt_train_data": {
  "file_name": "custom_pt_train_data.json",
  "columns": {
    "prompt": "text"
  }
}

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

預覽訓練數據

在 LLaMa-Factory的WebUI界面上,選擇Dataset為 ??custom_pt_train_data???,點擊??Preview dataset??按鈕,預覽數據集。

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

配置訓練參數

  • Model name:??Qwen2-0.5B??
  • Model path:??models/Qwen2-0.5B??
  • Finetuning method:??full??
  • Stage :??Pre-Training??
  • Dataset:??custom_pt_train_data??? ,??c4_demo???,??wikipedia_zh??
  • Output dir:??Qwen2_pretrain_output_demo1??

參數簡要說明:

  • ??Finetuning method??代表微調的方法:

??full??: 完全微調模型的所有參數。

??Freeze??:凍結模型的某些層或所有層,僅微調特定的參數。

??LoRA (Low-Rank Adaptation)??:在不改變原始模型參數的情況下,通過添加少量的可訓練參數來適應新任務。

  • ??Stage?? 代表訓練的階段:
  • ??Pre-Training??: 預訓練階段。
  • ??Supervised Fine-Tuning??: 微調階段。
  • ??Reward Model??: 獎勵模型是一個過程,通過構建一個模型來預測給定輸入的獎勵值,通過訓練獎勵模型,可以為后續的強化學習提供一個目標。
  • ??PPO (Proximal Policy Optimization)??: PPO是一種強化學習算法,旨在優化策略(即模型的行為),以最大化預期獎勵。
  • ??DPO (Direct Preference Optimization)??: DPO是一種直接優化偏好的方法,通常用于根據人類反饋直接調整模型的輸出。
  • ??KTO (Knowledge Transfer Optimization)??: KTO指的是知識遷移優化,旨在從一個任務或模型中遷移知識到另一個任務或模型。

啟動訓練

點擊??Preview Command???預覽命令行無誤后,點擊??Start??即可開啟訓練。

如果啟動訓練失敗,可以通過切換到啟動??LLaMA Factory??的命令行查看日志信息排查問題。 例如:我首次啟動時報錯如下:

# ConnectionError: Couldn't reach 'pleisto/wikipedia-cn-20230720-filtered' on the Hub (ConnectionError)

這個問題是因為加載wikipedia-cn-20230720-filtered數據集時,由于網絡問題,導致無法加載。因此,本著將訓練流程跑通,我將數據集改為??wiki_demo??后運行,即可正常訓練。

正常訓練過程:

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

第2階段:監督微調

準備訓練數據

??SFT?? 的數據格式有多種,例如:Alpaca格式、OpenAI格式等。

其中Alpaca格式如下:

[
  {
"instruction":"human instruction (required)",
"input":"human input (optional)",
"output":"model response (required)",
"system":"system prompt (optional)",
"history":[
["human instruction in the first round (optional)","model response in the first round (optional)"],
["human instruction in the second round (optional)","model response in the second round (optional)"]
]
}
]

根據以上的數據格式,我們在ModelScope的數據集找到中文醫療對話數據-Chinese-medical-dialogue符合上述格式。

# 在data目錄下使用git命令拉取數據集
git clone https://www.modelscope.cn/datasets/xiaofengalg/Chinese-medical-dialogue.git

注冊自定義數據

在??dataset_info.json??中添加如下數據集:

"custom_sft_train_data":{
"file_name":"Chinese-medical-dialogue/data/train_0001_of_0001.json",
"columns":{
"prompt":"instruction",
"query":"input",
"response":"output"
}
},

預覽訓練數據

通過??Preview dataset??按鈕預覽數據集。

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

配置訓練參數

  • Model name:??Qwen2-0.5B??
  • Model path:??saves/Qwen2-0.5B/full/Qwen2_pretrain_output_demo1??
  • Finetuning method:??full??
  • Stage :??Supervised Fine-Tuning??
  • Dataset:??custom_sft_train_data??
  • Output dir:??Qwen2_sft_output_demo1??

配置參數說明:

  • ??Model path??:我們選擇第1階段預訓練模型的輸出目錄。
  • ??Stage???:這一階段,因為我們要進行微調,選擇??Supervised Fine-Tuning??。
  • ??Output dir???: 更換一個新的輸出路徑,以便后續開展第3階段訓練,例如:??Qwen2_sft_output_demo1??

啟動訓練

點擊??Preview Command??預覽命令行

llamafactory-cli train 
--stage sft 
--do_train True
--model_name_or_path saves/Qwen2-0.5B/full/Qwen2_pretrain_output_demo1
--preprocessing_num_workers 16
--finetuning_type full 
--template default 
--flash_attn auto 
--dataset_dir data 
--dataset custom_sft_train_data 
--cutoff_len 1024
--learning_rate 5e-05
--num_train_epochs 3.0
--max_samples 100000
--per_device_train_batch_size 2
--gradient_accumulation_steps 8
--lr_scheduler_type cosine 
--max_grad_norm 1.0
--logging_steps 5
--save_steps 100
--warmup_steps 0
--optim adamw_torch 
--packing False
--report_to none 
--output_dir saves/Qwen2-0.5B/full/Qwen2_sft_output_demo1
--bf16 True
--plot_loss True
--ddp_timeout 180000000
--include_num_input_tokens_seen True

補充說明:

  • ??--logging_steps 5??: 每 5 步記錄一次訓練日志。
  • ??--save_steps 100??: 每 100 步保存一次模型檢查點。

這里最好將??save_steps?? 設置大一點,否則訓練過程會生成非常多的訓練日志,導致硬盤空間不足而訓練終止。

命令行確認無誤后,點擊??Start??即可開啟訓練。

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

訓練過程中,記得實時關注資源的消耗情況:

  • 顯存:使用??watch -n 1 nvidia-smi?? 實時查看顯存開銷。
  • 硬盤:使用??watch -n 1 df -h /mnt?? 實施查看/mnt分區的磁盤使用情況。

歷時5小時30分鐘后,模型終于訓練完畢。(大模型的訓練果然是一個燒錢??的過程)

驗證模型

  1. 在LLaMA Factory的WebUI界面上,切換至??Chat??界面
  2. Model path: 輸入剛才訓練模型的輸出目錄,即??saves/Qwen2-0.5B/full/Qwen2_sft_output_demo1??
  3. 其他配置保持默認不變;
  4. 點擊??Load model??,待模型加載成功后,輸入看病相關的信息,測試模型的能力。

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

第3階段:偏好糾正

準備訓練數據

  • 糾正偏好數據格式:??[
    {
      "instruction""human instruction (required)",
      "input""human input (optional)",
      "chosen""chosen answer (required)",
      "rejected""rejected answer (required)"
    }
    ]?
    ??按照上述數據格式,我們借助其他的大模型生成20條訓練數據并保存到??data/custom_rlhf_train_data.json???。??[
    {
    "instruction":"請提供一種常見的感冒藥。",
    "input":"我需要一種能緩解咳嗽的藥。",
    "chosen":"感冒藥如對乙酰氨基酚可以緩解癥狀。",
    "rejected":"我不知道有什么藥。"
    },
    {
    "instruction":"解釋一下高血壓的危害。",
    "input":"高血壓對身體有什么影響?",
    "chosen":"高血壓會增加心臟病和中風的風險。",
    "rejected":"高血壓沒什么大不了的。"
    },
    {
    "instruction":"推薦一種健康的飲食習慣。",
    "input":"我想減肥,應該吃什么?",
    "chosen":"建議多吃水果和蔬菜,減少糖分攝入。",
    "rejected":"只吃沙拉就可以了。"
    },
    {
    "instruction":"描述糖尿病的癥狀。",
    "input":"糖尿病有什么明顯的癥狀?",
    "chosen":"常見癥狀包括口渴、頻繁排尿和疲勞。",
    "rejected":"沒有什么特別的癥狀。"
    },
    {
    "instruction":"如何預防流感?",
    "input":"我應該怎么做才能不得流感?",
    "chosen":"接種流感疫苗和勤洗手是有效的預防措施。",
    "rejected":"只要不出門就行了。"
    },
    {
    "instruction":"解釋一下心臟病的風險因素。",
    "input":"心臟病的危險因素有哪些?",
    "chosen":"包括高血壓、高膽固醇和吸煙。",
    "rejected":"心臟病與生活方式無關。"
    },
    {
    "instruction":"如何緩解焦慮?",
    "input":"我感到很焦慮,有什么建議?",
    "chosen":"嘗試深呼吸練習和規律鍛煉。",
    "rejected":"焦慮沒什么好擔心的。"
    },
    {
    "instruction":"推薦一些適合老年人的鍛煉方式。",
    "input":"老年人適合什么運動?",
    "chosen":"散步、游泳和太極都是很好的選擇。",
    "rejected":"老年人不需要運動。"
    },
    {
    "instruction":"解釋什么是過敏反應。",
    "input":"過敏反應是什么?",
    "chosen":"是免疫系統對某些物質的異常反應。",
    "rejected":"過敏反應就是感冒。"
    },
    {
    "instruction":"如何保持心理健康?",
    "input":"我應該怎么照顧自己的心理健康?",
    "chosen":"定期與朋友交流和尋求專業幫助是很重要的。",
    "rejected":"心理健康不重要。"
    },
    {
    "instruction":"描述高膽固醇的影響。",
    "input":"高膽固醇對身體有什么影響?",
    "chosen":"可能導致動脈硬化和心臟病。",
    "rejected":"高膽固醇沒什么影響。"
    },
    {
    "instruction":"如何識別抑郁癥?",
    "input":"抑郁癥的癥狀有哪些?",
    "chosen":"包括持續的悲傷、失去興趣和疲憊感。",
    "rejected":"抑郁只是心情不好。"
    },
    {
    "instruction":"建議如何提高免疫力。",
    "input":"我想增強免疫力,有什么建議?",
    "chosen":"保持均衡飲食、充足睡眠和適量運動。",
    "rejected":"吃藥就能提高免疫力。"
    },
    {
    "instruction":"講解什么是癌癥篩查。",
    "input":"癌癥篩查是什么?",
    "chosen":"是通過檢測早期發現癌癥的過程。",
    "rejected":"癌癥篩查沒必要。"
    },
    {
    "instruction":"如何處理壓力?",
    "input":"我壓力很大,怎么辦?",
    "chosen":"可以嘗試冥想和時間管理技巧。",
    "rejected":"壓力是正常的,不必處理。"
    },
    {
    "instruction":"解釋什么是肥胖。",
    "input":"肥胖是什么?",
    "chosen":"是體重超過健康范圍的狀態,通常由多種因素造成。",
    "rejected":"肥胖只是吃得多。"
    },
    {
    "instruction":"如何進行健康檢查?",
    "input":"健康檢查包括什么?",
    "chosen":"通常包括體檢、血液檢查和必要的影像學檢查。",
    "rejected":"健康檢查不重要。"
    },
    {
    "instruction":"推薦一些抗氧化的食物。",
    "input":"哪些食物富含抗氧化劑?",
    "chosen":"藍莓、堅果和綠茶都是很好的選擇。",
    "rejected":"抗氧化食物沒什么特別。"
    },
    {
    "instruction":"解釋什么是慢性病。",
    "input":"慢性病是什么?",
    "chosen":"是長期存在且通常無法完全治愈的疾病。",
    "rejected":"慢性病就是普通病。"
    }
    ]?
    ?

注冊自定義數據

在??dataset_info.json???中,注冊新添加的??custom_rlhf_train_data.json??數據集。

"custom_rlhf_train_data":{
"file_name":"custom_rlhf_train_data.json",
"ranking":true,
"columns":{
"prompt":"instruction",
"query":"input",
"chosen":"chosen",
"rejected":"rejected"
}
},

配置訓練參數

第三階段有兩種訓練方式:??Reward Model??? + ??PPO??? 和 ??DPO??,這兩種方式我們都做一下嘗試。

策略1:??Reward Model??? + ??PPO??

第一步:先訓練Reward Model

  • Finetuning method: 選擇??lora??? (因為是訓練補丁,所以此處一定要選擇為??lora??)
  • Stage: 選擇??Reward Modeling??
  • Dataset: 選擇剛才上傳??custom_rlhf_train_data.json??
  • Output dir:設置一個新的輸出目錄,例如:??Qwen2_rm_output_demo1??

訓練完畢后,會在save下生成一個補丁。

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

第二步:通過??PPO???+第一步訓練時的??Reward Model??,具體配置方法為:

  • Finetuning method: 選擇??lora??? (因為是訓練補丁,所以此處一定要選擇為??lora??)
  • Stage: 選擇??Supervised Fine-tuning??
  • Dataset: 由于這一過程本質是??SFT???訓練,所以數據集選擇??custom_sft_train_data.json??。
  • Reward model: 在??RLHF configurations???中,設置為第一步訓練的輸出目錄,即??Qwen2_rm_output_demo1??
  • Output dir:設置一個新的輸出目錄,例如:??Qwen2_ppo_output_demo1??

訓練完畢后,同樣會在save下生成一個補丁。

第三步:將Lora補丁與原始模型合并導出

  1. 切換到??Chat??標簽下
  2. Model path: 選擇第二階段的輸出,即:??saves/Qwen2-0.5B/full/Qwen2_sft_output_demo1??
  3. Checkpoint path: 選擇上面第二步的輸出,即??Qwen2_ppo_output_demo1??
  4. 點擊??Load model??,待模型加載成功后,測試模型
  5. 切換至??Export??標簽下
  6. Export path:設置一個新的路徑,例如??Qwen2_final_output_demo1??
  7. 點擊??Export??按鈕

最終,會在LLaMa Factory中,生成導出的目錄文件,該文件即為最終訓練的模型。

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

策略2:直接使用??DPO??訓練

第一步:直接配置??DPO??訓練參數

  • Finetuning method: 選擇??lora??
  • Stage: 選擇??DPO??
  • Dataset: 選擇剛才上傳??custom_rlhf_train_data.json??
  • Output dir:設置一個新的輸出目錄,例如:??Qwen2_dpo_output_demo1??

訓練完畢后,會在save下生成一個補丁。

第二步:將Lora補丁與第二階段訓練的模型輸出合并導出。(該步驟與上面策略1的方法類似,此處不再贅述)

至此,經過大模型的三個階段,我們完成了一個醫療大模型的訓練。

附錄

TeleChat-PTD數據集

如果涉及到從零開始訓練大模型的話,預訓練數據集可以參考了解 ??TeleChat-PTD?? 數據集。

數據集簡介

  • TeleChat-PTD是由電信星辰大模型TeleChat預訓練語料中抽取出的的綜合性大規模中文數據集。
  • 數據集地址:https://modelscope.cn/datasets/TeleAI/TeleChat-PTD
  • 數據集規模:2.7億
  • 數據集類型:純中文文本構成
  • 數據集來源:網頁、書籍、官方媒體等
  • 數據集大小:原始大小約1TB,壓縮后480G,共189個文件。

數據集特點

  • 該數據集是以??JSON Lines??? 格式??(.jsonl)??存儲的,每一行都是一個獨立的 JSON 對象。
  • 每個??JSON??? 對象包含一個鍵為??"data"??? 的字段:??{
    "data""文本內容"
    }?
    ?

數據集內容預覽

大模型三階段訓練方法(LLaMa Factory)-AI.x社區

內容小結

  • LLaMA-Factory是一個開源的、可自定義的、可擴展的、可部署的、可訓練的大模型訓練平臺。
  • LLaMA-Factory的訓練流程分為3個階段:預訓練、監督微調、偏好糾正。
  • 訓練過程的大致步驟為:

     1.按照LLaMA-Factory官方README文檔的數據格式,準備訓練數據;

     2.按照LlaMA-Factory官方README文檔,在的dataset_info.json文件,注冊自定義數據;

     3.根據訓練階段配置訓練參數,包括模型名稱、模型路徑、訓練方法、數據集、輸出目錄等;

     4.預覽訓練命名無誤后,啟動訓練。

     5.如果啟動訓練失敗,可以通過切換到啟動??LLaMA Factory??的命令行查看日志信息排查問題。


本文轉載自公眾號一起AI技術 作者:熱情的Dongming

原文鏈接:??https://mp.weixin.qq.com/s/b1-W1bopDZwVk16AUEik2Q??

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
標簽
已于2024-12-10 12:37:09修改
收藏
回復
舉報
回復
相關推薦
黄色免费大全亚洲| 日本在线视频www鲁啊鲁| 久久一日本道色综合久久| 亚洲午夜久久久影院| 不用播放器的免费av| av理论在线观看| 久久伊人中文字幕| 成人欧美在线视频| 九一国产在线观看| 天天做天天爱天天爽综合网| 亚洲国产精品久久久久秋霞不卡| 中文字幕网av| 国产高潮在线| 国产精品久久久久桃色tv| 国产伦精品一区二区三区视频免费 | 欧美电影院免费观看| 亚洲成人精品在线观看| 伊人天天久久大香线蕉av色| 深爱五月激情五月| 激情五月播播久久久精品| 97**国产露脸精品国产| 久艹在线观看视频| 久9久9色综合| 亚洲第一在线视频| 日韩成人精品视频在线观看| 中文在线а√天堂| 亚洲综合自拍偷拍| 中文字幕在线中文字幕日亚韩一区| 视频污在线观看| 黄色资源网久久资源365| 日韩免费av片在线观看| 国产精品6666| 欧美xxx在线观看| 国产一区二区久久精品| 精品无码国产一区二区三区51安| 成人在线分类| 欧美日韩国产高清一区二区三区| 精品久久久久久久免费人妻| av美女在线观看| 亚洲精品乱码久久久久久| 亚洲一区高清| 国产资源在线观看| 久久久国产午夜精品| 精品一区久久久| 少妇人妻精品一区二区三区| 国产精品自产自拍| 91视频-88av| 国产精品毛片一区二区在线看舒淇| 三级久久三级久久| 欧美专区在线播放| 国产精品乱子伦| 亚洲专区一区二区三区| 81精品国产乱码久久久久久| 日韩污视频在线观看| 亚洲福利电影| 午夜精品久久久久久久久久久久久| 久久久久久久久久久网| 一区二区亚洲| 性欧美长视频免费观看不卡| 日本黄色片视频| 日韩午夜av在线| 97视频在线免费观看| 亚洲欧美在线观看视频| 亚洲免费综合| 日韩美女av在线免费观看| 中文字幕高清在线免费播放| 久久视频一区| 国产精品入口福利| 国产精品爽爽久久久久久| 狠狠色狠狠色综合| 99在线热播| 五月激情婷婷综合| 久久精品男人天堂av| 天天综合色天天综合色hd| 在线免费av网站| 啦啦啦中文在线观看日本| 午夜国产精品视频| 欧美黄色小视频| 免费看日韩毛片| 亚洲影音先锋| 国产综合在线观看视频| 精品女同一区二区三区| 97久久超碰国产精品| 欧美日韩在线精品一区二区三区| av电影在线观看网址| 亚洲乱码国产乱码精品精98午夜 | 成年人视频在线观看免费| 中文字幕av一区 二区| 潘金莲一级淫片aaaaaa播放1| 欧美色图天堂| 91福利在线看| 永久看看免费大片| 曰本一区二区三区视频| 日韩在线观看你懂的| 欧美日韩中文视频| 日韩高清在线一区| 成人网址在线观看| 亚洲区小说区图片区| 国产精品毛片久久久久久| a级片一区二区| 成人视屏在线观看| 日韩西西人体444www| 色无极影院亚洲| 欧美成人首页| 国产精品入口日韩视频大尺度| 国产黄频在线观看| 久久久久久99精品| 久久久久久久久久久综合| 欧美xo影院| 日韩精品一区二区三区视频 | 欧美有码在线视频| 国产欧美日韩成人| 欧美极品xxx| 亚洲 欧美 日韩 国产综合 在线| 久久久久久久性潮| 亚洲免费av网址| 久久久久免费看| 久久99久久99小草精品免视看| 国产精品久久国产三级国电话系列 | 亚洲性日韩精品一区二区| 九九视频在线免费观看| 奇米影视7777精品一区二区| 精品欧美一区二区在线观看视频| 国产网站在线免费观看| 欧美亚一区二区| 成年人网站免费在线观看| 综合一区av| 成人精品视频久久久久| 黄色电影免费在线看| 黄色一区二区在线| 国产亚洲精品成人a| 忘忧草精品久久久久久久高清| 国产成人精品一区| 亚洲色图另类小说| 欧美日韩国产综合新一区| 久久久久久久久久久久国产精品| 中文字幕一区二区三区久久网站| 国产精品自产拍在线观看| 国产中文字幕在线| 一本久道中文字幕精品亚洲嫩| 一区二区免费在线观看视频| 欧美激情91| 亚洲最大福利视频网| a级在线观看| 欧美一区二区三区在线观看视频 | 午夜视频www| 亚洲成人免费在线观看| a级一a一级在线观看| 亚洲欧洲一区| 精选一区二区三区四区五区| 草草在线视频| 亚洲激情视频网站| 毛片基地在线观看| 久久久久久亚洲综合| 91视频最新入口| 亚洲第一福利社区| 国产精品99久久99久久久二8| 国产视频第一区| 在线国产亚洲欧美| 在线视频这里只有精品| 国产一区二区三区精品欧美日韩一区二区三区 | 毛茸茸free性熟hd| 亚洲综合国产| 日韩一区二区电影在线观看| 成人在线观看免费播放| 色999日韩欧美国产| 国产麻豆免费视频| 亚洲夂夂婷婷色拍ww47| 亚洲视频在线播放免费| 久久性天堂网| 色香蕉在线观看| 免费精品一区| 7777精品视频| 18视频免费网址在线观看| 91精品国产综合久久久蜜臀粉嫩| 日本妇女毛茸茸| 成人精品亚洲人成在线| 女人和拘做爰正片视频| 精品日韩欧美一区| 91香蕉电影院| 日韩伦理在线一区| 中文国产成人精品| 成人激情四射网| 欧美色播在线播放| 成年人免费视频播放| 国产91精品欧美| 韩国一区二区av| 牛牛国产精品| 欧美日韩一区在线播放| 91亚洲精品在看在线观看高清| 欧美精品www| av女优在线| 精品福利一二区| 自拍偷拍第八页| 婷婷亚洲久悠悠色悠在线播放 | 天堂网在线观看视频| 日本乱人伦一区| 欧美黑吊大战白妞| 国产三级欧美三级| 无码人妻一区二区三区免费n鬼沢| 国产欧美一级| 91网站在线观看免费| 国产亚洲精品美女久久久久久久久久| 91中文字幕在线| 欧美极品免费| 国内精品小视频| 男人资源在线播放| 亚洲欧美一区二区精品久久久 | 亚洲福利视频在线| 一卡二卡在线视频| 日韩欧美国产网站| 免费中文字幕在线观看| 中文字幕国产精品一区二区| 日韩www视频| 国产精品66部| 激情五月俺来也| 久久国产福利| 男人日女人逼逼| 国产精品啊啊啊| 五月天色婷婷综合| 成人在线丰满少妇av| 蜜桃av久久久亚洲精品| 国产日韩三级| 亚洲综合日韩在线| 亚洲三级在线| 国产精品免费视频久久久| 天堂电影一区| 91成品人片a无限观看| 欧美黑人猛交| 九九热最新视频//这里只有精品| 91福利在线视频| 一个人www欧美| 国产午夜在线视频| 亚洲天堂av电影| 麻豆导航在线观看| 亚洲久久久久久久久久久| 欧性猛交ⅹxxx乱大交| 日韩一级黄色大片| 精品国产亚洲一区二区麻豆| 欧美久久高跟鞋激| 91亚洲视频在线观看| 精品视频1区2区| 中文字幕在线观看1| 欧美午夜在线观看| 一区二区三区日| 欧美美女bb生活片| 国产免费av观看| 日韩欧美在线综合网| www.桃色av嫩草.com| 精品国产91乱码一区二区三区| 六月婷婷综合网| 亚洲国产日韩精品在线| 日本韩国精品一区二区| 亚洲女成人图区| 成人影院免费观看| www日韩中文字幕在线看| 免费网站成人| 欧美成人剧情片在线观看| 97caopron在线视频| 久久久久久久久久国产| 成av人片在线观看www| 91福利视频在线观看| 欧美123区| 91精品国产综合久久香蕉最新版| 成人51免费| 国产精品区二区三区日本| 日韩深夜福利| 亚洲视频在线二区| 欧美精品成人| 鲁一鲁一鲁一鲁一澡| 日韩精品电影一区亚洲| 五月花丁香婷婷| 成人黄色一级视频| 免费毛片视频网站| 国产精品黄色在线观看| 久久机热这里只有精品| 狠狠综合久久av一区二区小说| 无码aⅴ精品一区二区三区| 欧美日本一道本在线视频| 精品欧美在线观看| 日韩电视剧免费观看网站| 国产精品秘入口| 九色成人免费视频| 人在线成免费视频| 国产在线久久久| 国产精品宾馆| 亚洲精品一区二区三| 狠久久av成人天堂| 午夜免费一区二区| 丰满少妇久久久久久久| 亚洲av无码一区二区三区人| 亚洲精品久久久久久国产精华液| 国产欧美一区二区三区在线看蜜臂 | 日韩一级免费看| 久久久噜噜噜| 人妻少妇偷人精品久久久任期| 91一区在线观看| 182在线观看视频| 欧美视频专区一二在线观看| 亚洲无码久久久久| 亚洲精品久久久久中文字幕二区| 在线视频婷婷| 日本高清不卡的在线| 日韩区一区二| 亚洲资源在线网| 久久精品一区| 欧美一级大片免费看| 久久先锋影音av鲁色资源| 国产精品免费在线视频| 日韩欧美精品中文字幕| 亚洲美女性生活| 日韩在线国产精品| 欧美成人精品一区二区男人小说| caoporn国产精品免费公开| 欧美特黄一级大片| 久久久999视频| 成人av片在线观看| 精品欧美一区二区久久久久| 欧美在线色视频| 日本午夜在线视频| 午夜免费久久久久| 8x国产一区二区三区精品推荐| 亚洲欧美久久234| 日精品一区二区| 人妻熟女aⅴ一区二区三区汇编| 亚洲综合自拍偷拍| 精品国产av一区二区三区| 中文字幕日韩欧美在线视频| 午夜激情成人网| 欧美精品国产精品久久久 | 欧美日韩一二三四| 日本黄网站免费| 91美女在线视频| 免费在线观看黄网站| 精品久久久久久久一区二区蜜臀| 国产三区视频在线观看| 91精品久久久久久久久青青| 日本一本不卡| 毛片毛片毛片毛片毛片毛片毛片毛片毛片| 99re这里都是精品| 欧美亚洲天堂网| 亚洲国产日韩欧美综合久久| 99re6在线精品视频免费播放| wwwxx欧美| 精品99视频| 亚洲中文字幕一区| 日韩欧美在线视频免费观看| 清纯唯美亚洲色图| 国产999精品久久久影片官网| 小嫩嫩12欧美| 成年人视频在线免费| 国产视频一区不卡| 一区二区视频免费| 日韩亚洲在线观看| 欧美成人精品一级| 亚洲精品蜜桃久久久久久| 盗摄精品av一区二区三区| 国产真实夫妇交换视频| 亚洲成人网在线观看| 欧美激情网站| 日本免费高清不卡| 久久精品久久精品| 九九热这里有精品视频| 亚洲国产精品女人久久久| 松下纱荣子在线观看| 日韩av高清在线播放| 久久av资源站| 久久婷婷一区二区| 精品亚洲一区二区三区四区五区| 成人免费无遮挡| 亚洲开发第一视频在线播放| 国产精品一区二区久激情瑜伽| 日韩高清免费av| 亚洲视屏在线播放| 国产成人免费av一区二区午夜| 免费人成自慰网站| 久久久亚洲午夜电影| 亚洲天堂手机在线| 欧美激情一级精品国产| 精品在线播放| aaa一级黄色片| 午夜电影网亚洲视频| 丁香婷婷在线| www.久久久| 青青草成人在线观看| 国产一级一片免费播放放a| 亚洲嫩模很污视频| 日本一区二区三区播放| 日韩av黄色网址| 中文字幕亚洲欧美在线不卡| 日韩一卡二卡在线| 国产日韩欧美另类| 亚洲一区免费| 欧美日韩国产精品综合 | 97caopor国产在线视频| 精品在线不卡| 国产精品亚洲午夜一区二区三区| 国产区一区二区三| 欧美丰满少妇xxxx| 俺要去色综合狠狠|