精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

PAI-ChatLearn :靈活易用、大規模 RLHF 高效訓練框架(阿里云最新實踐)

人工智能
隨著大模型的快速發展,推動了模型訓練方式(特別是深度學習和人工智能領域)不斷演進。隨著模型規模的增長,單個設備(如 GPU 或 CPU)的內存和計算能力已經不足以處理整個模型,因此需要采用并行化策略來分配任務和計算負載。

PAI-ChatLearn 是阿里云機器學習平臺 PAI 團隊自主研發的,靈活易用、大規模模型 RLHF 高效訓練框架,支持大模型進行 SFT(有監督指令微調)、RM(獎勵模型)、RLHF(基于人類反饋的強化學習)完整訓練流程。PAI-ChatLearn 支持訓練和推理組合使用不同的 backend,可對各個模型配置不同并行策略和靈活的資源分配,支持大規模(175B + 175B)模型的 RLHF 高效訓練,性能比業界框架有較大提升,有助于用戶專注于模型效果調優。

一、大模型訓練方式演進

隨著大模型的快速發展,推動了模型訓練方式(特別是深度學習和人工智能領域)不斷演進。隨著模型規模的增長,單個設備(如 GPU 或 CPU)的內存和計算能力已經不足以處理整個模型,因此需要采用并行化策略來分配任務和計算負載。下面分別介紹模型訓練的數據并行、模型并行和任務并行。

1、數據并行(Data Parallelism)

早期的深度學習模型相對較小,如經典的卷積神經網絡模型 AlexNet 和 ResNet,可在單個 GPU 上順利運行。然而,隨著圖像數據量的激增,單 GPU 的訓練性能逐漸無法滿足需求。為了應對這一挑戰,模型訓練開始采用數據并行策略來加速。

數據并行(Data Parallelism)是將訓練數據集分割成多個小批次,并在多個處理器或設備上同時訓練模型的副本。每個設備都有模型的一個完整副本,并且在每個訓練步驟結束時,通過某種形式的通信(如梯度平均或參數服務器)來同步模型參數。

數據并行(Data Parallelism)策略本身也經歷了一系列的演進。例如,Zero Redundancy Optimizer (ZeRO) 和 Fully Sharded Data Parallel (FSDP) 等概念的出現,它們的核心思想是在訓練過程中將狀態信息、梯度或模型參數分散存儲,而計算過程仍然遵循數據并行的原則。將訓練數據集分割成多個小批次,并在多個處理器或設備上同時訓練模型的副本。每個設備都有模型的一個完整副本,并且在每個訓練步驟結束時,通過某種形式的通信(如梯度平均或參數服務器)來同步模型參數。

這種方法可以顯著減輕每個 GPU 上的顯存壓力,使得我們能夠訓練更大的模型。但隨著模型規模的增加,數據并行策略需要更高效的通信機制和更大的帶寬來處理增加的同步負載。

圖片

2、模型并行

隨著模型規模的進一步擴大,純粹的數據并行已不足以滿足訓練需求。我們面臨的挑戰不僅是顯存容量不足,還包括計算能力的限制。因此,模型并行(Model Parallelism)成為了一種大規模深度學習模型訓練的常用解決方案。

模型并行依據模型切分方法主要分為兩種形式:流水并行(Pipeline Parallelism)和張量并行(Tensor Parallelism):

  • 張量并行
    將模型的張量(Tensor)切分成多個片段,每個計算單元(如GPU)負責存儲和計算其中的一部分。這種方法可以有效地減少每個計算單元上的內存占用,從而支持更大模型的訓練。
    缺點:可能會導致大量的跨設備通信,因此它更適合于具有高帶寬的內部機器通信,如使用 NVLink 的場景。
  • 流水并行(Pipeline Parallelism)
    將模型按照層(Layer)進行切分,每個計算單元負責模型中一部分層的計算。這種方式同樣可以減輕單個計算單元的內存負擔,并且有助于支持更大規模的模型訓練。通信需求相對較小,適合于基礎設施較弱、帶寬較低的環境。
    缺點:可能會引入大量的空閑時間(Bubbles),需精心設計流水線以避免產生大量的等待時間。
  • 其他模型并行變體
    Mixture of Experts (MoE) 中的專家并行(Expert Parallelism)會將專家模塊分布到不同的計算單元上。
    序列并行(Sequence Parallelism)會在訓練過程中將激活函數的輸出(Activation)分散存儲,以此減少顯存占用。

單一的模型并行往往難以高效地支持模型訓練。更大的模型(如GPT3-175B)需要混合多種并行策略。混合并行(Hybrid Parallelism)結合了數據并行、模型并行和任務并行的優點,以實現更高效的訓練。如,可以在多個設備上使用數據并行來訓練模型的不同副本,同時在每個設備內部使用模型并行來處理模型的不同部分。

圖片

3、任務并行

隨著模型的不斷演進,模型訓練方式出現了一些新的趨勢。任務并行不是直接針對模型或數據的并行化,而是將不同的任務分配給不同的處理器或設備。在大模型訓練中,任務并行可以用來同時執行多個不同的訓練過程,例如,同時進行超參數搜索、模型評估或不同模型的訓練。任務并行可以提高資源利用率和訓練效率,但需要有效的任務調度和管理機制。

  • 多任務/多模態模型訓練
    需要在任務維度進行并行訓練,如谷歌提出的 Pathways 架構,不同任務之間可能會共享參數。又如 GPT-4v,是多模態模型,能處理語音、文本等不同類型的數據。
  • 大模型結合 RLHF 來提升模型效果,如 ChatGPT、GPT4 等都進行了 RLHF。
  • 從單程序多數據(SPMD)模式向多程序多數據(MPMD)模式轉變。

圖片

(1)RLHF

RLHF (Reinforcement Learning from Human Feedback)是將初始語言模型的微調任務建模為 RL 強化學習問題,用人類反饋信號來優化,使生成更符合人類的期望,提高模型的性能和可靠性。

訓練步驟:

圖片


  • 步驟一:預訓練語言模型
    預訓練語言模型,并進行 SFT(Supervised Fine-Tuning),在人工精心撰寫的語料上進行微調。
    開源的預訓練模型:Qwen、LLaMA、Baichuan 等。
  • 步驟二:訓練獎勵模型(RM)
    訓練獎勵模型判斷模型生成的文本是否符合人類偏好。
    開源的獎勵模型:Ziya-LLaMA-7B-Reward 等。
  • 步驟三:使用強化學習進行微調
    結合人類反饋信號,使用強化學習來微調模型。
    社區模型:ChatGPT、GPT4、GPT4-Turbo 等。

(2)ChatLearn 框架構建必要性

RLHF訓練需要Policy、Reward、Value 等 models 同時訓練。已有框架如 Megatron-LM、DeepSpeed 等適用于單模型訓練/推理。已有的 RLHF 框架只支持單機訓練或者多機將模型 place 在相同的設備上,支持的模型最大規模受限,不支持 70B+70B 或以上規模,并且無法支持混合框架的訓練/推理。

圖片

二、PAI-ChatLearn 框架介紹

本節主要介紹 PAI-ChatLearn 框架的底層實現細節、接口如何定義以及如何實現大規模高效的 RLHF 訓練。

1、PAI-ChatLearn 框架

PAI_ChatLearn 是一個靈活且適用于大規模 RHF 訓練的高效框架,其特點如下:

  • 支持 SFT(有監督的微調)、RM(獎勵模型)、RLHF 全流程訓練
  • Policy、Value model 的推理和訓練分離,支持高效 weight 同步
    由于訓練和推理的特點不同,所需資源和并行策略也不盡相同。
    HF 訓練過程較復雜,(如策略模型(Policy Model)既參與生成(generation)也參與訓練(training)),會對模型進行分割,如將推理(inference)和訓練的模型分開,采用不同的并行策略,以實現高效的訓練和推理。
    實現了基于高速通道的參數同步機制,以確保模型參數的最終一致性,實現更高效的訓練。
  • 訓練、推理支持不同 backend,實現環境隔離。如在訓練中可以使用 Megatron 作為后端,而在推理中可以使用 VIM 框架,這樣的組合可能會達到更好的效果。
  • 各模型支持獨立配置并行策略和資源,分布式 actor 的設計。
  • 支持任意規模模型(如 175B+175B)訓練
  • 單機視角編程,分布式執行,用戶在編寫代碼時不需要關心底層模型的分配和執行。

下圖是在 PAI_ChatLearn 中實現的 RLHF 訓練流程的圖示。

圖片

2、PAI-ChatLearn 架構簡介

(1)API 層

API 層提供模型建模的接口

  • RLHF Module 是一個通用的抽象 RLHF 模塊接口。通過這個接口,用戶只需實現一些方法的封裝,就可以完成不同模型的構建。
  • RLHF Config 配置 e2e 訓練參數
  • Model Config 配置各個 model 的參數

(2)引擎層

Engine 層負責具體資源分配和調度,以及訓練和推理的實際執行。

  • DistActor 用來抽象單個分布式任務和資源,負責各個 model 的執行環境和資源分配,可實現靈活擴展。
  • 訓練和推理容許使用不同的 Backend。如推理可以使用 PyTorch 或 vLLM 框架,訓練后端可以選擇 Megatron、DeepSpeed 或自研的框架。
  • 還進行了各種優化,包括計算、通信和顯存優化,以確保訓練性能。

圖片

3、PAI-ChatLearn 訓練核心流程

PAI-ChatLearn 訓練核心流程如下,首先對 chatlearn 進行初始化,接著定義模型(RLHF 訓練過程包含 2 個 training 模型,4 個模型做 inference),然后定義 Engine 和數據集,調用 engine.learn() 開始訓練。

圖片

4、PAI-ChatLearn 訓練配置

運行環境配置

PAI-ChatLearn 訓練框架中,用戶通過 YAML 文件來配置整個運行環境,無論是 PAI 的執行環境 DLC 還是本地 local 環境,都可靈活配置。

在任務分發過程中,采用了一種內部優化策略,即通過 'exclude' 功能,可以明確指定不需要分發的組件。從而有效減少不必要的通信開銷,提高整體效率。

模型配置

每個模型有獨立的配置選項,允許用戶根據需要自定義資源分配和策略。在 RLHF 中,支持六種不同的模型配置。

RLHF 訓練配置

用戶可以定義諸如實際運行的數量、訓練批次大小、生成任務的基線大小等參數。此外,還可以設置定期保存檢查點的時間間隔、數據存儲路徑以及評估模型性能的時間點。

圖片

PAI-ChatLearn 框架提供了清晰的配置流程,用戶只需定義模型并添加相應的配置,即可輕松啟動訓練過程。

5、PAI-ChatLearn 接口-模型定義

圖片

為了加速模型構建過程,我們提供了一系列的子類,這些子類旨在簡化和加快開發流程。無論是基于 PyTorch、Meta 還是 VIM 的框架,這些子類都能夠提供強大的支持。同時,用戶可以選擇基于這些子類或者直接基于父類來構建 HF 模型。

在 PAI-ChatLearn 框架中,模型的封裝變得很簡單。用戶只需關注模型的設置和構建過程,例如初始化(init)環節。封裝層旨在屏蔽不同框架之間的接口差異,使得用戶只需在我們的框架中進行一層封裝。例如,如果用戶需要實現前向傳播(forward steps),無論是僅進行推理還是進行完整的訓練周期,我們的封裝都能夠簡化這一過程。用戶只需將模型中已定義的訓練模塊進行整合,即可實現標準模型訓練的流程。

此外,框架提供了底層接口的靈活選擇,以適應不同的執行需求。用戶可以選擇 Megatron 作為執行引擎,VIM 作為后端,或者采用我們團隊自研的高性能計算機 HC 作為后端資源。這種自由切換的能力確保了用戶可以根據具體需求和偏好選擇最合適的工具和資源。

三、PAI-ChatLearn 使用示例

本節基于開源模型示例講解模型 RLHF 訓練的具體流程及訓練效果。

1、開源 transformers 模型示例

(1)鏡像和模型準備

鏡像:

PAI-DLC 平臺上提供已經準備好的鏡像或參考 ChatLearn 提供的 Dockerfile 自定義鏡像

模型:

下載開源模型,例如從 Huggingface 或 ModeScope 上下載。

如果是 HuggingFace transformers 的模型,調用 ChatLearn 提供的工具將 transformers 模型轉成 Megatron-LM 格式,支持修改模型的并行策略。

(2)訓練步驟

步驟一:訓練 SFT 模型

準備 SFT 訓練的數據:

格式:{'query':問題,'response':回復}。

訓練方式:

轉換好的模型,調用 ChatLearn 進行 SFT 訓練。

訓練好保存 SFT 模型

如果有訓練好的SFT 模型,這個步驟可以跳過。

步驟二:訓練獎勵模型(RM)。

準備 RM 訓練的數據:

格式:{'query':問題,'response':[回復1, 回復2, .....],'score':[score1,score2,.....]}。

訓練方法:

定義 RM,一般主體結構復用 SFT,增加一個 head 層。

使用訓練好的 SFT 模型參數初始化 RM。

調用 ChatLearn 進行 RM 訓練。

保存訓練好的模型。

步驟三:使用強化學習進行微調。

準備 RL 訓練的數據:

格式:{"prompt":問題}。

訓練方法:

定義 Policy/Reference Model,結構和 SFT 模型一致。

使用 SFT 模型參數初始化 Policy/Reference Model。

定義 Reward/Value model,結構和 Reward Model 一致。

使用 RM 模型參數初始化 Reward/Value model。

調用 ChatLearn 進行 RLHF 訓練。

保存訓練好的模型。

步驟四:Inference。

離線批量預測。

準備好需要預測的數據集合。

調用 ChatLearn 加載訓練好的 RLHF 模型進行離線批量預測。

在線預測。

調用 ChatLearn 工具將訓練好的 RLHF 模型轉成 Transformer 格式。

調用 PAI-EAS 或 vLLM 部署模型進行在線預測。

2、Vicuna 13B+13B 訓練效果

圖片

Base 模型使用 Vicuna 13B,RM 也采用 13B 規模。

在 HH(helpful&harmless)數據集進行 SFT、RM、RLHF 訓練。

RLHF 訓練使用了 16 GPUs。

RLHF 訓練中 Reward Model 的評分如圖所示。

在 MT-Bench 上使用 GPT-4 API 測評 SFT 和 RLHF 模型的效果,平均得分提升 11%。

  • ChatLearn 性能:
    A800 上測試不同規模 RLHF 訓練 ChatLearn 的性能。
    Policy 和 Reward Model 使用相同規模配置。
    相比于 DeepSpeed-chat,7B+7B~30B+30B 規模比 DeepSpeed-chat 快 48%~82%。
    66B + 66B 時 32 GPUs 上 DeepSpeed-chat 會 OOM,ChatLearn 可以正常訓練。
    ChatLearn 可以支持 175B+175B 等更大規模模型訓練。

圖片

3、PAI-ChatLearn 效果

  • Qwen-14B 上的效果:

圖片

Policy 和 Reward Model 都是 14B;

基礎評測上效果如上圖所示,優于同規模的其他開源模型;

構造一個包含廣泛主題的測試數據集進行人工評測,RLHF 訓練的模型效果明顯優于 SFT 模型。測試題包括知識類、語言理解類,創作類、數學類,編碼類等能力。

四、問答環節

Q1:Reward 模型中有多種評分機制,如科學準確性、合規性以及人性化表達等,是否有多維度獎勵模型評測的實際工程經驗?

A1:百川 2 技術報告中提到模型中的 HF 訓練,使用了不止一個獎勵模型。如在數學領域,現有的獎勵模型在數學評分方面可能不夠精準,效果不理想,他們會專門采用一個單獨的數學能力更強的模塊來輔助獎勵模型的訓練。

一些開源框架,由于是平鋪設計,會遇到顯存不足等各種挑戰,難以擴展。

而 PAI-ChatLearn 框架,其采用分離式架構設計,方便了在不同階段進行各種擴展。只需在獎勵模型部分添加一系列處理邏輯,即可實現多個獎勵模型的結合。由于每個模型都被封裝成一個獨立的分布式 actor,所以只需添加一個新的分布式 actor,并將其結果串聯起來,最后用KL散度或其他方法進行計算即可。

Q2:在使用 PAI 開發套件中,遇到從 Hugging Face 轉 Megatron 模型進行 TP或 PP 切分后保存于磁盤會變大很多倍的問題,請問是什么原因,如何解決?

A2:對模型進行 TP 張量并行或者 PP 流水并行的切分是不會改變模型大小的。

老版本的 Megatron 上有個 bug,進行轉換后會保存多份,最新版本已經沒有這個問題了。

Q3:PAI_ChatLearn 中實現的 RLHF 訓練流程圖中有很多變量,是否可以任意進行配置?

A3:這個是一個標準的 PPO 實現,這些參數是必要的。

PAI-ChatLearn 會把這個 inference 和 training 分開,增加了參數同步,也即最上面的線的部分。

責任編輯:姜華 來源: DataFunTalk
相關推薦

2021-11-15 10:00:22

模型人工智能NLP

2025-02-06 09:43:08

HybridFlowRay大語言模型

2014-07-15 13:41:41

阿里云可信云

2016-04-15 00:43:13

2023-05-26 08:39:44

深度學習Alluxio

2022-04-02 15:56:43

神經網絡人工智能技術

2022-03-15 18:33:34

URL重構Dubbo3.0

2023-04-04 07:32:35

TorchRec模型訓練

2022-03-21 08:30:13

開源模型訓練預測引擎

2021-04-22 13:38:21

前端開發技術

2012-08-31 10:12:40

阿里云云計算

2014-06-20 10:34:20

阿里云帶寬數據中心

2025-10-16 09:14:48

2023-11-20 07:27:00

云原生Spark

2022-10-14 14:44:04

字節跳動ByteTechHTTP 框架

2023-03-05 15:51:54

AIGCChatGPT

2016-12-14 11:44:25

阿里Docker大數據

2022-05-09 09:30:06

框架開源模型

2024-07-19 09:01:07

2025-06-10 08:15:00

LLM大語言模測試
點贊
收藏

51CTO技術棧公眾號

jizz在线观看中文| 波多野结衣电影在线播放| 日韩免费一级| 亚洲成人你懂的| 欧美日韩一区二区三区在线观看免| 国产精品午夜一区二区| 欧美搞黄网站| 亚洲免费一在线| www.这里只有精品| 99re6在线精品视频免费播放| 久久中文娱乐网| 91久久国产精品| 国产一级特黄aaa大片| 欧美精品尤物在线观看| 日韩精品资源二区在线| 亚洲成人av免费看| 白浆在线视频| 中文字幕综合网| 欧美日韩在线精品| 亚洲国产精品无码久久| 日韩av网站免费在线| 欧美日本高清视频| 性爱在线免费视频| 亚洲国产欧美日韩在线观看第一区| 欧美精品久久99久久在免费线| 国产特级黄色大片| 欧美男男video| 色综合天天爱| 日韩成人av在线| 国产又粗又猛大又黄又爽| 日本不卡一二三| 香蕉成人伊视频在线观看| 中国成人亚色综合网站| 久久米奇亚洲| 白白色 亚洲乱淫| 97av影视网在线观看| 亚洲一区二区色| 久久久成人网| 91国内在线视频| 中文字幕av久久爽av| 色喇叭免费久久综合网| 在线观看精品国产视频| 国精产品一区一区三区免费视频| 成人性生交大片免费看中文视频| 日韩一区二区视频| 小早川怜子一区二区三区| av成人在线看| 欧美制服丝袜第一页| 日韩在线视频在线观看| av手机在线观看| 亚洲国产精品尤物yw在线观看| 国产树林野战在线播放| 爆操欧美美女| 一区二区三区视频在线看| 日本久久高清视频| caopeng在线| 一区二区高清在线| 久艹在线免费观看| 免费男女羞羞的视频网站在线观看| 亚洲人亚洲人成电影网站色| 樱空桃在线播放| 91香蕉在线观看| 亚洲最大成人综合| 国产手机免费视频| 国产精品论坛| 色综合激情五月| 精品久久久久久中文字幕2017| japanese23hdxxxx日韩| 欧美四级电影网| 91精品999| 欧美欧美在线| 精品乱人伦一区二区三区| 性猛交╳xxx乱大交| 国产精品99久久免费观看| 日韩一级黄色大片| 日本一区二区免费视频| 欧美日韩看看2015永久免费| 亚洲欧美成人在线| 日本免费网站视频| 在线成人h网| 国产成人精品久久久| 中文字幕日本人妻久久久免费| 美女视频网站久久| 超碰97在线资源| 午夜视频福利在线观看| 国产欧美视频一区二区三区| 午夜啪啪免费视频| 波多一区二区| 欧美综合视频在线观看| 亚洲精品久久久久久| 日韩系列在线| 久久精品视频中文字幕| 日韩av男人天堂| 蜜臀av性久久久久蜜臀av麻豆| 91亚洲精品久久久久久久久久久久| 蜜桃视频污在线观看| 国产偷国产偷亚洲高清人白洁| 中文字幕中文字幕99| а√天堂中文资源在线bt| 91国偷自产一区二区使用方法| 无码国产精品一区二区高潮| 久久99性xxx老妇胖精品| 久久视频在线视频| 国产成人无码一区二区在线播放| 久久丁香综合五月国产三级网站| 国产伦视频一区二区三区| 国产在线你懂得| 亚洲国产cao| 亚洲午夜激情影院| 欧美猛男同性videos| 欧美福利视频在线观看| 在线观看中文字幕2021| a在线欧美一区| 好吊色这里只有精品| 欧美国产大片| 亚洲的天堂在线中文字幕| 国产3级在线观看| 久久精品动漫| 精品国产乱码久久久久| 综合图区亚洲| 欧美日韩国产a| www.av天天| 在线综合亚洲| 国产精品区二区三区日本| 蜜桃视频在线观看免费视频网站www| 99久久久久久| 久久久99精品视频| 亚洲欧美专区| 在线看片第一页欧美| 九九九在线观看| 成人h精品动漫一区二区三区| 国产人妻互换一区二区| 亚洲三级在线| 啊v视频在线一区二区三区| 国产黄网在线观看| 26uuu另类欧美| 免费看又黄又无码的网站| 66精品视频在线观看| 欧美成人在线免费视频| 国产农村妇女毛片精品| 国产精品美女久久久久久久久久久 | 久久先锋资源网| 男人的天堂avav| 亚洲亚洲一区二区三区| 久久99精品国产99久久6尤物| 国产乱叫456在线| 亚洲日本成人在线观看| 男男受被啪到高潮自述| 欧美国产综合| 成人午夜影院在线观看| 精品精品导航| 亚洲国产精品国自产拍av秋霞| 久久久久久久伊人| gogogo免费视频观看亚洲一| 国产午夜福利在线播放| 羞羞色国产精品网站| 日本中文字幕不卡免费| 国产二区视频在线观看| 欧美日韩国产片| 天海翼在线视频| 国产成人啪免费观看软件| 久久这里只有精品18| 久久porn| 国产成人av在线| 免费在线观看黄| 日韩欧美一级在线播放| 日韩少妇高潮抽搐| 国产亚洲午夜高清国产拍精品| 青青青在线视频免费观看| 99久久久久| 99re在线观看视频| 日韩伦理福利| 最近2019年日本中文免费字幕 | 日韩一区二区三区免费看| 一区二区视频免费看| 成人手机在线视频| 中文字幕日本最新乱码视频| 精品日韩一区| 亚洲一区二区中文| 一本大道色婷婷在线| 中文字幕欧美精品日韩中文字幕| 国产视频手机在线观看| 亚洲va欧美va人人爽午夜| 人人妻人人藻人人爽欧美一区| 免费欧美在线视频| 欧美一级欧美一级| 成人在线免费观看视频| 91av免费看| 欧美中文字幕精在线不卡| 久久久精品电影| 日韩在线视频第一页| 欧美色涩在线第一页| 久久精品女人毛片国产| 国产欧美日本一区视频| 日韩成人av影院| 免费精品视频最新在线| 麻豆tv在线播放| 亚洲a在线视频| 美日韩精品免费| 精品欧美视频| 国产精品福利无圣光在线一区| 午夜dj在线观看高清视频完整版| 国产网站欧美日韩免费精品在线观看 | 久久国产精品影院| 国产精品一区二区在线看| 欧美黄色一级片视频| 国产精品va| 亚洲一区二区自拍偷拍| 亚洲人亚洲人色久| 成人永久免费| gogo大尺度成人免费视频| 日本精品一区二区三区在线| 男女在线观看视频| 日韩中文字幕在线观看| 神马久久精品| 精品少妇一区二区三区日产乱码| 中文字幕资源网| 欧美性猛交xxx| 久久精品欧美一区二区| 国产精品久久一级| 国产 欧美 在线| 9久草视频在线视频精品| 午夜诱惑痒痒网| 美国一区二区三区在线播放 | 日韩和的一区二在线| 久久久亚洲精选| 国产黄色在线观看| 日韩在线视频国产| 成年人在线视频免费观看| 亚洲欧美精品一区| 性xxxxbbbb| 亚洲第一网站免费视频| 刘亦菲久久免费一区二区| 日韩欧美色综合网站| 国产美女精品视频国产| 欧美日韩激情一区二区三区| 中文字幕在线2019| 欧美性猛交xxxx乱大交退制版| 91视频免费网址| 欧美日韩精品二区| 在线能看的av| 欧美日韩国产精品一区二区三区四区 | 日本不卡免费播放| 日韩av综合网| 日韩在线视频免费| 日韩国产精品一区| 色哟哟在线观看| 亚洲欧美日韩精品久久奇米色影视| 天天干天天操av| 日韩激情av在线免费观看| 亚洲 小说区 图片区 都市| 亚洲精品国产精品乱码不99按摩| 婷婷在线观看视频| 亚洲美女又黄又爽在线观看| 久久久久久久久亚洲精品| 亚洲另类欧美自拍| 国产片在线观看| 这里只有精品久久| 精品视频在线一区二区| 久久av.com| 国产理论电影在线| 国产69精品久久久久久| 亚洲mmav| 亚洲xxxxx| 久久悠悠精品综合网| 欧美精品亚洲精品| 成人嫩草影院| 91麻豆天美传媒在线| 极品少妇一区二区三区| 国产主播在线看| 美日韩一级片在线观看| 中国老熟女重囗味hdxx| 26uuu色噜噜精品一区二区| 亚洲aaa视频| 亚洲一区在线视频| 日本高清不卡码| 欧美精品日韩一本| 污污视频在线观看网站| 中文字幕不卡av| 成人三级小说| 国产精品久久激情| 成人知道污网站| 日韩精品另类天天更新| 欧美日本一区| 妞干网在线免费视频| 国产一区二区影院| 美女又爽又黄视频毛茸茸| 国产精品你懂的在线| 精品一区二区三区四| 欧美在线视频你懂得| 精品黑人一区二区三区国语馆| 亚洲午夜免费电影| 超碰在线97观看| 精品国产1区二区| 国产精品一区二区三区四区色| 欧美成人激情视频| 国产免费不卡| 99高清视频有精品视频| 国产一区二区在线| 久久久久久免费看| 国内精品伊人久久久久av一坑| 欧美无人区码suv| 亚洲天堂av一区| 成人小视频在线播放| 亚洲成人av片| 免费在线观看黄色| 日韩女优人人人人射在线视频| 午夜视频一区二区在线观看| 日韩精品无码一区二区三区| 99国产精品视频免费观看一公开| 91插插插影院| 国产清纯美女被跳蛋高潮一区二区久久w | 在线观看免费的av| 91视频免费看| 免费一级片在线观看| 欧美女孩性生活视频| 国产中文在线观看| 992tv成人免费视频| 中文无码日韩欧| 在线视频一二三区| 另类调教123区| 国产熟女一区二区| 色婷婷狠狠综合| 午夜小视频在线播放| 欧美激情精品久久久久| 电影一区中文字幕| 先锋在线资源一区二区三区| 亚洲欧美日韩一区在线观看| xfplay5566色资源网站| 一区二区三区四区亚洲| 国产喷水福利在线视频| 啊v视频在线一区二区三区| 久久精品国产福利| 视频一区国产精品| 日韩制服丝袜先锋影音| mm131丰满少妇人体欣赏图| 精品久久久久国产| 亚洲欧美自偷自拍| 97视频在线观看播放| 欧美91在线| 精品人妻一区二区三区四区在线| 99麻豆久久久国产精品免费优播| 国产一级视频在线| 亚洲福利视频二区| 小草在线视频免费播放| 欧美精品二区三区四区免费看视频 | 国产xxxxx视频| 国产亚洲欧洲997久久综合| 久久久久久久久黄色| 亚洲欧美成人网| 日韩毛片在线| 一区二区精品在线| 狠狠色丁香婷婷综合| 永久免费看黄网站| 日韩欧美国产精品一区| 丁香花在线观看完整版电影| 国产一区免费在线观看| 亚洲一级在线| 在线不卡av电影| 欧美日韩免费一区二区三区视频| 男人天堂手机在线| 成人av蜜桃| 宅男噜噜噜66一区二区| 国产熟妇久久777777| 欧美亚洲国产一卡| 超碰在线网址| 国产亚洲欧美另类一区二区三区| 亚洲影视在线| 中文字幕无码日韩专区免费 | 美国成人毛片| 国产精品自拍偷拍| 欧美va亚洲va日韩∨a综合色| 特级特黄刘亦菲aaa级| 色综合久久九月婷婷色综合| 中文字幕在线观看日本| 亚洲综合视频1区| 国产一区二区你懂的| 久久久久99精品成人| 日韩一区二区免费在线电影| 国产夫妻在线| 亚洲欧洲精品一区| 成人深夜福利app| 日韩电影在线观看一区二区| www.欧美免费| 老司机精品在线| 在线观看日本一区二区| 亚洲福利国产精品| 日韩在线观看www| 国产一区二区三区奇米久涩| 蜜臀av性久久久久蜜臀av麻豆| www.99re7.com| 一区二区三区动漫| 电影一区二区在线观看| 91国产精品视频在线观看| 一区二区三区成人在线视频| 九色视频网站在线观看| 91丝袜脚交足在线播放| 日韩av一级电影| 国产一级特黄毛片| 久久精品国产一区二区三区|