精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

訓練提速17%,第四范式開源強化學習研究框架,支持單、多智能體訓練

人工智能 新聞
強化學習研究框架 OpenRL 是基于 PyTorch 開發的,已經在 GitHub 上開源。

OpenRL 是由第四范式強化學習團隊開發的基于 PyTorch 的強化學習研究框架,支持單智能體、多智能體、自然語言等多種任務的訓練。OpenRL 基于 PyTorch 進行開發,目標是為強化學習研究社區提供一個簡單易用、靈活高效、可持續擴展的平臺。目前,OpenRL 支持的特性包括:

  • 簡單易用且支持單智能體、多智能體訓練的通用接口
  • 支持自然語言任務(如對話任務)的強化學習訓練
  • 支持從 Hugging Face 上導入模型和數據
  • 支持 LSTM,GRU,Transformer 等模型
  • 支持多種訓練加速,例如:自動混合精度訓練,半精度策略網絡收集數據等
  • 支持用戶自定義訓練模型、獎勵模型、訓練數據以及環境
  • 支持 gymnasium 環境
  • 支持字典觀測空間
  • 支持 wandb,tensorboardX 等主流訓練可視化工具
  • 支持環境的串行和并行訓練,同時保證兩種模式下的訓練效果一致
  • 中英文文檔
  • 提供單元測試和代碼覆蓋測試
  • 符合 Black Code Style 和類型檢查

目前,OpenRL 已經在 GitHub 開源:

圖片

項目地址:https://github.com/OpenRL-Lab/openrl

OpenRL 初體驗

OpenRL 目前可以通過 pip 進行安裝:

pip install openrl

也可以通過 conda 安裝:

conda install -c openrl openrl

OpenRL 為強化學習入門用戶提供了簡單易用的接口, 下面是一個使用 PPO 算法訓練 CartPole 環境的例子:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
env = make ("CartPole-v1", env_num=9) # 創建環境,并設置環境并行數為 9
net = Net (env) # 創建神經網絡
agent = Agent (net) # 初始化智能體
agent.train (total_time_steps=20000) # 開始訓練,并設置環境運行總步數為 20000

使用 OpenRL 訓練智能體只需要簡單的四步:創建環境 => 初始化模型 => 初始化智能體 => 開始訓練

在普通筆記本電腦上執行以上代碼,只需要幾秒鐘,便可以完成該智能體的訓練:

圖片


此外,對于多智能體、自然語言等任務的訓練,OpenRL 也提供了同樣簡單易用的接口。例如,對于多智能體任務中的 MPE 環境,OpenRL 也只需要調用幾行代碼便可以完成訓練:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
def train ():
    # 創建 MPE 環境,使用異步環境,即每個智能體獨立運行
    env = make (
        "simple_spread",
        env_num=100,
        asynchrnotallow=True,
    )
    # 創建 神經網絡,使用 GPU 進行訓練
    net = Net (env, device="cuda")
    agent = Agent (net) # 初始化訓練器
    # 開始訓練
    agent.train (total_time_steps=5000000)
    # 保存訓練完成的智能體
    agent.save ("./ppo_agent/")
if __name__ == "__main__":
    train ()

下圖展示了通過 OpenRL 訓練前后智能體的表現:

圖片

加載配置文件

此外,OpenRL 還同時支持從命令行和配置文件對訓練參數進行修改。比如,用戶可以通過執行 python train_ppo.py --lr 5e-4 來快速修改訓練時候的學習率。

當配置參數非常多的時候,OpenRL 還支持用戶編寫自己的配置文件來修改訓練參數。例如,用戶可以自行創建以下配置文件 (mpe_ppo.yaml),并修改其中的參數:

# mpe_ppo.yaml
seed: 0 # 設置 seed,保證每次實驗結果一致
lr: 7e-4 # 設置學習率
episode_length: 25 # 設置每個 episode 的長度
use_recurrent_policy: true # 設置是否使用 RNN
use_joint_action_loss: true # 設置是否使用 JRPO 算法
use_valuenorm: true # 設置是否使用 value normalization

最后,用戶只需要在執行程序的時候指定該配置文件即可:

python train_ppo.py --config mpe_ppo.yaml

訓練與測試可視化

此外,通過 OpenRL,用戶還可以方便地使用 wandb 來可視化訓練過程:

圖片

OpenRL 還提供了各種環境可視化的接口,方便用戶對并行環境進行可視化。用戶可以在創建并行環境的時候設置環境的渲染模式為 "group_human",便可以同時對多個并行環境進行可視化:

env = make ("simple_spread", env_num=9, render_mode="group_human")

此外,用戶還可以通過引入 GIFWrapper 來把環境運行過程保存為 gif 動畫:

from openrl.envs.wrappers import GIFWrapper
env = GIFWrapper (env, "test_simple_spread.gif")

智能體的保存和加載

OpenRL 提供 agent.save () 和 agent.load () 接口來保存和加載訓練好的智能體,并通過 agent.act () 接口來獲取測試時的智能體動作:

# test_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
from openrl.envs.wrappers import GIFWrapper # 用于生成 gif
def test ():
    # 創建 MPE 環境
    env = make ( "simple_spread", env_num=4)
    # 使用 GIFWrapper,用于生成 gif
    env = GIFWrapper (env, "test_simple_spread.gif")
    agent = Agent (Net (env)) # 創建 智能體
    # 保存智能體
    agent.save ("./ppo_agent/")    
    # 加載智能體
    agent.load ('./ppo_agent/')
    # 開始測試
    obs, _ = env.reset ()
    while True:
        # 智能體根據 observation 預測下一個動作
        action, _ = agent.act (obs)
        obs, r, done, info = env.step (action)
        if done.any ():
            break
    env.close ()
if __name__ == "__main__":
    test ()

執行該測試代碼,便可以在同級目錄下找到保存好的環境運行動畫文件 (test_simple_spread.gif):

圖片

訓練自然語言對話任務

最近的研究表明,強化學習也可以用于訓練語言模型, 并且能顯著提升模型的性能。目前,OpenRL 已經支持自然語言對話任務的強化學習訓練。OpenRL 通過模塊化設計,支持用戶加載自己的數據集 ,自定義訓練模型,自定義獎勵模型,自定義 wandb 信息輸出以及一鍵開啟混合精度訓練等。

對于對話任務訓練,OpenRL 提供了同樣簡單易用的訓練接口:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
from openrl.configs.config import create_config_parser
def train ():
    # 添加讀取配置文件的代碼
    cfg_parser = create_config_parser ()
    cfg = cfg_parser.parse_args ()
    # 創建 NLP 環境
    env = make ("daily_dialog",env_num=2,asynchrnotallow=True,cfg=cfg,)
    net = Net (env, cfg=cfg, device="cuda")
    agent = Agent (net)
    agent.train (total_time_steps=5000000)
if __name__ == "__main__":
    train ()

可以看出,OpenRL 訓練對話任務和其他強化學習任務一樣,都是通過創建交互環境的方式進行訓練。

加載自定義數據集

訓練對話任務,需要對話數據集。這里我們可以使用 Hugging Face 上的公開數據集(用戶可以替換成自己的數據集)。加載數據集,只需要在配置文件中傳入數據集的名稱或者路徑即可:

# nlp_ppo.yaml
data_path: daily_dialog # 數據集路徑
env: # 環境所用到的參數
    args: {'tokenizer_path': 'gpt2'} # 讀取 tokenizer 的路徑
seed: 0 # 設置 seed,保證每次實驗結果一致
lr: 1e-6 # 設置 policy 模型的學習率
critic_lr: 1e-6 # 設置 critic 模型的學習率
episode_length: 20 # 設置每個 episode 的長度
use_recurrent_policy: true

上述配置文件中的 data_path 可以設置為 Hugging Face 數據集名稱或者本地數據集路徑。此外,環境參數中的 tokenizer_path 用于指定加載文字編碼器的 Hugging Face 名稱或者本地路徑。

自定義訓練模型

在 OpenRL 中,我們可以使用 Hugging Face 上的模型來進行訓練。為了加載 Hugging Face 上的模型,我們首先需要在配置文件 nlp_ppo.yaml 中添加以下內容:

# nlp_ppo.yaml
# 預訓練模型路徑
model_path: rajkumarrrk/gpt2-fine-tuned-on-daily-dialog 
use_share_model: true # 策略網絡和價值網絡是否共享模型
ppo_epoch: 5 # ppo 訓練迭代次數

data_path: daily_dialog # 數據集名稱或者路徑
env: # 環境所用到的參數
    args: {'tokenizer_path': 'gpt2'} # 讀取 tokenizer 的路徑
lr: 1e-6 # 設置 policy 模型的學習率
critic_lr: 1e-6 # 設置 critic 模型的學習率
episode_length: 128 # 設置每個 episode 的長度
num_mini_batch: 20

然后在 train_ppo.py 中添加以下代碼:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
from openrl.configs.config import create_config_parser
from openrl.modules.networks.policy_value_network_gpt import (
    PolicyValueNetworkGPT as PolicyValueNetwork,
)
def train ():
    # 添加讀取配置文件的代碼
    cfg_parser = create_config_parser ()
    cfg = cfg_parser.parse_args ()
    # 創建 NLP 環境
    env = make ("daily_dialog",env_num=2,asynchrnotallow=True,cfg=cfg,)
    # 創建自定義神經網絡
    model_dict = {"model": PolicyValueNetwork}
    net = Net (env, cfg=cfg, model_dict=model_dict)
    # 創建訓練智能體
    agent = Agent (net)
    agent.train (total_time_steps=5000000)
if __name__ == "__main__":
    train ()

通過以上簡單幾行的修改,用戶便可以使用 Hugging Face 上的預訓練模型進行訓練。如果用戶希望分別自定義策略網絡和價值網絡,可以寫好 CustomPolicyNetwork 以及 CustomValueNetwork 后通過以下方式從外部傳入訓練網絡:

model_dict = {
    "policy": CustomPolicyNetwork,
    "critic": CustomValueNetwork,
}
net = Net (env, model_dict=model_dict)

自定義獎勵模型

通常,自然語言任務的數據集中并不包含獎勵信息。因此,如果需要使用強化學習來訓練自然語言任務,就需要使用額外的獎勵模型來生成獎勵。在該對話任務中,我們可以使用一個復合的獎勵模型,它包含以下三個部分:

●意圖獎勵:即當智能體生成的語句和期望的意圖接近時,智能體便可以獲得更高的獎勵。

●METEOR 指標獎勵:METEOR 是一個用于評估文本生成質量的指標,它可以用來衡量生成的語句和期望的語句的相似程度。我們把這個指標作為獎勵反饋給智能體,以達到優化生成的語句的效果。

●KL 散度獎勵:該獎勵用來限制智能體生成的文本偏離預訓練模型的程度,防止出現 reward hacking 的問題。

我們最終的獎勵為以上三個獎勵的加權和,其中 KL 散度獎勵的系數是隨著 KL 散度的大小動態變化的。想在 OpenRL 中使用該獎勵模型,用戶無需修改訓練代碼,只需要在 nlp_ppo.yaml 文件中添加 reward_class 參數即可:

# nlp_ppo.yaml
reward_class:
    id: NLPReward # 獎勵模型名稱
    args: {
        # 用于意圖判斷的模型的名稱或路徑
        "intent_model": rajkumarrrk/roberta-daily-dialog-intent-classifier,
        # 用于計算 KL 散度的預訓練模型的名稱或路徑
        "ref_model": roberta-base, # 用于意圖判斷的 tokenizer 的名稱或路徑
    }

OpenRL 支持用戶使用自定義的獎勵模型。首先,用戶需要編寫自定義獎勵模型 (需要繼承 BaseReward 類)。接著,用戶需要注冊自定義的獎勵模型,即在 train_ppo.py 添加以下代碼:

# train_ppo.py
from openrl.rewards.nlp_reward import CustomReward
from openrl.rewards import RewardFactory
RewardFactory.register ("CustomReward", CustomReward)

最后,用戶只需要在配置文件中填寫自定義的獎勵模型即可:

reward_class:
    id: "CustomReward" # 自定義獎勵模型名稱
    args: {} # 用戶自定義獎勵函數可能用到的參數

自定義訓練過程信息輸出

OpenRL 還支持用戶自定義 wandb 和 tensorboard 的輸出內容。例如,在該任務的訓練過程中,我們還需要輸出各種類型獎勵的信息和 KL 散度系數的信息, 用戶可以在 nlp_ppo.yaml 文件中加入 vec_info_class 參數來實現:

# nlp_ppo.yaml
vec_info_class:
    id: "NLPVecInfo" # 調用 NLPVecInfo 類以打印 NLP 任務中獎勵函數的信息
# 設置 wandb 信息
wandb_entity: openrl # 這里用于指定 wandb 團隊名稱,請把 openrl 替換為你自己的團隊名稱
experiment_name: train_nlp # 這里用于指定實驗名稱
run_dir: ./run_results/ # 這里用于指定實驗數據保存的路徑
log_interval: 1 # 這里用于指定每隔多少個 episode 上傳一次 wandb 數據
# 自行填寫其他參數...

修改完配置文件后,在 train_ppo.py 文件中啟用 wandb:

# train_ppo.py
agent.train (total_time_steps=100000, use_wandb=True)

然后執行 python train_ppo.py –config nlp_ppo.yaml,稍后,便可以在 wandb 中看到如下的輸出:

圖片

從上圖可以看到,wandb 輸出了各種類型獎勵的信息和 KL 散度系數的信息。 

如果用戶還需要輸出其他信息,還可以參考 NLPVecInfo 類 和 VecInfo 類來實現自己的 CustomVecInfo 類。然后,需要在 train_ppo.py 中注冊自定義的 CustomVecInfo 類:

# train_ppo.py # 注冊自定義輸出信息類 
VecInfoFactory.register ("CustomVecInfo", CustomVecInfo)

最后,只需要在 nlp_ppo.yaml 中填寫 CustomVecInfo 類即可啟用:

# nlp_ppo.yaml
vec_info_class:
    id: "CustomVecInfo" # 調用自定義 CustomVecInfo 類以輸出自定義信息

使用混合精度訓練加速

OpenRL 還提供了一鍵開啟混合精度訓練的功能。用戶只需要在配置文件中加入以下參數即可:

# nlp_ppo.yaml
use_amp: true # 開啟混合精度訓練

對比評測

下表格展示了使用 OpenRL 訓練該對話任務的結果。結果顯示使用強化學習訓練后,模型各項指標皆有所提升。另外,從下表可以看出,相較于 RL4LMs , OpenRL 的訓練速度更快(在同樣 3090 顯卡的機器上,速度提升 17% ),最終的性能指標也更好:

圖片

最后,對于訓練好的智能體,用戶可以方便地通過 agent.chat () 接口進行對話:

# chat.py
from openrl.runners.common import ChatAgent as Agent
def chat ():
    agent = Agent.load ("./ppo_agent", tokenizer="gpt2",)
    history = []
    print ("Welcome to OpenRL!")
    while True:
        input_text = input ("> User:")
        if input_text == "quit":
            break
        elif input_text == "reset":
            history = []
            print ("Welcome to OpenRL!")
            continue
        response = agent.chat (input_text, history)
        print (f"> OpenRL Agent: {response}")
        history.append (input_text)
        history.append (response)
if __name__ == "__main__":
    chat ()

執行 python chat.py ,便可以和訓練好的智能體進行對話了:

圖片

總結

OpenRL 框架經過了 OpenRL-Lab 的多次迭代并應用于學術研究和 AI 競賽,目前已經成為了一個較為成熟的強化學習框架。OpenRL-Lab 團隊將持續維護和更新 OpenRL,歡迎大家加入我們的開源社區,一起為強化學習的發展做出貢獻。更多關于 OpenRL 的信息,可以參考:

  • OpenRL 官方倉庫:https://github.com/OpenRL-Lab/openrl/
  • OpenRL 中文文檔:https://openrl-docs.readthedocs.io/zh/latest/

致謝

OpenRL 框架的開發吸取了其他強化學習框架的優點:

  • Stable-baselines3: https://github.com/DLR-RM/stable-baselines3
  • pytorch-a2c-ppo-acktr-gail:https://github.com/ikostrikov/pytorch-a2c-ppo-acktr-gail
  • MAPPO: https://github.com/marlbenchmark/on-policy
  • Gymnasium: https://github.com/Farama-Foundation/Gymnasium
  • DI-engine:https://github.com/opendilab/DI-engine/
  • Tianshou: https://github.com/thu-ml/tianshou
  • RL4LMs: https://github.com/allenai/RL4LMs

未來工作

目前,OpenRL 還處于持續開發和建設階段,未來 OpenRL 將會開源更多功能:

  • 支持智能體自博弈訓練
  • 加入離線強化學習、模范學習、逆強化學習算法
  • 加入更多強化學習環境和算法
  • 集成 Deepspeed 等加速框架
  • 支持多機分布式訓練

OpenRL Lab 團隊

OpenRL框架是由OpenRL Lab團隊開發,該團隊是第四范式公司旗下的強化學習研究團隊。第四范式長期致力于強化學習的研發和工業應用。為了促進強化學習的產學研一體化,第四范式成立了OpenRL Lab研究團隊,目標是先進技術開源和人工智能前沿探索。成立不到一年,OpenRL Lab團隊已經在AAMAS發表過三篇論文,參加谷歌足球游戲 11 vs 11比賽并獲得第三的成績。團隊提出的TiZero智能體,實現了首個從零開始,通過課程學習、分布式強化學習、自博弈等技術完成谷歌足球全場游戲智能體的訓練:

圖片

截止 2022 年 10 月 28 日,Tizero 在及第評測平臺上排名第一:

圖片

責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-05-05 17:49:23

2021-07-22 15:25:14

開源技術 框架

2020-04-15 16:44:38

谷歌強化學習算法

2025-09-11 13:46:59

2023-08-28 06:52:29

2025-11-10 04:15:00

2025-06-05 08:40:00

2025-06-25 13:44:09

開源訓練模型

2025-09-24 08:53:10

2025-03-28 10:16:15

2025-08-18 03:00:00

AI智能體微軟

2025-10-11 04:00:00

2025-01-21 09:00:00

2025-05-28 02:25:00

2025-10-10 05:00:00

智能體LIMI大模型

2025-07-30 09:12:00

2022-11-02 14:02:02

強化學習訓練

2024-05-24 08:42:29

智能體訓練

2025-03-10 09:10:00

2021-07-27 15:55:01

人工智能機器學習技術
點贊
收藏

51CTO技術棧公眾號

久久久精品一区二区三区| 黑人巨大精品欧美一区二区免费 | 久久精品一区二区国产| 亚洲网在线观看| 国产精品嫩草影视| 欧美aa一级| 国产精品激情偷乱一区二区∴| 91青青草免费观看| 69视频免费在线观看| 91久久久精品国产| 国产午夜精品久久久| 日韩成人av免费| 色一区二区三区| 17c精品麻豆一区二区免费| 国产精品久久久久久久久男| 国产一级生活片| 人人狠狠综合久久亚洲婷婷| 亚洲国产精品99| а 天堂 在线| 美女网站视频一区| 精品女同一区二区三区在线播放| 国产成人精品免费看在线播放| 亚洲av成人精品日韩在线播放| 黄网站免费久久| 国产成人午夜视频网址| 久久免费视频播放| 色无极亚洲影院| 亚洲欧美精品在线| www.17c.com喷水少妇| 只有精品亚洲| 欧美撒尿777hd撒尿| 国产精品宾馆在线精品酒店| 欧美黑人猛交| 1024成人网| 亚洲成人在线视频网站| 天堂中文在线8| 成人福利电影精品一区二区在线观看| 国产精品中文字幕在线观看| 精品国产午夜福利| 亚洲精品韩国| 欧美精品xxx| 男女羞羞免费视频| 97精品在线| 这里只有精品在线观看| 一级片手机在线观看| 美女扒开腿让男人桶爽久久动漫| 日韩欧美国产麻豆| 青青草精品在线| 国产一区2区在线观看| 7777精品伊人久久久大香线蕉经典版下载 | 日本黄大片一区二区三区| 亚洲永久av| 疯狂蹂躏欧美一区二区精品| 9色porny| 国产网红在线观看| 亚洲一区在线观看免费观看电影高清| 日本女人高潮视频| av观看在线| 一区二区三区在线视频观看| 草草草视频在线观看| 日本精品600av| 亚洲超碰97人人做人人爱| 久久久亚洲国产精品| 国产夫妻在线播放| 日韩欧美精品免费在线| 成人在线免费播放视频| 亚洲成人va| 欧美男女性生活在线直播观看| 手机免费av片| 一区二区三区视频免费视频观看网站 | 一区二区亚洲精品国产| 国产一二三四区在线| 欧美日韩有码| 久久激情五月丁香伊人| 青青草原在线免费观看视频| 亚洲精品美女| 国产精品成人国产乱一区| 一卡二卡三卡在线观看| 国产剧情在线观看一区二区| 国产在线观看一区| 天堂а√在线8种子蜜桃视频 | 欧美一级二级三级| 1769视频在线播放免费观看| 一区二区三区在线不卡| 18禁网站免费无遮挡无码中文 | 精品日韩中文字幕| 91淫黄看大片| 麻豆国产精品| 国产视频精品在线| 久久精品亚洲a| 99精品热6080yy久久| 国产精品国内视频| 性欧美8khd高清极品| 久久综合色鬼综合色| 亚洲欧洲精品一区| 毛片网站在线看| 色嗨嗨av一区二区三区| 国产高清av片| 国产乱码精品一区二区三区四区| 久久精视频免费在线久久完整在线看| 精品在线免费观看视频| 日韩精品1区2区3区| 亚洲自拍av在线| 精品久久av| 一区二区三区四区在线| 日韩免费毛片视频| 亚洲精品观看| 色多多国产成人永久免费网站 | 91精品国自产在线| 欧美99久久| 国产精品久久久久久久久借妻 | 成人四虎影院| 亚洲国产婷婷香蕉久久久久久| 老头老太做爰xxx视频| 亚洲性感美女99在线| 国产免费久久av| 男人久久精品| 五月综合激情婷婷六月色窝| 天天色天天综合网| 精品视频久久| 欧美一级视频在线观看| 精品国产av一区二区| 中日韩av电影| 欧美国产日韩在线播放| 高清日韩欧美| 欧美成人h版在线观看| 国产一级精品毛片| 久久这里只有精品6| 国产曰肥老太婆无遮挡| crdy在线观看欧美| 中文字幕一区二区精品| 日韩熟女一区二区| 91啪亚洲精品| 精品久久久久久无码中文野结衣| 成人精品在线| 久久精品久久久久久国产 免费| 午夜久久久久久久久久影院| 91蜜桃在线观看| 日本欧美黄色片| 国产成人精品亚洲线观看| 超碰91人人草人人干| 国产又黄又粗又猛又爽| 国产精品色哟哟| 亚欧在线免费观看| 久久av影视| 日本中文字幕不卡免费| 欧洲一区av| 色婷婷av一区二区三区软件| 欧美性xxxx图片| 在线综合欧美| 欧美福利精品| 666av成人影院在线观看| 亚洲人在线视频| 无码人妻精品一区二| 久久久久久夜精品精品免费| 那种视频在线观看| 国产伦精品一区二区三区千人斩| 国产精品wwwwww| 在线看av的网址| 91精品国产欧美一区二区| 亚洲欧美小视频| 国产传媒欧美日韩成人| 免费特级黄色片| 秋霞在线一区| 日本精品性网站在线观看| 国产日韩精品在线看| 欧美日韩一区二区欧美激情| 精品国产精品国产精品| 高清国产一区二区| 欧美日韩黄色一级片| 亚洲另类春色校园小说| 国产精品久久久久久久久借妻| 嫩草在线视频| 精品伦理精品一区| 一级成人黄色片| 国产精品久久久久久久裸模| 色偷偷中文字幕| 国产精品日韩久久久| 日韩在线电影一区| 视频免费一区二区| 777午夜精品福利在线观看| 国产福利小视频在线观看| 欧美理论电影在线| 日本一区二区免费在线观看| 国产清纯白嫩初高生在线观看91 | 国产日韩亚洲欧美在线| 欧美裸体视频| 国产亚洲欧美另类中文| 成人黄色三级视频| 一区av在线播放| 久久久久久久久久久国产精品| 丝袜美腿亚洲综合| 91精品国产毛片武则天| 美女毛片一区二区三区四区| 成人精品一区二区三区电影黑人 | 欧美日韩免费观看一区=区三区| 国产一区二区黄色| 国产精品成人国产| 91国偷自产一区二区三区的观看方式 | 国产伦理精品不卡| 欧美日韩激情视频在线观看| 天天做天天爱综合| 蜜桃麻豆www久久国产精品| 久久夜夜久久| 日本亚洲欧美三级| 性直播体位视频在线观看| 亚洲性生活视频在线观看| 亚洲成人77777| 欧美系列一区二区| 亚洲欧美在线观看视频| 亚洲欧美日韩中文字幕一区二区三区| 中文字幕在线免费看线人| 国产精品一区二区久激情瑜伽| 免费国产成人av| 亚洲九九精品| 国产在线观看欧美| 婷婷亚洲综合| 亚洲bbw性色大片| 亚洲精品亚洲人成在线观看| 国产精品sss| 免费人成自慰网站| 日韩欧美影院| av成人在线电影| 日本午夜免费一区二区| 日韩av免费看网站| 电影在线观看一区| 欧美激情一区二区三区久久久| 在线观看av的网站| 伊人一区二区三区久久精品| 日韩精品视频无播放器在线看| 精品日韩在线观看| av高清一区二区| 337p亚洲精品色噜噜噜| 一区不卡在线观看| 欧美精品自拍偷拍| 瑟瑟视频在线免费观看| 在线欧美日韩国产| 欧美性猛交xxxx乱大交hd| 高跟丝袜欧美一区| 日本在线播放视频| 色综合久久中文字幕| 欧美精品韩国精品| 日韩欧美高清视频| 免费av网站在线| 一本久久精品一区二区| 亚洲GV成人无码久久精品| 偷拍日韩校园综合在线| 日韩 欧美 亚洲| 大伊人狠狠躁夜夜躁av一区| 国产精品黄色大片| 色综合久久久久综合99| 成年人免费高清视频| 洋洋成人永久网站入口| 欧美xxxooo| 中文字幕佐山爱一区二区免费| 蜜桃av.com| 亚洲综合一区二区| 开心激情五月网| 伊人夜夜躁av伊人久久| 国产一级片久久| 欧美日韩精品国产| 欧美日韩a v| 欧美男人的天堂一二区| 精品毛片在线观看| 亚洲福利视频免费观看| 日本一区高清| 久久精品91久久久久久再现| 影音先锋中文在线视频| 午夜美女久久久久爽久久| 丁香六月综合| 成人精品久久久| 亚洲精品在线a| 久久riav二区三区| 精品欧美久久| 日本黄xxxxxxxxx100| 午夜片欧美伦| 人妻无码一区二区三区四区| 999在线观看精品免费不卡网站| 欧美黄色一级片视频| 国模大尺度一区二区三区| 尤物网站在线观看| 国产精品无遮挡| 熟女av一区二区| 婷婷六月综合网| 99re热视频| 日韩精品一区二区三区中文精品| 五月婷在线视频| 深夜福利一区二区| 岛国毛片av在线| 国产精品人成电影| 国产91精品入| 亚洲午夜精品国产| 亚洲一级网站| 99九九99九九九99九他书对| 99久久99久久综合| 国产一二三区精品| 日本精品一区二区三区高清| 亚洲精品一区二区三区区别| 在线视频精品一| 国产网站在线| 91亚洲精品一区| 竹菊久久久久久久| 在线不卡日本| 天堂va蜜桃一区二区三区漫画版| 欧洲在线免费视频| 国产三级欧美三级| 日韩三级视频在线播放| 欧美一区二区在线免费观看| 免费在线黄色电影| 97婷婷涩涩精品一区| 日韩成人久久| 中文字幕成人一区| 秋霞午夜鲁丝一区二区老狼| 艳妇乳肉亭妇荡乳av| 一区二区三区影院| 国产人妖一区二区| 中文字幕亚洲欧美日韩2019| 竹内纱里奈兽皇系列在线观看 | 蜜臀久久99精品久久久酒店新书| 国产91精品免费| 好吊日在线视频| 欧美视频一区在线| 久久伊伊香蕉| 琪琪亚洲精品午夜在线| 国产精品sss在线观看av| 国产亚洲精品久久久久久久| 激情深爱一区二区| 婷婷国产成人精品视频| 欧美在线免费视屏| 国产高清自拍视频在线观看| 欧美最猛性xxxxx免费| 欧美男男freegayvideosroom| 日韩极品视频在线观看| 国产精品亚洲视频| 久草免费在线观看视频| 欧美一卡二卡在线观看| 国产视频在线播放| 国产色视频一区| 久久久国产精品| 肉色超薄丝袜脚交| 一区二区三区在线观看欧美| 精品人妻一区二区三区日产乱码| 不卡伊人av在线播放| 亚洲五码在线| 超碰成人免费在线| av毛片久久久久**hd| 欧美亚韩一区二区三区| 日韩国产欧美精品在线| 成人美女视频| 视频一区二区精品| 久国产精品韩国三级视频| av成人免费网站| 日韩欧美一二三区| 999福利在线视频| 久久亚洲高清| 日本美女一区二区三区视频| 亚洲欧美日韩第一页| 欧美日韩国产另类不卡| 麻豆传媒在线观看| 99九九电视剧免费观看| 亚洲理论在线| 制服 丝袜 综合 日韩 欧美| 欧美日韩在线播放三区| 99福利在线| 久久99导航| 视频在线观看国产精品| 亚欧精品视频一区二区三区| 91精品国产色综合久久不卡蜜臀| 欧美1—12sexvideos| 久久久免费看| 久久成人免费网| 久久久无码精品亚洲国产| 亚洲男人天堂2024| 色综合视频一区二区三区44| 国产一区 在线播放| 久久综合色8888| 国产普通话bbwbbwbbw| 午夜精品久久久久久久99热| 欧美伦理影院| 亚洲欧美日韩中文字幕在线观看| 欧美性猛交xxxx富婆弯腰| 亚洲s色大片| 国产亚洲欧美一区二区| 日韩avvvv在线播放| 久久久国产成人| 亚洲人成网站免费播放| 久久爱www.| 日本精品久久久久中文字幕| 亚洲欧美视频在线观看视频| 亚洲aⅴ乱码精品成人区| 91久久精品国产91久久| 亚洲永久视频| 免费一级片在线观看| 一区二区三区黄色| 999国产精品一区| 亚洲黄色a v| 精品美女国产在线| 18视频在线观看网站| 天堂va久久久噜噜噜久久va| 成人夜色视频网站在线观看|