精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

第四范式開源強化學習研究通用框架,支持單智能體、多智能體訓練,還可訓練自然語言任務!訓練速度提升17%

原創
人工智能
OpenRL還同時支持從命令行和配置文件對訓練參數進行修改。比如,用戶可以通過執行python train_ppo.py --lr 5e-4來快速修改訓練時候的學習率。

51CTO讀者成長計劃社群招募,咨詢小助手(微信號:CTOjishuzhan)

OpenRL 是由第四范式強化學習團隊開發的基于PyTorch的強化學習研究框架,支持單智能體、多智能體、自然語言等多種任務的訓練。OpenRL基于PyTorch進行開發,目標是為強化學習研究社區提供一個簡單易用、靈活高效、可持續擴展的平臺。目前,OpenRL支持的特性包括:

  • 簡單易用且支持單智能體、多智能體訓練的通用接口
  • 支持自然語言任務(如對話任務)的強化學習訓練
  • 支持從 Hugging Face 上導入模型和數據
  • 支持LSTM,GRU,Transformer等模型
  • 支持多種訓練加速,例如:自動混合精度訓練,半精度策略網絡收集數據等
  • 支持用戶自定義訓練模型、獎勵模型、訓練數據以及環境
  • 支持 gymnasium 環境
  • 支持字典觀測空間
  • 支持 wandb,tensorboardX 等主流訓練可視化工具
  • 支持環境的串行和并行訓練,同時保證兩種模式下的訓練效果一致
  • 中英文文檔
  • 提供單元測試和代碼覆蓋測試
  • 符合Black Code Style和類型檢查

目前,OpenRL已經在GitHub開源:https://github.com/OpenRL-Lab/openrl

一、OpenRL初體驗

OpenRL目前可以通過 pip 進行安裝:

pip install openrl

也可以通過conda安裝:

conda install -c openrl openrl

OpenRL為強化學習入門用戶提供了簡單易用的接口, 下面是一個使用PPO算法訓練CartPole環境的例子:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
env = make("CartPole-v1", env_num=9) # 創建環境,并設置環境并行數為9
net = Net(env) # 創建神經網絡
agent = Agent(net) # 初始化智能體
agent.train(total_time_steps=20000) # 開始訓練,并設置環境運行總步數為20000

使用OpenRL訓練智能體只需要簡單的四步:創建環境 => 初始化模型 => 初始化智能體 => 開始訓練!

在普通筆記本電腦上執行以上代碼,只需要幾秒鐘,便可以完成該智能體的訓練:

圖片

此外,對于多智能體、自然語言等任務的訓練,OpenRL也提供了同樣簡單易用的接口。例如,對于多智能體任務中的MPE環境,OpenRL也只需要調用幾行代碼便可以完成訓練:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
def train():
    # 創建 MPE 環境,使用異步環境,即每個智能體獨立運行
    env = make(
        "simple_spread",
        env_num=100,
        asynchrnotallow=True,
    )
    # 創建 神經網絡,使用GPU進行訓練
    net = Net(env, device="cuda")
    agent = Agent(net) # 初始化訓練器
    # 開始訓練
    agent.train(total_time_steps=5000000)
    # 保存訓練完成的智能體
    agent.save("./ppo_agent/")
if __name__ == "__main__":
    train()

下圖展示了通過OpenRL訓練前后智能體的表現:

二、加載配置文件

此外,OpenRL還同時支持從命令行和配置文件對訓練參數進行修改。比如,用戶可以通過執行python train_ppo.py --lr 5e-4來快速修改訓練時候的學習率。

當配置參數非常多的時候,OpenRL還支持用戶編寫自己的配置文件來修改訓練參數。例如,用戶可以自行創建以下配置文件(mpe_ppo.yaml),并修改其中的參數:

# mpe_ppo.yaml
seed: 0 # 設置seed,保證每次實驗結果一致
lr: 7e-4 # 設置學習率
episode_length: 25 # 設置每個episode的長度
use_recurrent_policy: true # 設置是否使用RNN
use_joint_action_loss: true # 設置是否使用JRPO算法
use_valuenorm: true # 設置是否使用value normalization

最后,用戶只需要在執行程序的時候指定該配置文件即可:

python train_ppo.py --config mpe_ppo.yaml

三、訓練與測試可視化

此外,通過OpenRL,用戶還可以方便地使用 wandb 來可視化訓練過程:

圖片

OpenRL還提供了各種環境可視化的接口,方便用戶對并行環境進行可視化。用戶可以在創建并行環境的時候設置環境的渲染模式為"group_human",便可以同時對多個并行環境進行可視化:

env = make("simple_spread", env_num=9, render_mode="group_human")

此外,用戶還可以通過引入 GIFWrapper 來把環境運行過程保存為gif動畫:

from openrl.envs.wrappers import GIFWrapper
env = GIFWrapper(env, "test_simple_spread.gif")

四、智能體的保存和加載

OpenRL提供 agent.save() 和 agent.load() 接口來保存和加載訓練好的智能體,并通過agent.act() 接口來獲取測試時的智能體動作:

# test_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
from openrl.envs.wrappers import GIFWrapper # 用于生成gif
def test():
    # 創建 MPE 環境
    env = make( "simple_spread", env_num=4)
    # 使用GIFWrapper,用于生成gif
    env = GIFWrapper(env, "test_simple_spread.gif")
    agent = Agent(Net(env)) # 創建 智能體
    # 保存智能體
    agent.save("./ppo_agent/")    
    # 加載智能體
    agent.load('./ppo_agent/')
    # 開始測試
    obs, _ = env.reset()
    while True:
        # 智能體根據 observation 預測下一個動作
        action, _ = agent.act(obs)
        obs, r, done, info = env.step(action)
        if done.any():
            break
    env.close()
if __name__ == "__main__":
    test()

執行該測試代碼,便可以在同級目錄下找到保存好的環境運行動畫文件(test_simple_spread.gif):

圖片

五、訓練自然語言對話任務

最近的研究表明,強化學習也可以用于訓練語言模型, 并且能顯著提升模型的性能。目前,OpenRL已經支持自然語言對話任務的強化學習訓練。OpenRL通過模塊化設計,支持用戶 加載自己的數據集 , 自定義訓練模型, 自定義獎勵模型, 自定義wandb信息輸出 以及 一鍵開啟混合精度訓練等。

對于對話任務訓練,OpenRL提供了同樣簡單易用的訓練接口:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
from openrl.configs.config import create_config_parser
def train():
    # 添加讀取配置文件的代碼
    cfg_parser = create_config_parser()
    cfg = cfg_parser.parse_args()
    # 創建 NLP 環境
    env = make("daily_dialog",env_num=2,asynchrnotallow=True,cfg=cfg,)
    net = Net(env, cfg=cfg, device="cuda")
    agent = Agent(net)
    agent.train(total_time_steps=5000000)
if __name__ == "__main__":
    train()

可以看出,OpenRL訓練對話任務和其他強化學習任務一樣,都是通過創建交互環境的方式進行訓練。

六、加載自定義數據集

訓練對話任務,需要對話數據集。這里我們可以使用Hugging Face上的公開數據集(用戶可以替換成自己的數據集)。加載數據集,只需要在配置文件中傳入數據集的名稱或者路徑即可:

# nlp_ppo.yaml
data_path: daily_dialog # 數據集路徑
env: # 環境所用到的參數
    args: {'tokenizer_path': 'gpt2'} # 讀取tokenizer的路徑
seed: 0 # 設置seed,保證每次實驗結果一致
lr: 1e-6 # 設置policy模型的學習率
critic_lr: 1e-6 # 設置critic模型的學習率
episode_length: 20 # 設置每個episode的長度
use_recurrent_policy: true

上述配置文件中的data_path 可以設置為Hugging Face數據集名稱 或者 本地數據集路徑。此外,環境參數中的 tokenizer_path 用于指定加載文字編碼器的 Hugging Face名稱 或者 本地路徑。

七、自定義訓練模型

在OpenRL中,我們可以使用Hugging Face上的模型來進行訓練。為了加載Hugging Face上的模型,我們首先需要在配置文件nlp_ppo.yaml中添加以下內容:

# nlp_ppo.yaml
# 預訓練模型路徑
model_path: rajkumarrrk/gpt2-fine-tuned-on-daily-dialog 
use_share_model: true # 策略網絡和價值網絡是否共享模型
ppo_epoch: 5 # ppo訓練迭代次數

data_path: daily_dialog # 數據集名稱或者路徑
env: # 環境所用到的參數
    args: {'tokenizer_path': 'gpt2'} # 讀取tokenizer的路徑
lr: 1e-6 # 設置policy模型的學習率
critic_lr: 1e-6 # 設置critic模型的學習率
episode_length: 128 # 設置每個episode的長度
num_mini_batch: 20

然后在train_ppo.py中添加以下代碼:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
from openrl.configs.config import create_config_parser
from openrl.modules.networks.policy_value_network_gpt import (
    PolicyValueNetworkGPT as PolicyValueNetwork,
)
def train():
    # 添加讀取配置文件的代碼
    cfg_parser = create_config_parser()
    cfg = cfg_parser.parse_args()
    # 創建 NLP 環境
    env = make("daily_dialog",env_num=2,asynchrnotallow=True,cfg=cfg,)
    # 創建自定義神經網絡
    model_dict = {"model": PolicyValueNetwork}
    net = Net(env, cfg=cfg, model_dict=model_dict)
    # 創建訓練智能體
    agent = Agent(net)
    agent.train(total_time_steps=5000000)
if __name__ == "__main__":
    train()

通過以上簡單幾行的修改,用戶便可以使用Hugging Face上的預訓練模型進行訓練。如果用戶希望分別自定義策略網絡和價值網絡,可以寫好 CustomPolicyNetwork 以及 CustomValueNetwork后通過以下方式從外部傳入訓練網絡:

model_dict = {
    "policy": CustomPolicyNetwork,
    "critic": CustomValueNetwork,
}
net = Net(env, model_dict=model_dict)

八、自定義獎勵模型

通常,自然語言任務的數據集中并不包含獎勵信息。因此,如果需要使用強化學習來訓練自然語言任務,就需要使用額外的獎勵模型來生成獎勵。在該對話任務中,我們可以使用一個復合的獎勵模型,它包含以下三個部分:

意圖獎勵:即當智能體生成的語句和期望的意圖接近時,智能體便可以獲得更高的獎勵。

METEOR指標獎勵:METEOR 是一個用于評估文本生成質量的指標,它可以用來衡量生成的語句和期望的語句的相似程度。我們把這個指標作為獎勵反饋給智能體,以達到優化生成的語句的效果。

KL散度獎勵:該獎勵用來限制智能體生成的文本偏離預訓練模型的程度,防止出現reward hacking的問題。

我們最終的獎勵為以上三個獎勵的加權和,其中 KL散度獎勵 的系數是隨著KL散度的大小動態變化的。想在OpenRL中使用該獎勵模型,用戶無需修改訓練代碼,只需要在 nlp_ppo.yaml 文件中添加reward_class參數即可:

# nlp_ppo.yaml
reward_class:
    id: NLPReward # 獎勵模型名稱
    args: {
        # 用于意圖判斷的模型的名稱或路徑
        "intent_model": rajkumarrrk/roberta-daily-dialog-intent-classifier,
        # 用于計算KL散度的預訓練模型的名稱或路徑
        "ref_model": roberta-base, # 用于意圖判斷的tokenizer的名稱或路徑
    }

OpenRL支持用戶使用自定義的獎勵模型。首先,用戶需要編寫自定義獎勵模型(需要繼承 BaseReward 類)。接著,用戶需要注冊自定義的獎勵模型,即在train_ppo.py添加以下代碼:

# train_ppo.py
from openrl.rewards.nlp_reward import CustomReward
from openrl.rewards import RewardFactory
RewardFactory.register("CustomReward", CustomReward)

最后,用戶只需要在配置文件中填寫自定義的獎勵模型即可:

reward_class:
    id: "CustomReward" # 自定義獎勵模型名稱
    args: {} # 用戶自定義獎勵函數可能用到的參數

九、自定義訓練過程信息輸出

OpenRL還支持用戶自定義wandb和tensorboard的輸出內容。例如,在該任務的訓練過程中,我們還需要輸出各種類型獎勵的信息和KL散度系數的信息, 用戶可以在nlp_ppo.yaml文件中加入vec_info_class參數來實現:

# nlp_ppo.yaml
vec_info_class:
    id: "NLPVecInfo" # 調用NLPVecInfo類以打印NLP任務中獎勵函數的信息
#設置wandb信息
wandb_entity: openrl # 這里用于指定wandb團隊名稱,請把openrl替換為你自己的團隊名稱
experiment_name: train_nlp # 這里用于指定實驗名稱
run_dir: ./run_results/ # 這里用于指定實驗數據保存的路徑
log_interval: 1 # 這里用于指定每隔多少個episode上傳一次wandb數據
# 自行填寫其他參數...

修改完配置文件后,在train_ppo.py文件中啟用wandb:

# train_ppo.py
agent.train(total_time_steps=100000, use_wandb=True)

然后執行python train_ppo.py –config nlp_ppo.yaml,過一會兒,便可以在wandb中看到如下的輸出:

圖片

從上圖可以看到,wandb輸出了各種類型獎勵的信息和KL散度系數的信息。

如果用戶還需要輸出其他信息,還可以參考 NLPVecInfo 類 和 VecInfo 類來實現自己的CustomVecInfo類。然后,需要在train_ppo.py中注冊自定義的CustomVecInfo類:

# train_ppo.py 
# 注冊自定義輸出信息類 
VecInfoFactory.register("CustomVecInfo", CustomVecInfo)

最后,只需要在nlp_ppo.yaml中填寫CustomVecInfo類即可啟用:

# nlp_ppo.yaml
vec_info_class:
    id: "CustomVecInfo" # 調用自定義CustomVecInfo類以輸出自定義信息

10、使用混合精度訓練加速

OpenRL還提供了一鍵開啟混合精度訓練的功能。用戶只需要在配置文件中加入以下參數即可:

對比評測

# nlp_ppo.yaml
use_amp: true # 開啟混合精度訓練

下表格展示了使用OpenRL訓練該對話任務的結果。結果顯示使用強化學習訓練后,模型各項指標皆有所提升。另外,從下表可以看出,相較于 RL4LMs , OpenRL的訓練速度更快(在同樣3090顯卡的機器上,速度提升 17% ),最終的性能指標也更好:

圖片

最后,對于訓練好的智能體,用戶可以方便地通過 agent.chat() 接口進行對話:

# chat.py
from openrl.runners.common import ChatAgent as Agent
def chat():
    agent = Agent.load("./ppo_agent", tokenizer="gpt2",)
    history = []
    print("Welcome to OpenRL!")
    while True:
        input_text = input("> User: ")
        if input_text == "quit":
            break
        elif input_text == "reset":
            history = []
            print("Welcome to OpenRL!")
            continue
        response = agent.chat(input_text, history)
        print(f"> OpenRL Agent: {response}")
        history.append(input_text)
        history.append(response)
if __name__ == "__main__":
    chat()

執行 python chat.py ,便可以和訓練好的智能體進行對話了:

圖片

十一、總結

OpenRL框架經過了OpenRL-Lab的多次迭代并應用于學術研究和AI競賽,目前已經成為了一個較為成熟的強化學習框架。OpenRL-Lab團隊將持續維護和更新OpenRL,歡迎大家加入我們的開源社區,一起為強化學習的發展做出貢獻。更多關于OpenRL的信息,可以參考:

  • OpenRL官方倉庫:https://github.com/OpenRL-Lab/openrl/
  • OpenRL中文文檔:https://openrl-docs.readthedocs.io/zh/latest/

十二、致謝

OpenRL框架的開發吸取了其他強化學習框架的優點:

  • Stable-baselines3: https://github.com/DLR-RM/stable-baselines3
  • pytorch-a2c-ppo-acktr-gail: https://github.com/ikostrikov/pytorch-a2c-ppo-acktr-gail
  • MAPPO: https://github.com/marlbenchmark/on-policy
  • Gymnasium: https://github.com/Farama-Foundation/Gymnasium
  • DI-engine: https://github.com/opendilab/DI-engine/
  • Tianshou: https://github.com/thu-ml/tianshou
  • RL4LMs: https://github.com/allenai/RL4LMs

十三、未來工作

目前,OpenRL還處于持續開發和建設階段,未來OpenRL將會開源更多功能:

  • 支持智能體自博弈訓練
  • 加入離線強化學習、模范學習、逆強化學習算法
  • 加入更多強化學習環境和算法
  • 集成Deepspeed等加速框架
  • 支持多機分布式訓練


責任編輯:武曉燕 來源: 51CTO技術棧
相關推薦

2023-05-04 15:53:34

強化學習開發

2021-07-22 15:25:14

開源技術 框架

2020-04-15 16:44:38

谷歌強化學習算法

2025-11-10 04:15:00

2025-09-11 13:46:59

2023-08-28 06:52:29

2025-10-10 05:00:00

智能體LIMI大模型

2025-09-24 08:53:10

2025-06-25 13:44:09

開源訓練模型

2025-08-18 03:00:00

AI智能體微軟

2024-10-15 17:28:05

2025-06-30 08:25:00

智能體AI模型

2022-09-30 15:28:05

BERT語言模型自然語言

2025-09-29 10:41:26

2024-12-09 08:45:00

模型AI

2024-05-24 08:42:29

智能體訓練

2023-07-21 14:58:05

智能開發

2023-09-22 07:23:50

Alice模型任務

2025-09-23 03:00:00

2025-06-30 09:08:00

點贊
收藏

51CTO技術棧公眾號

日韩女优视频免费观看| 中文字幕欧美一区| 欧美中文字幕视频在线观看| 成年人网站免费在线观看| 日本高清不卡一区二区三区视频 | 色综合 综合色| 亚洲人久久久| 日本美女一级视频| 奇米一区二区三区| 欧美国产日本高清在线 | 日本成人激情视频| 中日韩一级黄色片| 老司机凹凸av亚洲导航| 欧美视频完全免费看| 韩日视频在线观看| 无遮挡的视频在线观看| 成人免费毛片a| 国产精品久久久精品| 精品少妇久久久久久888优播| 国产精品欧美日韩一区| 日韩一区二区在线免费观看| 欧美成人xxxxx| 在线播放免费av| 久久久久国产一区二区三区四区 | 天天干免费视频| 蜜桃在线一区二区三区| 97在线观看视频| 日韩在线观看视频一区二区| 精品盗摄女厕tp美女嘘嘘| 日韩区在线观看| 亚洲黄色小视频在线观看| 国产免费拔擦拔擦8x高清在线人| 国产精品久久影院| 日本一区二区精品| 欧美天堂在线视频| 国产精品99久久不卡二区| 国产精品香蕉在线观看| 国产农村妇女aaaaa视频| 欧美久久久久| 伊人久久精品视频| 自拍偷拍视频亚洲| 亚洲国产精品嫩草影院久久av| 欧美一区二区三区视频免费| av丝袜天堂网| 性欧美videohd高精| 亚洲国产日韩在线一区模特 | 一本综合久久| 欧美极品第一页| 农村黄色一级片| 天天射—综合中文网| 一夜七次郎国产精品亚洲| 中文字幕免费高清| 亚洲自拍电影| 亚洲欧美国内爽妇网| 国产 中文 字幕 日韩 在线| 国产精品色呦| 亚洲精品久久久一区二区三区| 亚洲熟女一区二区三区| 亚洲精品观看| 欧美一级国产精品| 中文字幕55页| 日韩高清二区| 精品99一区二区| 91精产国品一二三| 成人高潮视频| 亚洲黄色www| 日本r级电影在线观看| 久久久久久久久成人| 日韩三级高清在线| 亚洲av成人片色在线观看高潮 | 精品九九久久| 欧美日韩一区二区欧美激情| 亚洲娇小娇小娇小| av成人在线网站| 欧美一级二级在线观看| 国产精品偷伦视频免费观看了| 这里视频有精品| 亚洲二区在线播放视频| av2014天堂网| 国产精品嫩模av在线| 日韩中文字幕在线| 免费一级a毛片夜夜看| 激情久久久久久久| 欧美一级淫片丝袜脚交| 国产乡下妇女三片| 另类欧美日韩国产在线| 91麻豆精品秘密入口| 亚洲精品成人电影| 久久久国产一区二区三区四区小说| 日本高清久久一区二区三区| 欧美精品videos另类| 亚洲在线一区二区三区| 男人操女人免费| 四虎在线精品| 亚洲二区在线播放视频| 国产黄色大片免费看| 综合久久精品| 欧洲精品毛片网站| 国产精品视频第一页| 99久久精品国产一区| 亚洲国产欧洲综合997久久 | 日韩在线欧美| 国内揄拍国内精品少妇国语| 综合久久中文字幕| 成人午夜av影视| 婷婷久久青草热一区二区| 羞羞网站在线看| 色综合久久久久| 宇都宫紫苑在线播放| 日韩伦理一区二区三区| 久久国产精品久久久久久久久久| 日韩精品1区2区| 国产综合色视频| 奇米视频888战线精品播放| 一区二区三区伦理| 91福利区一区二区三区| 人妻激情偷乱频一区二区三区| 欧美精选一区二区三区| 久久免费观看视频| 国产精品爽爽久久久久久| 91免费精品国自产拍在线不卡| 男人j进女人j| 日本黄色一区| 日韩精品免费视频| 国产在线拍揄自揄拍无码视频| 青青草97国产精品免费观看| 国产色综合一区二区三区| 美女免费久久| 欧美丝袜第三区| 精品无码人妻一区| 影音国产精品| 成人av蜜桃| h片在线观看网站| 欧美三级欧美一级| 久久久久亚洲av无码a片| 99精品视频免费观看| 99国产在线| 国产在线观看a视频| 欧美性videosxxxxx| 一本色道久久综合亚洲精品图片| 激情久久综合| 91久久极品少妇xxxxⅹ软件| 国产黄网站在线观看| 欧美色大人视频| 日韩毛片无码永久免费看| 亚洲一区二区免费看| 国产乱子伦精品| 久久亚洲导航| 精品黑人一区二区三区久久| 日本一级二级视频| 国产成人综合亚洲网站| 国产 国语对白 露脸| 国产在线不卡一区二区三区| 久久成人国产精品| 国产乱人乱偷精品视频| 最近日韩中文字幕| 一本岛在线视频| 青青草原综合久久大伊人精品| 国产va免费精品高清在线| 天堂√在线中文官网在线| 午夜伦理一区二区| 国产麻豆天美果冻无码视频 | 中文av字幕在线观看| 欧美国产偷国产精品三区| 国产中文字幕日韩| av色综合久久天堂av色综合在| 91精品一区二区三区久久久久久| 7788色淫网站小说| 噜噜噜久久亚洲精品国产品小说| 欧洲精品一区色| 久久久人成影片一区二区三区在哪下载 | 国产精品国内视频| 久久综合在线观看| 免费观看黄色av| 亚洲一区二区三区三| 成年女人免费视频| 一区二区黄色| 日韩电影免费观看在| 亚洲国产天堂| 欧美成人精品xxx| 亚洲aaa在线观看| 欧美视频精品在线| 中文字幕亚洲欧美日韩| 99久久免费国产| 亚洲成人av免费看| 欧美一区激情| 鲁鲁视频www一区二区| 欧美日韩伦理一区二区| 欧美激情一级欧美精品| 欧美18xxxxx| 91麻豆精品国产自产在线 | 亚洲人人精品| 日韩av影视| 欧美中文高清| 日韩免费在线看| 亚洲图区一区| 国产香蕉一区二区三区在线视频| 精品美女www爽爽爽视频| 欧美日韩中文字幕在线视频| 欧美日韩黄色网| 91在线你懂得| 午夜免费福利网站| 亚洲欧美日韩国产一区二区| 男女爱爱视频网站| 国产在线日韩精品| 国产精品v欧美精品∨日韩| jizz亚洲女人高潮大叫| 欧美精品18videos性欧美| www黄在线观看| 亚洲精品98久久久久久中文字幕| 久久久亚洲精选| 麻豆影视在线| 欧美成人一区二区三区| 国产成人麻豆免费观看| 亚洲成av人片在www色猫咪| 欧美精品日韩在线| aaa亚洲精品| 久久av一区二区三| 国产综合色精品一区二区三区| 37pao成人国产永久免费视频| 欧美黄色aaaa| 国产精品99久久久久久大便| 国产亚洲第一伦理第一区| 国产女人水真多18毛片18精品 | 亚洲专区一区二区三区| 久久久无码中文字幕久...| 欧美日韩老妇| 女女同性女同一区二区三区91| 亚洲视频一起| 亚洲a级在线观看| 日韩精品一级毛片在线播放| 国产成人精品日本亚洲| 欧产日产国产精品视频| 色综合久久久久久中文网| 国产美女福利在线| 色香阁99久久精品久久久| 每日更新在线观看av| 亚洲精品狠狠操| 色噜噜一区二区三区| 日韩精品专区在线影院观看| 91亚洲国产成人精品一区| 欧美视频在线一区二区三区| 久久久精品视频网站| 欧美日韩中文字幕日韩欧美| 日韩乱码人妻无码中文字幕| 亚洲第一久久影院| 国产精选第一页| 亚洲国产va精品久久久不卡综合 | av在线天堂| 亚洲图片在区色| 第九色区av在线| 国产亚洲精品久久久久久| 黄视频在线播放| 国产亚洲福利一区| 搞黄视频免费在线观看| 亚洲性av在线| 在线观看二区| 久久精品国产欧美激情| 麻豆传媒视频在线观看免费| 国产一区二区三区视频| 中文字幕av免费在线观看| 视频一区国产| 成人乱色短篇合集| 久久久精品区| 国产美女99p| 香蕉一区二区| 色姑娘综合网| 一区二区日韩欧美| 男人添女荫道口女人有什么感觉| 激情久久久久久久| 欧美黄色免费影院| 美女视频一区二区三区| 日本少妇xxx| av午夜精品一区二区三区| 日韩av在线看免费观看| 国产精品久久久一本精品| 久久人妻无码aⅴ毛片a片app | 日韩视频在线观看视频| 欧美日韩一区二区国产| 激情网站五月天| 精品中文av资源站在线观看| 日本美女视频网站| 久久久久久久久99精品| 希岛爱理中文字幕| 欧美日韩美女视频| 中文字幕理论片| 337p日本欧洲亚洲大胆精品| 欧美xxx.com| 精品自拍视频在线观看| 成人福利视频| 99c视频在线| 蜜桃国内精品久久久久软件9| 中文字幕在线观看一区二区三区| 欧美午夜a级限制福利片| 黄色片视频在线播放| 国产一区91精品张津瑜| 人妻大战黑人白浆狂泄| 一区二区三区四区乱视频| 久久久精品视频网站| 精品国产免费一区二区三区四区| 国产二区在线播放| 久久久视频精品| 欧美三级电影网址| 久久精品日产第一区二区三区乱码 | 欧美国产在线看| 在线亚洲+欧美+日本专区| 亚洲av无码一区二区乱子伦| 在线激情影院一区| 日韩精品美女| 99中文字幕| 久久一本综合| 黑森林福利视频导航| 成人一区二区视频| 国产麻豆视频在线观看| 色琪琪一区二区三区亚洲区| 丰满岳乱妇国产精品一区| 久久偷看各类女兵18女厕嘘嘘| 一区一区三区| 国产麻豆乱码精品一区二区三区| 亚洲第一偷拍| 亚洲福利精品视频| 久久蜜桃av一区二区天堂| 久久精品国产亚洲AV无码男同| 欧美日韩国产123区| 欧美色综合一区二区三区| 久久久亚洲影院| 麻豆久久一区| 日本xxx免费| 久久国产三级精品| 国产人妻大战黑人20p| 欧美日韩色婷婷| 五月天婷婷激情网| 久久久久久久色| 国产成人在线中文字幕| 欧美亚洲色图视频| 国产99一区视频免费 | 欧美日韩国产综合新一区| 亚洲第一黄色片| 欧美成人免费va影院高清| 99久久久成人国产精品| 一级黄色录像免费看| 久久电影网站中文字幕| 大胸美女被爆操| 伊人网在线播放| 77777少妇光屁股久久一区| 一区三区自拍| 国产免费裸体视频| 国产91丝袜在线观看| 免费一级片在线观看| 精品福利视频一区二区三区| 九色91在线| 国产一区二区在线网站| 国产午夜精品一区二区三区欧美 | 开心激情综合网| 国模吧一区二区| 欧美男男freegayvideosroom| 少妇高潮毛片色欲ava片| av午夜一区麻豆| 日韩一级在线视频| 国产一区二区黄| 日韩欧美三区| 午夜探花在线观看| 国产成人福利片| 国产无人区码熟妇毛片多| 亚洲社区在线观看| 欧美a一级片| 成人手机在线播放| 成人av在线电影| www毛片com| 色999日韩欧美国产| 一区二区三区四区精品视频| 少妇高潮喷水在线观看| 国产欧美日韩另类一区| 国产肥老妇视频| 91精品国产乱码久久久久久蜜臀 | 亚洲黄页网站| 在线观看高清免费视频| 成人免费视频在线观看| 全国男人的天堂网| 国产精品成人在线| 欧美 亚欧 日韩视频在线 | 国产自产一区二区| 日本精品久久电影| 国产精品久久久久9999赢消| 911亚洲精选| 欧洲视频一区二区| 欧美videossex另类| 欧美不卡在线一区二区三区| 精品在线播放免费| 久久狠狠高潮亚洲精品| 一区二区日韩精品| 亚洲专区**| 男人搞女人网站| 亚洲综合在线视频| 国产精品秘入口| 国产精品theporn88| 久久精品理论片| 成年人午夜视频| 欧美精品在线免费播放| 国产欧美久久一区二区三区|