精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Deepseek-V2技術報告解讀!全網最細!

人工智能
得力于出色的研究人員和工程團隊,Deepseek-V2將大語言模型訓練中廣泛被驗證有用的訓練策略深度整合,集合了長度外推訓練的YaRN,高效對齊的GRPO,MLA與混合專家分配等方法進行模型訓練。做到了算法、工程和數據的極致優化。

深度求索Deepseek近日發布了v2版本的模型,沿襲了1月發布的 Deepseek-MoE(混合專家模型)的技術路線,采用大量的小參數專家進行建模,同時在訓練和推理上加入了更多的優化。沿襲了一貫的作風,Deepseek對模型(基座和對話對齊版本)進行了完全的mit協議開源,可以商用。對于算力不是那么充足的開發者,官方提供了API調用的方案,費用更是達到了全場最低!

圖片圖片

在技術報告的開始,Deepseek團隊用多個數字和兩張圖直觀地概括了目前模型取得的效果。模型參數量方面達到236B ,同時由于模型小專家混合的特性,模型在推理時的激活參數很少,可以實現高推理速度。在通用能力的表現上,模型在MMLU多選題benchmark上拿到78.5 分,取得了第二名,Deepseek-V2在眾多開源模型中表現僅次于70B 的 LLaMA3,超過了他們此前發布的V1代67B的非MoE模型。在成本效率方面,相比V1的稠密模型,V2模型節約了42.5%的訓練成本,減少了推理時93.3%的 KV-cache 顯存占用,將生成的吞吐量也提升到了原來的5.76倍。借助YaRN優化的長度外推訓練方法,模型的上下文能力得以擴展到了128k大小。下面我們結合代碼和技術報告,對Deepseek-V2模型進行詳細的解讀。

圖片圖片

核心優化解析

在這里我們結合官方技術報告中的模型架構圖輔助說明,介紹模型的核心優化點——多頭隱式注意力(Multi-head Latent Attention,MLA):

圖片圖片

如上圖右下所示,大模型使用kv-cache進行模型的解碼加速,但是當序列較長的情況下很容易出現顯存不足的問題,MLA從這一角度出發,致力于減少kv緩存的占用。

圖片圖片

MLA從LoRA的成功借鑒經驗,實現了比GQA這種通過復制參數壓縮矩陣尺度的方法更為節省的低秩推理,同時對模型的效果損耗不大。我們首先結合配置文件中的這幾行了解下每個部分的作用:

"hidden_size": 5120,
"kv_lora_rank": 512,
"moe_intermediate_size": 1536, 
"q_lora_rank": 1536,
"qk_nope_head_dim": 128,
"qk_rope_head_dim": 64

模型處理上一層計算出的隱藏狀態(hidden_size=5120)時,首先會將模型的q壓縮到 q_lora_rank這一維度(設定為1536),再擴展到 q_b_proj 的輸出維度(num_heads * q_head_dim),最后切分成 q_pe  q_nope 兩個部分,在訓練部分中我們將看到這樣設計的作用。

##### __init__ #####
self.q_head_dim = config.qk_nope_head_dim + config.qk_rope_head_dim # =192
self.q_a_proj = nn.Linear(
   self.hidden_size, config.q_lora_rank, bias=config.attention_bias
)
self.q_a_layernorm = DeepseekV2RMSNorm(config.q_lora_rank)
self.q_b_proj = nn.Linear(
   config.q_lora_rank, self.num_heads * self.q_head_dim, bias=False
)
##### forward #####
bsz, q_len, _ = hidden_states.size()

q = self.q_b_proj(self.q_a_layernorm(self.q_a_proj(hidden_states)))
# q (bsz, q_len, 24576)
q = q.view(bsz, q_len, self.num_heads, self.q_head_dim).transpose(1, 2)
# q (bsz, q_len, 128, 192)

q_nope, q_pe = torch.split(
    q, [self.qk_nope_head_dim, self.qk_rope_head_dim], dim=-1
)
# 將最后一層 192 的hidden_states切分為 128 (qk_nope_head_dim) + 64 (qk_rope_head_dim)

對于kv矩陣的設計,模型使用了kv壓縮矩陣設計(只有576維),在訓練時進行先降維再升維。在模型推理的時候,需要緩存的量變成 compressed_kv,經過 kv_b_proj 升高維度得到 k,v 的計算結果。

##### __init__ #####
self.kv_a_proj_with_mqa = nn.Linear(
  self.hidden_size,
  config.kv_lora_rank + config.qk_rope_head_dim,
  bias=config.attention_bias,
)
self.kv_a_layernorm = DeepseekV2RMSNorm(config.kv_lora_rank)
self.kv_b_proj = nn.Linear(
  config.kv_lora_rank,
  self.num_heads
  * (self.q_head_dim - self.qk_rope_head_dim + self.v_head_dim),
  bias=False,
)
        
##### forward #####
compressed_kv = self.kv_a_proj_with_mqa(hidden_states)
compressed_kv, k_pe = torch.split(
  compressed_kv, [self.kv_lora_rank, self.qk_rope_head_dim], dim=-1
)
k_pe = k_pe.view(bsz, q_len, 1, self.qk_rope_head_dim).transpose(1, 2)
kv = (
  self.kv_b_proj(self.kv_a_layernorm(compressed_kv))
  .view(bsz, q_len, self.num_heads, self.qk_nope_head_dim + self.v_head_dim)
  .transpose(1, 2)
)

那么,為什么Deepseek-V2要把整個計算流程拆成 q_nope, k_nope, k_pe, k_nope 這四個部分呢?在RoPE的實現中,如果想要直接讓模型的 q, k 具有位置性質,通常是這樣做的,m,n 代表特定位置的token,R的含義可以查閱RoPE:

計算輸出的attention得分時,整個過程變成了:

為了節約KV cache的內存,Deepseek-V2將kv cache壓縮到了同一個小矩陣中,后面再解壓縮出來:

這個時候注意力得分的計算可以寫成:

這個時候我們變得清楚了,我們apply旋轉位置編碼的時候,標準的不帶解壓縮的實現是會將原始的K狀態直接更新到拼到K前面的,而上面的矩陣運算是使用先左乘,后解壓縮的方式,由于矩陣乘法是沒有交換律的,因此這種矩陣壓縮設定下使用C作為cache直接拼接在數學上是不等價的。為了解決這個問題,Deepseek-V2設計了兩個pe結尾的變量用于儲存旋轉位置編碼的信息,將信息存儲和旋轉編碼解耦合開。

圖片

之后,將q,k中負責儲存信息的部分,負責旋轉編碼的部分拼接起來,進行標準的attention計算:

k_nope, value_states = torch.split(
  kv, [self.qk_nope_head_dim, self.v_head_dim], dim=-1
)
kv_seq_len = value_states.shape[-2]

cos, sin = self.rotary_emb(value_states, seq_len=kv_seq_len)
q_pe, k_pe = apply_rotary_pos_emb(q_pe, k_pe, cos, sin, position_ids)
        
query_states = k_pe.new_empty(bsz, self.num_heads, q_len, self.q_head_dim)
query_states[:, :, :, : self.qk_nope_head_dim] = q_nope
query_states[:, :, :, self.qk_nope_head_dim :] = q_pe

key_states = k_pe.new_empty(bsz, self.num_heads, q_len, self.q_head_dim)
key_states[:, :, :, : self.qk_nope_head_dim] = k_nope
key_states[:, :, :, self.qk_nope_head_dim :] = k_pe
if past_key_value is not None:
    cache_kwargs = {"sin": sin, "cos": cos}  # Specific to RoPE models
    key_states, value_states = past_key_value.update(
        key_states, value_states, self.layer_idx, cache_kwargs
    )

attn_weights = (
  torch.matmul(query_states, key_states.transpose(2, 3)) * self.softmax_scale
)

attn_output = torch.matmul(attn_weights, value_states)
attn_output = attn_output.transpose(1, 2).contiguous()
attn_output = attn_output.reshape(bsz, q_len, self.num_heads * self.v_head_dim)
attn_output = self.o_proj(attn_output)

最后將 num_head 維度拉平,經過輸出矩陣得到模型這一層的輸出隱藏狀態,仍為 5120 維。

架構解讀

我們通過模型的架構圖和配置文件對模型設計有一個大致的認知,Deepseek的模型習慣采用 remote_code導入的格式,下載模型后,我們通過官方示例導入模型權重,打印出模型的架構。

DeepseekForCausalLM(
  (model): DeepseekModel(
    (embed_tokens): Embedding(102400, 5120)
    (layers): ModuleList(
      (0): DeepseekDecoderLayer(
        (self_attn): DeepseekAttention(
          (q_a_proj): Linear(in_features=5120, out_features=1536, bias=False)
          (q_a_layernorm): DeepseekRMSNorm()
          (q_b_proj): Linear(in_features=1536, out_features=24576, bias=False)
          (kv_a_proj_with_mqa): Linear(in_features=5120, out_features=576, bias=False)
          (kv_a_layernorm): DeepseekRMSNorm()
          (kv_b_proj): Linear(in_features=5120, out_features=32768, bias=False)
          (o_proj): Linear(in_features=163840, out_features=5120, bias=False)
          (rotary_emb): DeepseekYarnRotaryEmbedding()
        )
        (mlp): DeepseekMLP(
          (gate_proj): Linear(in_features=5120, out_features=12288, bias=False)
          (up_proj): Linear(in_features=5120, out_features=12288, bias=False)
          (down_proj): Linear(in_features=12288, out_features=5120, bias=False)
          (act_fn): SiLU()
        )
        (input_layernorm): DeepseekRMSNorm()
        (post_attention_layernorm): DeepseekRMSNorm()
      )
      (1-59): 59 x DeepseekDecoderLayer(
        (self_attn): DeepseekAttention(
          (q_a_proj): Linear(in_features=5120, out_features=1536, bias=False)
          (q_a_layernorm): DeepseekRMSNorm()
          (q_b_proj): Linear(in_features=1536, out_features=24576, bias=False)
          (kv_a_proj_with_mqa): Linear(in_features=5120, out_features=576, bias=False)
          (kv_a_layernorm): DeepseekRMSNorm()
          (kv_b_proj): Linear(in_features=5120, out_features=32768, bias=False)
          (o_proj): Linear(in_features=163840, out_features=5120, bias=False)
          (rotary_emb): DeepseekYarnRotaryEmbedding()
        )
        (mlp): DeepseekMoE(
          (experts): ModuleList(
            (0-159): 160 x DeepseekMLP(
              (gate_proj): Linear(in_features=5120, out_features=1536, bias=False)
              (up_proj): Linear(in_features=5120, out_features=1536, bias=False)
              (down_proj): Linear(in_features=1536, out_features=5120, bias=False)
              (act_fn): SiLU()
            )
          )
          (gate): MoEGate()
          (shared_experts): DeepseekMLP(
            (gate_proj): Linear(in_features=5120, out_features=3072, bias=False)
            (up_proj): Linear(in_features=5120, out_features=3072, bias=False)
            (down_proj): Linear(in_features=3072, out_features=5120, bias=False)
            (act_fn): SiLU()
          )
        )
        (input_layernorm): DeepseekRMSNorm()
        (post_attention_layernorm): DeepseekRMSNorm()
      )
    )
    (norm): DeepseekRMSNorm()
  )
  (lm_head): Linear(in_features=5120, out_features=102400, bias=False)
)

我們從上往下,從embedding層的維度來看,與Gemma, LLaMA和Qwen的經驗一致,Deepseek也選取了較大的輸入詞表作為模型的輸入(數據充足且多樣的情況下當然可以這么干),這樣做的好處是詞表的多樣性強,解碼的一個token內有多個字,壓縮效率很高。

"num_hidden_layers": 60,
"num_key_value_heads": 128,
"num_experts_per_tok": 6,
"n_shared_experts": 2,
"n_routed_experts": 160

通過以上配置分析,模型共有60個層,注意力頭數為128,總的門控專家個數為160,每個token計算有6個門控專家被激活,同時還有2個共享專家保持激活狀態,共計8個被激活的專家。在經過embedding層后,與Deepseek-MoE保持一致,首先會經過一個共享的大Decoder層進行第一層計算,這層模型的attention計算設定與后續59層基本一致,唯一區別是這一層的mlp層固定為8個專家的寬度,沒有門控額外參數激活的設定,這一設置與每層共享專家的設定一樣,研究者希望語言生成的公共知識(包含流暢性、邏輯性等)被存儲在這里。

而當我們從模型的整體架構選取上來看,層數足夠深的時候使用pre-norm方便模型訓練,歸一化使用RMSNorm,非線性激活函數使用SiLU,attention矩陣不加bias(對flash-attention有好處),這些似乎是如今大廠在訓練大模型時候會采用的標配了。

訓練

  1. MLA設定下的解耦長度外推:模型使用基于進制轉換的YaRN進行長度外推訓練,在大海撈針測試中表現不錯。

圖片

  1. 模型對齊訓練:模型使用對話數據進行SFT,同時評估時重點關注指令遵循能力。在強化對齊階段也下了很大的功夫,最早出現在Deepseek-Math中的GRPO算法被用來進行偏好對齊訓練,這是一種無需在訓練中更新通常與Policy Model(被對齊模型)同樣大小的 Critic Model 的參數的訓練方法,是一種資源優化的 PPO。(注意:還是需要訓 Reward Model 的,只是不會在對齊的時候進行參數更新)

圖片

GRPO和PPO的對比

圖片

Infra

模型訓練的工程優化方面(infra)仍有很多給人啟示的點。模型使用了pp=16的流水線并行(pipeline parallel),160個專家分ep=8個節點并行(expert parallel),而并未采取任何形式的張量并行(tensor parallel),降低了通信成本,使用了ZeRO-1的數據并行來減少優化器狀態的顯存占用。訓練設施在卡間使用NVLink和NVSwitch,節點間使用InfiniBand交換機,通信優化已經全部拉滿。并行策略全部使用自研的HAI-LLM實現。

另外,Deepseek-V2結合算法和工程,提出了資源感知專家負載均衡的方法,保證了專家并行的幾個機器雨露均沾,不會出現有些機器空轉,有些機器過度占用的情況。在訓練時,結合模型本身的專家ensemble特性,各個專家在訓練開始的過程中是完全對稱的,這種設計如果不做額外的限制,容易出現壓力過多分擔到某些門控專家的現象,造成這些專家所在的機器節點參數更新頻繁,而未發揮作用的專家所在的機器空轉。提出了三個維度的均衡優化,把不同機器上專家的協作屬性融入到loss計算中:

  1. 專家維度的均衡,避免有些專家過度勞累,把知識學雜了:

圖片

  1. 機器維度的均衡,希望處理每個token的6個專家,盡可能分散到不同的機器上:

圖片

  1. 通信維度的均衡:雖然前面已經做了機器維度的均衡保證,但我們舉一個例子(ep_size=8):
[tok_0, tok_1, tok_2, ..., tok_n]
算 tok_0 專家所在的機器: 0,1,2,3,5,6
算 tok_1 專家所在的機器: 0,4,2,1,3,7
算 tok_2 專家所在的機器: 0,1,2,3,5,6

這樣仍然不行,雖然滿足了每個token的專家都很分散,但是機器0,1,2,3的使用過于頻繁,4,5,6,7的使用過少。簡單來說,目標2,3聯合起來,理想狀態下是模型參數更新時,專家所在的機器在上方矩陣的行維度最好出現0次或1次,而綜合起來看整個矩陣每個機器出現的次數是整體機器使用量的 ,這樣才能實現資源利用均衡。

圖片

融合算法和工程!這也是另一個Deepseek的亮點,目標1實現了算法上的最優,充分利用了模型ensemble的結構設計,目標2,3避免機器空轉,實現了模型訓練效率的最優。

模型效果

圖片

基座能力很強,很有可能來自模型訓練的數據優化,中文數據占比是英文數據占比的1.12倍。

圖片圖片

指令遵循能力很好。

討論

本部分我們直接從報告中看Deepseek官方給的結論,

指令微調數據規模

DeepSeek-V2經過實驗表明,進行SFT的實驗數據如果太少,例如少于10000條,模型的IFEval指標下降明顯。另外,數據量的減少不是增加模型的規模可以彌補的缺陷,模型必須通過大的數據量才能學習到指令遵循所需的關鍵知識。

強化學習對齊稅

Deepseek-V2的研究者們發現人類偏好對齊有利于開放的問題回答,也就是說一個大模型是不是真正好很有可能來自這部分。

但是這部分會造成對齊稅,具體來說就是對齊了人類偏好,成為一個好用的模型,不利于模型刷榜。為了減輕影響,Deepseek-V2進行更為精細的數據處理和訓練策略改進,最終實現了權衡。

在線而不是離線偏好對齊

DeepSeek-V2發現在強化學習偏好對齊方面,在線方法顯著優于離線方法。

總結

得力于出色的研究人員和工程團隊,Deepseek-V2將大語言模型訓練中廣泛被驗證有用的訓練策略深度整合,集合了長度外推訓練的YaRN,高效對齊的GRPO,MLA與混合專家分配等方法進行模型訓練。做到了算法、工程和數據的極致優化。

責任編輯:武曉燕 來源: 包包算法筆記
相關推薦

2024-05-07 08:04:09

代碼格式化工具

2025-02-19 10:49:30

2025-02-12 08:30:18

2023-11-29 11:31:03

2025-08-20 09:57:40

DeepSeekClaude 4編程

2025-02-14 08:04:15

2019-02-18 09:11:38

2018-09-03 13:34:24

區塊鏈互聯網數字貨幣

2024-09-05 09:17:14

2025-02-19 08:00:00

2025-01-21 09:36:51

2013-10-10 14:52:53

jQueryDeferred

2018-07-31 10:56:28

2020-10-23 21:11:40

技術科技人工智能

2017-01-17 11:12:16

2024-07-29 11:50:50

2014-11-26 13:02:02

交換機幀轉發

2013-05-02 10:03:12

服務器虛擬化

2025-04-02 02:17:00

點贊
收藏

51CTO技術棧公眾號

日韩欧美亚洲一二三区| 在线欧美福利| 欧美人成免费网站| 精品免费久久久久久久| 欧美自拍第一页| 久久久久久黄| 日韩在线视频免费观看| 久久久久亚洲av无码网站| 高清视频在线观看三级| 国产欧美一区二区三区网站| 国产精品久久久久99| 国产探花在线免费观看| 亚洲精品进入| 欧美一级午夜免费电影| 久久无码高潮喷水| av毛片在线看| 亚洲国产精品黑人久久久| ts人妖另类在线| 这里只有精品999| 亚洲精品1区2区| 精品国内亚洲在观看18黄| 欧美双性人妖o0| 午夜激情在线播放| 亚洲综合在线免费观看| 亚洲一卡二卡区| 无码精品人妻一区二区| 国产一区二区不卡在线| 国产aⅴ夜夜欢一区二区三区 | 国产精品无码av无码| 精品51国产黑色丝袜高跟鞋| 久久女同性恋中文字幕| 国产精品永久入口久久久| 91麻豆成人精品国产免费网站| 国产日韩亚洲| 久久久久久尹人网香蕉| 国产精品99久久久久久成人| 精品国产乱码| 亚洲欧美精品在线| 亚洲色图欧美日韩| 日韩中文字幕在线一区| 欧美视频一区二| 国产成人av影视| 国产在线观看www| 亚洲国产日韩a在线播放性色| 中文字幕欧美日韩一区二区| 成年网站在线| 久久久九九九九| 久久久久国产精品视频| 少妇喷水在线观看| 成人激情午夜影院| 国产精品免费一区二区三区在线观看 | 国产精品视频精品| 国产污视频网站| 久久精品人人做人人爽电影蜜月| 78色国产精品| av黄色在线播放| 性久久久久久| 国产aⅴ夜夜欢一区二区三区 | 日本成人免费在线观看| 国产精品一区二区av交换| 亚洲男人天堂2023| 免费一级做a爰片久久毛片潮| 亚洲永久精品唐人导航网址| 亚洲人线精品午夜| 免费看黄色三级| 欧美亚洲激情| 久久精品国产亚洲| 久久久久久国产精品免费播放| 国产一区二区三区四区老人| 久久久久中文字幕| 国产成人无码精品亚洲| 日韩一级欧洲| 国产成人精品国内自产拍免费看| 久久精品五月天| 美女脱光内衣内裤视频久久网站| 成人黄色av网站| 亚洲h视频在线观看| proumb性欧美在线观看| 日本亚洲欧洲精品| 麻豆av免费在线观看| 一区二区高清视频在线观看| 国产在线青青草| 久久青草视频| 精品国产乱码久久久久久久久| 青青草视频播放| 日韩在线中文| 久久久影视精品| 亚洲欧美日韩一区二区三区四区| 国内成人精品2018免费看| 97神马电影| 欧美美女搞黄| 亚洲美女在线一区| 高清在线观看免费| 亚洲aⅴ网站| 亚洲经典中文字幕| 中文字幕乱码av| 99av国产精品欲麻豆| 国产精品久久久久久久久久免费| 精品国自产拍在线观看| 久久久精品一品道一区| 成人黄色片免费| 忘忧草在线www成人影院| 日韩一区二区免费在线电影| 日韩人妻无码精品综合区| 亚洲大全视频| 日本91av在线播放| 精品毛片一区二区三区| 国产亚洲一区二区三区| av日韩在线看| 久久精品黄色| 亚洲免费中文字幕| 久久综合综合久久| 久久草av在线| 欧美婷婷久久| 乱馆动漫1~6集在线观看| 欧美疯狂做受xxxx富婆| 黄色在线观看av| 欧美黄色免费| 成人a在线视频| 黄色的视频在线免费观看| 亚洲专区一二三| 国产永久免费网站| 精品色999| 91av视频导航| 欧美一级淫片aaaaaa| 亚洲女性喷水在线观看一区| 91蝌蚪视频在线观看| 欧美一性一交| 欧美精品精品精品精品免费| 国产特黄一级片| 国产精品国模大尺度视频| 亚洲爆乳无码专区| 亚洲三级性片| 国产91|九色| 午夜免费福利视频| 亚洲欧洲中文日韩久久av乱码| 狠狠狠色丁香婷婷综合激情| 欧美性极品xxxx娇小| 欧美裸体男粗大视频在线观看| 亚洲欧美一二三区| 99精品视频在线免费观看| 人人妻人人澡人人爽欧美一区| 欧美一级做a| 亚洲色图五月天| 亚洲第一在线播放| 91丨九色丨国产丨porny| 欧美精品卡一卡二| 亚洲第一二区| 欧美国产日韩精品| 精品人妻一区二区三区麻豆91| 亚洲欧洲日本在线| 久久久久久久久久一区| 亚洲国产一成人久久精品| 国产日产久久高清欧美一区| 日本欧美在线视频免费观看| 欧美日韩国产高清一区二区三区| 美女100%露胸无遮挡| 日韩精品国产精品| 亚洲最新在线| 国产精品视频一区视频二区| 久久在精品线影院精品国产| 99久久国产免费| 亚洲一区二区三区影院| 人妻换人妻a片爽麻豆| 日韩视频不卡| 欧美日韩亚洲免费| 久久女人天堂| 欧美激情视频免费观看| 污污网站免费在线观看| 欧美午夜视频在线观看| 日本免费www| 国产剧情一区二区三区| 天堂8在线天堂资源bt| 伦理一区二区三区| 国产成人精品免高潮在线观看| xxxxx日韩| 日韩一区二区三区四区五区六区| 免费在线观看av网址| a在线欧美一区| 国模杨依粉嫩蝴蝶150p| 色琪琪久久se色| 国产精品久久波多野结衣| 亚洲欧美一区二区三区| 日韩一二三在线视频播| 成人免费公开视频| 色欧美片视频在线观看在线视频| 色噜噜噜噜噜噜| 国产成人亚洲综合色影视| 久久久一本二本三本| 日韩成人激情| 国产久一道中文一区| 高清成人在线| 欧美黑人巨大xxx极品| 毛片在线播放网址| 91精品国产日韩91久久久久久| 日本熟女一区二区| 国产精品三级视频| 人妻av一区二区| 蜜臀av性久久久久蜜臀av麻豆| 99er在线视频| 大胆日韩av| 精品在线观看一区二区| 亚洲国产一区二区久久| 奇米4444一区二区三区| 欧日韩免费视频| 美女一区2区| 成人精品视频在线| 日本不卡1234视频| 久久最新资源网| 国产黄色在线播放| 亚洲第一精品夜夜躁人人躁| 一级黄色a毛片| 精品久久久久久久久国产字幕| 欧美h片在线观看| 久久综合视频网| 久久久久久久穴| 国产在线播放一区| 福利在线一区二区三区| 一本久道久久综合婷婷鲸鱼| 经典三级在线视频| 日韩综合网站| 欧美午夜精品久久久久久蜜| 国语一区二区三区| 亚洲va久久久噜噜噜| 成人亚洲视频| 国产精品高潮视频| 中文字幕色婷婷在线视频| 国内自拍欧美激情| 四季久久免费一区二区三区四区| 三级精品视频久久久久| 成人在线视频成人| 亚洲欧洲国产一区| 视频一区二区在线播放| 亚洲国产精品一区二区三区| www.中文字幕| 欧美成人官网二区| 国产高清视频免费观看| 91精品在线观看入口| 一卡二卡在线观看| 欧美视频你懂的| 夜夜躁日日躁狠狠久久av| 日本久久精品电影| 亚洲欧美一区二区三区在线观看 | 精品粉嫩超白一线天av| av高清一区二区| 日韩一区二区三区视频| 国产日韩免费视频| 91精品国产综合久久福利| 国产一区二区在线视频聊天| 欧美精品视频www在线观看| 在线免费看91| 欧美久久免费观看| 男人天堂网视频| 国产精品老女人| 亚洲综合av网| 欧洲猛交xxxx乱大交3| 中文天堂在线一区| 国产激情av在线| 国产免费成人在线视频| 国产亚洲精品精品精品| 国产精品污网站| 成人欧美一区二区三区黑人一 | 欧美色欧美亚洲另类二区| 国产91精品看黄网站在线观看| 日本大香伊一区二区三区| 69视频免费看| 91.麻豆视频| 亚洲高清视频在线播放| 亚洲精品国精品久久99热 | 欧美精品在线观看| 成人超碰在线| 欧美综合在线观看| 国产一区精品福利| 亚洲综合视频1区| 国内精品国产成人国产三级粉色 | 国产精品sm| 青青草成人免费在线视频| 亚洲欧美网站| 天天色综合天天色| 国产成人精品三级麻豆| 波多野结衣视频播放| 国产欧美综合在线| 婷婷久久综合网| 午夜天堂影视香蕉久久| 69视频免费看| 欧美zozozo| 亚洲国产一区二区三区在线| 国产精品一区二区av日韩在线| 亚洲不卡1区| 99精品视频在线观看播放| 一卡二卡三卡视频| 日韩 欧美一区二区三区| 亚洲综合伊人久久| 91小视频免费观看| 欧美特黄一级片| 黑人精品xxx一区| 一级做a爱片久久毛片| 亚洲国产精品人久久电影| jizz在线观看中文| 国内精品久久久久久| 日韩免费小视频| 亚洲最大成人免费视频| 久久av免费| 国产av熟女一区二区三区| 日本视频一区二区三区| 无码国产69精品久久久久网站 | 亚洲欧美韩国| 亚洲一区二区三区成人在线视频精品 | 欧洲生活片亚洲生活在线观看| www.99视频| 视频在线观看99| 一个人看的www视频在线免费观看| 91精品国产自产在线观看永久| 特黄特色欧美大片| 91大学生片黄在线观看| 免费观看久久久4p| 成人精品在线观看视频| 亚洲激情图片一区| 在线观看毛片网站| 亚洲免费成人av电影| segui88久久综合| 999热视频| 亚洲精品99| 在线观看免费视频高清游戏推荐| 91热门视频在线观看| 久久久久久久九九九九| 777奇米成人网| 免费av在线播放| 国产精品久久99久久| 欧美极品在线观看| 亚洲 高清 成人 动漫| 成人黄色大片在线观看 | 欧美在线三级| www.欧美激情.com| 亚洲欧美偷拍卡通变态| 国产一区二区三区在线观看| 在线观看久久久久久| 亚洲四虎影院| 日韩免费毛片| 日本亚洲最大的色成网站www| 国产黄色网址在线观看| 欧美日韩在线视频观看| 日韩美女一级视频| 日本一区二区三区在线播放| 外国成人在线视频| 欧美牲交a欧美牲交aⅴ免费真 | 日韩电影av| 日韩精品久久久毛片一区二区| 久久精品官网| 微拍福利一区二区| 欧美日韩视频不卡| 午夜视频成人| 91在线播放国产| 欧美日韩国产成人精品| 特级特黄刘亦菲aaa级| 亚洲成人av一区二区三区| 人妻少妇精品无码专区| 91国内揄拍国内精品对白| 中文精品一区二区| 青青草精品视频在线观看| 国产精品久久国产精麻豆99网站| 国产一区二区麻豆| 久久久久久国产精品三级玉女聊斋| 国产亚洲久久| 国产www免费| 91视视频在线直接观看在线看网页在线看 | 色婷婷综合激情| 在线免费观看黄色av| 亚洲一区二区三区sesese| 在线观看不卡| 亚洲一区视频在线播放| 欧美美女激情18p| 青草在线视频在线观看| 久久综合中文色婷婷| 美女网站色91| 国产精品99精品| 亚洲人成自拍网站| 国产精品久一| 国产精品50p| 国产精品国产a级| 国精产品一品二品国精品69xx| 秋霞av国产精品一区| 四虎成人精品永久免费av九九| 麻豆网站免费观看| 日韩欧美精品网站| 黄色小网站在线观看| 久久国产精品 国产精品| 日本视频一区二区三区| 久久黄色小视频| 亚洲天堂网在线观看| 视频精品二区| 手机在线看福利| 亚洲国产一区视频| 成年人免费在线视频| 国产精品久久7| 免费久久99精品国产| 日韩精品在线免费看| 日韩中文在线中文网在线观看| 国产91精品入| 亚洲小视频网站|