精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

深度學習中的注意力機制革命:MHA、MQA、GQA至DeepSeek MLA的演變

人工智能
本文將系統梳理這一發展脈絡,深入剖析MHA、MQA、GQA等變體的核心思路與實現方法。

在深度學習領域,注意力機制已然成為現代大模型的核心基石。從最初的多頭注意力(MHA,Multi-Head Attention)到如今的多查詢注意力(MQA,Multi-Query Attention)、分組查詢注意力(GQA,Grouped-Query Attention),再到DeepSeek提出的創新性多頭潛在注意力(MLA,Multi-Head Latent Attention)方法,這一演變歷程不僅是技術發展的脈絡,更是對效率與性能極致追求的生動寫照。本文將系統梳理這一發展脈絡,深入剖析MHA、MQA、GQA等變體的核心思路與實現方法。

圖片

一、Multi-Head Attention

圖片

多頭注意力(Multi-Head Attention,MHA)是Transformer模型架構中的一個核心組件,它允許模型在處理輸入序列時能夠同時關注來自不同位置的不同表示子空間的信息。

MHA通過將輸入向量分割成多個并行的注意力“頭”,每個頭獨立地計算注意力權重并產生輸出,然后將這些輸出通過拼接和線性變換進行合并以生成最終的注意力表示。

下面來看下計算公式:

1. 輸入變換:輸入序列首先通過三個不同的線性變換層,分別得到查詢(Query)、鍵(Key)和值(Value)矩陣。這些變換通常是通過全連接層實現的。

圖片

2. 分頭:將查詢、鍵和值矩陣分成多個頭(即多個子空間),每個頭具有不同的線性變換參數。

3. 注意力計算:對于每個頭,都執行一次縮放點積注意力(Scaled Dot-Product Attention)運算。具體來說,計算查詢和鍵的點積,經過縮放、加上偏置后,使用softmax函數得到注意力權重。這些權重用于加權值矩陣,生成加權和作為每個頭的輸出。

圖片

4. 拼接與融合:將所有頭的輸出拼接在一起,形成一個長向量。然后,對拼接后的向量進行一個最終的線性變換,以整合來自不同頭的信息,得到最終的多頭注意力輸出。

圖片

作為最早提出的注意力機制方法,多頭注意力機制存在的問題:

  1. 計算復雜度高:多頭注意力機制的計算復雜度與輸入序列長度的平方成正比(圖片),這使得在處理長序列時計算量顯著增加。例如,對于長度為1000的序列,計算復雜度將達到圖片,這在實際應用中可能導致訓練和推理速度變慢。
  2. 內存占用大:在多頭注意力機制中,每個頭都需要獨立存儲查詢(Query)、鍵(Key)和值(Value)矩陣,這導致內存消耗顯著增加。對于大規模模型,尤其是在長序列任務中,KV緩存的大小會線性增長,成為內存瓶頸。
  3. 特征冗余:多頭注意力機制中,不同頭可能學習到相似的特征,導致特征冗余。這種冗余不僅浪費計算資源,還可能降低模型的泛化能力。
  4. 模型解釋性差:多頭注意力機制的內部工作機制較為復雜,每個頭的具體功能難以直觀理解,降低了模型的可解釋性。盡管可以通過注意力權重可視化來理解模型關注的輸入信息,但這種解釋性仍然有限。
  5. 過擬合風險:由于多頭注意力機制增加了模型的參數量和復雜度,尤其是在數據量有限的情況下,模型可能會過度擬合訓練數據。
  6. 推理效率低:在自回歸模型中,每個解碼步驟都需要加載解碼器權重以及所有注意力的鍵和值,這不僅計算量大,還對內存帶寬要求高。隨著模型規模的擴大,這種開銷會進一步增加,使得模型擴展變得困難。

二、Multi-Query Attention

針對MHA存在的問題,Google提出了多查詢注意力(Multi-Query Attention,MQA)。MQA的設計初衷是為了在保持Transformer模型性能的同時,顯著提升計算效率和降低內存占用。

在MHA中,輸入分別經過圖片的變換之后,都切成了n份(n=頭數),維度也從圖片降到了圖片,分別進行attention計算再拼接。MQA的做法很簡單,在線性變換之后,只對Q進行切分(和MHA一樣),而K、V則直接在線性變換的時候把維度降到了圖片(而不是切分變小),然后這n個Query頭分別和同一個K、V進行attention計算,之后把結果拼接起來。

簡單來說,就是MHA中,每個注意力頭的K、V不一樣,而MQA中每個注意力頭的K、V一樣,值共享,其他步驟和MHA一樣。

圖片

簡單看下公式:

1. 查詢(Query)保持多頭設計:

圖片

2. 鍵(Key)和值(Value)共享一組矩陣:

圖片

3. 計算注意力輸出:

圖片

下圖是論文中MHA和MQA的對比結果,可以看到由于共享了多個頭的參數,限制了模型的表達能力,MQA雖然能好地支持推理加速,但是在效果上略比MHA差一點,但相比其他修改hidden size或者head num的做法效果都好。

圖片

圖片

MQA通過共享鍵(K)和值(V)矩陣的設計,顯著降低了計算復雜度和內存占用,同時保持了較好的性能表現。這種設計特別適合長序列任務、資源受限的設備以及需要快速推理的場景。但是MQA對于所有query全部共享同一個key、value可能會限制每個查詢頭捕捉不同特征的能力,進而影響模型的整體表達能力和靈活性。

三、Grouped-Query Attention

MQA對效果有點影響,MHA緩存又存不下,Google又繼續提出了一個折中的辦法組查詢注意力(Grouped-Query Attention,GQA),既能減少MQA效果的損失,又相比MHA需要更少的緩存。

圖片

簡單看下公式:

1. 將頭分為g組,每組有h/g個頭。對于每組i:

圖片

2. 計算每個組的注意力輸出并拼接:

圖片

來看下結果:

圖片

看表中2/3/4行對比,GQA的速度相比MHA有明顯提升,而效果上比MQA也好一些,能做到和MHA基本沒差距。文中提到,這里的MQA和GQA都是通過average pooling從MHA初始化而來,然后進行了少量的訓練得到的。

下面是Llama2技術報告中做的MHA、MQA、GQA效果對比,可以看到效果確實很不錯。

圖片

四、Multi-Head Latent Attention

圖片

在最新的DeepSeek論文中,為解決MHA在高計算成本和KV緩存方面的局限性,提出改進的多頭潛在注意力(Multi-Head Latent Attention,MLA),旨在提高Transformer模型在處理長序列時的效率和性能。

MLA的技術創新主要是采用低秩聯合壓縮鍵值技術,優化鍵值(KV)矩陣,顯著減少了內存消耗并提高了推理效率。

具體來說,MLA通過低秩聯合壓縮鍵值(Key-Value),將它們壓縮為一個潛在向量(latent vector),從而大幅減少所需的緩存容量,還降低了計算復雜度。在推理階段,MHA需要緩存獨立的鍵(Key)和值(Value)矩陣,這會增加內存和計算開銷。而MLA通過低秩矩陣分解技術,顯著減小了存儲的KV(Key-Value)的維度,從而降低了內存占用。

MLA利用低秩壓縮技術,使得DeepSeek的KV緩存減少了93.3%。來看下公式:

1. KV聯合低秩壓縮

MLA模型通過低秩壓縮對鍵(keys)和值(values)進行聯合壓縮,以減少KV緩存的大小。其核心公式為:

圖片

  • 圖片是key和value的壓縮潛在向量,圖片表示KV壓縮維度;
  • 圖片是降維投影矩陣,圖片分別是key和value的升維投影矩陣。

2. Q的低秩壓縮

為了降低訓練時的激活內存占用,MLA對query(Q)也進行了低秩壓縮。其核心公式為:

圖片


  • 圖片是query的壓縮潛在向量,圖片表示query壓縮的維度;
  • 圖片是query的降維投影矩陣,圖片是query的升維投影矩陣。

3. RoPE 與低秩 KV 壓縮不兼容問題-解耦 RoPE 策略

RoPE 對keys和queries都是位置敏感的。如果對鍵圖片應用 RoPE,則會有一個與位置相關的 RoPE 矩陣。 這種情況下,圖片在推理過程中不能再被吸收進圖片,因為一個與當前生成的 token 相關的 RoPE 矩陣會存在于圖片之間,矩陣乘法不遵循交換律。因此,必須在推理過程中重新計算所有前綴 token 的鍵,這將顯著阻礙推理效率。 為了解決這個問題,論文提出了解耦 RoPE 策略,該策略使用額外的多查詢注意力(MQA)圖片和共享的鍵圖片來攜帶 RoPE,其中圖片表示解耦query和key的head_dim。

在解耦 RoPE 策略下,MLA 執行以下計算:

圖片

  • 其中圖片圖片是分別生成解耦query和key的矩陣;

下面附上代碼:

import torch
import torch.nn as nn
import math
class MLA(nn.Module):
    def __init__(self, d_model=512, down_dim=128, up_dim=256, num_heads=8, rope_head_dim=26, dropout_prob=0.1):
        super(MLA, self).__init__()
        
        self.d_model = d_model
        self.down_dim = down_dim
        self.up_dim = up_dim
        self.num_heads = num_heads
        self.head_dim = d_model // num_heads
        self.rope_head_dim = rope_head_dim
        self.v_head_dim = up_dim // num_heads    
        # 初始化kv聯合以及q對應的dow,up projection
        self.down_proj_kv = nn.Linear(d_model, down_dim) # W^{DKV}
        self.up_proj_k = nn.Linear(down_dim, up_dim)# W^{UK}
        self.up_proj_v = nn.Linear(down_dim, up_dim) # W^{UV}
        self.down_proj_q = nn.Linear(d_model, down_dim) #W^{DQ}
        self.up_proj_q = nn.Linear(down_dim, up_dim) # W^{UQ}  
        # 初始化解耦的q,k進行MQA計算的映射矩陣
        self.proj_qr = nn.Linear(down_dim, rope_head_dim * num_heads)
        self.proj_kr = nn.Linear(d_model, rope_head_dim*1)
        #初始化解耦的q,k對應的rope類,因為頭的數量不同,初始化2個實例
        self.rope_q = RotaryEmbedding(rope_head_dim * num_heads, num_heads)
        self.rope_k = RotaryEmbedding(rope_head_dim, 1)     
        # Dropout and final linear layer
        self.dropout = nn.Dropout(dropout_prob)
        self.fc = nn.Linear(num_heads * self.v_head_dim, d_model)
        self.res_dropout = nn.Dropout(dropout_prob)
    def forward(self, h, mask=None):
        bs, seq_len, _ = h.size()
       # setp1 :低秩轉換
        c_t_kv = self.down_proj_kv(h)
        k_t_c = self.up_proj_k(c_t_kv)
        v_t_c = self.up_proj_v(c_t_kv)
        c_t_q = self.down_proj_q(h)
        q_t_c = self.up_proj_q(c_t_q)    
        
        #step2:解耦的q,k進行MQA計算,同時引入ROPE
        #q_t_r,k_t_r施加rope時均擴展了n_h_r維度->[bs,n_h_r,seq_len,rope_head_dim]
        q_t_r = self.rope_q(self.proj_qr(c_t_q))
        k_t_r = self.rope_k(self.proj_kr(h))    
        
        #step3:拼接step1,step2得到的q,k,進行sdpa計算
        #q_t_c擴展出num_heads為4維,以便于和q_t_r拼接
        q_t_c = q_t_c.reshape(bs, seq_len, self.num_heads, -1).transpose(1, 2)
        #head_dim,rope_head_dim拼接
        q = torch.cat([q_t_c, q_t_r], dim=-1)
        #k_t_c擴展出num_heads為4維,以便于和k_t_r拼接
        k_t_c = k_t_c.reshape(bs, seq_len, self.num_heads, -1).transpose(1, 2)
        #k_t_r為MQA,n_h_k_r=1,為了和q_t_r計算,需要在n_h_k_r維度復制
        #k_t_r:[bs,n_h_r_k,seq_len,rope_head_dim]->[bs,num_heads,seq_len,rope_head_dim]
        k_t_r=k_t_r.repeat(1,self.num_heads,1,1)
        #head_dim,rope_head_dim拼接
        k = torch.cat([k_t_c, k_t_r], dim=-1)  
        # 注意力計算,[bs,num_heads,seq_len,seq_len]
        scores = torch.matmul(q, k.transpose(-1, -2))
        if mask is not None:
            scores = scores.masked_fill(mask == 0, -1e9)
        scores = torch.softmax(scores / (math.sqrt(self.head_dim) + math.sqrt(self.rope_head_dim)), dim=-1)
        scores = self.dropout(scores)
        #v_t_c和scores計算,擴展出num_heads維度
        v_t_c = v_t_c.reshape(bs, seq_len, self.num_heads, self.v_head_dim).transpose(1, 2)
        output = torch.matmul(scores, v_t_c)
        #壓縮num_head,送入最終統一映射層
        output = output.transpose(1, 2).reshape(bs, seq_len, -1)
        output = self.fc(output)
        output = self.res_dropout(output)
        return output
bs, seq_len, d_model = 4, 10, 512
h = torch.randn(bs, seq_len, d_model)
mla = MLA(d_model=d_model)
output = mla(h)

DeepSeek沒有給出MLA與其他幾個注意力機制對比的實驗結果,但是結果導向來看,MLA的KV緩存大幅減少,大幅提高模型推理速度,在減少資源消耗的同時,保持甚至提升模型性能。

五、總結

從MHA到MQA、GQA,再到MLA,注意力機制的演變展示了在效率與性能之間不斷優化的軌跡。MLA通過創新的KV緩存壓縮和恢復機制,實現了在資源消耗、推理速度和模型性能之間的最佳平衡,為大語言模型的高效部署和應用提供了新的可能性。

[1]MHA: Attention Is All You Need(https://arxiv.org/pdf/1706.03762)

[2]MQA: Fast Transformer Decoding: One Write-Head is All You Need(https://arxiv.org/pdf/1911.02150)

[3]GQA: Training Generalized Multi-Query Transformer Models from Multi-Head Checkpoints(https://arxiv.org/pdf/2305.13245)

[4]MLA:https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf


責任編輯:龐桂玉 來源: 小白學AI算法
相關推薦

2025-02-10 00:00:55

MHAValue向量

2025-01-16 09:20:00

AI論文模型

2024-04-03 14:31:08

大型語言模型PytorchGQA

2024-10-31 10:00:39

注意力機制核心組件

2024-06-28 08:04:43

語言模型應用

2025-02-25 10:03:20

2025-02-14 11:22:34

2025-06-03 08:43:00

2018-08-26 22:25:36

自注意力機制神經網絡算法

2020-09-17 12:40:54

神經網絡CNN機器學習

2025-02-24 11:31:33

2023-05-05 13:11:16

2025-02-19 15:30:00

模型訓練數據

2024-09-19 10:07:41

2025-02-25 10:21:15

2025-09-29 18:51:01

2024-12-09 00:00:10

2025-10-16 09:00:00

大模型

2025-10-14 09:00:48

DeepSeek人工智能性能

2024-02-19 00:12:00

模型數據
點贊
收藏

51CTO技術棧公眾號

97精品国产| 欧美综合社区国产| 99精品视频在线观看免费| 久久久久久久亚洲精品| 国产成人精品一区二区三区在线观看 | 国产精品传媒入口麻豆| 成人精品一区二区三区电影免费 | 韩国精品久久久| 欧美另类在线观看| 97人妻精品一区二区三区免费| av美女在线观看| 26uuu成人网一区二区三区| 国产精品99免视看9| 一级片一级片一级片| 电影一区二区在线观看| 一本色道**综合亚洲精品蜜桃冫| 日韩精品最新在线观看| 一区二区美女视频| 欧美特黄一级| 亚洲午夜激情免费视频| 三级黄色片免费看| 一二三四视频在线中文| 国产精品家庭影院| 国产亚洲欧美一区二区| 姑娘第5集在线观看免费好剧| 亚洲天堂免费| 日韩电影中文字幕| 中文字幕国产高清| 在线天堂资源| 亚洲激情五月婷婷| 日韩精品一区二区三区色偷偷| 成人av无码一区二区三区| 久久亚洲美女| 欧美激情亚洲国产| 天美传媒免费在线观看| 久久婷婷国产| 欧美一区欧美二区| www.99av.com| 久草在线资源站手机版| 亚洲视频一二三区| 欧美在线播放一区| 色综合视频在线| 激情都市一区二区| 国产精品aaaa| 久久国产精品系列| 欧美精品一卡| 日韩中文字幕精品| 美国美女黄色片| 日韩美女毛片| 欧美成人女星排名| 亚洲天堂伊人网| 亚洲成人va| 欧美性生交大片免网| 久久手机在线视频| 在线中文字幕电影| 亚洲人亚洲人成电影网站色| 午夜视频久久久| 青青草免费在线| 99视频超级精品| 国产精品12| 国产黄a三级三级看三级| 麻豆专区一区二区三区四区五区| 欧美综合国产精品久久丁香| 国产精品18p| 欧美特黄一区| 欧美激情aaaa| 国产一级做a爰片在线看免费| 伊人久久大香线蕉综合四虎小说| 综合网日日天干夜夜久久| 成人午夜福利一区二区| 天堂成人娱乐在线视频免费播放网站| 精品国产一区二区在线观看| 绯色av蜜臀vs少妇| 中文字幕一区二区三区四区久久 | 免费无码国产v片在线观看| 91jq激情在线观看| 香蕉影视欧美成人| 欧美 日韩 国产 高清| 黄色激情在线播放| 色综合久久六月婷婷中文字幕| 男人靠女人免费视频网站| 天堂中文在线播放| 欧洲精品一区二区| 久久黄色片网站| 四虎国产精品成人免费影视| 日韩午夜在线影院| 欧美xxxx×黑人性爽| 亚洲宅男一区| 中文字幕一精品亚洲无线一区 | 日韩精品视频在线| 欧美老熟妇乱大交xxxxx| 岳的好大精品一区二区三区| 亚洲欧美日韩另类| 国产真人真事毛片视频| 香蕉视频国产精品 | 一区二区三区久久久久| 色喇叭免费久久综合网| 欧美另类交人妖| 久久国产精品免费看| 久久婷婷丁香| 国产综合福利在线| 亚洲欧美高清视频| 久久五月婷婷丁香社区| 亚洲二区自拍| 色婷婷在线播放| 天天色天天操综合| 天天综合网日韩| 欧美特黄不卡| 国产视频一区在线| 亚洲女人久久久| 亚洲精品社区| 成人国产在线激情| 少妇高潮一区二区三区99小说 | 亚洲a成v人在线观看| 人妻91麻豆一区二区三区| 国产婷婷色一区二区三区| 一区二区视频在线播放| 电影k8一区二区三区久久| 91国在线观看| 欧美一级大片免费看| 国产精品自拍区| 欧美激情精品久久久久久免费印度| 性无码专区无码| 国产乱色国产精品免费视频| 欧美日韩一区二区三区在线视频| 97caopor国产在线视频| 色呦呦日韩精品| 国产精品欧美性爱| 99精品视频在线| 日本一区二区三区四区视频| 亚洲成人精品女人久久久| 中文字幕免费观看一区| 精品久久久久久久久久中文字幕| 色综合一区二区日本韩国亚洲| 精品亚洲精品福利线在观看| 欧美黄色一区二区三区| 毛片不卡一区二区| 免费在线一区二区| 国产盗摄一区二区| 777xxx欧美| 中文字幕在线观看免费高清 | 妞干网在线观看视频| 日韩成人免费av| 亚洲视频欧美视频| 天天爽夜夜爽夜夜爽精品| 国产乱人伦精品一区二区在线观看| 青青草久久网络| 绿色成人影院| 亚洲电影在线看| 久草资源在线视频| 捆绑调教美女网站视频一区| 日本不卡高清视频一区| 久久毛片亚洲| 精品亚洲精品福利线在观看| 一区二区三区视频免费看| 成人激情动漫在线观看| 国产成人在线小视频| 精品一区91| 久久人人爽人人爽爽久久| 在线观看中文字幕2021| 国产欧美日韩精品在线| 十八禁视频网站在线观看| 亚洲综合图色| 欧美在线影院在线视频| 四虎影院在线域名免费观看| 欧美日韩国产精品一区二区三区四区 | 国产精品第五页| 一本久道中文无码字幕av| 久久99国产精一区二区三区| 人体精品一二三区| 国产综合视频一区二区三区免费| 色天天综合色天天久久| 天天操天天舔天天射| 免费在线观看日韩欧美| 亚洲欧洲在线一区| 99久久久国产| 九九热这里只有在线精品视| 亚洲国产精品久久久久久6q| 亚洲午夜一区二区| 五十路六十路七十路熟婆| 免费日韩视频| 色综合久久久久久久久五月| 四虎国产精品永久在线国在线 | 91精品久久久久久久久中文字幕| 天堂а√在线资源在线| 日韩视频一区二区三区在线播放| 强乱中文字幕av一区乱码| www.欧美.com| 免费看a级黄色片| 婷婷亚洲五月| 国产欧美欧洲| 在线观看精品| 久久精品国产91精品亚洲 | 国产丝袜在线| 日韩欧美国产综合| 国产一级精品视频| 中文字幕在线一区| 国产综合内射日韩久| 美女被久久久| 99中文字幕在线观看| 欧美18免费视频| 国产精品国语对白| 91精品久久久| 精品无人区乱码1区2区3区在线| 免费黄色小视频在线观看| 亚洲人精品午夜| 国产高清自拍视频| 麻豆91在线看| av在线播放亚洲| 日韩大片在线观看| 粉嫩av四季av绯色av第一区| 欧美××××黑人××性爽| 九九热精品在线| 粉嫩一区二区三区国产精品| 欧美大片顶级少妇| 国产一级精品毛片| 欧美日韩国产一区中文午夜| 中文字幕美女视频| 久久女同互慰一区二区三区| 亚洲国产日韩在线一区| 日韩精品乱码免费| 丝袜人妻一区二区三区| 91日韩视频| 蜜桃成人免费视频| 一区二区亚洲视频| 国产精品天天狠天天看| 中文av在线全新| 欧美高清视频在线| 欧美一区二区三区免费视| 欧美中文在线视频| 91在线视频九色| 激情五月综合色婷婷一区二区| av在线下载| 日韩国产精品视频| 99久久久无码国产精品免费| 色综合网色综合| 久艹视频在线观看| 国产精品久久久久久妇女6080| 风间由美一二三区av片| 国产黑丝在线一区二区三区| 手机在线看福利| 亚洲综合激情| 丰满的少妇愉情hd高清果冻传媒| 999久久久国产精品| 欧美日韩一区二 | 欧美在线视频网| 牛牛在线精品视频| 久久这里只有精品99| 亚洲精品久久久中文字幕| 九九热线有精品视频99| 国产一区二区精品免费| 国产美女精品视频免费播放软件 | 丰满少妇一区二区| 欧美色网在线| 日韩视频第一页| 丁香婷婷在线| 亚洲人精选亚洲人成在线| 日本波多野结衣在线| 日韩三级.com| 国产黄色特级片| 日韩在线麻豆| 国产有色视频色综合| 91精品短视频| 97人人干人人| 亚洲精品a区| 亚洲free嫩bbb| 日韩三级av在线| 成人a免费在线看| 久久久久国产免费| 国产成人在线视频免费播放| 中文字幕精品一区二区三区在线| 日本不卡一区二区三区高清视频| 成人黄色片视频网站| 神马久久久久久久久久| 精品国产3级a| 欧美视频一二区| 亚洲国内高清视频| 性xxxfllreexxx少妇| 亚洲精品久久久一区二区三区| 天天干天天草天天射| 日韩精品免费一线在线观看| 蜜桃视频在线观看网站| 亚洲午夜激情免费视频| 免费在线超碰| 高清成人在线观看| 亚洲理论中文字幕| 国产成人综合亚洲网站| 99re这里只有| 久久久久久久性| 香蕉成人在线视频| 成人免费三级在线| 国产激情一区二区三区在线观看 | 一区二区三区日韩欧美精品| 精品在线免费观看视频| 狠狠色狠狠色综合日日五| 天天干天天插天天射| 日韩天天综合| 亚洲一区尤物| 欧美国产三区| 成人免费在线小视频| 免费不卡在线观看| 亚洲一区二区三区三州| 97se亚洲国产综合自在线观| 国产精品视频免费观看| 福利精品在线| 999日本视频| 日韩a级大片| 午夜视频久久久| 很黄很黄激情成人| 国产a级片免费观看| 玖玖精品在线| 亚洲3p在线观看| 伊人久久高清| 99国产在线| 精品国产99| 久久久久久久香蕉| 日韩国产在线观看| 91超薄肉色丝袜交足高跟凉鞋| 国产日韩一级二级三级| 国产性猛交普通话对白| 欧美日韩一区高清| 亚洲色图另类小说| 久久夜精品香蕉| 欧美大胆成人| 国产精品久久久久免费| 久久性感美女视频| 日韩中文字幕三区| 粉嫩一区二区三区性色av| 农村老熟妇乱子伦视频| 午夜影院久久久| 91精品国产综合久| 亚洲欧洲偷拍精品| 91资源在线观看| 国产精品久久久久久久av大片| 理论片一区二区在线| 欧美美女黄色网| 美女脱光内衣内裤视频久久网站 | 日本一区二区三区精品视频| 欧美视频导航| √天堂资源在线| 中文一区二区完整视频在线观看| 国内免费精品视频| 精品欧美一区二区久久 | 萌白酱国产一区二区| 久久爱.com| 丝袜美腿玉足3d专区一区| 国产日韩欧美三区| 在线观看免费视频黄| 亚洲激情自拍偷拍| av 一区二区三区| 色偷偷9999www| 久久xxx视频| 日本一区二区三区视频在线观看| 一本久久知道综合久久| 亚洲美女在线播放| 亚洲第一av色| 黄色av小说在线观看| 久久99久久亚洲国产| 精品国产三级| 日本黄xxxxxxxxx100| 久久99精品久久久久婷婷| 黄色片网站在线播放| 国产白丝网站精品污在线入口| 欧美久久精品午夜青青大伊人| 性开放的欧美大片| 国产成人一区二区三区电影| 图片婷婷一区| 内射国产内射夫妻免费频道| 99久久久国产精品| 日韩欧美三级在线观看| 亚洲激情在线观看视频免费| 91jq激情在线观看| 久久婷婷开心| 久久久777| 娇妻被老王脔到高潮失禁视频| 在线观看免费成人| 一区二区三区视频在线观看视频| 成人免费视频网| 欧美日韩国产亚洲一区| 无码人妻丰满熟妇啪啪网站| 亚洲电影在线免费观看| 少妇性bbb搡bbb爽爽爽欧美| 国产成人精品一区二区| 水蜜桃精品av一区二区| 北条麻妃亚洲一区| 午夜欧美一区二区三区在线播放| 日本一级在线观看| 国产美女久久精品香蕉69| 亚洲理论电影网| 挪威xxxx性hd极品| 91久久国产最好的精华液| 毛片在线不卡| 精品欧美日韩| 日本大胆欧美人术艺术动态| 波多野结衣亚洲一区二区| 亚洲高清一区二| 欧美不卡高清一区二区三区| 国产av第一区| 91免费视频网| 国产又大又粗又长|