精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

一文梳理Transformer在時間序列預測中的發展歷程代表工作

發布于 2024-9-6 14:43
瀏覽
0收藏

Transformer的序列建模能力,讓其天然就比較適合時間序列這種也是序列類型的數據結構。但是,時間序列相比文本序列也有很多特點,例如時間序列具有自相關性或周期性、時間序列的預測經常涉及到周期非常長的序列預測任務等。這些都給Transformer在時間序列預測場景中的應用帶來了新的挑戰,也使業內出現了一批針對時間序列任務的Transformer改造。下面給大家介紹Transformer在時間序列預測中的應用,基本上按照時間順序,到2023年近期的Transformer典型代表工作,共10篇頂會相關論文匯總。

1.Transformer-based Model

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

論文題目:Deep Transformer Models for Time Series Forecasting: The Influenza Prevalence Case

下載地址:??https://arxiv.org/pdf/2001.08317.pdf??

在我印象里,這篇文章應該是第一篇正式發表的在時間序列預測中使用Transformer結構的文章。其整體結構就是直接將Transformer的Encoder-Decoder搬過來,沒做什么特別的升級,并且應用層面也是一個個性化場景。但是從此打開了Transformer在時間序列預測中應用的大門。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

2.TFT

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

論文題目:Temporal fusion transformers for interpretable multi-horizon time series forecasting(2019)

下載地址:??https://arxiv.org/pdf/1912.09363.pdf??

這篇文章中則采用了LSTM+Transformer的方式。時間序列首先輸入到LSTM中,這里的LSTM既可以起到類似于CNN提取每個點上下文信息的作用,也可以起到Position Encoding的作用,利用LSTM的順序建模能力,替代原來Transformer中隨模型訓練的Position Embedding。對于特征的輸入,TFT也進行了詳細設計,在每個時間步的輸入特征上,都會使用一個特征選擇模塊(一個attention)給當前時間步每個特征計算重要性。這個重要性后面也被用于對時間序列預測結果進行可視化分析,看每個時刻各個特征對于預測的重要性狂。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

3.Log-Sparse Transformer

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

論文題目:Enhancing the locality and breaking the memory bottleneck of transformer on time series forecasting(2019)

下載地址:??https://arxiv.org/pdf/1907.00235.pdf??

Transformer的Attention操作是點對點的,而時間序列上上下文信息非常重要。例如下圖中,左側雖然兩個點時間序列值相同,但是由于周邊序列形狀差異很大,因此這兩個點之間不具有參考價值。而右側圖中,雖然兩個區域的時間序列值差別很大,但是整體形狀是非常相似的,因此這兩個部分具有較大參考價值,應該增加attention權重。從這個例子可以看出,在時間序列問題中,不能只用類似NLP中的兩點之間的注意力機制,而應該考慮點周圍的上下文信息。

本文采用卷積+Transformer的方式,時間序列會首先輸入到一個一維卷積中,利用卷積提取每個節點周圍的信息,然后再使用多頭注意力機制學習節點之間的關系。這樣就能讓attention不僅考慮每個點的值,也能考慮每個點的上下文信息,將具有相似形狀的區域建立起聯系。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

4.Informer

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

論文題目 Informer: Beyond efficient transformer for long sequence timeseries forecasting(AAAI 2021)

下載地址:??https://arxiv.org/pdf/2012.07436.pdf??

Informer針對長周期時間序列預測,主要從效率角度對Transformer進行了優化,這篇工作也是AAAI 2021的best paper。對于長周期時間序列,輸入的維度很高,而Transformer的時間復雜度隨著輸入序列長度增加指數增長。為了提升Transformer在長序列上的運行效率,通過讓key只和關鍵query形成稀疏的attention減少大量運算量。作者通過實驗方法,attention score具有非常明顯的長尾性,少數的score比較大,大多數score很小,因此只要重點建模那些重要的關系即可。如果一個query和其他key的attention score接近均勻分布,那么這個query就是簡單的把其他value加和求平均,意義不大。因此Informer中提出計算每個query的attention score打分分布和均勻分布的KL散度,對于重要性不大的query,key就不和這些query計算attention,形成了sparse attention的結構,帶來計算效率的大幅提升。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

此外,針對時間序列任務,Informer還引入了self-attention distillation,在每兩層Transformer之間增加一個卷積,將序列長度縮減一半,進一步減少了訓練開銷。在Decoder階段,則采用了一次性預測多個時間步結果的方法,相比傳統GPT等autoregressive的方法緩解了累計誤差問題。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

5.Autoformer

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

論文題目:Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting(NIPS 2021)

下載地址:??https://arxiv.org/pdf/2106.13008.pdf??

Autoformer是Transformer的升級版本,針對時間序列問題的特性對原始Transformer進行了一系列優化。模型的整體結構如下圖,核心是Series Decomposition Block模塊和對多頭注意力機制的升級Auto-Correlation Mechanism。這里推薦想詳細了解Autoformer細節的同學參考杰少的這篇文章:,整理的非常全面深入。下面給大家簡單介紹一下Auroformer的各個模塊。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

第一個模塊是Series Decomposition Block,這個模塊主要目的是將時間序列分解成趨勢項和季節項。在最基礎的時間序列分析領域,一個時間序列可以被視為趨勢項、季節項、周期項和噪聲。對于這4個因素的拆借,有加法模型、乘法模型等,其中加法模型認為這4個因素相加構成了當前時間序列。本文采用了加法模型,認為時間序列由趨勢項+季節項構成。為了提取出季節項,本文采用了滑動平均法,通過在原始輸入時間序列上每個窗口計算平均值,得到每個窗口的趨勢項,進而得到整個序列的趨勢項。同時,根據加法模型,將原始輸入序列減去趨勢項,即可得到季節項。整個Series Decomposition Block的公式可以表示為:

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

模型的輸入結合Series Decomposition Block模塊。Encoder部分輸入歷史時間序列,Decoder部分的輸入包括趨勢項和季節項兩個部分。趨勢項由兩部分組成,一部分是歷史序列經過Series Decomposition Block分解出的趨勢項的后半部分,相當于用歷史序列近期的趨勢項作為Decoder的初始化;趨勢項的另一部分是0填充的,即目前尚不知道的未來序列的趨勢項,用0進行填充。季節項和趨勢項類似,也是由兩部分組成,第一部分為Encoder分解出的近期季節項,用于初始化;第二部分為Encoder序列均值作為填充,公式如下。


一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

Encoder部分的主要目的是對復雜的季節項進行建模。通過多層的Series Decomposition Block,不斷從原始序列中提取季節項。這個季節項會作為指導Decoder在預測未來時季節項的信息。Encoder部分的公式如下,Auto-correlation代表Auto-Correlation Mechanism,我們在下面再進行介紹。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

Decoder部分也是類似的結構,利用Encoder信息和Decoder輸入進行預測,公式如下:

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

第二個模塊是Auto-Correlation Mechanism,是對傳統Transformer在時間序列預測場景的升級。Auto-Correlation Mechanism的核心思路是利用時間序列的自相關系數,尋找時間序列最相關的片段。時間序列的自相關系數計算時間序列和其滑動一個步長后的時間序列的相關系數。舉例來說,如果一個時間序列是以年為周期,那么序列平移365天后,原序列和平移后的序列相關系數是很高的。AutoFormer利用了這個性質,計算各個滑動步長的自相關系數,并選擇相關系數top k的滑動步長。

在具體實現上,Auto-Correlation Mechanism替代了Transformer中的self-attention結構,其公式如下。首先,將輸入的時間序列通過全連接映射成Q、K、V,這和multi-head attention相同。接下來,計算Q和K之間各個周期的相關系數,選擇相關系數最高的top k,這k個周期代表著Q和K的高相關性周期。這個過程可以理解為計算attention,與以往attention不同的是,這里計算的是片段的相似關系而非點的相似關系。最后,利用softmax得到每個周期歸一化的權重,對V的對應周期平移結果進行加權求和。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

文中使用快速傅里葉變換(FFT)計算自相關系數。下圖分別展示了Auto-Correlation Mechanism,以及這種自相關機制相比Transformer中的自注意力機智的區別。自相關機制利用時間序列的平移尋找相似的片段,而自注意力機制關注點之間的關系。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

6.Pyraformer

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

論文題目 Pyraformer: Low-complexity pyramidal attention for long-range time series modeling and forecasting(ICLR 2022)

下載地址:??https://openreview.net/pdf?id=0EXmFzUn5I??

在長周期的時間序列預測問題中,如何平衡運算復雜度以及縮短兩個時間點之間的交互距離一直是研究的焦點(如下表為各個模型的運算復雜度及兩點最長路徑)。RNN、CNN這種模型對于輸入長度為L的序列,兩個時間點的最長路徑為L,在長周期中節點之間信息交互比較困難。而Transformer引入了Attention機制,讓兩兩節點之間可以直接交互,但是提升了時間復雜度。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

本文提出了一種樹形結構的Transformer,用于解決長周期時間序列預測問題。從下到上,時間序列的粒度逐漸變粗。最底層為原始輸入的時間序列,上層為使用卷積聚合得到的粗粒度序列。每個節點和3種節點做attention:該節點的子節點、該節點的相鄰鄰居節點、該節點的父節點。通過這種方式,任何兩個節點之間都可以直接交互,并且時間復雜度大幅降低。

在預測時,一種是把經過上述編碼得到的表示直接接全連接映射到預測空間。另一種方法是使用一個額外的Decoder,采用類似Transformer中的方式進行解碼。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

7.FEDformer

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

論文題目:FEDformer: Frequency enhanced decomposed transformer for long-term series forecasting(2022)

下載地址:??https://arxiv.org/pdf/2201.12740.pdf??

FEDformer的主要思路也是將Transformemr和 seasonal-trend decomposition結合起來。使用普通的Transformer進行時間序列預測時,經常會出現預測的數據分布和真實分布存在比較大的gap。這主要是由于Transformer在進行預測每個時間點是獨立的利用attention預測的,這個過程中可能會忽略時間序列整體的屬性。為了解決這個問題,本文采用了兩種方法,一種是在基礎的Transformer中引入 seasonal-trend decomposition,另一種是引入傅里葉變換,在頻域使用Transformer,幫助Transformer更好的學習全局信息。

FEDformer的核心模塊是傅里葉變換模塊和時序分解模塊。傅里葉變換模塊將輸入的時間序列從時域轉換到頻域,然后將Transformer中的Q、K、V替換成傅里葉變換后的頻域信息,在頻域中進行Transformer操作。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

8.Non-stationary Transformer

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

論文標題:Non-stationary Transformers: Rethinking the Stationarity in Time Series Forecasting(NIPS 2022)

下載地址:??https://arxiv.org/pdf/2205.14415.pdf??

時間序列的不平穩性(non-stationarity)是一個比較難處理,且真實世界中很常見的問題。業內解決這種統計量隨時間變化的不平穩問題主要方法是,對時間序列數據做一些諸如歸一化等平穩化處理。例如對每個序列樣本使用z-normalization處理成0均值1方差的,這樣就可以解決不同時間步的樣本統計量不一致的問題。但是這種解決方法會對Transformer模型帶來一個負面影響:平穩化后的序列雖然統計量一致了,但是這個過程中也讓數據損失了一些個性化的信息,導致不同序列的Transformer中的attention矩陣趨同。文中將這個現象叫作over-stationarization。

這篇文章提出了一種新的Transformer結構Non-stationary Transformers,核心包括兩個部分:一個是對輸入序列的歸平穩化處理的預測結果反平穩化處理方法;另一個是讓Transformer能夠處理平穩化序列的同時,學習不平穩化數據中的attention規律。

為了讓Transformer能夠直接從平穩化前的時間序列中學習attention pattern,本文提出了De-stationary Attention。對于每個Attention層,由于輸入的是平穩化后的序列,其和平穩化前序列的關系可以表達成如下公式:

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

并可以進一步轉換為如下表達式:

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

因此,想要使用平穩化前的序列計算attention,核心就是去計算3項:平穩化的方差、Q在時間維度上的均值、平穩化前的序列得的K。文中采用原始序列和一個MLP網絡來學習這兩個部分:

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

通過這種方式,既能讓模型在平穩化后的序列上學習,又能讓模型根據非平穩化前完整的序列信息學習Transforomer的attention pattern。模型的整體結構如下圖所示。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

9.PatchTST

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

論文標題:A TIME SERIES IS WORTH 64 WORDS: LONG-TERM FORECASTING WITH TRANSFORMERS(ICLR 2023)

下載地址:??https://arxiv.org/pdf/2211.14730.pdf??

這篇文章提出了基于Transformer時序預測和時序表示學習新方法,將時間序列數據轉換成類似Vision Transformer中的patch形式,取得非常顯著的效果。

本文提出的Transformer多元時間序列預測模型,核心思路為以下2點:

  • Patching:原來的時間序列預測方法都是每個time step輸入到模型中,這種方式一方面在歷史序列比較長的時候運行效率太低,導致無法引入更長的歷史序列信息;另一方面每個time step包含的信息量很少,不像NLP中一個token那樣有明確意義。因此文中借鑒了Vision Transformer的思路(如下圖),也將時間序列分成patch的形式進行建模。
  • Channel-independence:原來的多元時間序列建模方法中,將多個變量融合到一個embedding建模。而本文采用了channel-independence的方法,即每個變量的序列單獨映射到獨立的embedding進行建模。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

10.CrossFormer

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

之前用Transformer解決時間序列問題的工作,大多集中在如何更合理的進行時間維度的關系建模上。利用時間維度的自注意力機制,建立不同時間步之間的關系。

而在多元時間序列預測中,各個變量之間的關系也很重要。之前的解法,主要是將每個時間步的多元變量壓縮成一個embedding(如下圖中的b),再進行時間維度的attention。這種方法的問題是缺少對不同變量之間關系的建模。因為時間序列不同變量的含義是不同的,每個變量應該在哪個時間片段進行對齊無法提前預知,直接每個時間步融合的方式顯然太粗糙了。

基于以上考慮,本文對Transformer在多元時間序列預測的應用中進行了改造,將多元時間序列轉換成patch,增加了變量維度之間的attention(如上圖中的c),并考慮到效率問題,提出了基于路由的變量間attention機制。

模型整體包含3個主要模塊:

  • Dimension-Segment-Wise Embedding:這個模塊的主要目標是將時間序列分成patch形式,得到patch embedding,作為后續模型的輸入,類似于之前文章介紹的方法,將每個變量的時間序列按照一定的窗口與劃分成多個區塊,每個區塊通過全連接進行映射,本文不再詳細介紹;
  • Two-Stage Attention Layer:兩階段的attention,第一階段在時間維度進行attention,第二階段在多變量之間進行attention;
  • Hierarchical Encoder-Decoder:采用不同的patch尺寸和劃分方式,形成層次的編碼和解碼結構。

一文梳理Transformer在時間序列預測中的發展歷程代表工作-AI.x社區

本文轉載自??圓圓的算法筆記??,作者: Fareise ????

收藏
回復
舉報
回復
相關推薦
在线视频国内自拍亚洲视频| 972aa.com艺术欧美| 在线国产精品视频| www.色就是色.com| 污视频网站在线免费| 国产成人h网站| 8090成年在线看片午夜| 亚洲国产无码精品| 欧美一级在线| 亚洲成人在线观看视频| 日韩精品久久一区二区三区| 国产理论片在线观看| 在线亚洲观看| 日韩亚洲欧美中文高清在线| 色悠悠在线视频| 日本高清不卡一区二区三区视频| 国产精品卡一卡二卡三| 国产乱码精品一区二区三区不卡| 国产成人无码av| 久久久久久久久99精品大| 亚洲国产天堂久久国产91 | 精品无码国产污污污免费网站| 激情中国色综合| 精品久久久久久亚洲精品| 宅男av一区二区三区| 青梅竹马是消防员在线| 国产成人亚洲综合a∨婷婷| 国产成人在线亚洲欧美| 日本熟伦人妇xxxx| 亚洲精品国产偷自在线观看| 亚洲人成网站在线播| 风韵丰满熟妇啪啪区老熟熟女| 欧美日韩女优| 欧美色道久久88综合亚洲精品| 国产大尺度在线观看| 黄色片在线免费观看| 成人免费看的视频| 96sao精品视频在线观看| 国产女主播喷水视频在线观看| 1024日韩| 欧美激情视频免费观看| 精品亚洲乱码一区二区| 精品久久久久久久| 亚洲男女性事视频| 天天躁日日躁狠狠躁免费麻豆| 国产成年精品| 欧美亚洲精品一区| 男人的天堂99| 密臀av在线播放| 亚洲成av人片在www色猫咪| www国产免费| a毛片在线播放| 最新日韩在线视频| 一本一道久久久a久久久精品91| 国家队第一季免费高清在线观看| 91亚洲国产成人精品一区二区三| 99电影在线观看| 国产黄色片av| 国产精品99久久久久| 91日韩在线视频| 999免费视频| 韩国精品在线观看| 亚洲va电影大全| 99国产在线播放| 精品在线亚洲视频| 亚洲va欧美va国产综合剧情| 国产精品乱码一区二区| 国产尤物一区二区| 99国产超薄丝袜足j在线观看| 超碰在线人人干| 岛国精品在线播放| 久久久久久九九| 精品av中文字幕在线毛片| 国产亚洲欧美中文| 亚洲精品乱码久久久久久蜜桃91| 一广人看www在线观看免费视频| 国产精品全国免费观看高清 | 亚洲精品影视| 欧洲一区二区视频| 无码人妻精品一区二区三区9厂| 日本中文字幕一区二区有限公司| 国产精品嫩草影院久久久| 一区二区视频在线免费观看| 国产一区在线精品| 国产精品欧美久久| 青青久草在线| 综合分类小说区另类春色亚洲小说欧美| 樱花www成人免费视频| a毛片在线播放| 欧美视频裸体精品| 亚洲一区日韩精品| 成人在线视频中文字幕| 亚洲免费一在线| 26uuu成人网| 一级成人国产| 国产精品一区av| 亚洲精品一区二区三区不卡| 久久久精品黄色| 熟女视频一区二区三区| 国产亚洲成av人片在线观看 | 在线免费观看av的网站| 精品一区视频| 亚洲欧美国产制服动漫| 亚洲欧美精品aaaaaa片| 99成人在线| 国产欧美日韩精品在线观看| www.天天干.com| 国产视频一区二区在线| 大陆极品少妇内射aaaaaa| 国产白丝在线观看| 欧美日韩另类一区| 精品一区二区视频在线观看| 久久精品国产www456c0m| 久久久在线免费观看| 91福利在线观看视频| 成人性色生活片免费看爆迷你毛片| 日本一区高清不卡| 男男gaygays亚洲| 欧美日韩精品欧美日韩精品一| 久久久午夜精品福利内容| 91综合网人人| 国产精品91久久久| 欧美 日韩 中文字幕| 亚洲欧洲日本在线| www.国产区| 欧美美女啪啪| 久久久免费观看| av男人天堂av| 国产精品久久久久久久第一福利| 久久国产成人精品国产成人亚洲 | 欧美一区二区播放| 亚洲v国产v欧美v久久久久久| 激情婷婷欧美| 成人黄色片视频网站| 免费a级在线播放| 欧美在线影院一区二区| 中文字幕丰满孑伦无码专区| 亚洲特色特黄| 国产66精品久久久久999小说| 中国日本在线视频中文字幕| 在线观看三级视频欧美| 无套内谢大学处破女www小说| 激情av一区| 成人av资源| 调教一区二区| 日韩欧美国产成人一区二区| 无码人妻精品中文字幕| 久久se精品一区二区| 五月婷婷一区| 成人黄色毛片| 日韩在线观看视频免费| 高潮无码精品色欲av午夜福利| 久久蜜桃香蕉精品一区二区三区| 欧美日韩精品在线一区二区 | 亚洲国产又黄又爽女人高潮的| 久久无码精品丰满人妻| 国产盗摄精品一区二区三区在线| 成年人三级视频| 国产精品高清一区二区| 蜜臀久久99精品久久久久久宅男 | 四虎国产精品永久在线国在线| 一区二区三区动漫| 中文在线最新版天堂| 国产精品你懂的在线| 国产精品嫩草影院8vv8| 欧美一区影院| 成人国产1314www色视频| av资源在线播放| 精品香蕉在线观看视频一| 丁香六月婷婷综合| 国产日韩精品视频一区| 欧美在线aaa| 午夜精品999| 精品中文字幕一区| 丝袜美腿一区| 三级精品视频久久久久| 国产三级小视频| 亚洲成av人综合在线观看| 你懂的在线观看网站| 久久婷婷久久| 在线丝袜欧美日韩制服| 欧美不卡在线观看| 韩国精品久久久999| 可以在线观看的av| 欧美日韩一卡二卡| 免费视频网站www| 99久久久免费精品国产一区二区| 中文字幕无码不卡免费视频| 图片区亚洲欧美小说区| av成人观看| 成人影院大全| xx视频.9999.com| 熟妇人妻一区二区三区四区| 欧美调教femdomvk| 欧美人妻精品一区二区三区| 成人精品在线视频观看| 欧美 激情 在线| 98精品久久久久久久| 波多野结衣精品久久| 欧美亚洲大片| 久99九色视频在线观看| 青青草视频在线观看| 欧美日韩国产成人在线91| 久久久久无码国产精品不卡| 国产日产欧美精品一区二区三区| 91香蕉视频在线观看视频| 免费日韩av片| 国产高清不卡无码视频| 国产欧美高清视频在线| 亚洲综合一区二区不卡| 欧美日韩大片| 久久久久久久久国产精品| www.国产精品.com| 亚洲第一页自拍| 在线免费观看高清视频| 性久久久久久久| 精品国产视频一区二区三区| 国产亚洲人成网站| 欧美肉大捧一进一出免费视频| 极品美女销魂一区二区三区| 亚洲熟妇av一区二区三区| 狠狠干综合网| 中文一区一区三区免费| 国产欧美日韩免费观看| 久久久久一区二区三区| 亚洲精品一二三**| 国产女精品视频网站免费| 色网在线免费观看| 欧美激情一区二区三级高清视频| av网站无病毒在线| 亚洲乱码一区av黑人高潮 | 亚洲日本成人女熟在线观看| 成人久久久精品国产乱码一区二区 | 小黄鸭精品aⅴ导航网站入口| 欧美黑人又粗大| 成人日韩欧美| 日韩视频欧美视频| 成人免费在线电影| 亚洲精品丝袜日韩| 欧美自拍偷拍一区二区| 欧美成人性福生活免费看| 国产一区二区三区成人| 欧美在线free| 最近中文字幕av| 在线观看免费成人| 日韩不卡高清视频| 色婷婷久久99综合精品jk白丝| 国产精品500部| 婷婷亚洲久悠悠色悠在线播放| 免费麻豆国产一区二区三区四区| 亚洲欧美日韩国产综合| 97在线观看视频免费| 亚洲色图一区二区三区| 日本午夜在线观看| 亚洲男同性视频| 欧美国产精品一二三| 亚洲日本青草视频在线怡红院 | 午夜精品123| 日产电影一区二区三区| 午夜精品在线看| 亚洲日本视频在线观看| 日本国产一区二区| 日韩xxx视频| 91精品国产综合久久福利软件| 99久久精品免费看国产交换| 日韩写真欧美这视频| 国产成人精品一区二区无码呦| 日韩欧美123| 日本高清视频免费看| 日韩成人xxxx| 99reav在线| 精品综合久久久久久97| 草草在线视频| 国产精品白嫩美女在线观看| 亚洲精品无播放器在线播放| 亚洲精品欧美日韩| 国产三级精品三级在线观看国产| 久久久久久久久一区| 久久一区二区三区喷水| 男人c女人视频| 国产精品一级| av中文字幕网址| 成人污污视频在线观看| 久久成人激情视频| 亚洲男人的天堂一区二区| 亚欧洲精品在线视频| 色婷婷综合久色| 99国产揄拍国产精品| 日韩经典中文字幕| 欧美jizz18性欧美| 97碰在线观看| 91精品一区| 久久久久久久久久久久久9999| 羞羞答答成人影院www| 亚洲人精品午夜射精日韩| 麻豆国产一区二区| 强迫凌虐淫辱の牝奴在线观看| 中文文精品字幕一区二区| 国产性生活网站| 欧美美女直播网站| 亚洲区小说区图片区| 久久精品国产亚洲一区二区| 午夜影院在线观看国产主播| 91免费在线视频| 激情综合网站| 久艹视频在线免费观看| 久久99精品久久只有精品| 韩国无码一区二区三区精品| 亚洲欧美日韩人成在线播放| 国产精品传媒在线观看| 亚洲电影免费观看高清完整版在线| 午夜在线视频播放| 日韩av手机在线看| 亚洲精品18| 天天综合色天天综合色hd| 国产日韩视频| 亚洲国产精品狼友在线观看| 中文字幕一区二区日韩精品绯色| 精品国产一区二区三区四| 欧美成人伊人久久综合网| 午夜激情视频在线观看| 日本视频久久久| 乱亲女h秽乱长久久久| 成人一区二区av| 蜜桃av一区二区三区| 三上悠亚ssⅰn939无码播放| 亚洲成人免费影院| 精品人妻一区二区三区含羞草 | 黄色成人在线网| 91九色视频导航| 国产精品久久久久久久免费观看| 日韩一级免费在线观看| 91蜜桃在线观看| 日产精品久久久久| 亚洲福利在线视频| 蜜臀av在线| 国产精品乱码视频| 亚洲视频碰碰| 国产伦精品一区三区精东| 亚洲一区二区三区美女| www国产一区| 欧美日韩国产二区| 中文字幕一区二区三区四区久久| 欧美性受黑人性爽| 国产一区中文字幕| 欧美成人精品欧美一| 日韩欧美精品三级| 手机在线免费av| 成人免费在线看片| 亚洲性色视频| 国产人妻人伦精品1国产丝袜| 午夜欧美在线一二页| 日韩欧美电影在线观看| 日本不卡免费高清视频| 久久不卡国产精品一区二区| 91av俱乐部| 中文字幕成人av| 国产精品久久久久久久成人午夜| 日韩小视频在线| 亚洲一区二区三区中文字幕在线观看| 黄色特一级视频| aaa亚洲精品一二三区| 国产中文字幕视频| 中文字幕av一区中文字幕天堂| 国产91精品在线| 亚洲区成人777777精品| 成人免费视频一区| 日本一区二区三区精品| 在线观看国产精品日韩av| 99国内精品久久久久| 免费高清一区二区三区| 91丨九色porny丨蝌蚪| 中文字幕在线天堂| 久久韩国免费视频| 欧美在线导航| 超碰在线人人爱| 亚洲欧美日韩电影| 香港三日本三级少妇66| 国产精品国产自产拍高清av水多| 婷婷综合社区| 真人bbbbbbbbb毛片| 欧美三级电影精品| 人人澡人人添人人爽一区二区| 久久久久久久久久久久久久一区| 麻豆成人综合网| 国产在线一区视频| 亚洲天堂网在线观看| 秋霞影院一区| 激情婷婷综合网| 亚洲欧美日韩一区二区三区在线观看| 日韩一级免费视频| 国产精品视频1区| 亚洲网站视频| 天堂资源在线视频| 亚洲国产欧美一区二区三区同亚洲| 久久久精品一区二区毛片免费看| 国产真人做爰毛片视频直播| 国产精品网曝门| 亚洲 欧美 激情 另类| 91精品国产综合久久久久久蜜臀|