精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

三個主要降維技術(shù)對比介紹:PCA, LCA,SVD

大數(shù)據(jù)
隨著數(shù)據(jù)集的規(guī)模和復(fù)雜性的增長,特征或維度的數(shù)量往往變得難以處理,導(dǎo)致計算需求增加,潛在的過擬合和模型可解釋性降低。降維技術(shù)提供了一種補救方法,它捕獲數(shù)據(jù)中的基本信息,同時丟棄冗余或信息較少的特征。

隨著數(shù)據(jù)集的規(guī)模和復(fù)雜性的增長,特征或維度的數(shù)量往往變得難以處理,導(dǎo)致計算需求增加,潛在的過擬合和模型可解釋性降低。降維技術(shù)提供了一種補救方法,它捕獲數(shù)據(jù)中的基本信息,同時丟棄冗余或信息較少的特征。這個過程不僅簡化了計算任務(wù),還有助于可視化數(shù)據(jù)趨勢,減輕維度詛咒的風(fēng)險,并提高機器學(xué)習(xí)模型的泛化性能。降維在各個領(lǐng)域都有應(yīng)用,從圖像和語音處理到金融和生物信息學(xué),在這些領(lǐng)域,從大量數(shù)據(jù)集中提取有意義的模式對于做出明智的決策和建立有效的預(yù)測模型至關(guān)重要。

本文將深入研究三種強大的降維技術(shù)——主成分分析(PCA)、線性判別分析(LDA)和奇異值分解(SVD)。我們不僅介紹這些方法的基本算法,而且提供各自的優(yōu)點和缺點。

主成分分析(PCA)

主成分分析(PCA)是一種廣泛應(yīng)用于數(shù)據(jù)分析和機器學(xué)習(xí)的降維技術(shù)。它的主要目標是將高維數(shù)據(jù)轉(zhuǎn)換為低維表示,捕獲最重要的信息。

我們的目標是識別數(shù)據(jù)集中的模式,所以希望數(shù)據(jù)分布在每個維度上,并且在這些維度之間是有獨立性的。方差作為可變性的度量標準,本質(zhì)上量化了數(shù)據(jù)集分散的程度。用數(shù)學(xué)術(shù)語來說,它表示與平均的平均平方偏差。計算方差的公式用var(x)表示如下:

協(xié)方差量化了兩組有序數(shù)據(jù)中對應(yīng)元素相似的程度。用cov(x, y)表示變量x和y之間的協(xié)方差。xi表示第i維中x的值,而x柱和y柱表示它們各自的平均值。如果我們有一個維數(shù)為m*n的矩陣X,其中包含n個數(shù)據(jù)點,每個數(shù)據(jù)點有m維,那么協(xié)方差矩陣可以計算如下:

協(xié)方差矩陣包括

  1. 以尺寸方差為主要對角線元素
  2. 維度的協(xié)方差作為非對角線元素

我們的目標是確保數(shù)據(jù)廣泛分散,表明其維度之間的高方差,另外一個目標是消除相關(guān)維度,這意味著維度之間的協(xié)方差應(yīng)為零(表明它們的線性無關(guān))。所以對數(shù)據(jù)進行變換的目的是使其協(xié)方差矩陣具有以下特征:

  1. 作為主要對角線元素的顯著值。
  2. 零值作為非對角線元素。

所以必須對原始數(shù)據(jù)點進行變換獲得類似于對角矩陣的協(xié)方差矩陣。將矩陣轉(zhuǎn)換成對角矩陣的過程稱為對角化,它構(gòu)成了主成分分析(PCA)背后的主要動機。

PCA的工作原理

1、標準化

當特征以不同的單位度量時,對數(shù)據(jù)進行標準化。這需要減去平均值,然后除以每個特征的標準差。對具有不同尺度特征的數(shù)據(jù)進行標準化的失敗可能導(dǎo)致誤導(dǎo)性的成分。

2、計算協(xié)方差矩陣

如前面討論的那樣計算協(xié)方差矩陣

3、計算特征向量和特征值

確定協(xié)方差矩陣的特征向量和特征值。

特征向量表示方向(主成分),特征值表示這些方向上的方差大小。

4、特征值排序

對特征值按降序排序。與最高特征值相對應(yīng)的特征向量是捕獲數(shù)據(jù)中最大方差的主成分。

5、選擇主成分

根據(jù)需要解釋的方差選擇前k個特征向量(主成分)。一般情況下會設(shè)定閾值,保留總方差的很大一部分,例如85%。

6、轉(zhuǎn)換數(shù)據(jù)

我們可以用特征向量變換原始數(shù)據(jù):

如果我們有m維的n個數(shù)據(jù)點X: m*n

P: k*m

Y = PX: (k*m)(m*n) = (k*n)

新變換矩陣有n個數(shù)據(jù)點,有k維。

優(yōu)點

降維:PCA有效地減少了特征的數(shù)量,這對遭受維數(shù)詛咒的模型是有益的。

特征獨立性:主成分是正交的(不相關(guān)的),這意味著它們捕獲獨立的信息,簡化了對約簡特征的解釋。

降噪:PCA可以通過專注于解釋數(shù)據(jù)中最顯著方差的成分來幫助減少噪聲。

可視化:降維數(shù)據(jù)可以可視化,有助于理解底層結(jié)構(gòu)和模式。

缺點

原始特征的可解釋性可能在變換后的空間中丟失,因為主成分是原始特征的線性組合。

PCA假設(shè)變量之間的關(guān)系是線性的,但并非在所有情況下都是如此。

PCA對特征的尺度比較敏感,因此常常需要標準化。

異常值可以顯著影響PCA的結(jié)果,因為它側(cè)重于捕獲最大方差,這可能受到極值的影響。

何時使用

高維數(shù)據(jù):PCA在處理具有大量特征的數(shù)據(jù)集以減輕維度詛咒時特別有用。

共線的特點:當特征高度相關(guān)時,PCA可以有效地捕獲共享信息并用更少的組件表示它。

可視化:它將數(shù)據(jù)投射到一個較低維度的空間,可以很容易地可視化。

線性關(guān)系:當變量之間的關(guān)系大多是線性的,主成分分析是一個合適的技術(shù)。

Python代碼示例

import numpy as np
 from sklearn.decomposition import PCA
 from sklearn.preprocessing import StandardScaler
 from sklearn.model_selection import train_test_split
 from sklearn.datasets import load_iris
 
 # Load iris dataset as an example
 iris = load_iris()
 X = iris.data
 y = iris.target
 
 # Split the dataset into training and testing sets
 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
 
 # Standardize the data (important for PCA)
 scaler = StandardScaler()
 X_train_std = scaler.fit_transform(X_train)
 X_test_std = scaler.transform(X_test)
 
 # Apply PCA
 pca = PCA()
 X_train_pca = pca.fit_transform(X_train_std)
 
 # Calculate the cumulative explained variance
 cumulative_variance_ratio = np.cumsum(pca.explained_variance_ratio_)
 
 # Determine the number of components to keep for 85% variance explained
 n_components = np.argmax(cumulative_variance_ratio >= 0.85) + 1
 
 # Apply PCA with the selected number of components
 pca = PCA(n_compnotallow=n_components)
 X_train_pca = pca.fit_transform(X_train_std)
 X_test_pca = pca.transform(X_test_std)
 
 # Display the results
 print("Original Training Data Shape:", X_train.shape)
 print("Reduced Training Data Shape (PCA):", X_train_pca.shape)
 print("Number of Components Selected:", n_components)

上面代碼在最初應(yīng)用PCA()時沒有指定組件的數(shù)量,這意味著它將保留所有組件。然后使用np.cumsum(pca.explained_variance_ratio_)計算累計解釋方差。確定解釋至少85%方差所需的分量數(shù),并使用選定的分量數(shù)再次應(yīng)用PCA。請注意PCA只應(yīng)用于訓(xùn)練數(shù)據(jù),然后在測試數(shù)據(jù)應(yīng)用轉(zhuǎn)換方法即可。

線性判別分析(LDA)

線性判別分析(LDA)作為一種降維和分類技術(shù),目標是優(yōu)化數(shù)據(jù)集中不同類別之間的區(qū)別。LDA在預(yù)先確定數(shù)據(jù)點類別的監(jiān)督學(xué)習(xí)場景中特別流行。PCA被認為是一種“無監(jiān)督”算法,它忽略了類標簽,專注于尋找主成分以最大化數(shù)據(jù)集方差,而LDA則采用“監(jiān)督”方法。LDA計算“線性判別器”,確定作為軸的方向,以最大限度地分離多個類。我們這里使用“Iris”數(shù)據(jù)集的示例來了解LDA是如何計算的。它包含了來自三個不同物種的150朵鳶尾花的尺寸。

Iris數(shù)據(jù)集中有三個類:

  • Iris-setosa (n=50)
  • Iris-versicolor (n=50)
  • Iris-virginica (n=50)

有四個特征:

  • sepal length in cm
  • sepal width in cm
  • petal length in cm
  • petal width in cm

LDA的工作步驟

1、計算三種不同花類的平均向量mi, (i=1,2,3):

Mean Vector class 1: [ 5.006 3.418 1.464 0.244]
 
 Mean Vector class 2: [ 5.936 2.77   4.26   1.326]
 
 Mean Vector class 3: [ 6.588 2.974 5.552 2.026]

每個向量包含特定類的數(shù)據(jù)集中4個特征的平均值。

2、計算類內(nèi)散點矩陣(Sw),它表示每個類內(nèi)數(shù)據(jù)的分布

結(jié)果如下:

within-class Scatter Matrix:
  [[ 38.9562 13.683   24.614   5.6556]
  [ 13.683   17.035   8.12     4.9132]
  [ 24.614   8.12   27.22     6.2536]
  [ 5.6556   4.9132   6.2536   6.1756]]

3、計算類間散點矩陣(Sb), Sb表示不同類之間的分布,公式如下:

結(jié)果如下:

between-class Scatter Matrix:
  [[ 63.2121 -19.534   165.1647   71.3631]
  [ -19.534   10.9776 -56.0552 -22.4924]
  [ 165.1647 -56.0552 436.6437 186.9081]
  [ 71.3631 -22.4924 186.9081   80.6041]]

4、計算Sw-1Sb的特征值和特征向量(類似于PCA)。在我們的例子中,有4個特征值和特征向量

Eigenvector 1:
 [[-0.2049]
  [-0.3871]
  [ 0.5465]
  [ 0.7138]]
 Eigenvalue 1: 3.23e+01
 
 Eigenvector 2:
 [[-0.009 ]
  [-0.589 ]
  [ 0.2543]
  [-0.767 ]]
 Eigenvalue 2: 2.78e-01
 
 Eigenvector 3:
 [[ 0.179 ]
  [-0.3178]
  [-0.3658]
  [ 0.6011]]
 Eigenvalue 3: -4.02e-17
 
 Eigenvector 4:
 [[ 0.179 ]
  [-0.3178]
  [-0.3658]
  [ 0.6011]]
 Eigenvalue 4: -4.02e-17

5、通過減少特征值對特征向量進行排序,并選擇最上面的k。

通過減少特征值對特征對進行排序后,基于2個信息量最大的特征對構(gòu)建d×k維度特征向量矩陣(稱之為W)。在下面的例子中,得到了下面的矩陣:

Matrix W:
  [[-0.2049 -0.009 ]
  [-0.3871 -0.589 ]
  [ 0.5465 0.2543]
  [ 0.7138 -0.767 ]]

6、使用矩陣W (4 × 2矩陣)通過方程將樣本轉(zhuǎn)換到新的子空間:Y = X*W,其中X是矩陣格式的原始數(shù)據(jù)(150 × 4矩陣),Y是轉(zhuǎn)換后的數(shù)據(jù)集(150 × 2矩陣)。

優(yōu)點

最大化類分離:LDA的目的是最大限度地分離不同的類,使其有效的分類任務(wù)。

降維:與PCA一樣,LDA也可用于降維,其優(yōu)點是考慮了類信息。

缺點

對異常值的敏感性:LDA對異常值非常敏感,異常值的存在會影響方法的性能。

正態(tài)性假設(shè):LDA假設(shè)每個類中的特征是正態(tài)分布的,如果違反了這個假設(shè),它可能無法很好地執(zhí)行。

需要足夠的數(shù)據(jù):LDA在每個類只有少量樣本的情況下可能表現(xiàn)不佳。擁有更多的樣本可以改善類參數(shù)的估計。

何時使用

分類任務(wù):當目標是將數(shù)據(jù)分類到預(yù)定義的類中時,LDA是有益的。

保存類信息:當目標是在降低維數(shù)的同時保留與區(qū)分類相關(guān)的信息時,LDA非常有用

正態(tài)性假設(shè)成立:當類別內(nèi)的正態(tài)分布假設(shè)成立時,LDA表現(xiàn)良好。

監(jiān)督降維:當任務(wù)需要在類標簽的指導(dǎo)下進行降維時,LDA是一個合適的選擇。

Python代碼示例

import numpy as np
 import pandas as pd
 from sklearn.model_selection import train_test_split
 from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
 from sklearn.datasets import make_classification
 from sklearn.preprocessing import StandardScaler
 
 # Generate a sample dataset
 X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)
 
 # Split the data into training and test sets
 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
 
 # Standardize the features (important for LDA)
 scaler = StandardScaler()
 X_train = scaler.fit_transform(X_train)
 X_test = scaler.transform(X_test)
 
 # Initialize LDA and fit on the training data
 lda = LinearDiscriminantAnalysis()
 X_train_lda = lda.fit_transform(X_train, y_train)
 
 # Calculate explained variance ratio for each component
 explained_variance_ratio = lda.explained_variance_ratio_
 
 # Calculate the cumulative explained variance
 cumulative_explained_variance = np.cumsum(explained_variance_ratio)
 
 # Find the number of components that explain at least 75% of the variance
 n_components = np.argmax(cumulative_explained_variance >= 0.75) + 1
 
 # Transform both the training and test data to the selected number of components
 X_train_lda_selected = lda.transform(X_train)[:, :n_components]
 X_test_lda_selected = lda.transform(X_test)[:, :n_components]
 
 # Print the number of components selected
 print(f"Number of components selected: {n_components}")

奇異值分解(SVD)

奇異值分解是一種矩陣分解技術(shù),廣泛應(yīng)用于線性代數(shù)、信號處理和機器學(xué)習(xí)等領(lǐng)域。它將一個矩陣分解成另外三個矩陣,原始矩陣以簡化形式表示。

SVD的工作步驟

1、矩陣分解

給定大小為M × n的矩陣M(或有M行n列的數(shù)據(jù)),奇異值分解將其分解為三個矩陣:M = u *Σ * v *

其中U是一個m × m正交矩陣,Σ是一個m × r對角矩陣,V是一個r × n正交矩陣。r是矩陣M的秩。

Σ的對角線元素為原矩陣M的奇異值,按降序排列。U的列是m的左奇異向量,這些向量構(gòu)成了m的列空間的正交基,V的列是m的右奇異向量,這些向量構(gòu)成了m的行空間的正交基。

2、簡化形式(Truncated SVD)

對于降維,通常使用截斷版本的奇異值分解。選擇Σ中前k個最大的奇異值。這些列可以從Σ中選擇,行可以從V * *中選擇。由原矩陣M重構(gòu)出一個新的矩陣B,公式如下:

B = u * Σ,B = V * A

其中Σ只包含原始Σ中奇異值的前k列,V包含原始V中奇異值對應(yīng)的前k行。

優(yōu)點

降維:SVD允許通過只保留最重要的奇異值和向量來降低維數(shù)。

數(shù)據(jù)壓縮:SVD用于數(shù)據(jù)壓縮任務(wù),減少了矩陣的存儲需求。

降噪:通過只使用最顯著的奇異值,奇異值分解可以幫助減少數(shù)據(jù)中噪聲的影響。

數(shù)值穩(wěn)定性:奇異值分解在數(shù)值上是穩(wěn)定的,適合于求解病態(tài)系統(tǒng)中的線性方程。

正交性:SVD分解中的矩陣U和V是正交的,保留了原矩陣的行與列之間的關(guān)系。

推薦系統(tǒng)中的應(yīng)用:奇異值分解廣泛應(yīng)用于推薦系統(tǒng)的協(xié)同過濾。

缺點

計算復(fù)雜度:計算大型矩陣的完整SVD在計算上是非常昂貴的。

內(nèi)存需求:存儲完整的矩陣U、Σ和V可能會占用大量內(nèi)存,特別是對于大型矩陣。

對缺失值的敏感性:SVD對數(shù)據(jù)中的缺失值很敏感,處理缺失值需要專門的技術(shù)。

何時使用

降維:當目標是在保留數(shù)據(jù)基本結(jié)構(gòu)的同時降低數(shù)據(jù)的維數(shù)時。

推薦系統(tǒng):在基于協(xié)同過濾的推薦系統(tǒng)中,SVD用于識別捕獲用戶-物品交互的潛在因素。

數(shù)據(jù)壓縮:在需要壓縮或近似大型數(shù)據(jù)集的場景中。

信號處理:在信號處理中,采用奇異值分解進行降噪和特征提取。

主題建模:SVD被用于主題建模技術(shù),如潛在語義分析(LSA)。

Python代碼示例

import numpy as np
 from sklearn.model_selection import train_test_split
 from sklearn.decomposition import TruncatedSVD
 from sklearn.datasets import make_classification
 from sklearn.preprocessing import StandardScaler
 
 # Generate a sample dataset
 X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)
 
 # Split the data into training and test sets
 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
 
 # Standardize the features (important for SVD)
 scaler = StandardScaler()
 X_train = scaler.fit_transform(X_train)
 X_test = scaler.transform(X_test)
 
 # Initialize SVD and fit on the training data
 svd = TruncatedSVD(n_compnotallow=X_train.shape[1] - 1) # Use one less component than the feature count
 X_train_svd = svd.fit_transform(X_train)
 
 # Calculate explained variance ratio for each component
 explained_variance_ratio = svd.explained_variance_ratio_
 
 # Calculate the cumulative explained variance
 cumulative_explained_variance = np.cumsum(explained_variance_ratio)
 
 # Find the number of components that explain at least 75% of the variance
 n_components = np.argmax(cumulative_explained_variance >= 0.75) + 1
 
 # Transform both the training and test data to the selected number of components
 X_train_svd_selected = svd.transform(X_train)[:, :n_components]
 X_test_svd_selected = svd.transform(X_test)[:, :n_components]
 
 # Print the number of components selected
 print(f"Number of components selected: {n_components}")

總結(jié)

在主成分分析(PCA)、線性判別分析(LDA)和奇異值分解(SVD)之間的選擇取決于數(shù)據(jù)的具體目標和特征。以下是關(guān)于何時使用每種技術(shù)的一般指導(dǎo)原則:

主成分分析:

  1. 當目標是降低數(shù)據(jù)集的維數(shù)時。
  2. 在捕獲數(shù)據(jù)中的全局模式和關(guān)系至關(guān)重要的場景中。
  3. 用于探索性數(shù)據(jù)分析和可視化。

線性判別分析:

  1. 在分類問題中,增強類之間的分離。
  2. 當有一個標記的數(shù)據(jù)集時,目標是找到一個最大化階級歧視的投影。
  3. 當正態(tài)分布類和等協(xié)方差矩陣的假設(shè)成立時,LDA特別有效。

奇異值分解:

  1. 當處理稀疏數(shù)據(jù)或缺失值時。
  2. 推薦系統(tǒng)的協(xié)同過濾。
  3. 奇異值分解也適用于數(shù)據(jù)壓縮和去噪。

三個技術(shù)的對比:

無監(jiān)督vs有監(jiān)督學(xué)習(xí):PCA是無監(jiān)督的,而LDA是有監(jiān)督的。根據(jù)標記數(shù)據(jù)的可用性進行選擇。

類可分離性:如果目標是改進類可分離性,那么首選LDA。PCA和SVD關(guān)注的是總體方差。

數(shù)據(jù)特征:數(shù)據(jù)的特征,如線性、類別分布和異常值的存在,會影響選擇。

特定于應(yīng)用程序的需求:考慮應(yīng)用程序的特定需求,例如可解釋性、計算效率或?qū)G失數(shù)據(jù)的處理。

綜上所述,PCA適用于無監(jiān)督降維,LDA適用于關(guān)注類可分性的監(jiān)督問題,而SVD具有通用性,可用于包括協(xié)同過濾和矩陣分解在內(nèi)的各種應(yīng)用。


責(zé)任編輯:華軒 來源: DeepHub IMBA
相關(guān)推薦

2017-09-11 09:20:14

機器學(xué)習(xí)無監(jiān)督學(xué)習(xí)聚類

2022-04-09 09:21:19

人工智能機器學(xué)習(xí)PCA算法

2021-08-19 11:22:22

深度學(xué)習(xí)編程人工智能

2022-07-15 15:56:51

云計算工具云中斷

2010-04-19 09:31:44

KDE

2024-06-19 09:43:51

2012-01-06 11:13:02

SinatraJava框架

2021-05-17 09:52:53

工具dumiVue 組件

2022-03-24 14:05:56

數(shù)字孿生IT領(lǐng)導(dǎo)者數(shù)據(jù)分析

2019-10-24 15:56:30

Kubernetes虛擬化云原生

2024-02-19 14:37:14

機器學(xué)習(xí)非線性降維

2009-09-16 11:44:26

IT運維

2024-11-22 15:23:51

Python虛擬環(huán)境

2020-06-11 09:00:27

SDN網(wǎng)絡(luò)架構(gòu)網(wǎng)絡(luò)

2009-08-10 22:31:00

光纖通道技術(shù)光纖接入

2023-10-17 07:23:00

Vue組件代碼

2012-05-27 18:24:12

蘋果

2021-09-14 23:00:04

區(qū)塊鏈金融技術(shù)

2023-04-26 11:14:11

IT領(lǐng)導(dǎo)者遠程工作

2009-10-21 21:14:37

BTIM系統(tǒng)IT運維管理北塔軟件
點贊
收藏

51CTO技術(shù)棧公眾號

av在线二区| 日韩a在线观看| 成人在线精品| 一二三四区精品视频| 国产精品亚洲一区| 99久久久无码国产精品免费蜜柚| 欧美日韩老妇| 欧美xxxx在线观看| 成人在线免费播放视频| 日韩精品黄色| 丁香五精品蜜臀久久久久99网站 | 亚洲国产精品视频| 久久婷婷开心| 国产精品久久久久久久一区二区 | 夫妻免费无码v看片| 91精品国产综合久久久久久豆腐| 国产乱子轮精品视频| 日韩av快播网址| 欧美国产日韩在线观看成人| 伊人久久大香线蕉av不卡| 欧美久久婷婷综合色| 久久精品国产sm调教网站演员| 北条麻妃在线| 99久久99久久精品免费看蜜桃| 国产美女精品视频| 亚洲影院在线播放| 国内精品美女在线观看| 在线亚洲午夜片av大片| 欧美无人区码suv| 麻豆精品久久| 欧美日韩在线不卡| 成人在线免费在线观看| 91香蕉在线观看| 中文字幕不卡三区| 青青草久久网络| 手机av免费在线观看| 国产精品资源在线| 国产欧美日韩专区发布| 久久久久在线视频| 亚洲免费精品| 欧美精品第一页在线播放| 久久精品一区二区三区四区五区| 国产亚洲一区| 亚洲精品一区久久久久久| 亚洲精品久久一区二区三区777| 国产资源一区| 欧美亚一区二区| 国产xxxxx在线观看| 9999热视频在线观看| 亚洲黄色尤物视频| 国产一二三四区在线观看| 午夜视频在线看| 亚洲国产精品精华液ab| 日本视频精品一区| 国产福利在线| 国产日产欧美一区二区三区| 欧美一区二区影视| 岛国最新视频免费在线观看| 久久先锋资源网| 欧美日韩在线播放一区二区| 污污网站免费在线观看| av网站一区二区三区| 国产欧美亚洲日本| 香蕉视频黄色片| 久久婷婷综合激情| 日韩欧美亚洲在线| 日韩在线观看www| 成人免费一区二区三区视频 | 欧亚乱熟女一区二区在线| 在线精品国产亚洲| 亚洲第一精品夜夜躁人人爽 | 美国成人xxx| 亚洲激情自拍图| 国产精品无码永久免费不卡| 色综合中文网| www.久久撸.com| 欧美日韩在线观看成人| 亚洲激情影院| 日本午夜人人精品| 91精品国产色综合久久不8| 国产制服丝袜一区| 国产另类第一区| 韩国中文字幕2020精品| 国产精品护士白丝一区av| 吴梦梦av在线| 蜜臀久久精品| 欧美丝袜丝nylons| 欧美色图校园春色| 鲁大师精品99久久久| 国产亚洲精品美女| 免费毛片在线播放免费| 一本色道久久综合一区| 国产精品久久久久999| 99久久免费国产精精品| 波多野洁衣一区| 日韩片电影在线免费观看| 成人免费网址| 日韩人体视频一二区| 在线观看免费的av| 国产成人澳门| 日韩中文字幕视频在线| 久久久精品国产sm调教| 视频一区视频二区在线观看| 18成人免费观看网站下载| 日韩有码电影| 亚洲免费观看高清在线观看| 91国视频在线| 精品视频在线播放一区二区三区| 日韩精品在线第一页| 污软件在线观看| 天堂午夜影视日韩欧美一区二区| 7777精品久久久大香线蕉小说 | 一区二区三区天堂av| 国产女人18水真多毛片18精品| 国产精品日韩精品欧美精品| 91精品视频观看| 久青青在线观看视频国产| 亚洲美腿欧美偷拍| 天天操天天摸天天爽| 国产乱人伦精品一区| zzjj国产精品一区二区| 日韩人妻精品中文字幕| 风间由美性色一区二区三区| 亚洲一卡二卡| 香蕉视频亚洲一级| 亚洲国模精品一区| 久久精品一级片| 久久91精品久久久久久秒播| 欧美不卡在线一区二区三区| 美女尤物在线视频| 欧美一区二区三区免费观看视频| 超薄肉色丝袜一二三| 先锋a资源在线看亚洲| 成人自拍爱视频| caoporn免费在线| 欧美三区免费完整视频在线观看| 日韩av一二区| 一区二区国产精品| 国产在线欧美日韩| 久久av色综合| 精品欧美一区二区久久| 久久久久亚洲av无码专区体验| 久久精品国产一区二区三区免费看| 欧美福利精品| 97人人在线视频| 亚洲国产美女精品久久久久∴| 欧美成人精品欧美一级私黄| 国产一区二区三区高清播放| 制服丝袜综合日韩欧美| 久久亚洲资源中文字| 正在播放亚洲1区| 久久久久亚洲视频| 国产亲近乱来精品视频| 黄色三级视频片| 欧美日韩高清| 国产欧美欧洲在线观看| √新版天堂资源在线资源| 欧美三级日韩在线| 激情五月激情综合| 久草精品在线观看| 国产精品8888| 999久久久精品一区二区| 欧美大片在线看| 国产 欧美 精品| 婷婷综合在线观看| 一级国产黄色片| 午夜在线一区二区| 亚洲欧美综合一区| 999精品嫩草久久久久久99| www国产91| 成人av一区二区三区在线观看| 亚洲中国最大av网站| japanese在线观看| 视频一区二区欧美| 国产精品av免费| 大桥未久女教师av一区二区| 91精品国产九九九久久久亚洲| 无码精品视频一区二区三区| 91久久精品日日躁夜夜躁欧美| 伊人影院综合网| 精品一区二区成人精品| 成人在线视频一区二区三区| 婷婷亚洲成人| 国产精品午夜一区二区欲梦| 操你啦在线视频| 亚洲国产精品网站| 中文字幕有码视频| 亚洲国产精品一区二区www| 一区二区三区四区免费| 精品在线播放免费| 霍思燕三级露全乳照| 久久91精品| 91久久精品www人人做人人爽| 精精国产xxxx视频在线野外| 在线播放日韩av| 国产 欧美 自拍| 欧美日韩中字一区| 欧美三日本三级少妇99| 国产精品久久久久三级| 精品人妻一区二区免费| 老司机免费视频久久| 日韩中文在线字幕| 久久91麻豆精品一区| 91久久国产婷婷一区二区| 久草在线资源站手机版| 久久精品成人欧美大片古装| 天堂中文字幕av| 欧美精品乱码久久久久久按摩| 国产大片aaa| 日韩美女久久久| 性猛交ⅹxxx富婆video | 欧美性做爰猛烈叫床潮| 久久免费在线观看视频| 国产日韩精品久久久| 黄色av网址在线观看| 精品一区二区成人精品| 四虎永久在线精品无码视频| 亚洲小说欧美另类婷婷| 亚洲国产精品一区在线观看不卡| 大奶在线精品| 92福利视频午夜1000合集在线观看| 亚洲男人av| 97国产精品视频| 影音先锋男人在线资源| 中文字幕亚洲激情| 国产小视频免费在线观看| 亚洲国产天堂久久综合网| 国产女人18毛片18精品| 欧美性感一区二区三区| 久久国产视频一区| 欧美日韩免费看| 日韩精品一区二区在线播放| 中文字幕亚洲欧美在线不卡| 久久久精品成人| 久久久精品天堂| 无码人妻aⅴ一区二区三区| 成人丝袜18视频在线观看| 亚洲欧美一区二区三区不卡| 久久爱另类一区二区小说| 午夜精品在线免费观看| 日韩制服丝袜av| 手机看片福利日韩| 日韩中文字幕区一区有砖一区| 国产福利视频在线播放| 欧美中文日韩| 黄色片视频在线播放| 美女爽到呻吟久久久久| 女人另类性混交zo| 另类av一区二区| 午夜肉伦伦影院| 午夜亚洲伦理| 日韩手机在线观看视频| 日本美女一区二区三区视频| av在线无限看| 男女男精品网站| 一本一道久久a久久综合蜜桃| 久久超碰97中文字幕| 午夜一区二区视频| 国产精品一二一区| www.久久com| 成人aa视频在线观看| 一区二区三区少妇| 国产色婷婷亚洲99精品小说| 色www亚洲国产阿娇yao| 日韩理论在线观看| 久久久久无码国产精品不卡| 亚洲成人第一页| 色av性av丰满av| 欧美日免费三级在线| a网站在线观看| 欧美精品一区二区三区视频| 三级在线视频| 尤物yw午夜国产精品视频| 久久精品视频观看| 久久久久久久久久久91| 亚洲成人不卡| 成人在线视频网站| 国产精品任我爽爆在线播放| 欧美日韩一区二区三区免费| 久久精品国产亚洲夜色av网站 | 亚洲茄子视频| 欧美成人免费高清视频| 精品无人码麻豆乱码1区2区| 香蕉视频免费网站| 91片黄在线观看| 日本女人性生活视频| 一区二区三区免费| 日本中文字幕在线| 这里只有精品99re| 婷婷伊人综合中文字幕| 日韩在线免费视频观看| av成人 com a| 国产主播精品在线| 日本国产精品| 四虎影院一区二区| 国产一区二区三区成人欧美日韩在线观看| 亚洲成人av免费看| 成人午夜激情在线| 色撸撸在线视频| 五月天欧美精品| 国产三级漂亮女教师| 亚洲精品自产拍| 羞羞污视频在线观看| 国产不卡av在线| 国产成人福利av| 伊人网在线免费| 日韩激情视频网站| 中文文字幕文字幕高清| 日韩一区中文字幕| 亚洲不卡在线视频| 欧美成人一区二区三区| yw193.com尤物在线| 91精品国产高清久久久久久| 久久综合偷偷噜噜噜色| 少妇特黄a一区二区三区| 在线亚洲伦理| av地址在线观看| 中文字幕亚洲精品在线观看| 无码人妻aⅴ一区二区三区有奶水| 欧美大片在线观看一区| 国产精品剧情一区二区在线观看| 日本国产一区二区三区| 国产成人精品亚洲线观看| 国产奶头好大揉着好爽视频| 日韩av电影免费观看高清完整版| 国产精品九九视频| 亚洲综合区在线| 国产熟女精品视频| 日韩中文字幕国产| 日韩av首页| 欧美一区二区视频17c| 国产亚洲在线| 菠萝菠萝蜜网站| 亚洲va中文字幕| 亚洲第一页综合| 欧美大片在线免费观看| 日韩一二三区| 色哺乳xxxxhd奶水米仓惠香| 九色|91porny| 国产激情无码一区二区三区| 欧美日韩色一区| melody高清在线观看| 国产精品盗摄久久久| 国产探花在线精品一区二区| 亚洲 欧美 日韩系列| 欧美国产综合一区二区| 蜜臀99久久精品久久久久小说| 亚洲欧洲日产国产网站| **欧美日韩在线观看| 日本一区二区三区精品视频| 日韩一区精品视频| 91激情视频在线观看| 欧美三级在线播放| 国产不卡在线| av一本久道久久波多野结衣| 欧美精品三级| 日本不卡视频一区| 精品国产福利在线| 欧美黄色小说| 国产精品久久久久久av下载红粉 | gogogo免费视频观看亚洲一| 国产午夜精品一区二区理论影院| 亚洲精品在线电影| 亚洲精华液一区二区三区| 日韩av高清| 久久精品国产99久久6| 精品国产欧美日韩不卡在线观看| 日韩免费电影网站| 欧美xxxhd| 午夜精品亚洲一区二区三区嫩草 | 少妇饥渴放荡91麻豆| 日韩欧美第一页| 91女主播在线观看| 99中文字幕| 欧美亚洲免费| 91制片厂在线| 精品99一区二区| 第四色男人最爱上成人网| 伊人色综合久久天天五月婷| 国产精品一区二区久久精品爱涩| 亚洲精品在线观看av| 亚洲欧洲xxxx| 麻豆国产精品| 成人精品视频一区二区| 亚洲四区在线观看| 亚洲欧美日本在线观看| 国产精品美女在线| 亚洲黄色精品| 国产欧美小视频| 精品国产电影一区二区| av在线不卡精品| 日本一级黄视频| 国产欧美日韩精品a在线观看| 国产人妻精品一区二区三区| 5566日本婷婷色中文字幕97| 99精品视频精品精品视频| 亚洲图片综合网| 欧美日韩精品免费观看视频| 僵尸再翻生在线观看| 日本黄xxxxxxxxx100|