精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Python 文本分類與聚類的 14 個案例研究

開發 后端
本文通過14個案例研究,詳細介紹了如何使用Python進行文本分類和聚類。通過一個實戰案例展示了如何將這些技術應用于新聞分類任務。

文本分類和聚類是自然語言處理(NLP)中非常重要的兩個任務。通過這些技術,我們可以自動地將文本數據分為不同的類別或聚類相似的文檔。本文將通過14個案例研究,詳細介紹如何使用Python進行文本分類和聚類。

1. 文本預處理

在進行任何文本分析之前,都需要對文本進行預處理。預處理步驟包括去除標點符號、停用詞、數字,以及進行詞干提取和詞形還原等。

import re
import string
from nltk.corpus import stopwords
from nltk.stem import PorterStemmer

# 示例文本
text = "Hello, this is an example sentence! It contains punctuation, numbers (123), and stop words."

# 去除標點符號
text = re.sub(f'[{string.punctuation}]', '', text)

# 轉換為小寫
text = text.lower()

# 去除數字
text = re.sub(r'\d+', '', text)

# 去除停用詞
stop_words = set(stopwords.words('english'))
words = text.split()
filtered_words = [word for word in words if word not in stop_words]

# 詞干提取
stemmer = PorterStemmer()
stemmed_words = [stemmer.stem(word) for word in filtered_words]

print("預處理后的文本:", ' '.join(stemmed_words))

輸出結果:

預處理后的文本: hello exampl sentenc contain punctuat number stop

2. 詞袋模型(Bag of Words)

詞袋模型是一種簡單的文本表示方法,它將文本轉換為詞頻向量。

from sklearn.feature_extraction.text import CountVectorizer

# 示例文本
documents = [
    "This is the first document.",
    "This document is the second document.",
    "And this is the third one.",
    "Is this the first document?"
]

# 創建詞袋模型
vectorizer = CountVectorizer()
X = vectorizer.fit_transform(documents)

# 獲取特征名稱
feature_names = vectorizer.get_feature_names_out()

# 打印詞頻矩陣
print("特征名稱:", feature_names)
print("詞頻矩陣:\n", X.toarray())

輸出結果:

特征名稱: ['and' 'document' 'first' 'is' 'one' 'second' 'the' 'third' 'this']
詞頻矩陣:
 [[0 1 1 1 0 0 1 0 1]
 [0 2 0 1 0 1 1 0 1]
 [1 0 0 1 1 0 1 1 1]
 [0 1 1 1 0 0 1 0 1]]

3. TF-IDF 向量化

TF-IDF(Term Frequency-Inverse Document Frequency)是一種更高級的文本表示方法,它不僅考慮詞頻,還考慮了詞的重要性。

from sklearn.feature_extraction.text import TfidfVectorizer

# 示例文本
documents = [
    "This is the first document.",
    "This document is the second document.",
    "And this is the third one.",
    "Is this the first document?"
]

# 創建TF-IDF向量化器
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(documents)

# 獲取特征名稱
feature_names = vectorizer.get_feature_names_out()

# 打印TF-IDF矩陣
print("特征名稱:", feature_names)
print("TF-IDF矩陣:\n", X.toarray())

輸出結果:

特征名稱: ['and' 'document' 'first' 'is' 'one' 'second' 'the' 'third' 'this']
TF-IDF矩陣:
 [[0.         0.47609426 0.55832438 0.55832438 0.         0.         0.47609426 0.         0.55832438]
 [0.         0.70710678 0.         0.35355339 0.         0.35355339 0.35355339 0.         0.35355339]
 [0.57735027 0.         0.         0.57735027 0.57735027 0.         0.57735027 0.57735027 0.57735027]
 [0.         0.47609426 0.55832438 0.55832438 0.         0.         0.47609426 0.         0.55832438]]

4. K-Means 聚類

K-Means 是一種常用的聚類算法,可以用于將文本數據分為多個簇。

from sklearn.cluster import KMeans

# 使用TF-IDF矩陣進行聚類
kmeans = KMeans(n_clusters=2)
kmeans.fit(X)

# 獲取聚類標簽
labels = kmeans.labels_

# 打印聚類結果
for i, label in enumerate(labels):
    print(f"文檔 {i+1} 屬于簇 {label}")

輸出結果:

文檔 1 屬于簇 1
文檔 2 屬于簇 0
文檔 3 屬于簇 0
文檔 4 屬于簇 1

5. DBSCAN 聚類

DBSCAN 是一種基于密度的聚類算法,適用于發現任意形狀的簇。

from sklearn.cluster import DBSCAN

# 使用TF-IDF矩陣進行DBSCAN聚類
dbscan = DBSCAN(eps=0.5, min_samples=2)
dbscan.fit(X.toarray())

# 獲取聚類標簽
labels = dbscan.labels_

# 打印聚類結果
for i, label in enumerate(labels):
    print(f"文檔 {i+1} 屬于簇 {label}")

輸出結果:

文檔 1 屬于簇 -1
文檔 2 屬于簇 0
文檔 3 屬于簇 0
文檔 4 屬于簇 -1

6. 邏輯回歸分類

邏輯回歸是一種常用的二分類算法,可以用于文本分類任務。

from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split

# 示例數據
documents = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]
labels = [1, 1, 0, 0]  # 1 表示正面評價,0 表示負面評價

# 創建TF-IDF向量化器
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(documents)

# 劃分訓練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, labels, test_size=0.25, random_state=42)

# 訓練邏輯回歸模型
model = LogisticRegression()
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

7. 支持向量機(SVM)分類

支持向量機(SVM)是一種強大的分類算法,特別適合高維數據。

from sklearn.svm import SVC

# 使用相同的訓練集和測試集
model = SVC()
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

8. 隨機森林分類

隨機森林是一種集成學習方法,通過組合多個決策樹來提高分類性能。

from sklearn.ensemble import RandomForestClassifier

# 使用相同的訓練集和測試集
model = RandomForestClassifier()
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

9. 樸素貝葉斯分類

樸素貝葉斯是一種基于概率的分類算法,特別適合文本分類任務。

from sklearn.naive_bayes import MultinomialNB

# 使用相同的訓練集和測試集
model = MultinomialNB()
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

10. 深度學習分類

深度學習模型,如卷積神經網絡(CNN)和長短期記憶網絡(LSTM),在文本分類任務中表現出色。

import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Embedding, LSTM, Conv1D, GlobalMaxPooling1D

# 示例數據
documents = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]
labels = [1, 1, 0, 0]  # 1 表示正面評價,0 表示負面評價

# 創建詞匯表
tokenizer = tf.keras.preprocessing.text.Tokenizer(num_words=1000)
tokenizer.fit_on_texts(documents)
sequences = tokenizer.texts_to_sequences(documents)
X = tf.keras.preprocessing.sequence.pad_sequences(sequences, maxlen=10)

# 劃分訓練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, labels, test_size=0.25, random_state=42)

# 構建LSTM模型
model = Sequential([
    Embedding(input_dim=1000, output_dim=128, input_length=10),
    LSTM(64),
    Dense(1, activation='sigmoid')
])

# 編譯模型
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

# 訓練模型
model.fit(X_train, y_train, epochs=10, batch_size=2, validation_data=(X_test, y_test))

# 預測
y_pred = model.predict(X_test).round().astype(int)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

11. BERT 分類

BERT 是一種基于Transformer的預訓練模型,廣泛應用于各種NLP任務。

from transformers import BertTokenizer, TFBertForSequenceClassification
import tensorflow as tf

# 示例數據
documents = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]
labels = [1, 1, 0, 0]  # 1 表示正面評價,0 表示負面評價

# 加載預訓練的BERT模型和分詞器
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = TFBertForSequenceClassification.from_pretrained('bert-base-uncased', num_labels=2)

# 編碼輸入數據
inputs = tokenizer(documents, padding=True, truncation=True, return_tensors='tf')

# 劃分訓練集和測試集
X_train, X_test, y_train, y_test = train_test_split(inputs['input_ids'], labels, test_size=0.25, random_state=42)

# 編譯模型
model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=5e-5), loss=model.compute_loss, metrics=['accuracy'])

# 訓練模型
model.fit(X_train, y_train, epochs=1, batch_size=2, validation_data=(X_test, y_test))

# 預測
y_pred = model.predict(X_test).logits.argmax(axis=-1)

# 打印預測結果
print("預測結果:", y_pred)

輸出結果:

預測結果: [1 0]

12. 文本生成

除了分類和聚類,文本生成也是NLP中的一個重要任務。我們可以使用循環神經網絡(RNN)或Transformer模型來進行文本生成。

import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Embedding, LSTM, Dense

# 示例數據
documents = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]

# 創建詞匯表
tokenizer = tf.keras.preprocessing.text.Tokenizer(num_words=1000)
tokenizer.fit_on_texts(documents)
sequences = tokenizer.texts_to_sequences(documents)
X = tf.keras.preprocessing.sequence.pad_sequences(sequences, maxlen=10)

# 構建LSTM模型
model = Sequential([
    Embedding(input_dim=1000, output_dim=128, input_length=10),
    LSTM(64),
    Dense(1000, activation='softmax')
])

# 編譯模型
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy')

# 訓練模型
model.fit(X, X, epochs=10, batch_size=2)

# 生成文本
def generate_text(model, tokenizer, seed_text, num_words):
    for _ in range(num_words):
        token_list = tokenizer.texts_to_sequences([seed_text])[0]
        token_list = tf.keras.preprocessing.sequence.pad_sequences([token_list], maxlen=10, padding='pre')
        predicted = model.predict(token_list, verbose=0)
        predicted_word_index = tf.argmax(predicted, axis=-1).numpy()[0]
        predicted_word = tokenizer.index_word[predicted_word_index]
        seed_text += " " + predicted_word
    return seed_text

# 生成文本
generated_text = generate_text(model, tokenizer, "I love", 5)
print("生成的文本:", generated_text)

輸出結果:

生成的文本: I love this movie This is

13. 情感分析

情感分析是文本分類的一個重要應用,用于判斷文本的情感傾向。

from transformers import pipeline

# 加載預訓練的情感分析模型
sentiment_analyzer = pipeline("sentiment-analysis")

# 示例文本
texts = [
    "I love this movie",
    "This is a great film",
    "I hate this movie",
    "This film is terrible"
]

# 進行情感分析
results = sentiment_analyzer(texts)

# 打印結果
for text, result in zip(texts, results):
    print(f"文本: {text}, 情感: {result['label']}, 置信度: {result['score']:.2f}")

輸出結果:

文本: I love this movie, 情感: POSITIVE, 置信度: 0.99
文本: This is a great film, 情感: POSITIVE, 置信度: 0.99
文本: I hate this movie, 情感: NEGATIVE, 置信度: 0.99
文本: This film is terrible, 情感: NEGATIVE, 置信度: 0.99

14. 實戰案例:新聞分類

假設我們有一個新聞數據集,包含不同類別的新聞文章。我們將使用TF-IDF向量化和邏輯回歸模型來進行新聞分類。

import pandas as pd
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report

# 加載新聞數據集
data = pd.read_csv('news_dataset.csv')

# 查看數據集前幾行
print(data.head())

# 提取文本和標簽
X = data['text']
y = data['category']

# 創建TF-IDF向量化器
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(X)

# 劃分訓練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42)

# 訓練邏輯回歸模型
model = LogisticRegression(max_iter=1000)
model.fit(X_train, y_train)

# 預測
y_pred = model.predict(X_test)

# 打印分類報告
print(classification_report(y_test, y_pred))

輸出結果:

            precision    recall  f1-score   support

     sports       0.85      0.87      0.86        50
    politics       0.88      0.85      0.86        50
     economy       0.87      0.89      0.88        50
     science       0.89      0.87      0.88        50

    accuracy                           0.87       200
   macro avg       0.87      0.87      0.87       200
weighted avg       0.87      0.87      0.87       200

總結

本文通過14個案例研究,詳細介紹了如何使用Python進行文本分類和聚類。我們從基礎的文本預處理開始,逐步介紹了詞袋模型、TF-IDF向量化、K-Means聚類、DBSCAN聚類、邏輯回歸分類、支持向量機分類、隨機森林分類、樸素貝葉斯分類、深度學習分類、BERT分類、文本生成、情感分析,最后通過一個實戰案例展示了如何將這些技術應用于新聞分類任務。

責任編輯:趙寧寧 來源: 小白PythonAI編程
相關推薦

2022-10-09 08:00:00

機器學習文本分類算法

2018-08-31 12:32:48

人工智能機器學習算法

2025-03-31 08:28:24

大型語言模型LLMDeepSeek

2024-09-29 09:32:58

2017-08-01 16:44:33

機器學習算法文本挖掘

2020-03-23 08:00:00

開源數據集文本分類

2013-08-06 13:45:29

Android性能個案

2017-08-04 14:23:04

機器學習神經網絡TensorFlow

2024-10-30 16:59:57

Python機器學習

2021-08-30 09:25:25

Bert模型PyTorch語言

2021-07-01 09:43:44

Python函數參數

2017-08-25 14:23:44

TensorFlow神經網絡文本分類

2023-11-28 09:00:00

機器學習少樣本學習SetFit

2020-03-12 14:40:59

Python表格命令行

2020-07-07 10:50:19

Python丄則表達文本

2017-06-20 11:00:13

大數據自然語言文本分類器

2012-05-09 09:49:57

移動支付

2017-05-23 17:38:05

機器學習算法集群

2009-12-31 11:02:48

ADO類

2017-04-27 08:54:54

Python文本分析網絡
點贊
收藏

51CTO技術棧公眾號

99精品999| 国产精品久久波多野结衣| 91成人精品一区二区| 日韩av电影资源网| 亚洲综合偷拍欧美一区色| 精品国产乱码久久久久久108| 日日夜夜狠狠操| 亚洲国产一区二区三区在线播放| 精品久久久久久亚洲综合网| 黄色片久久久久| av网站免费在线观看| 99精品久久久久久| 成人网在线免费看| 特级做a爱片免费69| 88国产精品视频一区二区三区| 亚洲国产精品va在线看黑人动漫| av网站在线不卡| 888av在线视频| 国产精品伦一区二区三级视频| 成人在线视频网址| 中文字幕黄色av| 一本色道88久久加勒比精品| 日韩在线观看免费高清| 欧美成人午夜精品免费| 欧美午夜网站| 欧美亚洲综合久久| 国产精品秘入口18禁麻豆免会员| 最爽无遮挡行房视频在线| 国产亚洲一区二区三区| 国产精品一区二区三区观看| 国产视频一区二区三区四区五区| 日韩综合在线视频| 97超级碰碰碰久久久| 中文字幕影音先锋| 五月开心六月丁香综合色啪| 亚洲美女精品久久| 亚洲高清无码久久| 亚洲精品影片| 欧美一区二区三区的| 三上悠亚av一区二区三区| 成人国产二区| 午夜精品久久久久影视| 国产欧美久久久久| av在线看片| 亚洲素人一区二区| 在线免费一区| 日本三级在线播放完整版| 国产欧美一区二区精品秋霞影院| 久久精品国产第一区二区三区最新章节 | www.色婷婷.com| 精品一区二区三区影院在线午夜 | а天堂中文最新一区二区三区| 欧美亚洲一区二区在线观看| 不卡av免费在线| 日韩高清不卡| 欧美人与性动xxxx| 日韩欧美国产片| 欧美视频免费看| 欧美高清精品3d| 特级西西444www| 精品视频在线播放一区二区三区| 欧美一区欧美二区| 中文字幕一二三| 一区二区视频| 亚洲精品国产综合区久久久久久久 | 日韩一区二区视频在线| 国产精品色网| 国产精品日韩在线播放| 亚洲天堂自拍偷拍| 国产成人精品1024| 国产一区二区免费电影| 青梅竹马是消防员在线| 国产亚洲婷婷免费| 亚洲午夜精品福利| 手机在线免费看av| 精品久久久久久久久久久久久| www.爱色av.com| 欧美在线va视频| 欧美精品第1页| www.com日本| 九色精品91| 久久精品久久久久久| 免费三片在线播放| 免费视频一区| 成人精品视频99在线观看免费| 国产剧情精品在线| 99久久99久久综合| 午夜精品亚洲一区二区三区嫩草| а√资源新版在线天堂| 亚洲大片一区二区三区| 国产精品亚洲a| 97欧美成人| 日韩精品一区二区三区三区免费 | 亚洲亚洲免费| 久久天堂av综合合色| 日本熟伦人妇xxxx| 男人的j进女人的j一区| 成人欧美一区二区| 国产一二三区在线视频| 亚洲精品综合在线| 久久国产色av免费观看| 精品99re| 国产亚洲精品久久久| 全网免费在线播放视频入口| 亚洲在线电影| 99九九电视剧免费观看| 国内在线免费高清视频| 亚洲国产视频网站| 性刺激的欧美三级视频| 巨人精品**| 久久天天躁狠狠躁夜夜躁| 制服.丝袜.亚洲.中文.综合懂色| 狠狠色丁香婷综合久久| 麻豆91蜜桃| 青青草视频在线免费直播| 在线视频国内自拍亚洲视频| 97中文字幕在线观看| 97在线精品| 国产不卡精品视男人的天堂| 性生活免费网站| 国产精品青草综合久久久久99| 欧美亚洲精品一区二区| 99精品国产一区二区三区2021| 深夜福利亚洲导航| 亚洲另类在线观看| 99久久久国产精品| 日韩中文字幕亚洲精品欧美| 91亚洲视频| 国产一区二区av| 在线精品免费视| av电影一区二区| 老司机午夜免费福利视频| 成人在线免费电影网站| 亚洲人成伊人成综合网久久久| 精品无码久久久久久久久| 国产呦精品一区二区三区网站| 无码免费一区二区三区免费播放 | 美女黄色成人网| 黑人中文字幕一区二区三区| 蜜臀av在线| 日韩精品一区二区三区在线播放 | av一区观看| www红色一片_亚洲成a人片在线观看_| 欧美在线免费视屏| 久操视频在线观看免费| 狂野欧美一区| 手机成人在线| 欧美电影在线观看网站| 色琪琪综合男人的天堂aⅴ视频| 91麻豆精品在线| 国产精品乱人伦一区二区| 91看片在线免费观看| 成人在线国产| 成人有码视频在线播放| 国产视频在线播放| 日韩欧美亚洲一区二区| 久久久久噜噜噜亚洲熟女综合| 丁香五精品蜜臀久久久久99网站| 国产欧美日韩小视频| 国产伦精品一区二区三区在线播放| 久久久久久久久久久久久久久久久久av| 精品人妻一区二区三区四区不卡| 亚洲一区在线免费观看| 黄色在线免费播放| 日韩综合在线视频| 自拍亚洲欧美老师丝袜| 日韩三级网址| 韩国福利视频一区| 久草在线网址| 欧美日韩国产高清一区| 青青草国产在线观看| 成人一区在线看| 日韩av播放器| 欧美成人激情| 丁香婷婷久久久综合精品国产| 波多野一区二区| 亚洲人成电影在线观看天堂色| 中国黄色一级视频| 亚洲欧美日韩国产另类专区| 黑人玩弄人妻一区二区三区| 久久久噜噜噜| 黑人巨茎大战欧美白妇| 九九热播视频在线精品6| 5566日本婷婷色中文字幕97| 草碰在线视频| 精品国产污污免费网站入口| 国产精品51麻豆cm传媒| 一区二区在线观看不卡| 国产av自拍一区| 国产精品一品视频| 成年人免费大片| 欧美一区免费| 日本免费高清不卡| 欧美电影在线观看一区| 日本久久久久久久久| а√天堂官网中文在线| 亚洲性xxxx| 秋霞av鲁丝片一区二区| 欧美老女人在线| 五月婷婷亚洲综合| 一区二区三区在线免费视频| 日韩精品无码一区二区三区久久久| 国产一区二区三区精品视频| 黄色片久久久久| 亚洲视频免费| 欧美少妇一级片| 国产91久久精品一区二区| 91九色在线免费视频| 色成人免费网站| 午夜精品理论片| 在线播放免费av| 最好看的2019年中文视频| 亚洲欧美日韩免费| 精品日韩欧美在线| 国产精品无码天天爽视频| 色狠狠一区二区三区香蕉| 国产性一乱一性一伧一色| 中文字幕一区在线观看| 国产免费无遮挡吸奶头视频| 成人国产免费视频| 性色av浪潮av| 久久99久久久欧美国产| 亚洲中文字幕久久精品无码喷水| 一区二区电影| 国产日本欧美在线| 久久视频在线| 亚洲aⅴ天堂av在线电影软件| 人人网欧美视频| 国产日韩欧美二区| 中文字幕一区二区三区日韩精品| 成人a视频在线观看| 成人精品国产| 国产裸体写真av一区二区 | 日本精品在线| 日韩在线观看网站| 超碰97在线免费观看| 中文字幕免费国产精品| 国产一级在线| 亚洲小视频在线观看| 黄色国产在线| 国产亚洲精品va在线观看| 毛片免费在线观看| 国产一区二区三区中文| 高清在线观看av| 中文字幕亚洲精品| 天堂аⅴ在线地址8| 日韩视频―中文字幕| 日本www在线观看视频| 久久精品国产69国产精品亚洲| 日本免费在线观看| 另类图片亚洲另类| 在线观看三级视频| 欧美激情手机在线视频| 97在线超碰| 欧美亚洲在线视频| 欧美日韩视频免费观看| 国产精品热视频| 91精品麻豆| 福利视频久久| 日韩有码av| 丝袜美腿玉足3d专区一区| 欧美va久久久噜噜噜久久| 国产精品一二三在线观看| 亚洲网站啪啪| 日韩网址在线观看| 麻豆国产欧美日韩综合精品二区| 日韩精品视频一二三| 国产精品一色哟哟哟| 亚洲av人人澡人人爽人人夜夜| 久久久99精品免费观看| 日韩黄色中文字幕| 亚洲婷婷在线视频| 国产精品成人久久| 91官网在线观看| 国产免费不卡av| 亚洲韩国欧洲国产日产av| 欧洲亚洲精品视频| 久久久成人精品| 欧美aaaaa性bbbbb小妇| 国产精品视频久久久| 一区二区三区欧洲区| 日韩福利一区二区三区| 真实国产乱子伦精品一区二区三区| 男人添女人下部高潮视频在观看| 日韩精品欧美成人高清一区二区| 亚洲一区二区三区观看| a亚洲天堂av| 国产一区二区三区视频播放| 亚洲自拍另类综合| av手机天堂网| 精品成人佐山爱一区二区| 你懂的视频在线| 欧美巨乳在线观看| 韩日精品一区二区| 亚洲自拍小视频免费观看| 偷拍亚洲色图| 日韩一级特黄毛片| 日韩电影在线观看网站| 中文字幕天堂网| 亚洲欧洲在线观看av| 伊人手机在线视频| 日韩视频免费观看高清在线视频| 久草视频视频在线播放| 久久久久久亚洲精品不卡| 国产激情欧美| 久久久久久99| 激情另类综合| 一本一道久久a久久综合蜜桃| 91在线码无精品| 免费一级片在线观看| 欧美日韩亚洲综合一区| 三级黄视频在线观看| 欧美二区在线播放| 中文成人在线| 日韩免费毛片| 亚洲一区日韩在线| 亚洲欧美日韩色| 亚洲精品乱码久久久久久黑人| 天天天天天天天干| 亚洲欧美国产精品| 激情国产在线| 国产精选在线观看91| 欧美.www| 午夜不卡福利视频| 亚洲视频在线一区二区| 在线观看日本网站| 国产婷婷97碰碰久久人人蜜臀 | 麻豆精品国产传媒| 亚洲婷婷国产精品电影人久久| 成人午夜精品视频| 一区二区三欧美| 日韩天堂在线| 色综合久久久久久久久五月| 久久精品女人| 国产成人无码精品久久二区三| 精品久久久久久久久久久久久| 秋霞av鲁丝片一区二区| 性欧美在线看片a免费观看| 国产精品videossex| 妞干网在线播放| 丁香六月综合激情| 久久精品女人毛片国产| 精品国产乱码久久| 91超碰在线免费| 麻豆亚洲一区| 另类激情亚洲| 秋霞网一区二区三区| 欧美三级日韩在线| 欧美黑人激情| 99久热re在线精品视频| 韩国在线视频一区| 无码国产精品一区二区免费式直播| 亚洲一区二区三区激情| 日本免费不卡视频| 奇米成人av国产一区二区三区| 五月综合久久| 久草福利视频在线| 亚洲天堂成人在线观看| 丰满肉肉bbwwbbww| 538国产精品一区二区免费视频| 久久91麻豆精品一区| 天天操天天爱天天爽| 亚洲女同ⅹxx女同tv| 欧美一级特黄aaaaaa大片在线观看| 久久人人爽国产| 久久99性xxx老妇胖精品| 亚洲36d大奶网| 亚洲日本在线a| 午夜小视频免费| 国产精品成人播放| 在线电影一区二区| 中文字幕一区二区人妻电影丶| 欧美性猛交xxxx乱大交3| 久蕉在线视频| 99精彩视频在线观看免费| 99日韩精品| av资源在线免费观看| 日韩欧美成人一区二区| 日韩影院在线| 免费看啪啪网站| av网站免费线看精品| 一级特黄aaa大片| 久久久久久成人| 日本不卡免费一区| 图片区偷拍区小说区| 在线观看不卡一区| 蜜臀av在线播放| 一道精品一区二区三区| 成人免费看视频| 在线视频 91| 91sa在线看| 中文字幕亚洲精品乱码| 这里只有久久精品| 欧美不卡123| 99热播精品免费| 久久久亚洲精品无码| 亚洲欧洲韩国日本视频| 清纯唯美亚洲色图| 99在线视频免费观看| 男女性色大片免费观看一区二区|