精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

必備!人工智能和數(shù)據(jù)科學的七大 Python 庫

新聞 后端 大數(shù)據(jù)
作者匯總了2018年針對數(shù)據(jù)科學家/AI的最佳庫、repos、包和工具。本文對其進行了梳理,列舉了人工智能和數(shù)據(jù)科學的七大Python庫。

 

【導讀】作者匯總了2018年針對數(shù)據(jù)科學家/AI的***庫、repos、包和工具。本文對其進行了梳理,列舉了人工智能和數(shù)據(jù)科學的七大Python庫。

本文作者Favio Vázquez從2018年開始發(fā)布《數(shù)據(jù)科學和人工智能每周文摘:Python & R》系列文章,為數(shù)據(jù)科學家介紹***的庫、repos、packages以及工具。

一年結(jié)束,作者列出了2018年的7大***的Python庫,這些庫確實地改進了研究人員的工作方式。

[[255006]]

7. AdaNet ———快速靈活的AutoML框架

[[255007]]

https://github.com/tensorflow/adanet

AdaNet是一個輕量級的、可擴展的TensorFlow AutoML框架,用于使用AdaNet算法訓練和部署自適應(yīng)神經(jīng)網(wǎng)絡(luò)[Cortes et al. ICML 2017]。AdaNet結(jié)合了多個學習子網(wǎng)絡(luò),以減輕設(shè)計有效的神經(jīng)網(wǎng)絡(luò)所固有的復(fù)雜性。

這個軟件包將幫助你選擇***的神經(jīng)網(wǎng)絡(luò)架構(gòu),實現(xiàn)一種自適應(yīng)算法,用于學習作為子網(wǎng)絡(luò)集合的神經(jīng)架構(gòu)。

你需要了解TensorFlow才能使用這個包,因為它實現(xiàn)了TensorFlow Estimator,但這將通過封裝訓練、評估、預(yù)測和導出服務(wù)來幫助你簡化機器學習編程。

你可以構(gòu)建一個神經(jīng)網(wǎng)絡(luò)的集合,這個庫將幫助你優(yōu)化一個目標,以平衡集合在訓練集上的性能和將其泛化到未見過數(shù)據(jù)的能力之間的權(quán)衡。

安裝

安裝adanet之前需將TensorFlow升級到1.7或以上:

$ pip install "tensorflow>=1.7.0"

從源代碼安裝

要從源代碼進行安裝,首先需要安裝bazel。

下一步,復(fù)制adanet和cd到它的根目錄:

$ git clone https://github.com/tensorflow/adanet && cd adanet

從adanet根目錄運行測試:

$ cd adanet
$ bazel test -c opt //...

確認一切正常后,將adanet安裝為pip包。

現(xiàn)在,可以對adanet進行試驗了。

import adanet

用法

有關(guān)AdaNet的詳細用法,請閱讀官方教程:

https://github.com/tensorflow/adanet/tree/master/adanet/examples/tutorials

https://ai.googleblog.com/2018/10/introducing-adanet-fast-and-flexible.html?m=1

6. TPOT——一個自動化的Python機器學習工具

[[255009]]

https://github.com/EpistasisLab/tpot

之前我介紹過Auto-Keras,這是一個很棒的AutoML庫。現(xiàn)在我們有另一個非常有趣的工具——TPOT。

TPOT全稱是基于樹的pipeline優(yōu)化工具(Tree-based Pipeline Optimization Tool),這是一個非常棒Python自動機器學習工具,使用遺傳編程優(yōu)化機器學習pipeline。

TPOT可以自動化許多東西,包括生命特性選擇、模型選擇、特性構(gòu)建等等。如果你是Python機器學習者,很幸運,TPOT是構(gòu)建在Scikit-learn之上的,所以它生成的所有代碼看起來應(yīng)該很熟悉。

它的作用是通過智能地探索數(shù)千種可能的pipeline來自動化機器學習中最繁瑣的部分,找到最適合你的數(shù)據(jù)的pipeline,然后為你提供***的 Python 代碼。

它的工作原理如下:

安裝

安裝TPOT之前,請先閱讀教程:

http://epistasislab.github.io/tpot/installing/

然后,運行以下代碼:

  1. pip install tpot 

例子:

首先讓我們從基本的Iris數(shù)據(jù)集開始:

  1.  1from tpot import TPOTClassifier 
  2.  2from sklearn.datasets import load_iris 
  3.  3from sklearn.model_selection import train_test_split 
  4.  4 
  5.  5# Load iris dataset 
  6.  6iris = load_iris() 
  7.  7 
  8.  8# Split the data 
  9.  9 
  10. 10X_trainX_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, 
  11. 11 train_size=0.75, test_size=0.25
  12. 12 
  13. 13# Fit the TPOT classifier  
  14. 14 
  15. 15tpot = TPOTClassifier(verbosity=2, max_time_mins=2
  16. 16tpot.fit(X_train, y_train) 
  17. 17 
  18. 18# Export the pipeline 
  19. 19tpot.export('tpot_iris_pipeline.py'

我們在這里構(gòu)建了一個非常基本的TPOT pipeline,它將嘗試尋找***ML pipeline來預(yù)測iris.target。然后保存這個pipeline。之后,我們要做的就非常簡單了——加載生成的.py文件,你將看到:

  1.  1import numpy as np 
  2.  2from sklearn.kernel_approximation import RBFSampler 
  3.  3from sklearn.model_selection import train_test_split 
  4.  4from sklearn.pipeline import make_pipeline 
  5.  5from sklearn.tree import DecisionTreeClassifier 
  6.  6# NOTE: Make sure that the class is labeled 'class' in the data file 
  7.  7tpot_data = np.recfromcsv('PATH/TO/DATA/FILE', delimiter='COLUMN_SEPARATOR', dtype=np.float64) 
  8.  8features = np.delete(tpot_data.view(np.float64).reshape(tpot_data.size, -1), tpot_data.dtype.names.index('class'), axis=1
  9.  9training_features, testing_features, training_classes, testing_classes =  
  10. 10 train_test_split(features, tpot_data['class'], random_state=42
  11. 11exported_pipeline = make_pipeline( 
  12. 12 RBFSampler(gamma=0.8500000000000001), 
  13. 13 DecisionTreeClassifier(criterion="entropy", max_depth=3, min_samples_leaf=4, min_samples_split=9
  14. 14
  15. 15exported_pipeline.fit(training_features, training_classes) 
  16. 16results = exported_pipeline.predict(testing_features) 

就是這樣。你已經(jīng)以一種簡單但強大的方式為Iris數(shù)據(jù)集構(gòu)建一個分類器。

現(xiàn)在我們來看看MNIST的數(shù)據(jù)集:

  1. 1from tpot import TPOTClassifier 
  2.  2from sklearn.datasets import load_digits 
  3.  3from sklearn.model_selection import train_test_split 
  4.  4 
  5.  5# load and split dataset  
  6.  6digitsdigits == load_digitsload_di () 
  7.  7X_train, X_test, y_train, y_test = train_test_split(digits.data, digits.target, 
  8.  8 train_size=0.75, test_size=0.25
  9.  9 
  10. 10# Fit the TPOT classifier  
  11. 11tpot = TPOTClassifier(verbosity=2, max_time_mins=5, population_size=40
  12. 12tpot.fit(X_train, y_train) 
  13. 13 
  14. 14# Export pipeline 
  15. 15tpot.export('tpot_mnist_pipeline.py'

接下來我們再次加載生成的 .py文件,你將看到:

  1.  1import numpy as np 
  2.  2from sklearn.model_selection import train_test_split 
  3.  3from sklearn.neighbors import KNeighborsClassifier 
  4.  4# NOTE: Make sure that the class is labeled 'class' in the data file 
  5.  5tpot_data = np.recfromcsv('PATH/TO/DATA/FILE', delimiter='COLUMN_SEPARATOR', dtype=np.float64) 
  6.  6features = np.delete(tpot_data.view(np.float64).reshape(tpot_data.size, -1), tpot_data.dtype.names.index('class'), axis=1
  7.  7training_features, testing_features, training_classes, testing_classes =  
  8.  8 train_test_split(features, tpot_data['class'], random_state=42
  9.  9exported_pipeline = KNeighborsClassifier(n_neighbors=4, p=2, weights="distance"
  10. 10exported_pipeline.fit(training_features, training_classes) 
  11. 11results = exported_pipeline.predict(testing_features) 

5. SHAP ——一個解釋任何機器模型輸出的統(tǒng)一方法

https://github.com/slundberg/shap

解釋機器學習模型并不容易。然而,它對許多商業(yè)應(yīng)用程序來說非常重要。幸運的是,有一些很棒的庫可以幫助我們完成這項任務(wù)。在許多應(yīng)用程序中,我們需要知道、理解或證明輸入變量在模型中的運作方式,以及它們?nèi)绾斡绊懽罱K的模型預(yù)測。

SHAP (SHapley Additive exPlanations)是一種解釋任何機器學習模型輸出的統(tǒng)一方法。SHAP將博弈論與局部解釋聯(lián)系起來,并結(jié)合了之前的幾種方法。

安裝

SHAP可以從PyPI安裝

  1. pip install shap 

或conda -forge

  1. conda install -c conda-forge shap 

用法

有很多不同的模型和方法可以使用這個包。在這里,我將以DeepExplainer中的一個例子為例。

Deep SHAP是深度學習模型中SHAP值的一種高速近似算法,它基于與DeepLIFT的連接,如SHAP的NIPS論文所述(https://arxiv.org/abs/1802.03888)。

下面這個例子可以看到SHAP如何被用來解釋MNIST數(shù)據(jù)集的Keras模型結(jié)果:

  1. # this is the code from https://github.com/keras-team/keras/blob/master/examples/mnist_cnn.py 
  2. from __future__ import print_function 
  3. import keras 
  4. from keras.datasets import mnist 
  5. from keras.models import Sequential 
  6. from keras.layers import Dense, Dropout, Flatten 
  7. from keras.layers import Conv2D, MaxPooling2D 
  8. from keras import backend as K 
  9. batch_size = 128 
  10. num_classes = 10 
  11. epochs = 12 
  12. # input image dimensions 
  13. img_rows, img_cols = 2828 
  14. # the data, split between train and test sets 
  15. (x_train, y_train), (x_test, y_test) = mnist.load_data() 
  16. if K.image_data_format() == 'channels_first'
  17.  x_train = x_train.reshape(x_train.shape[0], 1, img_rows, img_cols) 
  18.  x_test = x_test.reshape(x_test.shape[0], 1, img_rows, img_cols) 
  19.  input_shape = (1, img_rows, img_cols) 
  20. else
  21.  x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1
  22.  x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1
  23.  input_shape = (img_rows, img_cols, 1
  24. x_train = x_train.astype('float32'
  25. x_test = x_test.astype('float32'
  26. x_train /= 255 
  27. x_test /= 255 
  28. print('x_train shape:', x_train.shape) 
  29. print(x_train.shape[0], 'train samples'
  30. print(x_test.shape[0], 'test samples'
  31. # convert class vectors to binary class matrices 
  32. y_train = keras.utils.to_categorical(y_train, num_classes) 
  33. y_test = keras.utils.to_categorical(y_test, num_classes) 
  34. model = Sequential() 
  35. model.add(Conv2D(32, kernel_size=(33), 
  36.  activation='relu'
  37.  input_shape=input_shape)) 
  38. model.add(Conv2D(64, (33), activation='relu')) 
  39. model.add(MaxPooling2D(pool_size=(22))) 
  40. model.add(Dropout(0.25)) 
  41. model.add(Flatten()) 
  42. model.add(Dense(128, activation='relu')) 
  43. model.add(Dropout(0.5)) 
  44. model.add(Dense(num_classes, activation='softmax')) 
  45. model.compile(loss=keras.losses.categorical_crossentropy, 
  46.  optimizer=keras.optimizers.Adadelta(), 
  47.  metrics=['accuracy']) 
  48. model.fit(x_train, y_train, 
  49.  batch_size=batch_size, 
  50.  epochs=epochs, 
  51.  verbose=1
  52.  validation_data=(x_test, y_test)) 
  53. score = model.evaluate(x_test, y_test, verbose=0
  54. print('Test loss:', score[0]) 
  55. print('Test accuracy:', score[1]) 

更多示例:

https://github.com/slundberg/shap#sample-notebooks

4. Optimus——使用 Python 和 Spark 輕松實現(xiàn)敏捷數(shù)據(jù)科學工作流

[[255011]]

https://github.com/ironmussa/Optimus

Optimus V2旨在讓數(shù)據(jù)清理更容易。這個API的設(shè)計對新手來說超級簡單,對使用pandas的人來說也非常熟悉。Optimus擴展了Spark DataFrame功能,添加了.rows和.cols屬性。

使用Optimus,你可以以分布式的方式清理數(shù)據(jù)、準備數(shù)據(jù)、分析數(shù)據(jù)、創(chuàng)建分析器和圖表,并執(zhí)行機器學習和深度學習,因為它的后端有Spark、TensorFlow和Keras。

Optimus是數(shù)據(jù)科學敏捷方法的***工具,因為它幾乎可以幫助你完成整個過程的所有步驟,并且可以輕松地連接到其他庫和工具。

Installation (pip):

  1. pip install optimuspyspark 

用法

在這個示例中,你可以從 URL 加載數(shù)據(jù),對其進行轉(zhuǎn)換,并應(yīng)用一些預(yù)定義的清理功能:

  1. from optimus import Optimus 
  2. op = Optimus() 
  3. # This is a custom function 
  4. def func(value, arg): 
  5.  return "this was a number" 
  6. df =op.load.url("https://raw.githubusercontent.com/ironmussa/Optimus/master/examples/foo.csv"
  7. df 
  8.  .rows.sort("product","desc"
  9.  .cols.lower(["firstName","lastName"]) 
  10.  .cols.date_transform("birth""new_date""yyyy/MM/dd""dd-MM-YYYY"
  11.  .cols.years_between("birth""years_between""yyyy/MM/dd"
  12.  .cols.remove_accents("lastName"
  13.  .cols.remove_special_chars("lastName"
  14.  .cols.replace("product","taaaccoo","taco"
  15.  .cols.replace("product",["piza","pizzza"],"pizza"
  16.  .rows.drop(df["id"]<7
  17.  .cols.drop("dummyCol"
  18.  .cols.rename(str.lower) 
  19.  .cols.apply_by_dtypes("product",func,"string", data_type="integer"
  20.  .cols.trim("*"
  21.  .show() 

你可以將這個表格

轉(zhuǎn)換為這樣:

是不是很酷?這個庫還可以做更多事情,具體請閱讀:

https://www.hioptimus.com/

3. spacy——使用Python和Cython的工業(yè)級自然語言處理

[[255012]]

https://spacy.io/

spaCy旨在幫助你完成實際的工作——構(gòu)建真實的產(chǎn)品,或收集真實的見解。這個庫尊重你的時間,盡量避免浪費。它易于安裝,而且它的API簡單而高效。spaCy被視為自然語言處理的Ruby on Rails。

spaCy是為深度學習準備文本的***方法。它與TensorFlow、PyTorch、Scikit-learn、Gensim以及Python強大的AI生態(tài)系統(tǒng)的其他部分無縫交互。使用spaCy,你可以很容易地為各種NLP問題構(gòu)建語言復(fù)雜的統(tǒng)計模型。

安裝

  1. pip3 install spacy 
  2. $ python3 -m spacy download en 

這里,我們還下載了英語語言模型。你可以在這里找到德語,西班牙語,意大利語,葡萄牙語,法國語等版本的模型:

https://spacy.io/models/

下面是主頁面的一個示例:

  1. # python -m spacy download en_core_web_sm 
  2. import spacy 
  3. # Load English tokenizer, tagger, parser, NER and word vectors 
  4. nlp = spacy.load('en_core_web_sm'
  5. # Process whole documents 
  6. text = (u"When Sebastian Thrun started working on self-driving cars at " 
  7.  u"Google in 2007, few people outside of the company took him " 
  8.  u"seriously. “I can tell you very senior CEOs of major American " 
  9.  u"car companies would shake my hand and turn away because I wasn’t " 
  10.  u"worth talking to,” said Thrun, now the co-founder and CEO of " 
  11.  u"online higher education startup Udacity, in an interview with " 
  12.  u"Recode earlier this week."
  13. doc = nlp(text) 
  14. # Find named entities, phrases and concepts 
  15. for entity in doc.ents: 
  16.  print(entity.text, entity.label_) 
  17. # Determine semantic similarities 
  18. doc1 = nlp(u"my fries were super gross"
  19. doc2 = nlp(u"such disgusting fries"
  20. similarity = doc1.similarity(doc2) 
  21. print(doc1.text, doc2.text, similarity) 

在這個示例中,我們首先下載English tokenizer, tagger, parser, NER和word vectors。然后創(chuàng)建一些文本,打印找到的實體、短語和概念,***確定兩個短語的語義相似性。運行這段代碼,你會得到:

  1. Sebastian Thrun PERSON 
  2. Google ORG 
  3. 2007 DATE 
  4. American NORP 
  5. Thrun PERSON 
  6. Recode ORG 
  7. earlier this week DATE 
  8. my fries were super gross such disgusting fries 0.7139701635071919 

2. jupytext

[[255013]]

對我來說,jupytext是年度***。幾乎所有人都在像Jupyter這樣的筆記本上工作,但是我們也在項目的更核心部分使用像PyCharm這樣的IDE。

好消息是,你可以在自己喜歡的IDE中起草和測試普通腳本,在使用Jupytext時可以將IDE作為notebook在Jupyter中打開。在Jupyter中運行notebook以生成輸出,關(guān)聯(lián).ipynb表示,并作為普通腳本或傳統(tǒng)Jupyter notebook 進行保存和分享。

下圖展示了這個包的作用:

可點擊下方鏈接查看原文中的GIF展示:

https://heartbeat.fritz.ai/top-7-libraries-and-packages-of-the-year-for-data-science-and-ai-python-r-6b7cca2bf000

安裝

  1. pip install jupytext --upgrade 

然后,配置Jupyter使用Jupytext:

使用jupyter notebook --generate-config生成Jupyter配置

編輯.jupyter/jupyter_notebook_config.py,并附加以下代碼:

  1. c.NotebookApp.contents_manager_class = "jupytext.TextFileContentsManager" 

重啟Jupyter,即運行:

  1. jupyter notebook 

你可以在這里試試:

https://mybinder.org/v2/gh/mwouts/jupytext/master?filepath=demo

1.Chartify ——讓數(shù)據(jù)科學家很容易創(chuàng)建圖表的Python庫

https://xkcd.com/1945/

Chartify是Python的年度***庫。

在Python世界中創(chuàng)建一個像樣的圖很費時間。幸運的是,我們有像Seaborn之類的庫,但問題是他們的plots不是動態(tài)的。

然后就出現(xiàn)了Bokeh——這是一個超棒的庫,但用它來創(chuàng)造互動情節(jié)仍很痛苦。

Chartify建立在Bokeh之上,但它簡單得多。

Chartify的特性:

  • 一致的輸入數(shù)據(jù)格式:轉(zhuǎn)換數(shù)據(jù)所需的時間更少。所有繪圖函數(shù)都使用一致、整潔的輸入數(shù)據(jù)格式。
  • 智能默認樣式:創(chuàng)建漂亮的圖表,幾乎不需要自定義。
  • 簡單API:API盡可能直觀和容易學習。
  • 靈活性:Chartify是建立在Bokeh之上的,所以如果你需要更多的控制,你可以使用Bokeh的API。

安裝

Chartify可以通過pip安裝:

  1. pip3 install chartify 

用法

假設(shè)我們想要創(chuàng)建這個圖表:

  1. import pandas as pd 
  2. import chartify 
  3. # Generate example data 
  4. data = chartify.examples.example_data() 

現(xiàn)在,我們已經(jīng)加載了一些示例數(shù)據(jù),讓我們來做一些轉(zhuǎn)換:

  1. total_quantity_by_month_and_fruit = (data.groupby( 
  2.  [data['date'] + pd.offsets.MonthBegin(-1), 'fruit'])['quantity'].sum() 
  3.  .reset_index().rename(columns={'date''month'}) 
  4.  .sort_values('month')) 
  5. print(total_quantity_by_month_and_fruit.head()) 
  6. month fruit quantity 
  7. 0 2017-01-01 Apple 7 
  8. 1 2017-01-01 Banana 6 
  9. 2 2017-01-01 Grape 1 
  10. 3 2017-01-01 Orange 2 
  11. 4 2017-02-01 Apple 8 

現(xiàn)在我們可以把它畫出來:

  1. # Plot the data 
  2. ch = chartify.Chart(blank_labels=True, x_axis_type='datetime'
  3. ch.set_title("Stacked area"
  4. ch.set_subtitle("Represent changes in distribution."
  5. ch.plot.area( 
  6.  data_frame=total_quantity_by_month_and_fruit, 
  7.  x_column='month'
  8.  y_column='quantity'
  9.  color_column='fruit'
  10.  stacked=True
  11. ch.show('png'

超級容易創(chuàng)建一個互動的plot。

更多示例:

https://github.com/spotify/chartify

責任編輯:張燕妮 來源: 頭條科技
相關(guān)推薦

2020-04-26 09:35:22

人工智能IT技術(shù)數(shù)據(jù)

2022-12-12 12:34:47

2019-07-28 21:29:40

2023-08-16 14:20:26

人工智能AI

2022-02-07 14:14:42

人工智能

2023-11-07 07:13:12

2021-12-13 14:36:31

人工智能AI

2023-01-06 12:55:58

人工智能數(shù)據(jù)科學

2020-12-18 10:35:27

IT技術(shù)領(lǐng)導者

2024-01-03 15:40:58

人工智能氣候變化AI

2023-10-26 10:23:10

2025-09-09 09:25:43

2016-07-26 15:00:03

人工智能傳感器

2020-10-15 09:59:52

人工智能Go語言Python

2017-04-27 20:10:31

人工智能李開復(fù)黑洞

2023-08-18 10:24:07

人工智能AI

2023-06-21 10:15:47

2024-01-25 14:30:08

人工智能

2021-02-06 23:08:03

人工智能數(shù)據(jù)安全

2025-03-20 09:48:25

點贊
收藏

51CTO技術(shù)棧公眾號

亚洲一区中文日韩| 玖玖精品视频| 亚洲国产精品人久久电影| 日韩五码在线观看| 国产高清美女一级毛片久久| 狠狠色综合播放一区二区| 欧美黑人xxx| 亚洲第一页av| 国产aⅴ精品一区二区四区| 亚洲国产一区二区在线播放| 欧美在线播放一区| 午夜老司机福利| 丝袜美腿亚洲一区| 欧美成人精品一区二区三区| 成人午夜福利一区二区| 日韩一区二区三区精品| 在线观看一区二区视频| 轻点好疼好大好爽视频| 91激情在线| 99热国产精品| 亚洲最大的免费| 中文永久免费观看| 亚洲有吗中文字幕| 国产一区二区三区在线看| 国产ts在线观看| 巨大黑人极品videos精品| 精品二区三区线观看| 中文字幕久精品免| 国产区av在线| 91女人视频在线观看| 5g影院天天爽成人免费下载| 久久久999久久久| 亚洲欧美日韩国产综合精品二区| 欧美丰满少妇xxxxx| 国产又粗又黄又猛| 竹菊久久久久久久| 亚洲国产精久久久久久| 亚洲区 欧美区| 亚洲伊人精品酒店| 欧美色欧美亚洲另类二区| 欧美 日韩 国产一区| av中文在线资源| 亚洲乱码国产乱码精品精98午夜| 亚洲欧美日产图| 日韩有码第一页| 老司机午夜精品| 国产精品影片在线观看| 亚洲男人天堂网址| 免费日韩一区二区| 日本午夜人人精品| 青青青国产在线| 国产精品丝袜xxxxxxx| 国语自产精品视频在免费| 免费在线观看亚洲| 欧美日韩福利| 欧美激情精品久久久久久黑人 | 国产免费不卡av| 蜜桃久久久久久久| 国产精品久久久久久久久免费 | 久久久全国免费视频| 中文字幕一区二区三区欧美日韩| 久久在线免费观看视频| 欧美高清视频一区二区三区| 最新欧美人z0oozo0| 欧美成人免费观看| 久久在线视频精品| 日韩亚洲国产欧美| 国产精品96久久久久久| 五月婷婷六月婷婷| 精品一区二区精品| 波多野结衣成人在线| 高h放荡受浪受bl| 91麻豆6部合集magnet| 欧美日韩视频在线一区二区观看视频| 美国成人毛片| 国产精品情趣视频| 400部精品国偷自产在线观看| 中文av资源在线| 亚洲6080在线| 久久久久久香蕉| 欧美大片网站| 精品国产一区二区三区忘忧草| 亚洲av无码一区二区三区网址| 伊人成综合网yiren22| 中文字幕9999| 欧美被狂躁喷白浆精品| 亚洲影音一区| 成人激情视频在线播放| 国产91免费在线观看| 久久婷婷色综合| 热这里只有精品| 欧美a级在线观看| 欧美日韩一级大片网址| 香蕉久久久久久av成人| 精品国产一区二区三区四区| 欧美猛少妇色xxxxx| 国产精品黄色大片| 国产综合久久久久影院| 久久另类ts人妖一区二区| 免费黄色网页在线观看| 欧美日韩国产一区在线| 亚洲精品视频三区| 亚洲电影一级片| 欧美剧在线观看| www.亚洲激情| 成人动漫一区二区三区| 亚洲综合视频一区| 天堂√中文最新版在线| 91精品国产综合久久小美女| 色欲av无码一区二区三区| 午夜精品久久| 国产美女精彩久久| 天堂在线一二区| 一区二区三区中文字幕精品精品| 韩国日本美国免费毛片| 美国成人xxx| 九九精品在线视频| 亚洲一区二区三区网站| 99久久99久久精品国产片果冻 | 好吊妞www.84com只有这里才有精品| 91啦中文在线| 色av综合在线| 精品国产人妻一区二区三区| 欧美 日韩 国产精品免费观看| 国产精品欧美亚洲777777| 天堂中文在线观看视频| 亚洲一区在线观看免费| 极品粉嫩美女露脸啪啪| 欧美亚洲高清| 国产精品福利网站| 青青草手机在线| 精品成人av一区| 在线免费看黄色片| 欧美福利一区| 成人网欧美在线视频| 99青草视频在线播放视| 在线看一区二区| 人人人妻人人澡人人爽欧美一区| 99精品国产99久久久久久福利| 不卡一区二区三区视频| 五月花成人网| 日韩欧美中文一区二区| 中文字幕av播放| 狠狠色丁香婷婷综合| 亚洲电影免费| 123成人网| 最新69国产成人精品视频免费| 国产免费a视频| 国产婷婷一区二区| 欧美伦理片在线看| 成人vr资源| 成人黄色av免费在线观看| 天堂地址在线www| 欧美日韩高清一区| 日韩激情小视频| 国产精品自拍一区| 91免费国产精品| 黑人久久a级毛片免费观看| 久久久女女女女999久久| 天堂网在线播放| 日韩欧中文字幕| 蜜桃av乱码一区二区三区| 免费的成人av| 玖玖精品在线视频| gogo久久日韩裸体艺术| 91av视频在线免费观看| 欧美黄色小说| 欧美日韩一区二区欧美激情| 91九色丨porny丨极品女神| 国产成人亚洲综合a∨婷婷| 老子影院午夜伦不卡大全| 日韩成人av在线资源| 国产脚交av在线一区二区| 97在线观看免费观看高清 | 五月婷婷亚洲| 国产精品国产三级国产专区53| 午夜裸体女人视频网站在线观看| 国产一区二区三区直播精品电影| 国产精品老熟女视频一区二区| 亚洲综合色丁香婷婷六月图片| 亚洲一级av无码毛片精品| 免费看亚洲片| 在线观看18视频网站| 日韩高清一级| 成人激情综合网| 91jq激情在线观看| 欲色天天网综合久久| 亚洲av无码国产综合专区| 狠狠躁夜夜躁人人躁婷婷91 | 欧美国产91| 九9re精品视频在线观看re6| 国产精品久久乐| 97久久伊人激情网| 免费高清完整在线观看| 亚洲国语精品自产拍在线观看| 国产精品高清无码| 亚洲成人一二三| 午夜精品久久久久99蜜桃最新版| 不卡的av电影| 在线视频观看一区二区| 国产欧美日韩综合一区在线播放| 久久久久亚洲av无码专区喷水| 日韩有码av| 999热视频在线观看| 日韩另类视频| 91精品国产色综合久久不卡98口| 日本成人在线播放| 国产丝袜一区二区三区| 精品人妻一区二区三区浪潮在线| 日本久久电影网| 国产网址在线观看| 综合久久久久久久| 国产人妻大战黑人20p| 不卡视频一二三| 国产91在线免费观看| 蜜臀av一级做a爰片久久| 欧美牲交a欧美牲交| 国产精品sm| 国产奶头好大揉着好爽视频| 欧美在线电影| 久久亚洲精品欧美| 97久久综合区小说区图片区| 成人在线免费观看视视频| 欧美aaa大片视频一二区| 国产91精品青草社区| 深夜国产在线播放| 欧美成年人网站| 黄色免费在线网站| xvideos亚洲| 欧洲日本在线| 日韩在线观看免费网站| 18视频免费网址在线观看| 亚洲男人av电影| 少妇性bbb搡bbb爽爽爽欧美| 亚洲国产欧美久久| 欧美一区,二区| 欧美xxxx老人做受| 亚洲国产精品久久久久久久| 欧美一区二区精品| 国产露脸无套对白在线播放| 欧美三级电影网站| 一级日韩一级欧美| 777午夜精品免费视频| 97人妻精品一区二区三区视频| 欧美久久久久中文字幕| 一本色道久久综合熟妇| 欧美老女人第四色| 国产免费黄色片| 欧美va日韩va| 色wwwwww| 亚洲精品自产拍| 国产中文字幕在线| 中文综合在线观看| 求av网址在线观看| 久久亚洲综合国产精品99麻豆精品福利 | 中文字幕国产亚洲2019| 天天综合视频在线观看| 另类美女黄大片| 国产在线xxx| 4438全国成人免费| 欧美日韩不卡| 国产一区红桃视频| 香蕉成人app| 好吊妞www.84com只有这里才有精品 | 日韩一区二区三区四区五区六区 | 盗摄精品av一区二区三区| 美女伦理水蜜桃4| 久久夜色精品国产欧美乱极品| 蜜桃无码一区二区三区| 国产精品国产三级国产普通话蜜臀 | 日韩综合在线| 欧美在线观看黄| 亚洲一区二区动漫| 波多结衣在线观看| 国产乱码精品一区二区三区av | 精品国产欧美日韩| 在线免费观看成人网| 韩国一区二区三区在线观看| 欧美日韩在线中文| 美女www一区二区| 911亚洲精选| 久久精品人人爽人人爽| 四虎永久免费在线| 懂色av中文一区二区三区天美 | 超薄肉色丝袜脚交一区二区| 成人精品久久久| 久久夜色精品国产噜噜av小说| 日韩在线第一区| 欧美午夜在线视频| 男人亚洲天堂网| 激情欧美日韩一区二区| 国产精品无码网站| 亚洲人精品一区| 国产极品美女高潮无套嗷嗷叫酒店| 色系网站成人免费| 精品人妻无码一区二区三区蜜桃一| 亚洲美女免费精品视频在线观看| 色影视在线观看| 欧美在线国产精品| 国模大尺度视频一区二区| 欧美精品尤物在线| 欧美69视频| 亚洲污视频在线观看| 99免费精品视频| 男人与禽猛交狂配| 欧美最新大片在线看| 污视频在线免费观看| 久久婷婷国产麻豆91天堂| 欧美性xxx| 国新精品乱码一区二区三区18| 久久中文字幕av| 日韩一级在线免费观看| 成人动漫一区二区| 久久福利免费视频| 欧亚洲嫩模精品一区三区| 天堂在线免费av| 高清在线视频日韩欧美| 国产精品igao视频网网址不卡日韩| 欧美一区二区视频17c| 99香蕉国产精品偷在线观看| 超碰人人cao| 中文字幕一区二区三| 亚洲大尺度在线观看| 亚洲女在线观看| 激情黄产视频在线免费观看| 91视频免费网站| 99精品美女| 亚洲一区在线不卡| 国产欧美日韩综合精品一区二区| 日本免费观看视| 亚洲成年人影院在线| 欧美人与牲禽动交com| 97人人澡人人爽| 综合一区av| 亚洲理论中文字幕| 国产精品免费看片| 在线观看av大片| 少妇精69xxtheporn| 97成人超碰| 亚洲一区bb| 美腿丝袜一区二区三区| 日本美女bbw| 欧美色精品天天在线观看视频| 国产裸舞福利在线视频合集| 国产97色在线| 欧美一二区在线观看| 91热这里只有精品| 国产精品乱码人人做人人爱 | 中文字幕在线亚洲精品| 精品一区二区在线播放| 手机在线免费看片| 欧美一区二区精品| 国产乱码在线| 久久久精品动漫| 久久视频一区| 国产精品成人在线视频| 欧美蜜桃一区二区三区| h网站久久久| 国产乱码一区| 久久久久久夜| 2017亚洲天堂| 日韩欧美一二三| 极品在线视频| 日本精品一区二区三区高清 久久 日本精品一区二区三区不卡无字幕 | 国产一二三四区| 日韩女优电影在线观看| 白浆在线视频| 婷婷五月色综合| 国产乱码精品1区2区3区| 久久精品女人毛片国产| 亚洲精品视频播放| 91大神在线观看线路一区| 最新av在线免费观看| 成人高清av在线| 中国a一片一级一片| 超碰91人人草人人干| 欧美日韩麻豆| 69久久久久久| 亚洲v中文字幕| 搞黄视频在线观看| 亚洲一区二区三区在线视频| 一区二区三区福利| 人妻无码一区二区三区免费| 日韩欧美黄色影院| 校园春色亚洲| 国产精品一区在线免费观看| 91在线免费视频观看| 中文在线a天堂| 午夜精品三级视频福利| 日韩精品免费| 午夜久久久久久久| 欧美精品九九99久久| 午夜不卡影院| 300部国产真实乱| 国产亚洲精品7777| 国产 日韩 欧美 综合| 国产精品一久久香蕉国产线看观看| 亚洲一级特黄| 色欲人妻综合网| 在线日韩日本国产亚洲|