精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

深度學習在電商商品推薦當中的應用

人工智能 深度學習
電商行業中,對于用戶的商品推薦一直是一個非常熱門而且重要的話題,有很多比較成熟的方法,但是也各有利弊。

[[201999]]

1.常見算法套路

電商行業中,對于用戶的商品推薦一直是一個非常熱門而且重要的話題,有很多比較成熟的方法,但是也各有利弊,大致如下:

  • 基于商品相似度:比如食物A和食物B,對于它們價格、味道、保質期、品牌等維度,可以計算它們的相似程度,可以想象,我買了包子,很有可能順路帶一盒水餃回家。

優點:冷啟動,其實只要你有商品的數據,在業務初期用戶數據不多的情況下,也可以做推薦

缺點:預處理復雜,任何一件商品,維度可以說至少可以上百,如何選取合適的維度進行計算,設計到工程經驗,這些也是花錢買不到的

典型:亞馬遜早期的推薦系統

  • 基于關聯規則:最常見的就是通過用戶購買的習慣,經典的就是“啤酒尿布”的案例,但是實際運營中這種方法運用的也是最少的,首先要做關聯規則,數據量一定要充足,否則置信度太低,當數據量上升了,我們有更多優秀的方法,可以說沒有什么亮點,業內的算法有apriori、ftgrow之類的

優點:簡單易操作,上手速度快,部署起來也非常方便

缺點:需要有較多的數據,精度效果一般

典型:早期運營商的套餐推薦

  • 基于物品的協同推薦:假設物品A被小張、小明、小董買過,物品B被小紅、小麗、小晨買過,物品C被小張、小明、小李買過;直觀的看來,物品A和物品C的購買人群相似度更高(相對于物品B),現在我們可以對小董推薦物品C,小李推薦物品A,這個推薦算法比較成熟,運用的公司也比較多

優點:相對精準,結果可解釋性強,副產物可以得出商品熱門排序

缺點:計算復雜,數據存儲瓶頸,冷門物品推薦效果差

典型:早期一號店商品推薦

  • 基于用戶的協同推薦:假設用戶A買過可樂、雪碧、火鍋底料,用戶B買過衛生紙、衣服、鞋,用戶C買過火鍋、果汁、七喜;直觀上來看,用戶A和用戶C相似度更高(相對于用戶B),現在我們可以對用戶A推薦用戶C買過的其他東西,對用戶C推薦用戶A買過買過的其他東西,優缺點與基于物品的協同推薦類似,不重復了。
  • 基于模型的推薦:svd+、特征值分解等等,將用戶的購買行為的矩陣拆分成兩組權重矩陣的乘積,一組矩陣代表用戶的行為特征,一組矩陣代表商品的重要性,在用戶推薦過程中,計算該用戶在歷史訓練矩陣下的各商品的可能性進行推薦。

優點:精準,對于冷門的商品也有很不錯的推薦效果

缺點:計算量非常大,矩陣拆分的效能及能力瓶頸一直是受約束的

典型:惠普的電腦推薦

  • 基于時序的推薦:這個比較特別,在電商運用的少,在Twitter,Facebook,豆瓣運用的比較多,就是只有贊同和反對的情況下,怎么進行評論排序,詳細的可以參見我之前寫的一篇文章:應用:推薦系統-威爾遜區間法
  • 基于深度學習的推薦:現在比較火的CNN(卷積神經網絡)、RNN(循環神經網絡)、DNN(深度神經網絡)都有運用在推薦上面的例子,但是都還是試驗階段,但是有個基于word2vec的方法已經相對比較成熟,也是我們今天介紹的重點。

優點:推薦效果非常精準,所需要的基礎存儲資源較少

缺點:工程運用不成熟,模型訓練調參技巧難

典型:蘇寧易購的會員商品推薦

2.item2vec的工程引入

現在蘇寧的商品有約4億個,商品的類目有10000多組,大的品類也有近40個,如果通過傳統的協同推薦,實時計算的話,服務器成本,計算能力都是非常大的局限,之前已經有過幾篇應用介紹:基于推薦的交叉銷售基于用戶行為的推薦預估。會員研發部門因為不是主要推薦的應用部門,所以在選擇上,我們期望的是更加高效高速且相對準確的簡約版模型方式,所以我們這邊基于了word2vec的原始算法,仿造了itemNvec的方式。

首先,讓我們對itemNvec進行理論拆分:

part one:n-gram

目標商品的前后商品對目標商品的影響程度 

 

這是兩個用戶userA,userB在易購上面的消費time line,灰色方框內為我們觀察對象,試問一下,如果換一下灰色方框內的userA、userB的購買物品,直觀的可能性有多大? 

 

直觀的體驗告訴我們,這是不可能出現,或者絕對不是常出現的,所以,我們就有一個初始的假設,對于某些用戶在特定的類目下,用戶的消費行為是連續影響的,換句話說,就是我買了什么東西是依賴我之前買過什么東西。如何通過算法語言解釋上面說的這件事呢?

大家回想一下,naive bayes做垃圾郵件分類的時候是怎么做的?

假設“我公司可以提供發票、軍火出售、航母維修”這句話是不是垃圾郵件?

  1. P1(“垃圾郵件”|“我公司可以提供發票、軍火出售、航母維修”) 
  2. =p(“垃圾郵件”)p(“我公司可以提供發票、軍火出售、航母維修”/“垃圾郵件”)/p(“我公司可以提供發票、軍火出售、航母維修”) 
  3. =p(“垃圾郵件”)p(“發票”,“軍火”,“航母”/“垃圾郵件”)/p(“發票”,“軍火”,“航母”)  

同理

  1. P2(“正常郵件”|“我公司可以提供發票、軍火出售、航母維修”) 
  2. =p(“正常郵件”)p(“發票”,“軍火”,“航母”/“正常郵件”)/p(“發票”,“軍火”,“航母”)  

我們只需要比較p1和p2的大小即可,在條件獨立的情況下可以直接寫成:

  1. P1(“垃圾郵件”|“我公司可以提供發票、軍火出售、航母維修”) 
  2. =p(“垃圾郵件”)p(“發票”/“垃圾郵件”)p(“軍火”/“垃圾郵件”)p(“航母”/“垃圾郵件”) 
  3. P2(“正常郵件”|“我公司可以提供發票、軍火出售、航母維修”) 
  4. =p(“正常郵件”)p(“發票”/“正常郵件”)p(“軍火”/“正常郵件”)p(“航母”/“正常郵件”)  

但是,我們看到,無論“我公司可以提供發票、軍火出售、航母維修”詞語的順序怎么變化,不影響它最后的結果判定,但是我們這邊的需求里面前面買的東西對后項的影響會更大。

冰箱=>洗衣機=>衣柜=>電視=>汽水,這樣的下單流程合理

冰箱=>洗衣機=>汽水=>電視=>衣柜,這樣的下單流程相對來講可能性會更低

但是對于naive bayes,它們是一致的。

所以,我們這邊考慮順序,還是上面那個垃圾郵件的問題。

  1. P1(“垃圾郵件”|“我公司可以提供發票、軍火出售、航母維修”) 
  2. =p(“垃圾郵件”)p(“發票”)p(“軍火”/“發票”)p(“軍火”/“航母”) 
  3. P1(“正常郵件”|“我公司可以提供發票、軍火出售、航母維修”) 
  4. =p(“正常郵件”)p(“發票”)p(“軍火”/“發票”)p(“軍火”/“航母”)  

這邊我們每個詞只依賴前一個詞,理論上講依賴1-3個詞通常都是可接受的。以上的考慮順序的bayes就是基于著名的馬爾科夫假設(Markov Assumption):下一個詞的出現僅依賴于它前面的一個或幾個詞下的聯合概率問題,相關詳細的理論數學公式就不給出了,這邊這涉及一個思想。

part two:Huffman Coding

更大的數據存儲形式

我們常用的user到item的映射是通過one hot encoding的形式去實現的,這有一個非常大的弊端就是數據存儲系數且維度災難可能性極大。

回到最初的那組數據:現在蘇寧的商品有約4億個,商品的類目有10000多組,大的品類也有近40個,同時現在會員數目達到3億,要是需要建造一個用戶商品對應的購買關系矩陣做基于用戶的協同推薦的話,我們需要做一個4億X6億的1/0矩陣,這個是幾乎不可能的,Huffman采取了一個近似二叉樹的形式進行存儲:

我們以易購商品購買量為例,講解一下如何以二叉樹的形式替換one hot encoding存儲方式:

假設,818蘇寧大促期間,經過統計,有冰箱=>洗衣機=>烘干機=>電視=>衣柜=>鉆石的用戶下單鏈條(及購買物品順序如上),其中冰箱總售出15萬臺,洗衣機總售出8萬臺,烘干機總售出6萬臺,電視總售出5萬臺,衣柜總售出3萬臺,鉆石總售出1萬顆 

 

Huffman樹構造過程

1.給定{15,8,6,5,3,1}為二叉樹的節點,每個樹僅有一個節點,那就存在6顆單獨的樹

2.選擇節點權重值最小的兩顆樹進行合并也就是{3}、{1},合并后計算新權重3+1=4

3.將{3},{1}樹從節點列表刪除,將3+1=4的新組合樹放回原節點列表

4.重新進行2-3,直到只剩一棵樹為止

 

針對每層每次分支過程,我們可以將所有權重大的節點看做是1,權重小的節點看做是0,相反亦可。現在,我們比如需要知道鉆石的code,就是1000,也就是灰色方框的位置,洗衣機的code就是111;這樣的存儲利用了0/1的存儲方式,也同時考慮了組合位置的排列長度,節省了數據的存儲空間。

part three:node probility

最大化當前數據出現可能的概率密度函數

對于鉆石的位置而言,它的Huffman code是1000,那就意味著在每一次二叉選擇的時候,它需要一次被分到1,三次被分到0,而且每次分的過程中,只有1/0可以選擇,這是不是和logistic regression里面的0/1分類相似,所以這邊我們也直接使用了lr里面的交叉熵來作為loss function。

其實對于很多機器學習的算法而言,都是按照先假定一個模型,再構造一個損失函數,通過數據來訓練損失函數求argmin(損失函數)的參數,放回到原模型。

讓我們詳細的看這個鉆石這個例子:

 

第一步

p(1|No.1層未知參數)=sigmoid(No.1層未知參數)

 

第二步

  1. p(0|No.2層未知參數)=sigmoid(No.2層未知參數) 

同理,第三第四層:

  1. p(0|No.3層未知參數)=sigmoid(No.3層未知參數) 
  2.  
  3. p(0|No.4層未知參數)=sigmoid(No.4層未知參數)  

然后求p(1|No.1層未知參數)xp(0|No.2層未知參數)xp(0|No.3層未知參數)xp(0|No.4層未知參數)最大下對應的每層的未知參數即可,求解方式與logistic求解方式近似,未知參數分布偏導,后續采用梯度下降的方式(極大、批量、牛頓按需使用)

part four:approximate nerual network

商品的相似度

剛才在part three里面有個p(1|No.1層未知參數)這個邏輯,這個NO.1層未知參數里面有一個就是商品向量。

舉個例子:

存在1000萬個用戶有過:“啤酒=>西瓜=>剃須刀=>百事可樂”的商品購買順序

10萬個用戶有過:“啤酒=>蘋果=>剃須刀=>百事可樂”的商品購買順序,如果按照傳統的概率模型比如navie bayes 或者n-gram來看,P(啤酒=>西瓜=>剃須刀=>百事可樂)>>p(啤酒=>蘋果=>剃須刀=>百事可樂),但是實際上這兩者的人群應該是同一波人,他們的屬性特征一定會是一樣的才對。

我們這邊通過了隨機初始化每個商品的特征向量,然后通過part three的概率模型去訓練,最后確定了詞向量的大小。除此之外,還可以通過神經網絡算法去做這樣的事情。

 

Bengio 等人在 2001 年發表在 NIPS 上的文章《A Neural Probabilistic Language Model》介紹了詳細的方法。

我們這邊需要知道的就是,對于最小維度商品,我們以商品向量(0.8213,0.8232,0.6613,0.1234,…)的形式替代了0-1點(0,0,0,0,0,1,0,0,0,0…),單個的商品向量無意義,但是成對的商品向量我們就可以比較他們間的余弦相似度,就可以比較類目的相似度,甚至品類的相似度。

3.python代碼實現

1.數據讀取

  1. # -*- coding:utf-8 -*- 
  2. import pandas as pd 
  3. import numpy as np 
  4. import matplotlib as mt 
  5. from gensim.models import word2vec 
  6. from sklearn.model_selection import train_test_split 
  7.  
  8. order_data = pd.read_table('C:/Users/17031877/Desktop/SuNing/cross_sell_data_tmp1.txt'
  9. dealed_data = order_data.drop('member_id', axis=1) 
  10. dealed_data = pd.DataFrame(dealed_data).fillna(value='' 

2.簡單的數據合并整理

  1. # 數據合并 
  2. dealed_data = dealed_data['top10'] + [" "] + dealed_data['top9'] + [" "] + dealed_data['top8'] + [" "] + \ 
  3.               dealed_data['top7'] + [" "] + dealed_data['top6'] + [" "] + dealed_data['top5'] + [" "] + dealed_data[ 
  4.                   'top4'] + [" "] + dealed_data['top3'] + [" "] + dealed_data['top2'] + [" "] + dealed_data['top1'
  5.  
  6. # 數據分列 
  7. dealed_data = [s.encode('utf-8').split() for s in dealed_data] 
  8.  
  9. # 數據拆分 
  10. train_data, test_data = train_test_split(dealed_data, test_size=0.3, random_state=42)  

3.模型訓練

  1. # 原始數據訓練 
  2. # sg=1,skipgram;sg=0,SBOW 
  3. # hs=1:hierarchical softmax,huffmantree 
  4. # nagative = 0 非負采樣 
  5. model = word2vec.Word2Vec(train_data, sg=1, min_count=10, window=2, hs=1, negative=0)  

接下來就是用model來訓練得到我們的推薦商品,這邊有三個思路,可以根據具體的業務需求和實際數據量來選擇:

3.1 相似商品映射表

  1. # 最后一次瀏覽商品最相似的商品組top3 
  2. x = 1000 
  3. result = [] 
  4. result = pd.DataFrame(result) 
  5. for i in range(x): 
  6.     test_data_split = [s.encode('utf-8').split() for s in test_data[i]] 
  7.     k = len(test_data_split) 
  8.     last_one = test_data_split[k - 1] 
  9.     last_one_recommended = model.most_similar(last_one, topn=3) 
  10.     tmp = last_one_recommended[0] + last_one_recommended[1] + last_one_recommended[2] 
  11.     last_one_recommended = pd.concat([pd.DataFrame(last_one), pd.DataFrame(np.array(tmp))], axis=0) 
  12.     last_one_recommended = last_one_recommended.T 
  13.     result = pd.concat([pd.DataFrame(last_one_recommended), result], axis=0)  

考慮用戶最后一次操作的關注物品x,干掉那些已經被用戶購買的商品,剩下的商品表示用戶依舊有興趣但是因為沒找到合適的或者便宜的商品,通過商品向量之間的相似度,可以直接計算出,與其高度相似的商品推薦給用戶。

3.2 最大可能購買商品

根據歷史上用戶依舊購買的商品順序,判斷根據當前這個目標用戶近期買的商品,接下來他最有可能買什么?

比如歷史數據告訴我們,購買了手機+電腦的用戶,后一周內最大可能會購買背包,那我們就針對那些近期購買了電腦+手機的用戶去推送電腦包的商品給他,刺激他的潛在規律需求。

  1. # 向量庫 
  2. rbind_data = pd.concat( 
  3.     [order_data['top1'], order_data['top2'], order_data['top3'], order_data['top4'], order_data['top5'], 
  4.      order_data['top6'], order_data['top7'], order_data['top8'], order_data['top9'], order_data['top10']], axis=0) 
  5. x = 50 
  6. start = [] 
  7. output = [] 
  8. score_final = [] 
  9. for i in range(x): 
  10.     score = np.array(-100000000000000) 
  11.     name = np.array(-100000000000000) 
  12.     newscore = np.array(-100000000000000) 
  13.     tmp = test_data[i] 
  14.     k = len(tmp) 
  15.     last_one = tmp[k - 2] 
  16.     tmp = tmp[0:(k - 1)] 
  17.     for j in range(number): 
  18.         tmp1 = tmp[:] 
  19.         target = rbind_data_level[j] 
  20.         tmp1.append(target) 
  21.         test_data_split = [tmp1] 
  22.         newscore = model.score(test_data_split) 
  23.         if newscore > score: 
  24.             score = newscore 
  25.             name = tmp1[len(tmp1) - 1] 
  26.         else
  27.             pass 
  28.     start.append(last_one) 
  29.     output.append(name
  30.     score_final.append(score)  

3.3 聯想記憶推薦

在3.2中,我們根據了這個用戶近期購買行為,從歷史已購用戶的購買行為數據發現規律,提供推薦的商品。還有一個近似的邏輯,就是通過目標用戶最近一次的購買商品進行推測,參考的是歷史用戶的單次購買附近的數據,詳細如下:

 

這個實現也非常的簡單,這邊代碼我自己也沒有寫,就不貼了,采用的還是word2vec里面的predict_output_word(context_words_list, topn=10),Report the probability distribution of the center word given the context words as input to the trained model

其實,這邊詳細做起來還是比較復雜的,我這邊也是簡單的貼了一些思路,如果有不明白的可以私信我,就這樣,最后,謝謝閱讀。 

責任編輯:龐桂玉 來源: 36大數據
相關推薦

2017-09-08 09:47:06

深度學習應用實踐

2018-01-04 23:33:14

淘寶強化學習電商環境

2023-08-22 15:37:45

深度學習人工智能

2025-09-10 07:36:05

2015-05-26 10:27:17

大數據分析電商平臺應用

2017-09-06 14:56:09

深度學習CTR應用

2018-06-12 16:24:25

人工智能電商搜索

2017-02-20 19:23:13

2016-12-01 17:52:00

人臉技術電商實踐

2024-09-19 08:18:07

2012-08-27 10:56:41

2017-08-01 09:37:00

深度學習美團機器學習

2017-09-21 12:29:58

深度學習TensorFlow智能終端

2017-04-10 16:15:55

人工智能深度學習應用

2022-08-31 10:04:28

模型算法

2018-03-14 08:10:44

深度學習

2022-12-30 15:35:30

智慧醫療人工智能

2022-09-19 09:53:37

機器學習實踐

2017-11-27 08:59:43

2016-08-18 23:37:24

點贊
收藏

51CTO技術棧公眾號

精品国产亚洲一区二区三区在线观看| 国产精品亲子乱子伦xxxx裸| 午夜精品久久久久久久白皮肤| 精品国产av色一区二区深夜久久| 天堂√8在线中文| 国产日韩欧美精品综合| 亚洲自拍小视频免费观看| 久久久久99精品| 精品美女在线视频| 日韩一区二区在线观看视频 | 天堂在线视频观看| 久久久久久穴| 欧美黑人视频一区| 丁香激情五月少妇| 澳门精品久久国产| 欧美日韩色综合| 中文字幕无码精品亚洲资源网久久| 日韩精品福利| 美女免费视频一区| 91产国在线观看动作片喷水| 日本二区三区视频| 亚洲国产网址| 欧美成人伊人久久综合网| 成人免费xxxxx在线视频| 顶级网黄在线播放| 国产精品色一区二区三区| 国产精品欧美久久| 国产又粗又猛又爽又黄91| 另类av一区二区| 久久久久国产视频| 日本黄色免费片| 俺要去色综合狠狠| 日韩av有码在线| 韩国三级在线看| 日本一区二区三区中文字幕 | 久久九九国产精品怡红院| www.日本高清| 日韩在线观看中文字幕| 欧美视频一区二区三区| 国模无码视频一区二区三区| 午夜成年人在线免费视频| 国产精品卡一卡二卡三| 欧美日韩在线观看一区二区三区| 人妻少妇一区二区三区| 国产成人av一区二区三区在线 | 亚洲国产欧美在线观看| 欧美精品1区2区3区| 日本人视频jizz页码69| 午夜精品成人av| 色综合久久久久综合体| 婷婷五月综合缴情在线视频| 欧美14一18处毛片| 亚洲一区二区在线播放相泽| 欧美性受黑人性爽| 哥也色在线视频| 中文字幕视频一区| 在线观看福利一区| 在线播放麻豆| 国产精品久久久久婷婷| 亚洲午夜精品一区二区| 成人精品一区二区三区校园激情 | 精品国产亚洲一区二区三区在线观看| 国产91在线免费观看| 国内不卡的一区二区三区中文字幕| 欧美日本乱大交xxxxx| 国产成年人视频网站| 欧美系列精品| 91精品中文字幕一区二区三区| 色一情一区二区三区| 成人黄色91| 欧美不卡一区二区三区四区| 亚洲熟女一区二区| 欧美久久精品| 亚洲少妇中文在线| 亚洲一级理论片| 1024精品久久久久久久久| 久久久国产视频| 久久久久99精品成人片毛片| 99riav国产精品| 日韩免费在线看| 亚洲天堂男人网| 国产精品白丝av| 国产精品一区二区在线观看| 四虎国产精品永远| 国产日产精品1区| 永久久久久久| 国产污视频在线播放| 在线看一区二区| 最新av免费在线观看| 都市激情亚洲| 国产一区二区三区三区在线观看| 免费黄色国产视频| 国模一区二区三区| 国产精品精品视频一区二区三区| 国产美女免费视频| 91欧美一区二区| 天堂资源在线亚洲视频| av网址在线| 欧美性xxxxhd| 人妻换人妻仑乱| 亚洲精品国产精品粉嫩| 播播国产欧美激情| 青草视频在线观看免费| 黄页网站大全一区二区| 蜜桃精品久久久久久久免费影院| 麻豆传媒视频在线观看| 欧美午夜激情视频| 日韩欧美中文视频| 久久最新网址| 久久久久久久久久久国产| 欧美性受xxx黑人xyx性爽| 国产成人在线视频网站| 日本中文不卡| 国产理论在线| 日韩视频国产视频| 毛片aaaaaa| 一本久道久久久| 91成人免费在线观看| 搞黄视频在线观看| 精品成人av一区| 又黄又爽又色的视频| jvid福利在线一区二区| 国内精品小视频| aaa国产视频| 欧美激情在线免费观看| 妞干网在线视频观看| 成人免费91| 在线精品91av| 色一情一乱一伦| av一区二区三区| 日韩不卡视频一区二区| 婷婷丁香久久| 国产亚洲在线播放| 成人毛片在线播放| av午夜一区麻豆| 成人免费毛片在线观看| 麻豆国产一区| 久久久99久久精品女同性| 欧美brazzers| 久久精品男人天堂av| 一本大道熟女人妻中文字幕在线 | 精品国产91九色蝌蚪| 911国产在线| 奇米一区二区三区av| 女女同性女同一区二区三区91| 国产一线二线在线观看| 精品美女在线播放| 黄色一级视频免费| 国产美女主播视频一区| 天天干天天色天天爽| 狂野欧美性猛交xxxx| 国产香蕉精品视频一区二区三区 | 青青青视频在线免费观看| 日韩不卡一区二区| 日本一区二区精品| 国产韩日精品| 亚洲午夜色婷婷在线| 日韩欧美国产另类| 国产精品久久久久aaaa樱花| 国产成人黄色网址| 婷婷色综合网| 99re热精品| 日韩欧美精品一区二区三区| 亚洲欧美中文日韩在线| 亚洲精品国产精品国自产网站按摩 | 91国偷自产一区二区三区成为亚洲经典 | 日韩1区2区| 国产精品美女在线| 黄色一级片在线观看| 日韩三级在线免费观看| 国产成人无码aa精品一区| 成人一区在线看| 亚洲 高清 成人 动漫| 国产欧美一区| 国产精品直播网红| www在线免费观看视频| 精品免费一区二区三区| av图片在线观看| 中文av一区二区| 日本成人xxx| 一区二区三区高清视频在线观看| 欧美12av| 国内精品视频| 欧洲永久精品大片ww免费漫画| 成人性生交大片免费看午夜| 日韩视频123| 九九精品免费视频| 中国av一区二区三区| 中国男女全黄大片| 日韩精品国产欧美| 菠萝蜜视频在线观看入口| 三级小说欧洲区亚洲区| 国产精品久久一| gogo高清在线播放免费| 国产亚洲综合久久| 亚洲精品久久久久久动漫器材一区 | 免费看特级毛片| 岛国一区二区在线观看| 高清欧美精品xxxxx| 日韩大片在线播放| 国产一区免费在线观看| 久久精品xxxxx| 91av在线播放视频| 国产在线观看91| 亚洲免费一在线| www.天堂在线| 欧美在线播放高清精品| 日韩精品一卡二卡| 亚洲三级理论片| 一区二区三区久久久久| 国产成人鲁色资源国产91色综| 国产超级av在线| 午夜欧美精品| 亚洲欧洲国产精品久久| 偷拍视屏一区| 福利视频久久| gogo大尺度成人免费视频| 日韩av快播网址| 不卡av免费观看| 久久综合色影院| 成人免费一区二区三区视频网站| 亚洲国产精品字幕| 亚洲成人一级片| 欧美日韩三级视频| 无码aⅴ精品一区二区三区| 亚洲3atv精品一区二区三区| 97在线观看视频免费| 国产日产欧产精品推荐色| 欧美做受喷浆在线观看| 成人小视频在线观看| 69久久精品无码一区二区| 另类的小说在线视频另类成人小视频在线| 欧美网站免费观看| 亚洲一区免费| 日韩国产一级片| 精品动漫3d一区二区三区免费版| 欧美日韩亚洲国产成人| 97国产精品| 亚洲人成网站在线观看播放| 国产一区二区三区四区五区传媒| 九九九热999| 色天下一区二区三区| 精品欧美一区二区精品久久| 久久男人av| 国产伦精品一区二区三区照片91| 草草视频在线一区二区| 国产aⅴ精品一区二区三区黄| 九九99久久精品在免费线bt| 亚洲一区二区三区成人在线视频精品| 国产成人a视频高清在线观看| 国产精品久久久久久久一区探花 | 激情久久久久久| 久草免费福利在线| 99国产精品| 久久亚洲中文字幕无码| 亚洲黄色三级| 免费成人在线视频网站| 久久精品一区二区国产| 男女视频一区二区三区| 免费高清不卡av| 亚洲第一区第二区第三区| 久久福利视频一区二区| 一级黄色在线播放| 国产xxx精品视频大全| 人妻 丝袜美腿 中文字幕| 成a人片国产精品| 欧美成人三级伦在线观看| 91丝袜国产在线播放| 欧美做受xxxxxⅹ性视频| 欧美激情一区二区三区不卡 | 可以看的av网址| 丁香六月久久综合狠狠色| 亚洲第一黄色网址| 中文字幕欧美激情| 内射一区二区三区| 香蕉成人啪国产精品视频综合网| 一级黄色大片视频| 欧美日韩国产一区| 国模私拍视频在线| 一区二区欧美久久| 在线不卡日本v二区707| 97视频国产在线| 欧美亚洲黄色| 激情小说综合网| 日韩欧美精品一区| www.国产在线视频| 丝袜美腿亚洲综合| 黑人性生活视频| 久久女同性恋中文字幕| www.97视频| 日韩欧美国产骚| av av片在线看| 国产亚洲精品久久久久久777| caopo在线| 国产福利视频一区| 亚洲电影一区| 亚洲成人一区二区三区| 黄色成人91| 日本黄大片一区二区三区| 国产suv精品一区二区三区| 日本少妇高潮喷水xxxxxxx| 亚洲精品久久嫩草网站秘色| 久久精品性爱视频| 在线不卡中文字幕| 欧美成熟毛茸茸| 免费成人你懂的| 国产精品444| 精品视频成人| 涩涩日韩在线| 99亚洲视频| 女教师高潮黄又色视频| 欧美国产日韩亚洲一区| 日韩黄色精品视频| 日韩亚洲欧美一区| 淫片在线观看| 国产z一区二区三区| 精品国产影院| 热久久最新网址| 久久爱www久久做| av男人的天堂av| 欧美日韩亚洲天堂| 开心激情综合网| 九九热这里只有精品免费看| 国内欧美日韩| 日本一区二区三区视频在线播放| 亚洲精品乱码| 精品一区二区三区四区五区六区| 亚洲女与黑人做爰| 亚洲综合免费视频| 在线观看久久久久久| 一根才成人网| 精品国产乱码久久久久久丨区2区| 综合激情一区| 国产黄色一区二区三区| 日韩一区在线播放| 国产精品国产精品国产专区| 在线观看亚洲视频| 成人日韩在线观看| 日本成人三级电影网站| 美日韩精品视频| 蜜桃传媒一区二区亚洲av| 精品人伦一区二区三区蜜桃免费| 开心激情综合网| 91av在线网站| 免费国产自久久久久三四区久久| 欧美 日韩 国产一区| 久久亚洲综合色一区二区三区| 国产一级精品视频| 日韩成人在线观看| 欧美日韩免费看片| 日本一区不卡| 麻豆精品久久久| 紧身裙女教师波多野结衣| 欧美一区二区视频在线观看2020 | 国产国语亲子伦亲子| 欧美美最猛性xxxxxx| 亚洲成人黄色| 国产素人在线观看| 久久综合国产精品| 波多野结衣高清在线| 日韩在线观看av| 免费一级欧美片在线观看网站| 国产肉体ⅹxxx137大胆| a在线播放不卡| 精品人妻一区二区三区潮喷在线 | 国产综合色一区二区三区| 影音先锋久久精品| 极品白嫩丰满美女无套| 欧美伊人久久久久久午夜久久久久| 第九色区av在线| 91亚洲va在线va天堂va国 | 男人的天堂日韩| 国产精品色婷婷| 亚洲av综合色区无码一区爱av| 97精品在线视频| 欧美亚洲精品在线| 久久撸在线视频| 亚洲无线码一区二区三区| 日本护士...精品国| 国产精品美女免费| 午夜国产精品视频| 欧美bbbbb性bbbbb视频| 欧美视频一区二区| 黑人另类精品××××性爽| 美国av一区二区三区| 久久电影网站中文字幕| 国产第一页在线播放| 亚洲色图av在线| 日韩欧美久久| 久久久久久三级| 亚洲国产视频在线| 91最新在线| 国产免费高清一区| 精品一区精品二区高清| 丰满少妇乱子伦精品看片| 久久精品国产清自在天天线| 日本欧美韩国国产| 欧美一区二区三区影院| 欧美性色黄大片手机版| 激情aⅴ欧美一区二区欲海潮|