精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

高效大數據開發之 bitmap 思想的應用

企業動態
數據倉庫的數據統計,可以歸納為三類:增量類、累計類、留存類。而累計類又分為歷史至今的累計與最近一段時間內的累計(比如滾動月活躍天,滾動周活躍天,最近 N 天消費情況等),借助 bitmap 思想統計的模型表可以快速統計最近一段時間內的累計類與留存類。

[[341108]]

作者:xmxiong,PCG 運營開發工程師

數據倉庫的數據統計,可以歸納為三類:增量類、累計類、留存類。而累計類又分為歷史至今的累計與最近一段時間內的累計(比如滾動月活躍天,滾動周活躍天,最近 N 天消費情況等),借助 bitmap 思想統計的模型表可以快速統計最近一段時間內的累計類與留存類。

一、背景

數據倉庫的數據統計,可以歸納為三類:增量類、累計類、留存類。而累計類又分為歷史至今的累計與最近一段時間內的累計(比如滾動月活躍天,滾動周活躍天,最近 N 天消費情況等),借助 bitmap 思想統計的模型表可以快速統計最近一段時間內的累計類與留存類。

二、業務場景

我們先來看幾個最近一段時間內的累計類與留存類的具體業務問題,作為做大數據的你建議先不要急著往下閱讀,認真思考一下你的實現方案:

1.統計最近 30 天用戶的累計活躍天(每個用戶在 30 天里有 N 天使用微視 app,N 為 1-30,然后將月活躍用戶的 N 天加總)?

2.統計最近 7 天的用戶累計使用時長?

3.統計最近 30 天有播放的累計用戶數?

4.統計最近 30 天活躍用戶有多少在最近 30 天里有連續 3 天及以上活躍?

5.統計 28 天前活躍用戶的 1、3、7、14、28 天留存率?

三、傳統解決方案

在進入本文真正主題之前,我們先來看看常規的解決思路:1.統計最近 30 天用戶的累計活躍天?

  1. --用dau表(用戶ID唯一),取最近30天分區,sum(活躍日期)。 
  2. select 
  3.     sum(imp_date) active_date 
  4.   from 
  5.     weishi_dau_active_table 
  6.   where 
  7.     imp_date>=20200701 
  8.     and imp_date<=20200730 

2.統計最近 7 天的用戶累計使用時長?

  1. --用dau表(用戶ID唯一),取最近7天分區,sum(使用時長)。 
  2. select 
  3.     sum(log_time) log_time 
  4.   from 
  5.     weishi_dau_active_table 
  6.   where 
  7.     imp_date>=20200701 
  8.     and imp_date<=20200707 

3.統計最近 30 天有播放的累計用戶數?

  1. --用用戶播放表(用戶ID唯一),取最近30天分區,count(distinct if(播放次數>0,用戶ID,null))。 
  2. select 
  3.     count(distinct if(play_vv_begin>0,qimei,null)) play_user 
  4.   from 
  5.     weishi_play_active_table 
  6.   where 
  7.     imp_date>=20200701 
  8.     and imp_date<=20200730 

4.統計最近 30 天活躍用戶有多少在最近 30 天里有連續 3 天及以上活躍?

  1. --用dau表(用戶ID唯一),取最近30天分區,關聯兩次最近30天分區,關聯條件右表分別為imp_date-1,imp_date-2。 
  2. select 
  3.     count(distinct a.qimei) active_num 
  4.   from 
  5.   ( select 
  6.         imp_date 
  7.         ,qimei 
  8.       from 
  9.         weishi_dau_active_table 
  10.       where 
  11.         imp_date>=20200701 
  12.         and imp_date<=20200730 
  13.    )a 
  14.   join --第一次join,先取出連續2天的用戶,因為7月1日用戶與7月2號-1天關聯得上,表示一個用戶在1號和2號都活躍 
  15.   ( select 
  16.         date_sub(imp_date,1) imp_date 
  17.         ,qimei 
  18.       from 
  19.         weishi_dau_active_table 
  20.       where 
  21.         imp_date>=20200701 
  22.         and imp_date<=20200730 
  23.    )b 
  24.    on 
  25.     a.imp_date=b.imp_date 
  26.     and a.qimei=b.qimei 
  27.   join --第二次join,取出連續3天的用戶,因為第一次join已經取出連續兩天活躍的用戶了,再拿這些7月1日用戶關聯7月3日-2天關聯得上,表示一個用戶在1號和3號都活躍,結合第一步join得出用戶至少3天連續活躍了 
  28.   ( select 
  29.         date_sub(imp_date,2) imp_date 
  30.         ,qimei 
  31.       from 
  32.         weishi_dau_active_table 
  33.       where 
  34.         imp_date>=20200701 
  35.         and imp_date<=20200730 
  36.    )c 
  37.    on 
  38.     a.imp_date=c.imp_date 
  39.     and a.qimei=c.qimei 

當然這里也可以用窗口函數 lead 來實現,通過求每個用戶后 1 條日期與后 2 條日期,再拿這兩個日期分布 datediff 當前日期是否為日期相差 1 且相差 2 來判斷是否 3 天以上活躍,但是這個方法也還是避免不了拿 30 天分區統計,統計更多天連續活躍時的擴展性不好的情況 5.統計 28 天前活躍用戶的 1、3、7、14、28 天留存率?

  1. --用dau表(用戶ID唯一),取統計天的活躍用戶 left join 1、3、7、14、28天后的活躍用戶,關聯得上則說明對應天有留存。 
  2. select 
  3.     '20200701' imp_date 
  4.     ,count(distinct if(date_sub=1,b.qimei,null))/count(distinct a.qimei) 1d_retain_rate 
  5.     ,count(distinct if(date_sub=3,b.qimei,null))/count(distinct a.qimei) 3d_retain_rate 
  6.     ,count(distinct if(date_sub=7,b.qimei,null))/count(distinct a.qimei) 7d_retain_rate 
  7.     ,count(distinct if(date_sub=14,b.qimei,null))/count(distinct a.qimei) 14d_retain_rate 
  8.     ,count(distinct if(date_sub=28,b.qimei,null))/count(distinct a.qimei) 28d_retain_rate 
  9.   from 
  10.     weishi_dau_active_table partition (p_20200701)a 
  11.   left join 
  12.   ( select 
  13.         datediff(imp_date,'20200701') date_sub 
  14.         ,qimei 
  15.       from 
  16.         weishi_dau_active_table 
  17.       where 
  18.         datediff(imp_date,'20200701'in (1,3,7,14,28) 
  19.    )b 
  20.    on 
  21.     a.qimeib=b.qimei 

四、傳統解決方案存在的問題

1.每天大量中間數據重復計算,比如昨天最近 30 天是 8 月 1 日~ 8 月 30 日,今天最近 30 天為 8 月 2 日~ 8 月 31 日,中間 8 月 2 日~ 8 月 30 日就重復計算了。

2.統計邏輯復雜,類似業務場景 4,困難點在于統計每一天活躍的用戶第二天是否還繼續活躍。

3.耗費集群資源大,場景 4 和場景 5 都用到了 join 操作,場景 4 還不止一個 join,join 操作涉及 shuffle 操作,shuffle 操作需要大量的網絡 IO 操作,因此在集群中是比較耗性能的,我們應該盡量避免執行這樣的操作。

4.以上統計邏輯可擴展性差,由于數據分析經常進行探索性分析,上面傳統方案能解決上面幾個問題,但是數據分析稍微改變一下需求,就得重新開發,例如增加一個 15 天留存,或者統計最近 2 周的活躍天等。

五、bitmap 原理

上面的業務場景能否在一個模型表很簡單就能統計出,且不需要數據重復計算,也不需要 join 操作,還能滿足數據分析更多指標探索分析呢?答案是肯定的,可以借助 bitmap 思想。

何為 bitmap?bitmap 就是用一個 bit 位來標記某個元素,而數組下標是該元素,該元素是否存在時用 bit 位的 1,0 表示。比如 10 億個 int 類型的數,如果用 int 數組存儲的話,那么需要大約 4G 內存,當我們用 int 類型來模擬 bitmap 時,一個 int 4 個字節共 4*8 = 32 位,可以表示 32 個數,原來 10 億個 int 類型的數用 bitmap 只需要 4GB / 32 = 128 MB 的內存。

 

六、具體實現過程

大數據開發參考 bitmap 思想,就是參考其通過數組下標表示該元素的思想,將最近 31 天活躍用戶是否活躍用逗號分隔的 0 1 串存儲下來,將最近 31 天的播放 vv、贊轉評等消費數也用逗號分隔的具體數值存儲下來,形成一個字符數組,數組每一個下標表示距離最新一天數據的天數差值,第一位下標為 0,表示距離今天最新一天數據間隔為 0 天,如下所示:

 

active_date_set 表示 31 天活躍集,0 表示對應下標(距離今天的 N 天前)不活躍,1 表示活躍;這個數據是 8 月 23 日統計的,1,0,0,1,…… 即用戶在 8 月 23 日,8 月 20 日有活躍,8 月 22 日,8 月 21 日并沒有活躍。play_vv_begin_set 表示 31 天播放 vv 集,0 表示對應下標(距離今天的 N 天前)沒有播放視頻,正整數表示當天的播放視頻次數;這里用戶雖然在 8 月 23 日,8 月 20 日有活躍,但是該用戶一天只播放了一次視頻就離開微視了。這樣做的好處一方面也是大大壓縮了存儲,極端狀態下用戶 31 天都來,那么就可以將 31 行記錄壓縮在一行存儲。

假如 1 天活躍用戶 1 億,且這些用戶 31 天都活躍,那么就可以將 31 億行記錄壓縮在 1 億行里,當然實際不會出現這樣的情況,因為會有一部分老用戶流失,一部分新用戶加入,按照目前微視的統計可以節省 80%多的存儲;另一方面可以更簡單快捷地統計每個用戶最近一個月在微視的活躍與播放、消費(贊轉評)等情況。

該模型表的詳細實現過程如下:

1.該模型表的前 31 天需要初始化一個集合,將第一天的數據寫到該表,然后一天一天滾動壘起來,累計 31 天之后就得到這個可用的集合表了,也就可以例行化跑下去。

2.最新一天需要統計時,需要拿前一天的集合表,剔除掉相對今天來說第 31 天前的數據,然后每個集合字段將最后一位刪除掉 。

3.拿最新一天的增量數據(下面用 A 表替代) full join 第 2 步處理后的前一天表(下面用 B 表替代)關聯。

這里有三種情況需要處理:

a.既出現在 A 表,也出現在 B 表,這種情況,只需直接拼接 A 表的最新值與 B 表的數組集即可(在微視里就是最近 30 天用戶有活躍,且在最新一天有留存);

b.只出現在 B 表(在微視里是最近 30 天活躍的用戶在最新一天沒留存),這時需要拿 “0,” 拼接一個 B 表的數組集,“0,” 放在第一位;

c.只出現在 A 表(在微視里是新用戶或者 31 天前活躍的回流用戶),這時需要拿 “1,”拼接一個 30 位長的默認數組集 “0,0,0,…,0,0” ,“1,” 放在第一位。經過如此幾步,就可以生成最新一天的集合表了,具體脫敏代碼如下:

  1. select 
  2.     20200823 imp_date 
  3.     ,nvl(a.qimei,b.qimei) qimei 
  4.     ,case 
  5.        when a.qimei=b.qimei then concat(b.active_date_set,',',a.active_date_set) 
  6.        when b.qimei is null then concat('0,',a.active_date_set) 
  7.        when a.qimei is null then concat(b.active_date_set,',0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0'
  8.       end active_date_set 
  9.     ,case 
  10.        when a.qimei=b.qimei then concat(b.log_num_set,',',a.log_num_set) 
  11.        when b.qimei is null then concat('0,',a.log_num_set) 
  12.        when a.qimei is null then concat(b.log_num_set,',0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0'
  13.       end log_num_set 
  14.     ,case 
  15.        when a.qimei=b.qimei then concat(b.log_time_set,',',a.log_time_set) 
  16.        when b.qimei is null then concat('0,',a.log_time_set) 
  17.        when a.qimei is null then concat(b.log_time_set,',0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0'
  18.       end log_time_set 
  19.     ,case 
  20.        when a.qimei=b.qimei then concat(b.play_vv_begin_set,',',a.play_vv_begin_set) 
  21.        when b.qimei is null then concat('0,',a.play_vv_begin_set) 
  22.        when a.qimei is null then concat(b.play_vv_begin_set,',0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0'
  23.       end play_vv_begin_set 
  24.   from 
  25.   ( select 
  26.         qimei 
  27.         ,substr(active_date_set,1,instr(active_date_set,',',1,30)-1) active_date_set 
  28.         ,substr(log_num_set,1,instr(log_num_set,',',1,30)-1) log_num_set 
  29.         ,substr(log_time_set,1,instr(log_time_set,',',1,30)-1) log_time_set 
  30.         ,substr(play_vv_begin_set,1,instr(play_vv_begin_set,',',1,30)-1) play_vv_begin_set 
  31.       from 
  32.         weishi_31d_active_set_table partition(p_20200822)a 
  33.       where 
  34.         last_time>=20200723 
  35.    )a 
  36.   full join 
  37.   ( select 
  38.         qimei 
  39.         ,'1' active_date_set 
  40.         ,cast(log_num as string) log_num_set 
  41.         ,cast(log_time as string) log_time_set 
  42.         ,cast(play_vv_begin as string) play_vv_begin_set 
  43.       from 
  44.         weishi_dau_active_table partition(p_20200823)a 
  45.    )b 
  46.    on 
  47.     a.qimei=b.qimei 

初始化集合代碼相對簡單,只需保留第一位為實際數值,然后拼接一個 30 位的默認值 0 串,初始化脫敏代碼如下:

  1. select 
  2.     20200823 imp_date 
  3.     ,qimei 
  4.     ,'1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0' active_date_set 
  5.     ,concat(cast(log_num as string),',0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0') log_num_set 
  6.     ,concat(cast(log_time as string),',0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0') log_time_set 
  7.     ,concat(cast(play_vv_begin as string),',0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0') play_vv_begin_set 
  8.   from 
  9.     weishi_dau_active_table partition(p_20200823)a 

七、具體使用案例

在 hive 里對這些 0 1 集合串的使用是比較困難的,為了讓這個模型表的可用性更高,因此寫了幾個 UDF 函數來直接對數組集合進行簡單地運算,目前寫了如下幾個:str_sum()、str_count()、str_min()、str_max(),其中 str_sum、str_min、str_max 這幾個函數的參數一樣,第一個傳入一個數組集合字符串,第二位傳入一個整數,代表要計算最近 N 天的結果,第三個參數是傳入一個分隔符,在本模型里分隔符均為逗號“,”。

這幾個函數都是返回一個 int 值,str_sum 返回來的是最近 N 天的數值加總,str_min 返回該數組集合元素里最小的值,str_max 返回該數組集合元素里最大的值;str_count 前 3 個參數與前面三個函數一樣,第 4 個參數是傳入要統計的值,返回來的也是 int 值,返回傳入的統計值在數組集合出現的次數,具體使用方法如下,由于是自定義函數,在 tdw 集群跑的 sql 前面需加@pyspark:

 

以上函數的具體使用案例脫敏代碼如下:

  1. @pysparkselect 
  2.     qimei 
  3.     ,str_sum(active_date_set,30,',') active_date_num  --每個用戶最近30天活躍天數 
  4.     ,str_sum(play_vv_begin_set,30,',') play_vv_begin  --每個用戶最近30天播放視頻次數 
  5.     ,30 - str_count(interact_num_set,30,',','0') interact_date_num  --每個用戶最近30天有互動的天數,通過 30 - 互動天數為0 統計得到 
  6.   from 
  7.     weishi_31d_active_set_table partition(p_20200823)a 
  8.   where 
  9.     last_time>20200724 

當然除了上面幾種 udf 統計所需指標之外,也可以通過正則表達式進行使用,比如統計活躍天可以這樣統計:

  1. --將數組集合里的'0'和','用正則表達式匹配去掉再來看剩下1的個數即可。 
  2. select 
  3.     count(qimei) --月活 
  4.     ,sum(length(regexp_replace(substr(active_date_set,1,60),'0|,',''))) active_date_num  --月活躍天 
  5.   from 
  6.     weishi_31d_active_set_table partition(p_20200823)a 
  7.   where 
  8.     last_time>20200724 

開篇前的幾個業務場景,也可以通過該表快速統計:1.統計最近 30 天用戶的累計活躍天?

  1. @pyspark 
  2. select 
  3.     sum(active_date_num) active_date_num  --滾動月活躍天 
  4.     ,count(1) uv  --滾動月活 
  5.   from 
  6.   ( select 
  7.         qimei 
  8.         ,str_sum(active_date_set,30,',') active_date_num 
  9.       from 
  10.         weishi_31d_active_set_table partition(p_20200823)a 
  11.       where 
  12.         last_time>20200724 
  13.    )a 

2.統計最近 7 天的用戶累計使用時長?

  1. @pyspark 
  2. select 
  3.     sum(log_time) log_time  --滾動周活躍天 
  4.     ,count(1) uv  --滾動周活 
  5.   from 
  6.   ( select 
  7.         qimei 
  8.         ,str_sum(log_time_set,7,',') log_time 
  9.       from 
  10.         weishi_31d_active_set_table partition(p_20200823)a 
  11.       where 
  12.         last_time>20200817 
  13.    )a 

3.統計最近 30 天有播放的累計用戶數?

  1. @pyspark 
  2. select 
  3.     count(1) uv  --播放次數>0 
  4.   from 
  5.   ( select 
  6.         qimei 
  7.         ,str_sum(play_vv_begin_set,30,',','0') play_vv_begin 
  8.       from 
  9.         weishi_31d_active_set_table partition(p_20200823)a 
  10.       where 
  11.         last_time>20200724 
  12.    )a 
  13.   where 
  14.     play_vv_begin>0 

4.統計最近 30 天活躍用戶有多少在最近 30 天里有連續 3 天及以上活躍?

  1. --只是判斷活躍集合里面有連續3位 1,1,1, 即可select 
  2.     count(if(substr(active_date_set,1,60) like '%1,1,1,%',qimei,null)) active_date_num 
  3.   from 
  4.     weishi_31d_active_set_table partition(p_20200823)a 
  5.   where 
  6.     last_time>20200724 

5.統計 28 天前活躍用戶的 1、3、7、14、28 天留存率?

  1. --不需要join操作,只需找到活躍日期集對應位是否1即可select 
  2.     '20200723' imp_date 
  3.     ,count(if(split(active_date_set,',')['29']='1',qimei,null))/count(1) 1d_retain_rate 
  4.     ,count(if(split(active_date_set,',')['27']='1',qimei,null))/count(1) 3d_retain_rate 
  5.     ,count(if(split(active_date_set,',')['23']='1',qimei,null))/count(1) 7d_retain_rate 
  6.     ,count(if(split(active_date_set,',')['16']='1',qimei,null))/count(1) 14d_retain_rate 
  7.     ,count(if(split(active_date_set,',')['2']='1',qimei,null))/count(1) 28d_retain_rate 
  8.   from 
  9.     weishi_31d_active_set_table partition(p_20200823)a 
  10.   where 
  11.     last_time>20200723 
  12.     and split(active_date_set,',')['30']='1' 

八、總結

從上面 5 個業務場景可以看出來,只要有這樣一個借助 bitmap 思想統計的模型表,不管統計最近一段時間的累計(月活躍天、月播放用戶等)與統計 1 個月內的留存,都可以一條簡單語句即可統計,不需要 join 操作,每天例行化跑時不需要重復跑接近一個月的分區,1 個月內可以支持任意統計,比如只需最近 2 周的活躍天等,因此這樣的模型相對通用,另外如果業務需要用到 2 個月的數據,也可以將模型從 31 位擴展到 61 位。

 

當然任何事情不可能只有優點,而不存在缺點的情況,這里這個優化的模型只是參考了 bitmap 思想,并不是 bitmap 方案實現,雖然可以將 31 天活躍用戶壓縮 80%多存儲,但是每天都存儲 31 天活躍用戶的壓縮數據,因此相比之前只保留天增量表來說,還是增加了實際存儲空間,但是這個以存儲換計算的方案是符合數倉設計原則的,因為計算是用成本昂貴的 cpu 和內存資源,存儲是用成本低廉的磁盤資源,因此有涉及最近 N 天累計或者留存計算需求的朋友可以借鑒這樣的思路。

【本文為51CTO專欄作者“騰訊技術工程”原創稿件,轉載請聯系原作者(微信號:Tencent_TEG)】

戳這里,看該作者更多好文

 

責任編輯:武曉燕 來源: 51CTO專欄
相關推薦

2014-08-26 09:34:33

大數據彈性應用

2024-07-04 11:15:06

大數據工具框架

2022-08-14 14:52:45

數據存儲實踐

2012-09-17 11:19:49

IBMdw

2014-04-04 10:53:04

2012-12-24 09:42:11

大數據應用開發輔助開發工具大數據

2013-05-21 10:42:48

Android游戲開發Bitmap位圖旋轉

2013-09-16 16:56:09

AndroidBitmap內存優化

2017-12-21 14:36:10

大數據健身智慧

2014-07-18 08:47:26

KJFrameAndroidBitmap

2022-07-11 10:45:37

插樁性能優化打包

2017-05-12 14:00:07

大數據前端模塊化開發

2021-03-12 18:56:26

大數據數據開發SQL

2020-12-31 14:14:35

大數據大數據應用

2014-11-24 11:10:44

大數據新浪

2016-12-04 16:46:51

大數據架構機器學習

2013-05-07 14:56:27

大數據應用工具數據中心網絡

2017-03-28 18:25:59

華為

2016-10-18 09:46:56

大數據城市高科技

2014-08-25 09:08:23

大數據應用開發
點贊
收藏

51CTO技術棧公眾號

激情婷婷亚洲| 不卡av电影在线| 这里只有视频精品| 日韩美女一区二区三区在线观看| 欧美另类视频在线观看| 国产精品老女人视频| 久久精品亚洲精品国产欧美kt∨| 久久久成人av毛片免费观看| 亚洲美女在线播放| 国产香蕉在线观看| 久久久精品五月天| 久青草国产97香蕉在线视频| 人妻体内射精一区二区三区| 亚洲一区二区三区四区| 亚洲一区在线观看免费| 色一情一乱一伦一区二区三欧美 | 色综合天天综合网国产成人综合天| 欧美一区二区三区在线播放 | 日韩精品在线第一页| 色播五月综合网| 国产盗摄——sm在线视频| 《视频一区视频二区| 欧美区高清在线| www.国产麻豆| 麻豆精品新av中文字幕| 欧美在线亚洲在线| 一区二区视频免费看| 欧美日韩黑人| 亚洲男人天堂2023| 9.1在线观看免费| www 久久久| 欧美天堂一区二区三区| 春日野结衣av| www在线观看黄色| 一区二区三区在线视频免费观看| 亚洲午夜精品久久久中文影院av| 欧美高清电影在线| 91原创在线视频| 国产福利不卡| 亚洲精品久久久狠狠狠爱| 精品一二线国产| 国产精品欧美激情在线播放| 天天综合网久久综合网| 宅男噜噜噜66一区二区| 韩日精品中文字幕| 久久人人爽人人爽人人| 国内精品久久久久久久97牛牛| 久久精品国产欧美亚洲人人爽| 精品人妻中文无码av在线 | 日韩激情在线播放| 在线精品一区| 国内久久久精品| 久视频在线观看| 亚洲天堂男人| 97免费在线视频| 国产精品xxxx喷水欧美| 亚洲青色在线| 欧美诱惑福利视频| 中文字幕手机在线视频| 免费高清不卡av| 国产精品偷伦免费视频观看的| 亚洲欧美一二三区| 日韩 欧美一区二区三区| 国产精品成人一区| 中文字幕在线观看高清| 久草热8精品视频在线观看| 91精品久久久久久久久久另类 | 久久麻豆视频| 国产精品亚洲专一区二区三区| 91最新国产视频| www.黄色国产| 成人91在线观看| 好看的日韩精品| 伦理片一区二区三区| 国产欧美1区2区3区| 一区二区精品在线| 污片在线免费观看| 富二代精品短视频| 好男人www社区| 996久久国产精品线观看| 欧美一区二区播放| 久久久国产精品无码| 视频一区中文| 欧美成人精品xxx| 成人午夜视频精品一区| 日韩成人午夜电影| 91欧美精品成人综合在线观看| 欧美77777| 国产清纯在线一区二区www| 国产盗摄视频在线观看| 国产精品yjizz视频网| 欧美性受极品xxxx喷水| 成人免费xxxxx在线视频| 午夜欧美巨大性欧美巨大| 欧美日韩和欧美的一区二区| jjzzjjzz欧美69巨大| 不卡一区综合视频| 欧美国产日韩中文字幕在线| jizz国产在线| 国产sm精品调教视频网站| 不卡视频一区二区三区| 亚洲欧美高清视频| 国产嫩草影院久久久久| 高清无码一区二区在线观看吞精| 亚洲欧美小说色综合小说一区| 欧美夫妻性生活| 久久无码人妻精品一区二区三区| 婷婷色综合网| 国产大片精品免费永久看nba| 亚洲AV无码一区二区三区少妇 | 精品日本一区二区三区| 欧美日韩在线看片| 欧美日韩亚洲国产一区| 91丝袜超薄交口足| 欧美一二区在线观看| 久久久久五月天| 国产理论片在线观看| 26uuu亚洲| 国产成人艳妇aa视频在线| 国产精品一区二区免费福利视频 | 亚洲欧美视频在线播放| 亚洲视频在线免费| 国产欧美久久久久久| 男人的天堂在线免费视频| 亚洲制服丝袜av| 肉色超薄丝袜脚交| 欧美理论在线播放| 国产99久久精品一区二区 夜夜躁日日躁 | 国产精品久久久久久在线观看| 日韩欧美在线中字| 日本老师69xxx| 亚洲色图 校园春色| 亚洲制服丝袜av| 久久精品无码一区二区三区毛片| 久久美女精品| 国产精品18久久久久久麻辣| 亚洲欧美日本在线观看| 精品久久久久久亚洲国产300| 国产成人精品综合久久久久99| 99精品在线| 91精品视频一区| 亚洲搞黄视频| 欧美日韩国产高清一区二区三区| 美女100%无挡| 欧美一级二区| 日韩高清专区| 欧美videos粗暴| www国产精品com| 国产在成人精品线拍偷自揄拍| 中文字幕亚洲精品在线观看| 日本超碰在线观看| 91综合久久| 亚洲free嫩bbb| 污片视频在线免费观看| 亚洲成人国产精品| 日韩成人一区二区三区| 91蝌蚪porny| 三级在线视频观看| 久久精品国产亚洲夜色av网站| 国产欧美一区二区三区久久人妖| 免费网站免费进入在线| 91麻豆精品国产综合久久久久久| 亚洲最大的黄色网址| 丰满白嫩尤物一区二区| 国产精品999视频| 网曝91综合精品门事件在线| 国产成人精品久久二区二区| 91电影在线播放| 欧美一区二区三区四区在线观看| 久久成人国产精品入口| 99久久精品费精品国产一区二区| 日韩欧美精品在线观看视频| 国产在线观看91一区二区三区 | 欧美激情亚洲激情| 婷婷av一区二区三区| 日本高清不卡aⅴ免费网站| 又嫩又硬又黄又爽的视频| 国产老妇另类xxxxx| 丁香花在线影院观看在线播放| 杨幂一区二区三区免费看视频| 国产精品久久久久久久av大片| 国产成人l区| 亚洲精品国产美女| 在线观看毛片视频| 一区二区三区四区亚洲| 中文字幕一区二区三区人妻电影| 老司机一区二区| 国产玉足脚交久久欧美| 成人综合一区| 动漫一区二区在线| 小黄鸭精品aⅴ导航网站入口| 久久艳片www.17c.com| 天天躁日日躁狠狠躁伊人| 欧美精品日日鲁夜夜添| 国产精品500部| 亚洲日本va在线观看| 午夜av免费看| 久久电影网电视剧免费观看| 免费国产黄色网址| 国产精品久久久久久麻豆一区软件| 国产二区一区| 99久久久国产| 国产极品jizzhd欧美| 久久亚洲导航| 久久精品91久久久久久再现| 天堂中文网在线| 欧美一级高清大全免费观看| 欧美brazzers| 午夜精品一区二区三区电影天堂| 成人黄色短视频| 久久丝袜美腿综合| 性活交片大全免费看| 狠狠色丁香久久婷婷综合丁香| 黄色免费观看视频网站| 国模一区二区三区| 国产成人精品免费看在线播放 | 国产一区二区激情| 天天干天天摸天天操| 日韩欧美亚洲国产另类| 中文字幕永久在线观看| 一本色道a无线码一区v| 国产无码精品久久久| 亚洲精品高清视频在线观看| 少妇愉情理伦三级| 国产欧美视频一区二区三区| av网页在线观看| 成人激情免费网站| 91av免费观看| 国产麻豆精品视频| 亚洲欧美手机在线| 看电视剧不卡顿的网站| 色婷婷成人在线| 青青国产91久久久久久| 成人午夜激情av| 日韩vs国产vs欧美| 激情婷婷综合网| 日本美女一区二区三区视频| 人妻有码中文字幕| 国产亚洲亚洲| 欧美色图另类小说| 男人的天堂成人在线| 国产老熟妇精品观看| 日韩亚洲国产精品| 日韩久久一级片| 日韩精品亚洲一区| 国产精品拍拍拍| 麻豆成人av在线| 午夜视频在线观| 国产电影一区二区三区| 日韩精品国产一区| 成人av在线资源网| 日韩免费高清一区二区| 91麻豆视频网站| 自拍偷拍视频亚洲| 国产精品色在线观看| 99热这里只有精品4| 自拍偷拍亚洲欧美日韩| 国产高清在线免费观看| 亚洲高清视频在线| 在线能看的av| 欧美亚洲尤物久久| 国产精品久久欧美久久一区| 日韩视频在线你懂得| 人妻夜夜爽天天爽| 亚洲精品视频在线播放| 番号在线播放| 久久视频国产精品免费视频在线| 伊人春色在线观看| 69av视频在线播放| av一区在线播放| 亚洲在线观看视频| 欧美福利在线播放网址导航| 欧美一区二区三区在线播放 | 国产精品欧美亚洲| 亚洲精品在线一区二区| 欧美日韩伦理片| 色视频www在线播放国产成人 | 亚洲美女精品一区| 欧美成人精品欧美一级乱黄| 91成人免费网站| 国产男男gay体育生网站| 亚洲国产毛片完整版| 国产福利片在线| 色综合久久久888| 丝袜美腿一区| 91精品入口蜜桃| 国产精品中文字幕亚洲欧美| 香蕉视频在线网址| 亚洲一区二区免费看| 欧美成人手机在线视频| 99国产精品久久| 日本精品在线免费观看| 欧美午夜美女看片| 精品国产亚洲AV| 一本大道亚洲视频| av在线理伦电影| 国产欧洲精品视频| 婷婷国产精品| 白白操在线视频| 人人狠狠综合久久亚洲| 超碰caoprom| 综合亚洲深深色噜噜狠狠网站| 69成人免费视频| 日韩三级视频在线观看| 国产二区视频在线观看| 国内精品视频一区| 成人激情久久| 翔田千里亚洲一二三区| 国产视频一区在线观看一区免费| 男人午夜视频在线观看| 国产欧美日韩中文久久| 天天插天天操天天干| 欧美一区日韩一区| 在线国产91| 国产成人aa精品一区在线播放| caoporn成人免费视频在线| 一区二区视频在线免费| 久久免费黄色| 精品无码国产一区二区三区51安| 亚洲老司机在线| 一级全黄裸体免费视频| 亚洲人成电影在线观看天堂色| 182在线视频观看| 国产高清精品一区二区| 综合亚洲视频| 91在线第一页| 中文字幕一区二区三区色视频 | 亚洲精品成人a8198a| 免费在线亚洲欧美| av鲁丝一区鲁丝二区鲁丝三区| 亚洲一区二区在线播放相泽| 国产特级黄色片| 久久亚洲一区二区三区四区五区高| jvid一区二区三区| 品久久久久久久久久96高清| 久久99伊人| 性欧美13一14内谢| 色婷婷激情一区二区三区| 欧美视频免费一区二区三区| 欧美亚洲视频在线观看| 欧美人与动xxxxz0oz| 欧美日韩在线一| 久久在线观看免费| 日本视频免费观看| 国产亚洲精品久久久久久| 亚洲成人一区在线观看| 五码日韩精品一区二区三区视频| 青青草国产精品97视觉盛宴 | 亚洲国产wwwccc36天堂| 丰满大乳国产精品| 国内精品小视频| 亚洲欧美成人vr| 一级黄色香蕉视频| 国产精品日韩成人| 国产精选久久久| 久久97久久97精品免视看| 久久综合偷偷噜噜噜色| bt天堂新版中文在线地址| 国产成人免费视频| 美日韩一二三区| 国产一区二区三区欧美| 日韩美香港a一级毛片| 潘金莲一级淫片aaaaa免费看| 高清在线不卡av| 800av免费在线观看| 亚洲人成电影网| av国产精品| 麻豆tv在线播放| 欧美激情在线看| 国产特黄一级片| 欧美一区二区.| 99精品在线免费在线观看| 欧美老女人bb| 日韩欧美福利视频| 黄色网址在线免费播放| 国产高清一区视频| 日韩二区三区四区| 印度午夜性春猛xxx交| 日韩成人网免费视频| 四虎精品永久免费| 国产不卡一区二区视频| 欧美高清在线视频| 亚洲成人一级片| 国产精品久久久久久av下载红粉 | 黄页网站在线看| 欧美性猛交xxxx富婆| 蜜桃视频网站在线| 精品国产综合久久| 久久精品国内一区二区三区| 久青草视频在线观看| 一个色综合导航| 岛国精品一区| 日本肉体xxxx裸体xxx免费| 亚洲国产综合在线| av网站无病毒在线| 国产精品综合久久久久久| 蜜臀久久久久久久| 日韩av综合在线| 久久天天躁日日躁| 国产成人一区二区三区影院|