精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

我是如何從頭開始寫一篇頂級論文的

人工智能 新聞
本文我想將我的經歷按時間順序寫下(也就是流水賬), 比如把走過的彎路和研究中突發的狀況寫出來,以供剛踏上科研之路的同學參考。

最近完成了一篇很滿意的論文,不僅整個過程愉快、回味無窮,而且真正做到了「學術有影響,工業有產出」。我相信這篇文章會改變差分隱私(differential privacy;DP)深度學習的范式。

因為這次經歷實在太過「巧」了 (過程充滿巧合、結論極其巧妙),在此和同學們分享一下自己從觀察 -->構思 -->實證 -->理論 -->大規模實驗的完整流程。本文我會盡量保持 lightweight,不涉及過多技術細節。

圖片

論文地址:arxiv.org/abs/2206.07136

與 paper 展現的順序不同,paper 有時會刻意將結論放在開頭吸引讀者,或者先介紹簡化后的定理而將完整的定理放附錄;而本文我想將我的經歷按時間順序寫下(也就是流水賬), 比如把走過的彎路和研究中突發的狀況寫出來,以供剛踏上科研之路的同學參考。

一、 文獻閱讀

事情的起源是斯坦福的一篇論文,現在已經錄了 ICLR:

圖片

論文地址:https://arxiv.org/abs/2110.05679

文章寫的非常好,總結起來有三個主要貢獻:

1. 在 NLP 任務中,DP 模型的 accuracy 非常高,鼓勵了 privacy 在語言模型的應用。(與之相對的是 CV 中 DP 會產生非常大的 accuracy 惡化,比如 CIFAR10 目前 DP 限制下不用預訓練只有 80% accuracy,而不考慮 DP 可以輕松達到 95%;ImageNet 當時最好的 DP accuracy 不到 50%。)

2. 在語言模型上,模型越大,性能會越好。比如 GPT2 從 4 億參數到 8 億參數性能提升很明顯,也取得了很多 SOTA。(但是在 CV 和推薦系統中,很多時候更大的模型性能會很差,甚至接近 random guess。比如 CIFAR10 的 DP best accuracy 此前是由四層 CNN 得到的,而非 ResNet。)

圖片

NLP 任務中 DP 模型越大性能越好 [Xuechen et al. 2021]

3. 在多個任務上取得 SOTA 的超參數是一致的:都是 clipping threshold 要設置的足夠小,并且 learning rate 需要大一些。(此前所有文章都是一個任務調一個 clipping threshold,費時費力,并沒有出現過像這篇這樣一個 clipping threshold=0.1 貫穿所有任務,表現還這么好。)

以上總結是我讀完 paper 瞬間理解的,其中括號內的內容并非來自這篇 paper,而是以往諸多閱讀產生的印象。這有賴于長期的閱讀積累和高度的概括能力,才能快速聯想和對比出來。

事實上,很多同學做文章起步難恰恰就在于看一篇文章只能看到一篇文章的內容,無法和整個領域的知識點形成網絡、產生聯想。這一方面由于剛入門的同學閱讀量不夠,尚未掌握足夠的知識點。尤其是長期從老師手中拿課題,不自己獨立 propose 的同學,容易有這個問題。另一方面則是閱讀量雖然夠,但沒有時時歸納總結,導致信息沒有凝聚成知識或者知識沒有串聯。

這里補充下 DP deep learning 的背景知識,暫且略過 DP 的定義,不影響閱讀。

所謂 DP deep learning 從算法的角度來說其實就是多做兩個額外的步驟:per-sample gradient clipping 和 Gaussian noise addition;換句話說,只要你把 gradient 按照這兩步處理完了(處理后的 gradient 叫做 private gradient),之后該怎么用優化器就怎么用,SGD/Adam 都可以。

至于最后算法到底多 private,就是另一個子領域的問題了,稱為 privacy accounting theory。此領域相對成熟而且需要極強的理論功底,由于本文專注于 optimization,按下不表。

圖片

g_i 是 一個數據點的梯度(per-sample gradient),R 是 clipping threshold, sigma 是 noise multiplier。

其中 Clip 叫做 clipping function,就跟常規的 gradient clipping 一樣,梯度長于 R 就剪到 R,小于 R 就不動。

比如 DP 版本的 SGD 就是目前所有 paper 都用的是隱私深度學習開山之作(Abadi, Martin, et al. "Deep learning with differential privacy.")中的 clipping function,也稱為 Abadi's clipping:圖片。

但這是完全不必要的,遵循第一性原理,從 privacy accounting theory 出發,其實 clipping function 只需要滿足 Clip(g_i)*g_i 的模小于等于 R 就可以了。也就是說,Abadi's clipping 只是一種滿足這個條件的函數,但絕非唯一。

二、切入點

一篇文章的閃光點很多,但是并非都能為我所用,要結合自身的需求和擅長去判斷最大的貢獻是什么。

這篇文章前兩個貢獻其實非常 empirical,也很難深挖。而最后一個貢獻很有意思 我仔細看了看超參數的 ablation study 發現一個原作者沒有發現的點:在 clipping threshold 足夠小的時候,其實 clipping threshold(也就是 clipping norm C,在上面的公式中和 R 是一個變量)沒有作用。

圖片

縱向來看 C=0.1,0.4,1.6 對 DP-Adam 沒什么區別 [Xuechen et al. 2021]。

這引起了我的興趣,感覺背后一定有什么原理。于是我手寫了他們所用的 DP-Adam 來看看為什么,其實這很簡單:

圖片

如果 R 足夠小,clipping 其實等價于 normalization!簡單代入 private gradient(1.1),可以將 R 從 clipping 的部分和 noising 的部分分別提出來:

圖片

而 Adam 的形式使得 R 會同時出現在梯度和自適應的步長中,分子分母一抵消,R 就沒有了,頂會 idea 就有了!

圖片

m 和 v 都依賴于梯度,同時用 private 梯度替換即得到 DP-AdamW。

就這么簡單的代換,就證明了我的第一個定理:在 DP-AdamW 中,足夠小的 clipping thresholds 是互相等價的,無需調參。

毫無疑問,這是一個很簡明而且很有趣的觀察,但這并沒有足夠的意義,所以我需要思考這個觀察在實際中有什么用途。

其實,這意味著 DP 訓練減少了一個數量級的調參工作:假設學習率和 R 各調 5 個值(如上圖) ,那就要測 25 種組合才能找到最優超參數?,F在只需要調學習率 5 種可能就好,調參效率提高了數倍,這是對業界來說極有價值的痛點問題。

立意足夠高,數學足夠簡明,一個好的想法已經初具雛形。

三、簡單擴展

只對 Adam/AdamW 成立的話,這個工作的局限性還是太大了,所以我很快擴展到了 AdamW 和其他 adaptive optimizers,比如 AdaGrad。事實上,對于所有的 adaptive optimizers,都可以證明 clipping threshold 會被抵消,從而不用調參,大大增加了定理的豐富程度。

這里面還有一個有趣的小細節。眾所周知,Adam with weight decay 和 AdamW 不一樣,后者使用的是 decoupled weight decay,就這個區別還發了篇 ICLR

圖片

Adam 有兩種加 weight decay 的方式。

這個區別在 DP 優化器中也存在。同樣是 Adam,用 decoupled weight decay 的話, 縮放 R 不影響 weight decay 的大小,但是用普通的 weight decay 的話,放大 R 兩倍等價于縮小兩倍的 weight decay。

四、另有乾坤

聰明的同學可能已經發現了 我一直再強調自適應優化器 為啥不講講 SGD 呢? 答案是在我寫完 DP 自適應優化器的理論后 Google 緊接著就放了一篇 DP-SGD 用在 CV 的文章 也做了 ablation study 但是規律和在 Adam 上發現的完全不同 給我留下了一個對角的印象

圖片

對 DP-SGD 且 R 足夠小的時候,增大 10 倍 lr 等于增大 10 倍 R [https://arxiv.org/abs/2201.12328]。

當時我看到這篇文章的時候很興奮,因為又是一個證明 small clipping threshold 效果好的論文。

在科學界,連續的巧合背后往往有著隱藏的規律。

簡單地代換一下,發現 SGD 比 Adam 還好分析,(1.3)可以近似為:

圖片

顯然 R 又可以提出來,和學習率組合在一起,從理論上證明了 Google 的觀察。

“Specifically, when the clipping norm is decreased k times, the learning rate should be increased k times to maintain similar accuracy.”

很可惜 Google 只看到現象,沒有上升到理論的高度。這里也有一個巧合,那就是上圖他們同時畫了兩種尺度的 ablation study,只有左邊的尺度能看出對角線,光看右邊是沒有結論的......

由于沒有自適應步長,SGD 不像 Adam 一樣無視 R,而是把 R 看作學習率的一部分,所以也不需要單獨調節,反正學習率要調參就一起調了。

再將 SGD 的理論擴充到 momentum,所有 Pytorch 支持的優化器全都分析完畢。

五、從直覺到嚴謹

一個創新點是有了,但是 Abadi's clipping 嚴格來說只是近似 normalization,不能劃等號,也就沒法確鑿地分析收斂性。

根據多啦 A 夢鐵人兵團原理,我直接命名 normalization 為新的 per-sample gradient clipping function,替代了整個領域用了 6 年的 Abadi clipping,這是我的第二個創新點。

經過剛才的證明,新的 clipping 嚴格不需要 R,所以稱之為 automatic clipping (AUTO-V; V for vanilla)。

既然形式上與 Abadi's clipping 有不同,那么 accuracy 就會有差異,而我的 clipping 可能有劣勢。

所以我需要寫代碼測試我的新方法,而這只需要改動一行代碼 (畢竟只是把圖片)。

事實上 DP per-sample gradient clipping 這個方向主要就三種 clipping functions, 除了 Abadi's clipping 以外的兩種都是我提出的,一個是 global clipping,還有一個就是這篇 automatic clipping。而在先前的工作中,我就已經知道怎么在各個流行的庫中改 clipping 了,我將修改方法放在文章最后一個 appendix。

經過我的測試,我發現斯坦福的文章中 GPT2 在整個訓練過程中,所有 itertation 和所有 per-sample gradient 都是 clip 過的。也就是說,至少在這一個實驗上,Abadi's clipping 完全等價于 automatic clipping。雖然后來的實驗的確有輸于 SOTA 的情況, 但這已經說明了我的新方法有足夠的價值:一個不需要調整 clipping threshold 的 clipping function,而且有時 accuracy 也不會犧牲。

六、 回歸抽象思考

斯坦福的文章有兩大類語言模型的實驗,一類是 GPT2 為模型的生成型任務,另一類是 RoBERTa 為模型的分類型任務。雖然在生成任務上 automatic clipping 和 Abadi's clipping 等價,但是分類型任務卻總是差幾個點的準確率。

出于我自己的學術習慣,這個時候我不會去換數據集然后專門挑我們占優的實驗發表,更不會增加 trick(比如做數據增強和魔改模型之類的)。我希望在完全公平的比較中, 只比較 per-sample gradient clipping 的前提下,盡可能做出最好的不含水分的效果。

事實上,在和合作者討論中我們發現:純粹的 normalization 和 Abadi's clipping 比 梯度大小的信息是完全拋棄的,也就是說對于 automatic clipping,無論原始的梯度多大,clip 后都是 R 這么大,而 Abadi 對于比 R 小的梯度是保留了大小的信息的。

基于這個想法,我們做了一個微小但極其巧妙的改動,稱之為 AUTO-S clipping (S 代表 stable)

圖片

將 R 和學習率融合后變成

圖片

簡單一畫可以發現這個小小的  (一般設為 0.01,其實設成別的正數都行,很穩健)就能保留梯度大小的信息:

圖片

基于這個算法,還是只改動一行,把斯坦福的代碼重跑一遍,六個 NLP 數據集的 SOTA 就到手了。

圖片

在 E2E 生成任務上,AUTO-S 超越了所有其他 clipping function,在 SST2/MNLI/QNLI/QQP 分類任務上也是。

七、要做通用算法

斯坦福文章的一個局限性是只專注于 NLP,又很巧合的是:緊接著 Google 刷了 ImageNet 的 DP SOTA 兩個月后,Google 子公司 DeepMind 放出了一篇 DP 在 CV 中大放異彩的文章,直接將 ImageNet 準確率從 48% 提升到 84%!

圖片

論文地址:https://arxiv.org/abs/2204.13650

在這篇文章中,我第一時間去看優化器和 clipping threshold 的選擇,直到我在附錄翻到這張圖:

圖片

DP-SGD 在 ImageNet 上的 SOTA 也是需要 clipping threshold 足夠小。

依然是 small clipping threshold 效果最好!有了三篇高質量的文章支撐 automatic clipping,已經有了很強的動機了,我越發肯定自己的工作會是非常杰出的。

巧合的是 DeepMind 這篇文章也是純實驗沒有理論,這也導致他們差點就領悟出了他們可以從理論上不需要 R,事實上他們真的非常接近我的想法了,他們甚至已經發現了 R 是可以提取出來和學習率融合的(感興趣的同學可以看看他們的公式(2)和(3))。但是 Abadi's clipping 的慣性太大了... 即使他們總結出了規律卻沒有更進一步。

圖片

DeepMind 也發現了 small clipping threshold 效果最好,但是沒有理解為什么。

受這篇新工作的啟發,我開始著手做 CV 的實驗,讓我的算法能被所有 DP 研究者使用,而不是 NLP 搞一套方法,CV 搞另一套。

好的算法就是應該通用好用,事實也證明 automatic clipping 在 CV 數據集上同樣能取得 SOTA。

圖片

八、理論為骨 實驗為翼

縱觀以上所有的論文,都是 SOTA 提升顯著、工程效果拔滿,但是理論完全空白。

當我做完所有實驗的時候,這份工作的貢獻已經超過了一篇頂會的要求:我將經驗上 small clipping threshold 所產生的 DP-SGD 和 DP-Adam 的參數影響大大簡化;提出了新的 clipping function 而不犧牲運算效率、隱私性,還不用調參;小小的 γ 修復了 Abadi's clipping 和 normalization 對梯度大小信息的破壞;充足的 NLP 和 CV 實驗都取得了 SOTA 的準確率。

我還沒有滿意。一個沒有理論支撐的優化器,還是無法為深度學習做出實質貢獻。每年頂會提出的新優化器有幾十個,第二年全都掃進故紙堆。Pytorch 官方支持的、業界真正在用的,還是那么幾個。

為此我和合作者們額外花了兩個月做了 automatic DP-SGD 收斂性分析,過程艱難但最后的證明簡化到極致。結論也很簡單:將 batch size、learning rate、model size、sample size 等變量對收斂的影響都定量地表達出來,并且符合所有已知的 DP 訓練行為。

特別的,我們證明了 DP-SGD 雖然收斂的比標準的 SGD 慢,但是 iteration 趨于無窮的話,收斂的速度都是一個數量級的。這為隱私計算提供了信心:DP 模型收斂,雖遲但到。

九、撞車了...

終于,寫了 7 個月的文章完稿了,沒想到巧合還沒停。5 月份 NeurIPS 投稿,6 月 14 日內部修改完放 arXiv,結果 6 月 27 日看到微軟亞州研究院(MSRA)發表了一篇和我們撞車的文章,提出的 clipping 和我們的 automatic clipping 一模一樣:

圖片

和我們的 AUTO-S 分毫不差。

仔細看了看,連收斂性的證明都差不多。而我們兩組人又沒有交集,可以說隔著太平洋的巧合誕生了。

這里稍微講一下兩篇文章的不同:對方文章更偏理論,比如額外分析了 Abadi DP-SGD 的收斂(我只證了 automatic clipping,也就是他們文中的 DP-NSGD,可能我也不知道咋整 DP-SGD);用的假設也有一些不同;而我們實驗做的多一些大一些(十幾個數據集),更顯式地建立了 Abadi's clipping 和 normalization 的等價關系,比如 Theorem 1 和 2 解釋為什么 R 可以不用調參。

既然是同時期的工作,我很開心能有人不謀而合,互相能補充共同推動這個算法,讓整個社群盡快相信這個結果并從中受益。當然,私心來說,也提醒自己下一篇要加速了!

十、總結

回顧這篇文章的創作歷程,從起點來看,基本功一定是前提,而另一個重要的前提是自己心中一直念念不忘調參這個痛點問題。正是久旱,所以讀到合適的文章才能逢甘露。至于過程,核心在于將觀察數學化理論化的習慣,在這個工作中代碼實現能力反倒不是最重要的。我會再寫一篇專欄著重講講另一個硬核代碼工作;最后的收斂性分析,也是靠合作者和自己的不將就。所幸好飯不怕晚,繼續前進!

作者簡介

卜至祺,劍橋大學本科畢業,賓夕法尼亞大學博士,現任亞馬遜 AWS AI 高級研究科學家,其研究方向為差分隱私與深度學習,側重優化算法和大規模計算。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2022-11-07 17:26:16

機器學習AI

2013-01-08 11:02:26

IBMdW

2013-05-23 10:10:53

PHP5.5PHP編譯php

2020-11-17 08:09:01

webpack配置項腳手架

2023-05-24 16:20:39

DevOpsCI/CD 管道軟件開發

2024-03-20 12:44:35

AI訓練

2022-07-22 07:18:53

代碼DeepMind

2021-08-16 15:18:20

機器學習人工智能計算機

2009-05-08 09:40:07

網易魔獸暴雪

2021-07-06 14:21:05

物聯網智慧城市網絡安全

2022-11-23 16:20:12

GPU編程流和事件開發

2021-06-04 22:43:32

Python本地搜索

2022-06-01 23:21:34

Python回歸樹數據

2021-02-20 21:29:40

GitHub代碼開發者

2023-08-11 17:30:54

決策樹機器學習算法

2023-02-06 16:01:26

數據中心服務器

2020-06-11 08:32:50

Python遺傳算法代碼

2017-02-23 08:45:36

Python決策樹數據集

2020-08-14 10:01:25

編程神經網絡C語言

2022-11-14 10:49:33

Linux發行版
點贊
收藏

51CTO技術棧公眾號

亚洲成人网在线| 一区二区三区蜜桃| 国产精品96久久久久久又黄又硬| 在线不卡av电影| 国产情侣一区二区三区| re久久精品视频| 欧美日韩国产色站一区二区三区| 国内精品国语自产拍在线观看| 国内免费精品视频| 国产中文欧美日韩在线| 五月婷婷综合激情| 中文字幕在线亚洲三区| 无码国产色欲xxxx视频| 亚洲va在线| 日韩av网址在线| 久久久久久久久久久久久久久国产| 精精国产xxxx视频在线中文版| 日韩中文字幕不卡| 国产婷婷成人久久av免费高清| 欧美婷婷精品激情| 玖玖在线播放| 亚洲特级片在线| 欧美中文娱乐网| 性欧美8khd高清极品| 奇米影视在线99精品| 久久久噜噜噜久久| 日本一级特级毛片视频| 怕怕欧美视频免费大全| 精品欧美一区二区三区精品久久| 久久久久福利视频| 国产视频第一区| 成人黄色在线看| 欧美美女15p| 正在播放国产对白害羞| 日韩成人av在线资源| 欧美一区二区视频免费观看| 日韩精品一区二区三区不卡 | 欧美亚洲爱爱另类综合| 国产精品一区二区黑人巨大| 久久久www| 91精品国产高清| 国产香蕉在线视频| 欧美日韩国产一区精品一区| 日韩亚洲一区二区| 国产美女永久免费无遮挡| 香蕉久久夜色精品国产使用方法 | 青青草免费在线| 成人午夜av电影| 国产成人免费电影| 懂色av蜜臀av粉嫩av分享吧| 国产成人在线观看免费网站| 91精品视频大全| 欧美成人一区二区视频| 日本亚洲视频在线| 国产成人精品视频在线观看| www.国产一区二区| 猛男gaygay欧美视频| 亚洲高清一二三区| 毛茸茸free性熟hd| 久久精品女人天堂av免费观看| 欧美日韩精品在线| 欧美大香线蕉线伊人久久| 国产综合无码一区二区色蜜蜜| 国产精品综合二区| 999在线免费观看视频| a天堂视频在线| 国产69精品一区二区亚洲孕妇 | 日韩大胆成人| 亚洲天堂av图片| 中文字幕第22页| 国产精品一区二区三区www| 欧美一激情一区二区三区| 亚洲熟女一区二区三区| 美国十次av导航亚洲入口| 欧美在线一区二区| 天天操狠狠操夜夜操| 亚洲三级电影| 色综合久久66| 中文字幕第88页| 欧美黄色一级| 亚洲黄在线观看| 亚洲一区二区自偷自拍 | 日韩中文字幕精品| 欧美丰满艳妇bbwbbw| 亚洲国产午夜| 国产精品白嫩美女在线观看| 国产精品久久久久久久一区二区| 国产福利一区二区三区视频在线| 国产伦理一区二区三区| 黄色在线免费观看大全| 亚洲天堂a在线| 9久久9毛片又大又硬又粗| 日本在线中文字幕一区二区三区| 538prom精品视频线放| 性色av蜜臀av浪潮av老女人| 欧美男男gaytwinkfreevideos| 俺去亚洲欧洲欧美日韩| 国产精品theporn动漫| 日韩福利视频网| 99久久综合狠狠综合久久止| 国产女人在线视频| 一区二区三区四区蜜桃| 无码人妻丰满熟妇区毛片18| 2019中文亚洲字幕| 日韩成人中文字幕| 搜索黄色一级片| 老司机一区二区三区| 2014亚洲精品| 91在线看片| 欧美日韩精品在线视频| 亚洲美女久久久| 日韩精品不卡| 91麻豆免费在线视频| 日韩欧美在线免费观看| 青青草视频在线免费播放| 天堂久久午夜av| 日韩av一区二区在线| 欧美老熟妇一区二区三区| 久久成人亚洲| 国产精品美女诱惑| 国产在线1区| 欧美在线综合视频| 黄色正能量网站| 极品日韩av| 欧美日韩国产二区| 中文字幕人妻一区二区在线视频 | 蜜桃av免费在线观看| 一区二区三区福利| 成人国产1314www色视频| 2019中文字幕在线视频| 色猫猫国产区一区二在线视频| 精品国产乱码久久久久夜深人妻| 亚洲经典视频| 色综合影院在线| 中文字幕乱码视频| 国产肉丝袜一区二区| 欧美亚洲精品一区二区| 久久久久观看| 国产69精品久久久久9| 国产丰满美女做爰| 自拍偷拍亚洲欧美日韩| av污在线观看| 欧美a级片视频| 国产精品亚洲片夜色在线| 一级全黄裸体免费视频| 久久久www免费人成精品| 欧美亚洲精品一区二区| 国产一级成人av| 久久久久久久久爱| 男人天堂av网| 天天爽夜夜爽夜夜爽精品视频| 妖精视频在线观看| 黑丝一区二区| 国产丝袜不卡| 天堂8中文在线最新版在线| 亚洲国产欧美一区二区三区同亚洲 | 美国一级黄色录像| 美女网站视频久久| 中文字幕在线观看一区二区三区| **国产精品| 欧美日韩999| 天堂v在线观看| 国产人伦精品一区二区| 国产av第一区| 久久久久久亚洲精品美女| 不卡伊人av在线播放| 午夜精品久久久久久久99热黄桃 | 日韩亚洲国产中文字幕| 97人妻精品一区二区三区视频| 亚洲人成小说网站色在线 | 久久久精品中文字幕| av网站免费大全| 亚洲一卡二卡三卡四卡五卡| 捆绑凌虐一区二区三区| 久久精品一本| 亚洲一区二区三区精品动漫| 欧美影院精品| 日本a级片电影一区二区| 中文日本在线观看| 日韩欧美一区二区视频| 九一国产在线观看| 国产精品久久久久一区| 久久久男人的天堂| 日韩精品国产欧美| 51xx午夜影福利| 日韩欧美影院| 成人av在线天堂| 国产传媒av在线| 中文字幕日韩av电影| 精品人妻一区二区三区浪潮在线 | 国语一区二区三区| 国产精品高精视频免费| 日韩精品卡一| 亚洲丝袜在线视频| 亚洲精品无amm毛片| 91福利在线看| 国产一级在线观看视频| 国产精品毛片大码女人| 亚洲成人激情小说| 热久久久久久久| 色欲色香天天天综合网www| 第一会所sis001亚洲| 91免费看网站| 国产激情久久| 国产91精品久久久| 日本孕妇大胆孕交无码| 亚洲最新中文字幕| 内射无码专区久久亚洲| 欧美日韩国产精品成人| 免费av网站在线| 亚洲午夜精品一区二区三区他趣| 国产又粗又硬视频| 2023国产精品视频| 精品视频免费在线播放| 水蜜桃久久夜色精品一区| 国产一区二区在线观看免费播放| 日韩五码电影| 国产精品高清在线观看| 欧美a级在线观看| 欧美—级a级欧美特级ar全黄| 三区四区在线视频| 亚洲视频综合网| 欧美日韩国产综合视频 | 国产又黄又粗又猛又爽的视频| 精品一区二区三区不卡| www.色就是色| 久久久777| 日韩欧美精品在线观看视频| 日韩一级在线| 六月婷婷在线视频| 黄色成人在线网址| 69精品丰满人妻无码视频a片| 日韩欧美一区二区三区在线视频| 欧美三级电影在线播放| 啪啪激情综合网| 韩日午夜在线资源一区二区| av动漫精品一区二区| 97中文在线观看| 欧美视频二区欧美影视| 91精品久久香蕉国产线看观看| 国产精品毛片无码| 91在线直播亚洲| 91禁在线看| 欧美激情一二区| 免费网站在线观看人| 欧美日本精品在线| 激情影院在线| 久久久久久久久久久av| 国产精品国精产品一二| 欧美精品www| caoporn-草棚在线视频最| 午夜伦理精品一区 | 国产精品入口免费视| 超碰在线免费公开| 久久视频中文字幕| 怡红院红怡院欧美aⅴ怡春院| 欧美成人合集magnet| 中国av在线播放| 午夜精品一区二区三区在线播放 | 中文字幕日韩三级片| 久久综合九色综合久久久精品综合| 菠萝菠萝蜜网站| 国产亚洲污的网站| 99久久99久久精品免费看小说.| 国产精品私人影院| 欧美老熟妇一区二区三区| 亚洲一区二区成人在线观看| 日韩少妇裸体做爰视频| 色999日韩国产欧美一区二区| 中文字幕在线观看第二页| 日韩一区二区电影网| 婷婷在线免费观看| 国产亚洲欧美视频| 国产黄色在线网站| 98精品国产高清在线xxxx天堂| 美脚恋feet久草欧美| 成人精品久久久| 国产日韩三级| 亚洲免费不卡| 伊人狠狠色j香婷婷综合| 男人天堂999| 韩国欧美国产1区| 日韩精品一区二区三区高清免费| 国产欧美综合在线| 国产精品久久久久久久精| 狠狠综合久久av一区二区小说| 少妇无套内谢久久久久| 欧美成va人片在线观看| 久久视频www| 九九热这里只有在线精品视| av高清不卡| 91网免费观看| 黑人操亚洲人| 男人添女荫道口女人有什么感觉| 久久裸体网站| 欧美乱大交xxxxx潮喷l头像| 日产欧产美韩系列久久99| 性一交一黄一片| 国产人成亚洲第一网站在线播放| 久久久精品国产sm调教网站| 在线免费不卡电影| 人妻与黑人一区二区三区| 日韩资源在线观看| 北岛玲heyzo一区二区| 亚洲一区二区在线| 国产一区二区观看| 97久久国产亚洲精品超碰热| 日韩成人精品在线| 99久久免费看精品国产一区| 国产精品久久久久aaaa| 性欧美精品男男| 亚洲福利一区二区| 国产内射老熟女aaaa∵| 91.com视频| 免费在线国产| 1769国产精品| 在线播放一区二区精品视频| 日日骚一区二区网站| 一本色道久久精品| 国产chinesehd精品露脸| 国产精品久久久99| 一级片在线免费播放| 国产网站欧美日韩免费精品在线观看 | 国产一级片播放| 欧美日韩不卡在线| 高h视频在线| 欧美制服第一页| 九九热hot精品视频在线播放| 超碰人人爱人人| 狠狠色丁香婷婷综合| 免费一级suv好看的国产网站| 色屁屁一区二区| 免费成人av电影| 欧美性资源免费| 日韩高清电影免费| 黑人糟蹋人妻hd中文字幕| www.一区二区| 一区二区三区视频免费看| 亚洲第一区在线| 超碰中文在线| 国产在线精品一区| 99pao成人国产永久免费视频| 亚洲av人人澡人人爽人人夜夜| 亚洲国产裸拍裸体视频在线观看乱了| www.av网站| 欧美激情一区二区三级高清视频| 一区二区三区国产好| www.国产在线播放| av综合在线播放| 国产精品自拍99| 国产亚洲免费的视频看| 国产一区高清| 性做爰过程免费播放| 国产老妇另类xxxxx| 欧美成人精品欧美一| 精品久久久久一区| 九色porny自拍视频在线观看| 久久国产精品久久| 日韩电影在线一区| 亚洲一级二级片| 日韩精品在线网站| 麻豆国产在线| 少妇特黄a一区二区三区| 久久精品国产秦先生| 国产精品久久久精品四季影院| 精品久久人人做人人爰| 麻豆mv在线看| 亚洲人成网站在线观看播放| 国产一区二区在线看| 久视频在线观看| 亚洲免费一在线| 婷婷激情成人| 欧美黑人经典片免费观看| 国产亚洲精品超碰| 国产理论视频在线观看| 97久久久免费福利网址| 精品理论电影| 色综合久久久无码中文字幕波多| 欧美日韩国产精品专区| 在线视频婷婷| 国产欧美一区二区在线播放| 日韩中文字幕不卡| 久草视频手机在线观看| 亚洲欧美另类自拍| 欧美特黄不卡| 亚洲国产精品毛片av不卡在线| 日韩美女视频一区二区 | 国产高清日韩| 黄色影院一级片| 亚洲视频在线一区二区| 国产又爽又黄网站亚洲视频123| 国产精品亚洲视频在线观看| 在线日韩视频| 亚洲少妇xxx| 精品亚洲夜色av98在线观看| 北岛玲精品视频在线观看| 无码aⅴ精品一区二区三区浪潮| 亚洲精品免费在线观看| 国产小视频免费在线观看| 国产91视觉|