精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大模型 VS 小模型

發(fā)布于 2024-8-20 10:40
瀏覽
0收藏

首先,我們思考一個(gè)問題,為什么 qwen2 基本上是當(dāng)下最受歡迎的開源模型?說實(shí)話,相比于 deepseek、llama、minicpm 這些誠意滿滿的技術(shù)報(bào)告,qwen2 的技術(shù)報(bào)告稍顯一些“小家子氣”,并沒有提及到關(guān)鍵的技術(shù)細(xì)節(jié)。然而,qwen2 提供給開源社區(qū)的“全家桶”套餐,又是多長的技術(shù)報(bào)告也比不上的。對(duì) llm 的研究者來說,用相同 tokenizer,相同的 7T pretrain_data 得到的“一簇小 llm”,其研究價(jià)值遠(yuǎn)遠(yuǎn)超過 Qwen2-72B 本身!

知乎: https://zhuanlan.zhihu.com/p/714399961


接下來,我們帶著兩個(gè)基本概念進(jìn)入正文:

  • 同源小模型:同 tokenizer,同訓(xùn)練數(shù)據(jù)下得到的 size 較小的llm
  • 小模型:重點(diǎn)在于“小”,推理快或者本身就是分類模型,怎么訓(xùn)的完全無所謂。較小 size 的 llm,BERT,RoBERTa,Xgboost,LR 等等都可以稱作小模型

同源小模型是大模型的實(shí)驗(yàn)場

scaling law 告訴我們:小模型的性能表現(xiàn)能用來預(yù)測大模型的性能表現(xiàn)。這也就是說,大部分情況下,我們是可以通過在同源小模型上做實(shí)驗(yàn),去預(yù)測大模型的效果的。

在 pretrain / post_pretrain 階段有很多需要做實(shí)驗(yàn)才能知道答案的問題。怎么樣的數(shù)據(jù)配比最合理,課程學(xué)習(xí)中哪種學(xué)習(xí)順序效果最好,數(shù)據(jù)的質(zhì)量是否過關(guān),數(shù)據(jù)的去重程度是否過關(guān),先訓(xùn)4k、再擴(kuò)到 32k 和直接訓(xùn) 32k 的效果差異,post_pretrain 的時(shí)候怎樣調(diào)整學(xué)習(xí)率和數(shù)據(jù)分布來防止模型斷崖式的能力遺忘?……

直接啟動(dòng)大模型的成本實(shí)在是在太高昂了,可能訓(xùn)練兩三周,loss 曲線才會(huì)表現(xiàn)出一點(diǎn)點(diǎn)差異。但我們完全可以在小模型上大膽的訓(xùn),每天訓(xùn) 100B token,兩天就能出一版實(shí)驗(yàn)結(jié)果。觀察 tensorbord 的 loss 曲線,刷 benchmark 打榜,或是做 sft 看效果,總之小模型可以幫助我們快速地敲定 pretrain 階段使用的數(shù)據(jù)配置。

在 alignment 階段,我們也可以去借助小模型和 scaling law 來指導(dǎo)工作。

我要強(qiáng)化模型的某個(gè)能力,準(zhǔn)備了 N 條訓(xùn)練數(shù)據(jù),能讓模型達(dá)到多大的提升呢?可以看看這份數(shù)據(jù)在小模型上能有大提升,繪制一條曲線,去預(yù)估大模型的性能表現(xiàn)。說的再通俗一點(diǎn),100B token 能讓 0.5B 模型下降 0.2 loss,能讓 72B 模型下降 0.1 loss, alignment 數(shù)據(jù)能讓 0.5B 模型提高 x% 的 task 能力,那么大概率這份數(shù)據(jù)也只能讓 72B 模型提升 0.5x % 的 task 能力。

  • 已知:Qwen2-0.5B + few shot
  • 已知:Qwen2-0.5B + SFT + zero_shot
  • 已知:Qwen2-1.5B + few shot
  • 已知:Qwen2-1.5B + SFT + zero_shot
  • ……
  • 已知:Qwen2-72B + few shot
  • 預(yù)測:Qwen2-72B + SFT + zero_shot

但其實(shí),在 alignment 階段,小模型的實(shí)驗(yàn)指導(dǎo)意義并不是特別強(qiáng),畢竟小模型的最大優(yōu)勢在于訓(xùn)得快,做實(shí)驗(yàn)快。由于 alignment 的數(shù)據(jù)量不大,我們往往可以直接對(duì)目標(biāo)大模型進(jìn)行訓(xùn)練來驗(yàn)證結(jié)果。這里的指導(dǎo)意義,往往是在我們需要大量數(shù)據(jù)去強(qiáng)化模型某個(gè)能力時(shí)才顯得有意義,比如代碼強(qiáng)化、創(chuàng)作能力增強(qiáng)。

在這里,額外需要強(qiáng)調(diào)兩個(gè)點(diǎn):

  • 小模型需要使用較大的學(xué)習(xí)率,而大模型學(xué)習(xí)能力強(qiáng)、特征空間稀疏,往往需要使用較小的學(xué)習(xí)率;
  • 強(qiáng)如 meta,據(jù)說也訓(xùn)崩了千億級(jí)別參數(shù)的 MOE 模型。換句話說,MOE 的 scaling law 可能還不成熟,或者是 MOE 缺少一個(gè)像 llama 一樣的能穩(wěn)定訓(xùn)練的標(biāo)準(zhǔn)結(jié)構(gòu),其在小模型上的優(yōu)異表現(xiàn)可能無法復(fù)現(xiàn)在大模型上。

大模型是同源小模型的良師

首先,大模型的效果就是同源小模型不可達(dá)到的 ceiling,這點(diǎn)毋庸置疑。(實(shí)際工作中,知道模型效果的上限,是一件非常有意義的事情)。

除此之外,大模型可以在訓(xùn)練中給到同源小模型極大的幫助。

模型蒸餾

“distill”是 BERT 時(shí)代非常火的一個(gè)技術(shù)方案,現(xiàn)在卻提及的不太多了,歸根到底就是蒸餾對(duì)“同源 tokenizer”的要求太硬了。不過同源小模型沒有這個(gè)顧慮,蒸餾技術(shù)就像是為同源小模型的效果強(qiáng)化量身定制的技術(shù)方案一樣。

先澄清一個(gè)概念,目前的大部分論文都把“利用 GPT4 造數(shù)據(jù),喂給小模型去訓(xùn)練“叫做蒸餾,這種叫法也沒錯(cuò),不過更準(zhǔn)確的叫法應(yīng)該是”知識(shí)蒸餾“:讓小模型去學(xué)習(xí)大模型的知識(shí)能力。而傳統(tǒng)的“模型蒸餾”,指的是我們不再讓模型學(xué)習(xí) hard-label,而是 soft-label:

  • hard_label:“臺(tái)灣屬于”,在預(yù)測下一個(gè) token 的時(shí)候,“中國”的概率是 1,其他所有 token 的概率是 0;
  • soft_label:“臺(tái)灣屬于”,在預(yù)測下一個(gè) token 的時(shí)候,“中國”的概率是 0.3,“中華”的概率是 0.2,“大陸”的概率是 0.1……

不管從哪個(gè)角度考慮,似乎 soft_label 都是蘊(yùn)含更多信息量可學(xué)習(xí)的。因此,利用大模型去“模型蒸餾”小模型,很有可能能得到一個(gè)能力遠(yuǎn)高于同等 size 的小模型,Google 的 Gemma 小模型 就應(yīng)用了這項(xiàng)技術(shù)方案。

(模型蒸餾之所以在 llm 方向做的少,其實(shí)還是因?yàn)榈貌粌斒?,其?duì)算力和存儲(chǔ)的需求較大,與模型的效果提升不成正比。畢竟正常訓(xùn)練學(xué)的是 seq_len 個(gè) one_hot label,蒸餾學(xué)的是 seq_len * vocab_size 的 logits,一個(gè)比較現(xiàn)實(shí)的方案是做 clip,只取最大的 N 個(gè) token logits 標(biāo)簽進(jìn)行學(xué)習(xí),其他 token 的概率依然視為 0)

reward_model

用大模型來充當(dāng)小模型的 reward_model,目前是一個(gè)很流行的做法,而用同源大模型去做 reward_model 則更是一個(gè)錦上添花的方案。

與蒸餾不同,蒸餾看中的是兩個(gè)模型“tokenizer 同源”,reward_model 看中的則是兩個(gè)模型“pretrain 數(shù)據(jù)同源”。也就是說,我們的 reward_model 和 policy_model 具有同等的知識(shí)量,兩個(gè)模型的學(xué)習(xí)成績雖然不一樣,但它們上過的的課程卻是一樣的。reward_model 會(huì)的知識(shí),就是 policy_model 學(xué)過的知識(shí):“我學(xué)過并且我掌握了,你學(xué)過但你沒掌握,所以我給你打低分就是合理的?!?/p>

雖然在實(shí)際工作中,一個(gè)同源 reward_model 可能沒有 GPT4 這種“天才 reward_model ”帶來的效果更好。但其往往能給出更公允的打分,進(jìn)而避免過多的幻覺產(chǎn)生。這也是 alignment 的一大痛點(diǎn),模型到底是訓(xùn)過擬合了才答錯(cuò)這個(gè)知識(shí),還是壓根就沒學(xué)過這個(gè)知識(shí) —— 交給同源大模型來判斷。

大模型背后的無數(shù)小模型

OK,同源模型的意義我們就談到這里,后面我們開始談?wù)嬲摹靶 蹦P停?strong>一個(gè)優(yōu)秀的大模型,無論是在訓(xùn)練階段,還是線上部署階段,其背后默默付出的小模型都數(shù)不勝數(shù)。

數(shù)據(jù)質(zhì)量分類器:llama3 和 qwen2 都提到了,他們的 pretrain 訓(xùn)練數(shù)據(jù)是有得分的,然后通過閾值來找出最高質(zhì)量的訓(xùn)練數(shù)據(jù),開源 pretrain 數(shù)據(jù)集 fineweb 也提到了他們給數(shù)據(jù)打分的工作。Good data makes good model performance!李沐大佬在他的視頻里說到,llama3 的數(shù)據(jù)打分器是 RoBERTa,這很合理,效果又好、推理又快的分類模型確實(shí)還要看 BERT 家族。

數(shù)據(jù) domain 分類器:垂直領(lǐng)域模型的 post_pretrain 工作,往往需要非常精準(zhǔn)的數(shù)據(jù)配比,domain 數(shù)據(jù)的數(shù)據(jù)質(zhì)量也需要非常優(yōu)質(zhì)。這也就是說,我們需要一個(gè)分類器,去提取海量數(shù)據(jù)中的 domain 數(shù)據(jù),這個(gè)分類器最好還能把低質(zhì)量的 domain 數(shù)據(jù)也視為非 domain 數(shù)據(jù),通常承擔(dān)這個(gè)工作的模型也是 BERT 家族。

線上模型的分類器:眾所周知,RAG 模塊已經(jīng)是 llm 的標(biāo)配,我們總不能讓模型自己判斷該不該做檢索吧?雖然不是不行,但是額外生成“是否RAG”這些 token 會(huì)降低系統(tǒng)的響應(yīng)速度,并且可能降低模型的通用能力(模型學(xué)的越多,忘的也越多)。因此,線上模型往往都是前置掛一個(gè)小模型,來判別是否需要 RAG,同理也需要判別是否觸發(fā) safety,是否觸發(fā)工具鏈等。

RAG 模型:這個(gè)模型更是重量級(jí),也就是咱們傳統(tǒng)的信息檢索模型,如何從海量 docs 里面選出最相關(guān)的 doc。BGE 是這個(gè)工作較為常用的模型。

數(shù)據(jù)生產(chǎn)模型:

  • “小模型 + SFT > GPT4 + zero_shot ”幾乎是數(shù)據(jù)生產(chǎn)階段最常用的公式了。我們?cè)跀?shù)據(jù)生產(chǎn)階段往往面臨幾個(gè)困境,GPT4 并不是百分之百按照我們指定的格式進(jìn)行輸出(復(fù)雜指令任務(wù)尤為明顯),GPT4 真的很貴,特別是在生產(chǎn)多輪對(duì)話數(shù)據(jù)的時(shí)候。這種情況下,最好的方案就是用一個(gè)小模型去學(xué)目標(biāo) task 的高精數(shù)據(jù),讓這個(gè)小模型過擬合,進(jìn)而變成一個(gè)標(biāo)準(zhǔn)的 task 數(shù)據(jù)生產(chǎn)器;
  • 以 role_play 任務(wù)為例,很多場景是需要人不斷和 GPT4 聊天來生產(chǎn)高質(zhì)量的對(duì)話數(shù)據(jù)的,我們的模型做不到 GPT4 那樣能準(zhǔn)確拿捏角色性格的程度,但扮演一個(gè)“多事兒的用戶”還是綽綽有余的。訓(xùn)一個(gè)聊天模型,讓它和 GPT4 聊天來自動(dòng)化大量生產(chǎn)數(shù)據(jù)。

這里,我再分享一些個(gè)人使用小模型時(shí)的 trick:

學(xué)會(huì)變通,生成模型也可以當(dāng)判別模型使用。簡單來說,如果我們懶得去找一份 BERT 代碼去訓(xùn)一個(gè)分類器,我們也可以直接訓(xùn)一個(gè) Qwen2-0.5B,讓它只會(huì)輸出 0 和 1,當(dāng)我們的模型完全過擬合到 0 和 1 的時(shí)候,那么所有 token 中便只有 0 和 1 有概率,其他 token 的概率幾乎為零。此時(shí),我們用 1 所對(duì)應(yīng)的 token_probability,不就是分類器的打分嗎?當(dāng)然,更優(yōu)雅的做法是把 pretrain_model 的 lm_head 替換成 reward_model 的 lm_head。

另外,一個(gè)優(yōu)秀的大模型,無論是在訓(xùn)練階段,還是線上部署階段,其背后默默付出的小模型都數(shù)不勝數(shù)。。這句話怎么說呢,是我在訓(xùn) domain 分類器的時(shí)候,發(fā)現(xiàn) Qwen2-1.5B 的準(zhǔn)確率和召回率都不如 Qwen2-0.5B 高。在一番討論和實(shí)驗(yàn)分析之后,我認(rèn)可了大佬同事的觀點(diǎn):模型越大,其學(xué)習(xí)能力越強(qiáng),但也意味著其更容易過擬合。

傳統(tǒng)機(jī)器學(xué)習(xí)模型做的事情都是特征抽取,去從輸入的特征中提取出看不到的特征,像 xgboost 這種還會(huì)計(jì)算每個(gè)特征的重要程度。但由于 llm 的參數(shù)量足夠大,再加上 decoder_only 的結(jié)構(gòu),它真的可以做到記住所有的輸入特征(decoder_only 是一個(gè)純信息檢索結(jié)構(gòu),它不壓縮任何 token 信息,和 BERT 的 CLS 位壓縮信息完全是兩種做法)。

因此,較大的模型雖然上限更高,但其所依賴的數(shù)據(jù)質(zhì)量也更高,如果你的訓(xùn)練數(shù)據(jù)是有失偏頗的,分布不均衡的,它完全可以記住這些數(shù)據(jù)的 pattern,而不是從這些 pattern 中抽取共同特征。我的 0.5B 模型效果好于 1.5B 模型大概率就是這種情況:我使用了 4 個(gè)數(shù)據(jù)源作為訓(xùn)練集,但測試集來自于 10 個(gè)數(shù)據(jù)源。

寫在最后

誠然,大模型的出現(xiàn),解決了困擾 nlp 多年的指代消解、多輪理解、對(duì)話人設(shè)等瓶頸,但小模型的信息壓縮、特征抽取等依然是非常有意義的。我們?cè)诠ぷ髦校€是應(yīng)該多考慮一下能不能用小模型來解決問題,找找我們的老朋友 BERT,而不是二話不說就打開 GPT4 寫 prompt。

本文轉(zhuǎn)載自??NLP工作站??,作者: ybq ????

收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
91色九色蝌蚪| 欧美极品在线观看| 亚洲一区二区三区视频在线| 国产精品久久九九| www.欧美色| 亚洲成av人片乱码色午夜| 日韩美女在线视频| 777米奇影视第四色| 日本三级视频在线播放| 成年人国产精品| 国产精品久久久久久婷婷天堂| 亚洲不卡在线播放| 亚洲精品合集| 成年人在线看| 免费成人在线视频观看| 精品中文字幕视频| 亚洲成人网在线播放| 豆花视频一区| 在线观看免费成人| 国产妇女馒头高清泬20p多| 1024视频在线| 91在线视频官网| 亚洲xxxxx电影| 日韩综合在线观看| 在线看片成人| 久久人人爽人人爽人人片亚洲| av无码一区二区三区| 亚洲欧洲一二区| 在线看不卡av| 男人天堂999| 蜜臀av在线| 一区在线观看免费| 日韩av高清| 三级视频在线播放| 国产成人8x视频一区二区| 国产精品视频自拍| 日本黄色一级视频| 国产精品资源| 高清欧美一区二区三区| 国产精品丝袜一区二区| 欧美少妇性xxxx| 亚洲女人天堂网| 性欧美丰满熟妇xxxx性久久久| 一区二区三区视频播放| 91精品国产欧美日韩| 国产精品一区二区羞羞答答| 在线黄色的网站| 亚洲成人福利片| 妞干网在线播放| a级影片在线| 亚洲美女视频一区| 四虎4hu永久免费入口| 免费大片在线观看www| 欧美国产一区二区在线观看 | 黄色片网站在线免费观看| 五月婷婷久久久| 高清精品久久| 欧美肥妇毛茸茸| 拔插拔插华人永久免费| 久久天堂影院| 在线成人av网站| 亚洲制服在线观看| 亚洲乱码一区| 亚洲国产欧美久久| 91精品国产自产| 亚洲女娇小黑人粗硬| 亚洲精品一区二区久| 超碰97人人干| 成人在线视频免费观看| 日韩中文字幕网| 懂色av懂色av粉嫩av| 欧美黄色免费| 午夜免费在线观看精品视频| 国产精品黄色大片| 天堂精品中文字幕在线| 国产精品久久久久秋霞鲁丝| 亚洲在线精品视频| 国产激情视频一区二区三区欧美| 国产精品毛片va一区二区三区| 污污网站在线免费观看| 久久精品一二三| 影音先锋欧美资源| 欧美24videosex性欧美| 精品福利樱桃av导航| 国产精品无码av无码| 福利精品一区| 日韩精品一区二区三区三区免费 | 久久精品亚洲一区| 麻豆一区产品精品蜜桃的特点| 99国产精品99久久久久久粉嫩| 奇米四色中文综合久久| 在线视频免费观看一区| 成人午夜伦理影院| 日韩精品久久一区| 黄色片免费在线观看| 天天综合日日夜夜精品| 日本a√在线观看| 亚洲一区二区三区中文字幕在线观看 | 成人性生交大片免费观看网站| 91久久奴性调教| www.日本久久| 亚洲综合小说图片| 乱亲女秽乱长久久久| 国产成人亚洲欧洲在线| 麻豆精品一区二区三区| 国产精品一码二码三码在线| 91女主播在线观看| 午夜精品福利在线| 奇米视频7777| 牛牛精品成人免费视频| 按摩亚洲人久久| 日本一级淫片免费放| 久久国产人妖系列| 久久久久久国产精品mv| 国产素人视频在线观看| 欧美视频中文字幕在线| 一卡二卡三卡四卡五卡| 精品久久久久久久久久久下田| 欧美激情亚洲精品| 国产一区二区三区中文字幕 | 91精品免费观看| 少妇久久久久久久久久| 激情久久综合| 亚洲一区二区三区成人在线视频精品| 欧美成人片在线| 亚洲国产精品视频| 国产高清av片| 色婷婷色综合| 日韩av电影免费观看高清| 亚洲精品一区二区三区区别| 国产精品不卡在线观看| 又色又爽又高潮免费视频国产| 北条麻妃一区二区三区在线| 久久人人爽亚洲精品天堂| 波多野结衣电影在线播放| 成人av网站在线观看免费| 中国一级大黄大黄大色毛片| 国产91在线精品| 亚洲日本成人网| 四虎成人永久免费视频| 成人黄色国产精品网站大全在线免费观看| 色爽爽爽爽爽爽爽爽| 色婷婷成人网| xxxx性欧美| 91久久精品国产91性色| 在线观看国产黄| 国产欧美综合在线观看第十页| 欧美v在线观看| 亚欧日韩另类中文欧美| 97国产一区二区精品久久呦| 亚洲成熟女性毛茸茸| 有坂深雪av一区二区精品| 超碰中文字幕在线观看| 欧美a级在线| 99久热re在线精品视频| 性xxxfreexxxx性欧美| 日韩欧美在线1卡| 久久中文字幕在线观看| 成人午夜电影久久影院| 欧洲精品一区二区三区久久| 第四色在线一区二区| 97婷婷大伊香蕉精品视频| 天天干天天操av| 欧美性生交xxxxx久久久| 亚洲av无码一区二区二三区| 日韩高清一区在线| 亚洲巨乳在线观看| 成人豆花视频| 欧美激情精品久久久久久大尺度 | 亚洲日韩中文字幕| www.久久视频| 国产精品对白交换视频 | 国产成人免费av一区二区午夜| 美女撒尿一区二区三区| 亚洲国产av一区二区| 欧美色道久久88综合亚洲精品| 中文字幕丰满乱子伦无码专区| 日韩av中文字幕一区二区三区| 亚洲最大免费| 91精品丝袜国产高跟在线| 欧美性受xxxx白人性爽| 岛国大片在线观看| 欧美一级一级性生活免费录像| 久久影院一区二区| 久久亚区不卡日本| 亚洲黄色片免费| 亚洲精品女人| 亚洲综合av一区| 国产精品超碰| 国产精品久久久久久久av电影| 国产三级在线播放| 亚洲精品自在久久| 国产男男gay网站| 在线观看特色大片免费视频| 日韩精品中文字幕在线播放| 在线观看亚洲一区二区| 亚洲成在人线在线播放| 日韩欧美黄色网址| 懂色av一区二区三区蜜臀| 不卡av免费在线| 国内精品美女在线观看| 亚洲国产精品综合| 粉嫩的18在线观看极品精品| 国产精品久久久久久久久久新婚| 久草在线资源站资源站| 在线播放国产精品| 国产91免费在线观看| 欧美日韩视频一区二区| 日韩三级一区二区三区| 亚洲欧美日韩中文字幕一区二区三区| 性欧美丰满熟妇xxxx性仙踪林| 国产一区二区三区国产| 三级4级全黄60分钟| 欧美成人亚洲| 在线丝袜欧美日韩制服| 亚洲自拍电影| 国产一区视频观看| 精品一区91| 国产精品美乳一区二区免费 | 青青操视频在线| 精品国产乱码久久久久久蜜臀| 亚洲视频一区在线播放| 色噜噜狠狠一区二区三区果冻| 国产一级做a爰片在线看免费| 亚洲欧洲精品一区二区精品久久久| 国产吞精囗交久久久| 成人美女视频在线看| 中文字幕乱码在线人视频| 麻豆成人av在线| 三年中国国语在线播放免费| 国产日韩欧美一区在线| 欧日韩免费视频| 国模吧视频一区| 4444亚洲人成无码网在线观看| 国产大片一区| 亚洲区一区二区三区| 精品国产一区二区三区小蝌蚪 | 色综合天天爱| 日韩资源av在线| 伊人春色之综合网| 久久福利电影| 午夜欧洲一区| 久草一区二区| 制服丝袜日韩| 日本精品国语自产拍在线观看| 香蕉一区二区| 欧美黑人xxxxx| 国产一区二区欧美| 国内成+人亚洲+欧美+综合在线| 国产又黄又爽免费视频| 五月婷婷亚洲| 裸体大乳女做爰69| 欧美激情麻豆| 日韩精品一区在线视频| 亚洲成人在线| 日日鲁鲁鲁夜夜爽爽狠狠视频97 | 色婷婷在线视频| 日韩av影视在线| 黄色av网址在线免费观看| 亚洲欧美一区二区激情| 国产高清av在线| 丝袜亚洲欧美日韩综合| 国产欧美久久久久久久久| 久久在精品线影院精品国产| av在线下载| 久久久久久久一| 在线毛片观看| 国产精品偷伦视频免费观看国产| 欧美性生活一级| 99国产超薄丝袜足j在线观看| 91成人午夜| 欧美一区激情视频在线观看| 成人在线亚洲| 日韩欧美猛交xxxxx无码| 日韩亚洲国产欧美| 男人的天堂日韩| 国产精品 日产精品 欧美精品| 在线观看国产免费视频| 欧美国产精品中文字幕| 久久久久亚洲av片无码| 亚洲乱码中文字幕| 日韩欧美a级片| 欧美视频完全免费看| 99热这里只有精品5| 亚洲精品二三区| 午夜视频在线看| 国外成人在线播放| 久久av影院| 国产一区二区无遮挡| jizzjizz欧美69巨大| 日韩精品一区二区在线视频| 日日夜夜一区二区| 性生交大片免费看l| 久久精品人人做人人综合 | 亚洲一区二区自偷自拍| 亚洲蜜桃精久久久久久久| 毛片视频网站在线观看| 欧美日韩亚洲另类| 日本久久一级片| 日韩在线视频中文字幕| 欧美激情护士| 91影院未满十八岁禁止入内| 久久99性xxx老妇胖精品| 亚州国产精品久久久| 午夜激情福利网| 午夜精品久久久久久久久久| 97成人在线观看| 亚洲精品视频网上网址在线观看| 综合久久2019| 国产日本欧美在线观看| 另类在线视频| 看一级黄色录像| 蜜臀久久99精品久久久久久9| 成人在线电影网站| 亚洲美女区一区| 一区二区不卡视频在线观看| 亚洲精选一区二区| 97久久人人超碰caoprom| 国产精品自产拍在线观| 一道本一区二区三区| 男人天堂a在线| 国产一区二区福利| 超碰人人干人人| 色噜噜偷拍精品综合在线| 午夜av免费在线观看| 久久99热精品| 国产精品亚洲一区二区在线观看| 日韩视频专区| 日韩精品五月天| 国产熟妇久久777777| 黑人巨大精品欧美一区二区三区 | 日本一道在线观看| 免费人成网站在线观看欧美高清| 久久人人爽人人爽人人片| 亚洲综合色成人| 国产黄a三级三级看三级| 日韩中文字幕在线视频| 91另类视频| 日韩精品久久久免费观看| 日韩精品亚洲专区| 在线小视频你懂的| 色一区在线观看| 国产一二在线观看| 日本中文字幕久久看| 国产伦一区二区三区| 亚洲精品乱码久久久久久自慰| 久久伊人中文字幕| 久久精品视频5| 亚洲免费一级电影| 色香欲www7777综合网| 欧美系列一区| 免费在线观看一区二区三区| 欧美自拍偷拍网| 3d成人动漫网站| 黄网在线免费看| 久久av一区二区三区亚洲| 亚洲综合电影一区二区三区| 精品人妻一区二区三区香蕉 | 国产99久久精品一区二区300| 国产精品免费入口| 欧美激情综合在线| 国产又粗又长又黄| 久热精品视频在线观看一区| 久久国产精品美女| 欧美一级欧美一级| 91日韩精品一区| 免费在线不卡av| 麻豆国产精品va在线观看不卡| 中日韩在线观看视频| 国产精品灌醉下药二区| av综合在线观看| 午夜精品视频网站| 国内精品久久久久久久影视简单| 日日噜噜夜夜狠狠| 亚洲精品一二三| 欧美色18zzzzxxxxx| 国产美女精品视频| 亚洲午夜一级| 亚洲a v网站| 日韩欧美国产三级| 悠悠资源网亚洲青| 亚洲一二区在线| av一二三不卡影片| 中文在线a天堂| 欧美黑人xxxⅹ高潮交| 免费电影一区二区三区| 加勒比av中文字幕| 精品成人久久av| 男人天堂手机在线| 国产一区二区三区av在线| 日韩av不卡一区二区| 黄视频网站免费看| 精品中文视频在线| 国产精品欧美一区二区三区不卡 | 岛国片av在线| 欧美在线视频二区| 国产精品综合二区| 成人毛片一区二区三区| 久久久久久久久久久91| 第一社区sis001原创亚洲|