精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

240萬億巨量數據被洗出,足夠訓出18個GPT-4!全球23所機構聯手,清洗秘籍公開

人工智能 新聞
是時候把數據Scale Down了!Llama 3揭示了這個可怕的事實:數據量從2T增加到15T,就能大力出奇跡,所以要想要有GPT-3到GPT-4的提升,下一代模型至少還要150T的數據。好在,最近有團隊從CommonCrawl里洗出了240T數據——現在數據已經不缺了,但你有卡嗎?

是時候把數據Scale Down了!

如今,這個問題已經迫在眉睫。

清華博士秦禹嘉表示,Llama 3就揭示了一個嚴峻且悲觀的現實:在不改變模型架構的情況下,將數據量從2萬億(2T)增加到15萬億(15T),就能大力出奇跡。

圖片

這也就意味著,從長遠來看,基座模型的發展機會,只能獨屬于大公司。

而考慮到Scalng Law的邊際效應,如果我們希望在下一代模型身上看到從GPT-3到GPT-4級別的演進,就需要至少再清洗出至少10個數量級的數據(比如150T)。

就在最近,好消息來了!

DCLM團隊從CommonCrawl里,清洗出了240T的數據。

圖片

論文地址:https://arxiv.org/abs/2406.11794

顯然,這給Scaling Law的支持者們帶來了福音——數據是不缺的,然而,你有卡嗎?

后Scaling Law時代:不要Scale Up,要Scale Down

誠然,擴大數據規模非常重要,但如何縮減規模并提高每單位數據的質量,也同樣關鍵。

模型的智能來自于數據壓縮;反之,模型也會重新定義數據的組織方式。

秦禹嘉總結了以下多篇論文的內容后,給出了非常具有綜合性的高度總結。

圖片

論文地址:https://arxiv.org/abs/2405.20541


圖片

論文地址 :https://arxiv.org/abs/2406.14491

圖片

項目地址:https://azure.microsoft.com/en-us/products/phi-3

DeepSeekMath::https://arxiv.org/abs/2402.03300

DeepSeek-Coder-V2:https://arxiv.org/abs/2406.11931

首先,最簡單的方法,就是使用模型過濾掉噪聲數據:

(1)PbP使用小模型的困惑度來過濾數據,從而獲得了可以顯著提高大模型性能和收斂速度的數據;

(2)DeepSeek使用fastText清理高質量數據,在數學和代碼場景中取得了出色的成果;

(3)DCLM進行了更詳細的消融研究,發現與BGE嵌入、困惑度等相比,fastText表現最佳。

這些研究無一例外有著相似的發現:「干凈數據+小模型」,可以極大地接近「臟數據+大模型」的效果。

從這個角度來看,增加模型規模,本質上就是讓我們看到在臟數據上訓練的模型能力的上限。

也即是說,大模型在訓練過程中通過使用更多冗余參數自動完成了去噪過程,但如果提前進行數據去噪,實際上需要的模型參數量并不大。

同樣可以得出結論,通過數據微調把大模型打磨得很好,并不意味著訓練大模型效果就會更好。

原因在于:「干凈數據+大模型」和「臟數據+大模型」的效果,不會有太大差異。

總而言之,在前Scaling Law時代,我們強調的是Scale Up,即在數據壓縮后爭取模型智能的上限;在后Scaling Law時代,需要比拼的則是Scale Down,即誰能訓出更具「性價比」的模型。

目前主流的數據縮減方法,是基于模型的數據去噪。

最近,也有一些研究開始使用訓好的模型來改寫預訓練數據。這個過程就需要注意,避免模型在改寫過程中生成虛假信息,同時還要有效地去除數據中的固有噪聲。

Phi-2/Phi-3的成功也驗證了這一點:如果預訓練級別的數據可以被機器處理,用小模型擊敗大模型是很容易的。

不過,目前的方法仍然專注于單個數據點的質量提升,但是在未來,更重要的研究方向就是如何對多個數據點進行語義級別的去重和合并。

這雖然困難,但對Scale Down意義重大。

下面就讓我們看一下,DCLM團隊的這篇論文。

DataComp-LM(DCLM)基準

為了應對訓練數據各種挑戰,研究人員引入了DataComp-LM(DCLM),是語言模型訓練數據管理的「第一個基準」。

圖片

傳送門:https://www.datacomp.ai/dclm/

在DCLM中,他們提出了全新的訓練集和數據管理算法,然后通過使用固定的方法,訓練模型以評估數據集。

通過測量由此產生的模型在下游任務上的表現,研究人員可以量化相應訓練集的優勢和劣勢。

接下來,為了實現DCLM,研究人員開發了一個全面的實驗測試平臺,包含了多個重要的組件。

圖片

其中一個關鍵的組件,便是最大的語言模型訓練語料庫DCLM-POOL。

這是從未經過濾的爬蟲網站Common Crawl上,扒下來來足足有240T的數據集,涵蓋了2023年之前所有的數據。

具體來說,DCLM-POOL包含2000億個文檔(gzip壓縮后為370TB),產生了240萬億個GPT-NeoX token。

據介紹,獲取如此龐大的數據,是通過resiliparse架構從HTML中重新提取文本,與Common Crawl原本預處理的方法并不相同。

圖片

此外,在訓練AI語言模型時,有時候用來測試模型的數據會不小心混入訓練數據中。這就像LLM在考試前偷看了試卷,這可能會導致測試結果不準確。

然而,這些樣本對下游性能的影響,在很大程度上業界研究人員對此仍不清楚。

為了讓人們更好地理解這一問題,研究人員并沒有去清理數據,而是發布了「去數據污染」的工具。

這一工具,可以讓參與者檢查自己的測試集和訓練集,是否有重疊的情況,并提交相關的報告。

對于那些表現最好的AI模型,研究人員會特別檢查它們是否「作弊」。

同樣,論文的研究人員也將這一工具,應用在了DCLM-POOL,以評估數據污染是否影響模型。

不同參數LLM都可PK

為了確保DCLM對擁有不同計算資源的研究人員能夠訪問,并推動對Scaling Law趨勢的研究,研究人員創建了跨越三個數量級計算規模的不同競賽級別(表1)。

圖片

每個級別(即400M-1x、1B-1x、1B-5x、7B-1x和7B-2x)指定了模型參數的數量和一個Chinchilla乘數。

比如,7B-1x中,7B表示模型有70億參數,1x是Chinchilla乘數。

每個級別訓練token數量=20×參數數量×Chinchilla乘數。其中,1x乘數對應的計算資源分配接近Hoffmann等人研究中發現的最優水平。

這樣多種參數規模競賽的設計,存在一個問題——當增加計算規模時,數據整理方法的排名可能會發生變化。

由此,研究人員比較了10種方法在不同參數規模(400M-1x、1B-1x和7B-1x)下的表現。

結果發現,小參數(400M-1x、1B-1x)和大參數(7B-1x)結果之間存在高度相關性。

圖片

兩大賽道

在參與者選擇了參數規模后,還需從兩個基準測試賽道選擇其一:過濾和混合。

圖片

1)在過濾賽道中,參與者提出算法從候選池中選擇訓練數據。有五個不同規模的數據池,對應(表1)不同的計算規模,這些池是DCLM-POOL的隨機文檔子集。研究人員根據參數規模限制初始池的大小,以模擬現實世界的約束。

2)在混合賽道中,允許參與者從多個來源自由組合數據,創造出最好的「配方」。比如,他們可以從DCLM-POOL、自定義爬取的數據、Stack Overflow和維基百科合成數據文檔。

訓練

為了單獨研究數據集干預的效果,研究人員還在每種參數規模上固定一個訓練方案。

基于之前對模型架構和訓練的消融實驗,他們采用了一個僅有解碼器的Transformer模型(例如,GPT-2,Llama),該模型在OpenLM中實現。

下表中詳細列出了模型的超參數。

圖片

評估

研究的完整評估套件基于LLM-Foundry,包含53個適合基礎模型評估的下游任務(即無需微調)。

從問答到開放式生成格式,涵蓋了編碼、教科書知識和常識推理等各種領域。

為了評估數據整理算法,主要關注三個性能指標: 

1. MMLU 5-shot準確率 

2. CORE中心準確率

3. EXTENDED中心準確率

用DCLM構建高質量數據集

接下來,一起看看研究人員是如何使用DCLM構建高質量訓練數據集,整個流程如下圖4所示。

圖片

首先,研究人員對表2中幾個著名的數據集進行了評價,發現RefinedWeb在7B-1x規模的核心和擴展指標上表現最好。

圖片

有趣的是,RefinedWeb是完全從Common Crawl數據中過濾而來。

RefinedWeb采用了以下過濾管線:Common Crawl文本提取、啟發式數據選擇、重復數據內容刪除。

圖片

文本提取

文本提取是一個常見的早期處理步驟,用于從原始HTML中提取內容。

為了理解這一步驟的影響,研究人員比較了三種文本提取方法:resiliparse、trafilatura(RefinedWeb使用)和Common Crawl提供的包含預先提取文本的WET文件。

然后,對每種文本提取結果應用RefinedWeb的啟發式質量過濾器。

圖片

在表3中,研究人員發現resiliparse和trafilatura都比WET提取至少提高了2.5個CORE得分。

這很重要,因為大多數開源數據集,包括C4、RedPajama和Dolma-V1,都使用WET提取,這可能部分解釋了它們在表2中表現較差的原因。

雖然resiliparse和trafilatura在下游任務性能上相似,但resiliparse的運行速度快8倍,因此更適合大規模處理。

圖片

由此,如前文所述,研究人員最終選擇采用了resiliparse策略。

數據去重

網絡爬蟲的數據集,通常包含許多復或接近重復的數據字符串。

而從訓練集中刪除這些重復項有著雙重目的,既可以減輕LLM記憶來提高性能,又可以增加數據多樣性。

為了去重,研究人員探索了算法MinHash(作為后綴數組管線一部分),以及近似重復的Bloom過濾器(對精確文檔和段落重復數據刪除修改后的方案)。

結果發現,這兩種方法在下游的表現中,性能相當。

在7B-2x參數規模下,差異在0.2個CORE百分點以內。不過,修改后的Bloom過濾器更容易擴展到10TB的數據集。

圖片

質量過濾

文獻表明,使用可學習模型作為質量過濾器,可以帶來下游的改進。

研究人員比較了多種基于模型的過濾方法——

1. 使用PageRank得分進行過濾,根據文檔與其他文檔鏈接的可能性來保留文檔;

2. 語義去重(SemDedup),刪除具有相似信息內容的文檔;

3. 線性分類器,基于預訓練的BGE文本嵌入;

4. AskLLM,通過提示大語言模型來查看文檔是否有幫助;

5. 困惑度過濾,遵循CCNet保留低困惑度序列,

6. Top-k平均對數:對文檔中所有單詞的top-k模型對數進行平均,以評定模型對k個合理選擇范圍內的正確單詞有多大信心;

7. fastText二元分類器,用于區分數據質量。

比較表4中的各個方法后研究人員發現,基于fastText的過濾優于所有其他方法。

圖片

為了更好地理解fastText的局限性,研究人員訓練了幾個變體,探索參考數據、特征空間和過濾閾值的不同選擇,如表5所示。

圖片

研究人員發現,在控制其他超參數時,與傳統選擇相比,fastText OH-2.5+ELI5方法的 CORE提升了3.5個百分點。

那么,使用OH-2.5數據進行過濾,是否會妨礙指令調整帶來的額外增益呢?

研究人員發現,情況并非如此。

數據混合

業內的常見做法是,將Common Crawl和其他高質量數據源結合起來,如Wikipedia、arXiv、Stack Exchange和peS2o。

將高質量源添加到僅源自Common Crawl的訓練集,有哪些潛在好處?

研究人員將100%過濾的CC數據訓練的模型,與使用Llama1和RedPajama的混合比例訓練的模型進行了比較。

表6中的結果表明,混合可提高性能較低的CC子集;然而,在高性能過濾的情況下,混合可能會適得其反。

圖片

數據清洗

隨后,研究人員進行了分析,以檢查未經評估的預訓練數據污染,是否會影響到結果。他們將重點放在MMLU上。

作為實驗,研究人員還嘗試檢測并刪除MMLU中存在于DCLM-BASELINE中的問題。

結果如表7所示——污染樣品的去除,并不會導致模型的性能下降。

由此可見,MMLU的性能提升并不是由數據集中MMLU的增加引起的。

圖片

在Dolma-V1.7和FineWeb-Edu上應用上述去除策略可知,DLCM-BASELINE的污染統計數據,和其他高性能數據集大致相似。

圖片

擴展萬億token

最后,研究人員測試了DCLM基準上,數據集在更大參數規模(萬億token)下的表現。

為此,確保訓練模型廣泛適用,他們還構建了一個4.1T token的數據集,將3.8T的DCLM-BASELINE與StarCoder、ProofPile2數據相結合,包含了數學和編碼任務。

得到數據集之后,研究人員在其之上訓練了一個7B參數的模型,使用了2.5T token,以及與最大競賽參數規模相同的超參數。

其中,還采取了特殊的訓練策略,包括兩個冷卻階段(在200B和270B token時),以及「模型湯」(model soup)。

之后,研究人員采用了持續預訓練方法,在在相同分布上再訓練100B個token,將上下文長度從2048增加到8192。

在表9中,展示了新模型優于所有在公開訓練集上訓練的7B模型,并接近于訓練token更多的閉源模型,如Llama-8B、Mistral-7B和Gemma-7B。

圖片

此外,表26展示了新模型在指令微調方面也取得了強勁的表現。

在公開可用的IT數據集上進行指令微調后,研究人員的模型保持了大部分基準性能,并在AlpacaEval2.0 LC中獲得了16.6的勝率,超過了Gemma-Instruct(10.4),同時接近Mistral-v0.2-7B(17.1)和Llama3-Instruct(22.9)的強勁表現。

圖片

局限性

由于計算資源的限制,研究人員只能單獨消融設計維度,無法在更大參數規模上測試所有方法。

此外,還有許多未探索的DCLM-BASELINE變體。

例如,更詳細地理解分片去重的影響很重要,而且在訓練過濾模型方面,無論是架構還是訓練數據,都還有很多其他方法。

研究中大多數實驗也僅使用了一種分詞器(GPT-NeoX),其他分詞器可能在多語言任務或數學方面表現更好。

另一個局限是,論文無法充分探索不同隨機種子導致的運行間的差異。

盡管在DCLM-BASELINE上訓練的7B模型在常見的語言理解評估中具有競爭力,但它們目前在代碼和數學方面的表現還不夠理想。

研究人員對此表示,下一步,將會繼續測試能否擴展到更大參數規模的模型。

責任編輯:張燕妮 來源: 新智元
相關推薦

2024-04-09 09:38:16

OpenAI模型

2024-06-28 13:40:03

2024-07-15 09:00:00

2023-06-19 08:19:50

2025-04-16 09:35:03

2024-04-25 16:56:14

GPT-4大模型人工智能

2023-04-04 09:09:10

GPT-4編程程序員

2023-07-13 12:54:42

GPT-4OpenAI

2025-05-30 07:40:56

2024-01-30 20:08:07

谷歌GPT-4Bard

2024-06-07 16:40:53

2023-02-02 14:16:39

GPT-4微軟

2023-03-29 14:58:04

GPT-4技術

2023-06-08 08:09:43

2023-03-13 00:17:15

GPT-4模型API

2024-05-21 12:23:17

2023-03-28 13:01:20

GPT-4開發OpenAI

2023-05-03 20:53:48

2023-08-15 10:33:06

微軟必應人工智能

2023-03-16 19:17:57

點贊
收藏

51CTO技術棧公眾號

污污污www精品国产网站| 国产 欧美 日韩 一区| 91久久国语露脸精品国产高跟| 92久久精品| 成人听书哪个软件好| 性欧美激情精品| 亚洲一区二区三区日韩| 国产精一区二区| 狠狠色狠狠色综合日日小说| 亚洲国产午夜伦理片大全在线观看网站 | 亚洲精品久久久久久一区二区| 国产一级aa大片毛片| 欧美美乳视频| 欧美va亚洲va| 欧美精品无码一区二区三区| 在线观看三级视频| 国产蜜臀97一区二区三区| 亚洲永久在线观看| 亚洲精品毛片一区二区三区| 黄色国产精品| 久久黄色av网站| 中文字幕av网址| 最新国产一区二区| 欧美精品视频www在线观看 | 欧美性videos| xf在线a精品一区二区视频网站| 国语自产精品视频在线看一大j8 | 国产精品视频内| 亚洲精品午夜久久久久久久| 欧美国产美女| 亚洲片av在线| 亚洲AV无码国产精品| 亚洲一区二区三区中文字幕在线观看| 亚洲影视在线播放| 先锋影音欧美| 国产youjizz在线| 91蜜桃视频在线| 狠狠色伊人亚洲综合网站色| 亚洲av无码一区二区三区dv | 中文字幕一区av| 国产精品电影一区| 亚洲另类在线观看| 国产欧美日韩亚洲一区二区三区| 亚洲久久久久久久久久| 极品白嫩少妇无套内谢| 免费看一区二区三区| 欧美精品三级日韩久久| 五月激情婷婷在线| 电影在线观看一区二区| 日韩欧美一区二区三区| 久久无码高潮喷水| 美女100%一区| 色视频欧美一区二区三区| 日韩久久一级片| 成人爱爱网址| 在线亚洲人成电影网站色www| 一区中文字幕在线观看| 婷婷免费在线视频| 一区免费观看视频| 亚洲免费视频播放| 青青草原av在线| 亚洲成人1区2区| 日韩少妇内射免费播放18禁裸乳| 超碰国产在线| 国产精品福利一区| 国产高清精品软男同| av网站在线免费| 亚洲第一搞黄网站| 成人免费毛片网| 成人av色网站| 日韩一区二区麻豆国产| 69xxx免费视频| 欧美电影免费网站| 在线国产精品播放| 精国产品一区二区三区a片| 亚洲国产免费看| 国产精品盗摄久久久| 国产又大又长又粗| 成人国产精品免费| 欧美极品jizzhd欧美| av电影在线播放高清免费观看| 99re视频精品| 亚洲精品国产一区| 青草视频在线免费直播| 欧美性猛交xxxx黑人| 中文字幕成人在线视频| 成人动态视频| 伊人激情综合网| 黑人巨大精品一区二区在线| 亚洲综合精品| 亚洲free性xxxx护士hd| 无码精品黑人一区二区三区| 国产精品久久久久毛片软件| 国产av熟女一区二区三区| 欧美电影免费看| 91精品国产福利在线观看| xxxx黄色片| 99精品视频在线观看播放| 欧美人在线观看| 成人一级免费视频| 成人一区二区三区视频在线观看| 亚洲v日韩v综合v精品v| 水莓100在线视频| 亚洲三级小视频| 99草草国产熟女视频在线| 欧美日韩午夜电影网| 亚洲欧美一区二区三区久久| 久久久美女视频| 日韩 欧美一区二区三区| 444亚洲人体| 成人在线二区| 精品久久久中文| 国产老头和老头xxxx×| 欧美影院三区| 欧美一区二粉嫩精品国产一线天| 天码人妻一区二区三区在线看| 国产日韩免费| 91在线免费看片| av国产在线观看| 色综合亚洲欧洲| 无码人妻一区二区三区在线| 国产精品成人a在线观看| 欧美在线中文字幕| 姝姝窝人体www聚色窝| 亚洲女厕所小便bbb| 毛葺葺老太做受视频| 欧美成人午夜77777| 欧美激情奇米色| 国产黄色av片| 亚洲乱码中文字幕综合| 日韩av片专区| 欧美激情电影| 国产欧美精品xxxx另类| 国产高清美女一级毛片久久| 红桃视频成人在线观看| 美女网站视频在线观看| 欧美日本一区| 91丝袜脚交足在线播放| 伊人福利在线| 欧美mv日韩mv亚洲| 久久免费精彩视频| 成人网在线免费视频| 欧美图片激情小说| 国产精品国产| 午夜精品久久久久久99热软件| 中文字幕精品视频在线观看| ww久久中文字幕| 妺妺窝人体色www在线小说| 久久精品国产亚洲blacked| 久久久女女女女999久久| 亚洲成人777777| 亚洲一区在线观看免费观看电影高清| 黄色一级片播放| 奇米777国产一区国产二区| 久久人人爽人人爽人人片av高请| 国产情侣呻吟对白高潮| 国产精品入口麻豆原神| 999在线观看| 亚洲久久久久| 岛国视频一区免费观看| 俄罗斯一级**毛片在线播放| 亚洲成人精品视频| 在线天堂中文字幕| 中文字幕乱码久久午夜不卡| 美女网站色免费| 中文字幕亚洲综合久久五月天色无吗''| 26uuu亚洲伊人春色| 噜噜噜在线观看播放视频| 在线国产亚洲欧美| 国产麻豆视频在线观看| 国产a区久久久| 波多野结衣家庭教师在线播放| 国产精品亚洲综合在线观看| 久久国产精品网站| 色wwwwww| 91久久线看在观草草青青 | 北条麻妃一区二区三区在线观看| 亚洲日韩第一页| а中文在线天堂| 亚洲欧美日韩久久精品| 捆绑凌虐一区二区三区| 奇米888四色在线精品| 天堂а√在线中文在线| 亚洲三级网页| 亚洲一区二区三区四区视频| 2001个疯子在线观看| 在线视频欧美性高潮| 国产肥老妇视频| 色欧美日韩亚洲| 欧美日韩人妻精品一区二区三区| 久久精品国产**网站演员| 欧美做受777cos| 美女毛片一区二区三区四区| 91网站在线看| 亚洲最新无码中文字幕久久| 久久av资源网站| 男女视频在线观看| 欧美成人精品高清在线播放| 国产婷婷色一区二区在线观看| 99re视频这里只有精品| 亚洲一二三不卡| 老牛影视一区二区三区| 青青草视频国产| 日韩欧美视频在线播放| 精品视频第一区| 欧一区二区三区| 国产精品永久在线| 欧美aaaaa性bbbbb小妇| 欧美成人午夜激情视频| h视频在线观看免费| 日韩av在线资源| 国产模特av私拍大尺度| 欧美又粗又大又爽| 91丝袜一区二区三区| 亚洲在线成人精品| 国产精品国产三级国产传播| 久久蜜桃av一区二区天堂| 2018国产精品| 国产一区二区三区黄视频 | 黄页网站在线| 中文字幕最新精品| 欧美日韩视频精品二区| 欧美xxxx老人做受| 国产免费黄色片| 欧美精选一区二区| 国内av在线播放| 一本到不卡精品视频在线观看 | 一区二区三区精品久久久| 日本理论中文字幕| 国产亚洲va综合人人澡精品| 污污内射在线观看一区二区少妇| 亚洲永久免费精品| a级黄色小视频| 国产精品magnet| 久久久久久久久久久综合| 忘忧草精品久久久久久久高清| 国产精品乱码| 91精品国产自产在线丝袜啪| 成人精品在线观看| 国产精品美女久久久久| 91久久久久久| 美女精品久久| 国产精品乱码| 香蕉国产成人午夜av影院| 精品国产_亚洲人成在线| av不卡一区| 韩国精品一区二区三区六区色诱| 嫩草伊人久久精品少妇av杨幂| 久久资源免费视频| 九七电影韩国女主播在线观看| 亚洲成人av片| 无码国产精品高潮久久99| 日韩精品中文字幕有码专区| 欧美一区二区三区少妇| 亚洲欧美另类中文字幕| 二区三区在线播放| 日韩中文综合网| 成人区精品一区二区不卡| 欧美久久久精品| 久草在线视频福利| 9.1国产丝袜在线观看| 丝袜诱惑一区二区| 69精品小视频| 日本精品裸体写真集在线观看| 久久免费在线观看| 色戒汤唯在线观看| 国产精品国产三级国产专播精品人 | 国产亚洲一二三区| 国产精品成人在线视频| 亚洲丝袜精品丝袜在线| 久久久久久久中文字幕| 欧美日韩亚洲一区二区三区| 中文字幕第四页| 欧美人与禽zozo性伦| 精品人妻一区二区三区浪潮在线 | 色综合欧美在线视频区| 一级一级黄色片| 日韩一区二区三区四区| 无码精品一区二区三区在线| 亚洲最新中文字幕| 黄色网在线免费看| 777精品视频| 国产一区二区三区| 久久99精品久久久久久水蜜桃| julia中文字幕一区二区99在线| 国产精品视频永久免费播放| 免费高清视频在线一区| 91久久大香伊蕉在人线| 久久综合欧美| 国产精品久久久影院| 久久性色av| 三大队在线观看| 欧美国产亚洲另类动漫| 精品少妇久久久| 欧美日韩综合一区| 肉丝一区二区| 欧美大尺度激情区在线播放| 中国字幕a在线看韩国电影| 91精品综合视频| 国产精品午夜一区二区三区| 久久综合亚洲精品| 免费成人在线观看视频| 你懂得在线视频| 亚洲欧美日韩国产综合在线| 无码人妻精品一区二| 精品美女一区二区| 久草免费在线| 国产精品27p| 亚洲第一论坛sis| 国产91porn| 久久99久久99| 欧美成人国产精品一区二区| 亚洲国产精品久久艾草纯爱| 亚洲天天综合网| 亚洲日韩中文字幕在线播放| av资源新版天堂在线| 亚洲最大的网站| 国产精品久久久久久久久久10秀| www.激情网| 免费在线观看不卡| 国产精品815.cc红桃| 亚洲午夜久久久久久久久电影院| 91精品国产乱码久久久张津瑜| 欧美午夜宅男影院在线观看| 成人午夜免费在线观看| 日韩一区二区在线视频| 亚洲日本在线观看视频| 日本电影一区二区三区| 亚洲欧美日韩在线观看a三区| 亚洲色图 在线视频| 91丝袜高跟美女视频| 久久露脸国语精品国产91| 精品久久久久久久久久久久包黑料| 青青草免费观看免费视频在线| 中文国产亚洲喷潮| 成人va天堂| 神马影院我不卡| 日欧美一区二区| 亚洲国产天堂av| 欧美亚洲一区二区在线观看| 国产中文字幕在线看| 国产成人精品在线观看| 国产欧美高清视频在线| 欧美 日韩 国产 激情| 国产女主播一区| 亚洲中文字幕一区二区| 日韩在线视频线视频免费网站| av免费不卡| 久久国产精品一区二区三区四区| 久久人人99| 999久久久精品视频| 亚洲欧美欧美一区二区三区| 国产伦理一区二区| 欧美疯狂xxxx大交乱88av| 韩国精品福利一区二区三区| 免费毛片网站在线观看| 久久无码av三级| 久久精品国产亚洲av麻豆蜜芽| 精品国产乱码久久久久久牛牛| av影片免费在线观看| 国产裸体写真av一区二区 | 日韩欧美国产综合在线一区二区三区 | 国产av 一区二区三区| 欧美刺激午夜性久久久久久久| 免费一级在线观看| 国产精品久久久久久久app| 99久久精品费精品国产风间由美| 亚洲自偷自拍熟女另类| 国产性做久久久久久| 国产三级精品在线观看| 欧美激情va永久在线播放| 伊甸园亚洲一区| www.亚洲高清| 亚洲综合久久久| 男操女在线观看| 91午夜理伦私人影院| 国产精品久久国产愉拍| 五月婷婷婷婷婷| 精品三级av在线| 日韩视频网站在线观看| 午夜探花在线观看| 91免费国产在线观看| 国产精品女人久久久| 97免费在线视频| 日韩毛片视频| xxxxxx黄色| 欧美欧美午夜aⅴ在线观看| 成人三级小说| 亚洲人成人77777线观看| 成人一区二区三区在线观看 | 亚洲乱亚洲乱妇| 草莓视频一区| 日韩影院精彩在线| 久久精品亚洲无码| 综合国产在线视频| 日韩大尺度在线观看| 91香蕉视频免费看| 91国产丝袜在线播放| 岛国av在线播放| 欧美少妇一区二区三区|