精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

用Dynamic chunk去干掉tokenizer?

發(fā)布于 2025-7-28 00:36
瀏覽
0收藏


用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)圖片

一般你們下AR模型的時(shí)候,都有這個(gè),也就是tokenzier,tokenizer是干啥的,其實(shí)就是你的分詞字典

用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)


不光有specal的token對應(yīng)的還有實(shí)際的對應(yīng)的分詞對應(yīng)的代碼,比如:

用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)圖片

也有tokenzier沒顯示的,比如,

用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)

為什么呢?

因?yàn)樗皇俏谋灸P?,人家輸入是聲音,因?yàn)樗茿SR扯遠(yuǎn)了,回歸主題tokenizer之所以總是個(gè)獨(dú)立的model,因?yàn)樗蛅ransformer不是一個(gè)網(wǎng)絡(luò),它也不參與transformer訓(xùn)練時(shí)候的反向傳播(和embedding層兩回事,embedding參與BP和學(xué)習(xí)),也不共享參數(shù)(其實(shí)問你為什么沒關(guān)系,你記住這點(diǎn)就夠了)

一個(gè)正常的流程是這樣的

傳統(tǒng)自回歸文本模型(如GPT/Llama)

訓(xùn)練時(shí)流程:
原始文本 → tokenizer切分 → token id序列 → embedding → Transformer → 輸出概率/預(yù)測下一個(gè)token

推理時(shí)流程:
文本 → tokenizer → token id → embedding → 模型生成token id → detokenizer(還原文本)

這個(gè)沿用了多少年的架構(gòu)的有什么問題嗎?

其實(shí)是有的

靜態(tài)分詞:只能預(yù)定義/規(guī)則分割,不隨語境、下游任務(wù)改變;

詞表對非英文、代碼、特殊字符等不友好,多語言/新詞適應(yīng)性差;

字符錯(cuò)位/擾動(dòng)很容易破壞下游表現(xiàn)(比如 misspell、空格丟失等,魯棒性差);

tokenizer/vocab詞表一旦定型,后期無法彌補(bǔ)缺失、替換麻煩。

造車上面那幾個(gè)問題的原因:

1. 詞表構(gòu)建機(jī)制決定的“偏見”和局限

大部分主流tokenizer(BPE、WordPiece等)是基于英文語料統(tǒng)計(jì)頻率自動(dòng)生成“片段” (tokens/subwords),詞表中每個(gè)條目是按常見性排序和合并出來的。

這會(huì)導(dǎo)致詞表里絕大多數(shù)都是英語常用詞、前綴、后綴,以及特殊分隔符,對別的語言(中文、阿拉伯文、俄語)、編程代碼、emoji、數(shù)學(xué)符號(hào)等覆蓋不全,兼容性低。

2. 非英文/多語言適應(yīng)困難

  • 詞表是靜態(tài)的且容量有限,比如GPT-2的vocab僅5萬-6萬個(gè)而已。英文組成大都在其中,其他語種即便包含,也非常零散或拆分得特別碎。
  • 比如中文,往往被拆成單字(明/天/去/看/書),或者出現(xiàn)大量 UNK(未登錄詞)或‘##’前綴的生僻合成,而不是自然分詞和表達(dá)。
  • 罕見符號(hào)/擴(kuò)展字符/emoji/古文字等,因?yàn)樵~表沒收錄,只能用char級(jí)別或fallback(拆為u8字節(jié))編碼成很多token,表達(dá)效率極低。

3. 新詞/熱詞/代碼/專業(yè)類token的弱勢

  • 領(lǐng)域?qū)S忻~(如新科技名詞、代碼單詞、化學(xué)式等)未進(jìn)入初始詞表時(shí),只能被拆為很多“字符”或“常出現(xiàn)的前綴/后綴”碎片,模型難以捕捉其整體語義;
  • 代碼文本常見變量、內(nèi)置語法結(jié)構(gòu)、斜杠點(diǎn)等符號(hào),傳統(tǒng)tokenizer未專門優(yōu)化,往往拆的四分五裂,遠(yuǎn)不如直接字符/字節(jié)級(jí)處理。

4. 多語言詞表擴(kuò)展的工程復(fù)雜性

  • 為了多語言LLM,多數(shù)方案要顯式加大詞表,或多人手動(dòng)挑選token,但詞表容量越大,embedding參數(shù)爆炸,推理速度也會(huì)下降,說到擴(kuò)詞表,比如4o當(dāng)時(shí)上市的時(shí)候都干到15萬左右了,大家還覺得它整挺好,它其實(shí)非常無奈,完了為了維護(hù)多模態(tài),又得壓縮,導(dǎo)致一個(gè)長詞對應(yīng)一個(gè)token id,才有了那時(shí)候的一些小bug,感興趣的各位自己去找當(dāng)年的新聞。
  • 有些詞永遠(yuǎn)用不上,冗余空間浪費(fèi);而新加入的熱詞又需要重新訓(xùn)練embedding才能學(xué)出屬性。

這時(shí)候如果有兄弟玩過LSTM可能會(huì)一起來,早起是沒有tokenizer,也沒BPE這玩意的,最早是char-level來建模(注意是最早,LSTM也有token level)

char-level (字符級(jí)) 建模,是指模型的輸入輸出都是“字符”,比如 ["m", "o", "d", "e", "l"],或者直接處理字節(jié)(每個(gè)字節(jié)一個(gè)embedding),其實(shí)就是字符映射為 embedding index,適用于玩具任務(wù)、OOV高風(fēng)險(xiǎn)任務(wù)、小數(shù)據(jù)集、很早期的英文句子生成等

  • 特點(diǎn)是詞表極?。ㄖ恍韪采w所有常見字符或字節(jié)),無須分詞器,OOV問題天然不存在,對語種/符號(hào)極友好,即使所有中文字、標(biāo)點(diǎn)都可編碼進(jìn)固定的小字表(7000常用漢字以內(nèi)都能輕松搞定)
  • 舊的LSTM/char-RNN/ByT5等都是純char-level(或byte-level)。

那為啥都轉(zhuǎn)去token level去了呢?

語義表達(dá)效率低:

漢語一個(gè)字的信息含量比英文小,隨便一個(gè)新詞(如“碼農(nóng)”)只能靠“碼”、“農(nóng)”兩個(gè)單字序列表達(dá),捕捉組合語義難,長依賴seqlen變長。

序列極長:

同長度內(nèi)容,char-level序列會(huì)遠(yuǎn)比token-level長,計(jì)算/內(nèi)存/推理慢(transformer類模型自注意力時(shí)間、顯存正比于N^2,當(dāng)然這個(gè)和LSTM沒啥關(guān)系,線性注意力一直是N)。

模型收斂慢,捕捉高階結(jié)構(gòu)難:

大段話、句子、專業(yè)詞都被拆為單字或字節(jié),模型要學(xué)會(huì)組合成“自然語言片段”需要更多層、更多數(shù)據(jù),效率和泛化難度高于“合理分塊”的token-level或動(dòng)態(tài)chunking方案。

但是最近有CMU的人給字符level編碼翻案

用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)


這論文針對的場景就是剛才我們說的tokenizer的問題

分詞器本身是手工預(yù)處理,對語義、語境缺乏自適應(yīng),“一刀切”方式不適合所有語種/信息結(jié)構(gòu)(比如中文/代碼/DNA等)。

靜態(tài)Token也導(dǎo)致模型易受拼寫噪聲、字符級(jí)擾動(dòng)破壞;跨領(lǐng)域遷移也更難。支持多語言費(fèi)勁。

所以誕生了dynamic chunk機(jī)制(和我自己做的項(xiàng)目dc不是一回事,我那個(gè)不是分詞和char level的)和H-net

用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)

H-Net總體架構(gòu)

核心思想:創(chuàng)造支持“動(dòng)態(tài)分塊機(jī)制”(Dynamic Chunking, DC)的層次化神經(jīng)網(wǎng)絡(luò)(H-Net),讓模型自己端到端學(xué)會(huì):哪里是有意義的邊界,該怎么自動(dòng)分段、壓縮和聚合輸入序列。

1. 架構(gòu)圖如上面的圖

流程:

  1. 原始字節(jié)輸入 (從下面網(wǎng)上面看)→ 編碼器(Encoder)做初步字節(jié)級(jí)embedding(這也可以用Mamba SSM層,線性注意力,當(dāng)然也可以transformer);
  2. 動(dòng)態(tài)分塊模塊(DC)模型自適應(yīng)“切片”輸入序列,按上下文/內(nèi)容決定block(被分詞的)位置。
  3. 主干網(wǎng)絡(luò)(Main Network):主要參數(shù)集中于此,對已被壓縮的chunk序列做深度建模(高語義、長距離依賴捕獲)。
  4. 解分塊(Dechunking):用上采樣/smoothing等方法,將高層chunk輸出重新映射回細(xì)粒度token,供解碼器(Decoder)輸出。

2. “分塊”與常規(guī)分詞對比:

常規(guī) Tokenizer:全靠規(guī)則/人工預(yù)設(shè),只能一分到底。

動(dòng)態(tài)分塊DC:模型自動(dòng)檢測上下文變化處(如語法/語義轉(zhuǎn)換),預(yù)測邊界概率→下采樣成chunk embedding序列,高效又自適應(yīng)。

我們用一個(gè)具體例子來說明H-Net的動(dòng)態(tài)分塊(Dynamic Chunking,DC)機(jī)制是怎么“自動(dòng)檢測上下文變化”并形成chunk的。

示例文本

假設(shè)輸入文本為:"The end of tokens."

1. 傳統(tǒng)tokenizer分割

例如使用BPE等,會(huì)直接把它分為
["The", "end", "of", "tokens", "."]

2. H-Net動(dòng)態(tài)分塊的流程與輸出

第一步:編碼各字節(jié)/字符

輸入會(huì)轉(zhuǎn)成:["T", "h", "e", " ", "e", "n", "d", " ", "o", "f", " ", "t", "o", "k", "e", "n", "s", "."]

每個(gè)字符/空格/符號(hào)作為一個(gè)輸入位置,初步embedding。

第二步:模型自動(dòng)“判別”邊界概率

H-Net的routing module會(huì)對每兩個(gè)相鄰embedding進(jìn)行相似度測量(比如用余弦相似度),如果發(fā)現(xiàn):

如 ??["d", " "]???(即“單詞結(jié)束后是空格”)、??["s", "."]??(單詞結(jié)束遇到句號(hào))等位置,embedding變化大(語法/語義上有明顯切換),相似度低,邊界概率高!

而像??["e", "n"]??、“["o", "f"]”等(單詞內(nèi)部連續(xù)字母),相似度高,邊界概率低。

這樣,模型經(jīng)過訓(xùn)練后,會(huì)在如下位置分塊邊界概率最高(比如):

T   h  e   _   e  n  d   _   o  f   _   t   o  k  e  n  s   .
↑        ↑         ↑             ↑             ↑           ↑
0         0          1             0              0           1

下劃線和句號(hào)后的邊界概率更高

第三步:根據(jù)概率做動(dòng)態(tài)分塊

H-Net的downsampler會(huì)篩選出邊界概率超過一定閾值的位置,比如:

  • “The end”作為一個(gè)chunk
  • “of”作為一個(gè)chunk
  • “tokens.”作為一個(gè)chunk

最終分塊方式可能是:
["The end", "of", "tokens."]

或者更細(xì)粒度:
["The", "end", "of", "tokens", "."](這么分和BPE就一樣了)

chunk的大小、邊界完全由數(shù)據(jù)和上下文(而不是手工規(guī)則)自動(dòng)學(xué)到,且不同上下文還能靈活變化。

第四步:聚合chunk embedding并繼續(xù)建模

被判定為一個(gè)chunk的所有原始字節(jié)embedding會(huì)聚合(池化/加權(quán)等方法),形成一個(gè)chunk級(jí)higher-level embedding,進(jìn)入主干網(wǎng)絡(luò)進(jìn)行高抽象推理,這快就不用講了,因?yàn)橐呀?jīng)進(jìn)transformer了

打個(gè)比方:

  • 像是在讀句子的時(shí)候,你發(fā)現(xiàn)“這里信息切換了,和下文關(guān)聯(lián)對有區(qū)分了”就自動(dòng)切一刀,把前面的歸為一個(gè)高抽象信息塊。如果連續(xù)的內(nèi)容沒變化(比如單詞內(nèi)),就不分塊。
  • 你給模型的任何輸入,不論語言、結(jié)構(gòu)、符號(hào),只要數(shù)據(jù)里有“信息變化點(diǎn)”,就可能自動(dòng)形成chunk。

再舉極端對照例子

  1. "I love applepie"
    普通tokenizer:["I", "love", "apple", "pie"],這就分錯(cuò)了唄,分成了 apple and pie
    H-Net:可能["I", "love", "applepie"] 或 ["I love", "applepie"](因?yàn)?applepie"常一起出現(xiàn)),這兩個(gè)分都沒毛病
  2. 代碼場景:"def run_fast(x):"
    普通tokenizer:["def", "run", "_", "fast", "(", "x", ")", ":"],這么分也比較扯了(當(dāng)然你們大多數(shù)看不見這么差的,是因?yàn)榇a量大,special token和輔助字符機(jī)制讓你們不止于碰到這么離譜的,我就是舉個(gè)例子)
    H-Net:可能["def", "run_fast", "(", "x", "):"],甚至整個(gè)函數(shù)名+參數(shù)合成chunk

所以,動(dòng)態(tài)分塊DC讓模型“自動(dòng)發(fā)現(xiàn)結(jié)構(gòu)”,而不是簡單、固定地分詞或分字,大大增強(qiáng)了理解、壓縮和表達(dá)的能力。

我們最后再做一下流程對比

用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)

總結(jié)一下就是其實(shí)就是encoder+dc做了tokenizer的事了,然后上采樣+decoder做了softmax到詞表的logit

這么一上圖就沒那么抽象了,至于主干那塊其實(shí)愿意用trasformer還是ssm,或者mamba甚至混著來(現(xiàn)在不都流行這樣嗎,隔一層一遍,確實(shí)能省掉一部分因?yàn)橹笖?shù)注意力造成的算力壓力),就看你想怎么折騰了

最后看一下效果:

A. 語言建模主任務(wù)(英文+多語言)

1. 驗(yàn)證困惑度/壓縮效率(BPB)

H-Net(動(dòng)態(tài)分塊)在相同訓(xùn)練數(shù)據(jù)和算力預(yù)算下

1-stage結(jié)構(gòu)已可匹配傳統(tǒng)BPE-Transformer的困惑度;

2-stage遞歸結(jié)構(gòu)大幅超越:

  • H-Net (1-stage): BPB ≈ BPE Transformer
  • H-Net (2-stage): BPB 顯著低于同算力BPE Transformer
  • 訓(xùn)練曲線顯示,H-Net隨數(shù)據(jù)量增加,性能提升更快,最終收斂值更低(見下圖)。
  • 用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)


2. 多語言與代碼/DNA建模

  • H-Net對中文、代碼、DNA等特殊輸入類型展現(xiàn)強(qiáng)大優(yōu)勢,尤其是沒有自然token邊界的文本數(shù)據(jù)。
  • 中文建模時(shí),BPB顯著優(yōu)于Llama3/Transformer等多語支持模型。
  • 代碼建模同理,chunk壓縮率更高,表現(xiàn)優(yōu)于詞表法。
  • DNA建模 性能提升極大,數(shù)據(jù)效率比等參數(shù)Transformer高3.6倍(可用更少數(shù)據(jù)達(dá)到同樣困惑度)。

B. 下游通用任務(wù)表現(xiàn)

大規(guī)模zero-shot評(píng)測在LAMBADA、HellaSwag、PIQA、ARC-e、ARC-c、Winograd、OpenBook等七大benchmark任務(wù)上,H-Net(2-stage)平均分比傳統(tǒng)BPE Transformer高2%~3% 

用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)

對比Mix-of-Experts(MoE) 、SpaceByte、LlamaByte等各種優(yōu)化方法,H-Net也依然表現(xiàn)勝出,這里吐槽作者為什么方MOE,不過頁能理解,雖然不是一個(gè)層面的,但是,也都是優(yōu)化手段,姑且理解為主干(FFN)稀疏vs壓縮冗余吧, 反正它敢比,我就敢把這個(gè)也粘過來了

用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)

C. 魯棒性和泛化能力

抗文本擾動(dòng)魯棒性:在HellaSwag的五種perturbation(如隨機(jī)大小寫、字符重復(fù)、丟drop、混亂語法)測試下,H-Net魯棒性-平均準(zhǔn)確度遠(yuǎn)超過BPE Transformer和所有對照組。

可解釋性更強(qiáng):Chunk邊界分布可視化表明模型學(xué)出的邊界多能對應(yīng)詞/短語/語法塊,而不是簡單機(jī)械分詞。

用Dynamic chunk去干掉tokenizer?-AI.x社區(qū)圖片


D. 數(shù)據(jù)/計(jì)算效率

同樣訓(xùn)練數(shù)據(jù)和FLOPs下,H-Net能用更少數(shù)據(jù)、更少算力達(dá)到等同或更優(yōu)效果,尤其在"hardcase"領(lǐng)域(如代碼/DNA/多語種)差距巨大。

總之還成,我為什么講這個(gè)呢,因?yàn)楝F(xiàn)在大家都在反transformer架構(gòu),但是也不能光喊口號(hào),這個(gè)至少做出了一部分的關(guān)鍵工作(雖然tokenizer不屬于transformer,但是它也是現(xiàn)在網(wǎng)絡(luò)的基礎(chǔ)?。?,如果你把主干全換成ssm類的比如mamba,那就徹底告別現(xiàn)在的網(wǎng)絡(luò)了,不過我覺得從主流視角看,這類的工作至少還要5年,因?yàn)閠ransformer本身也都在外圍進(jìn)行線性化的優(yōu)化,而transformer非線性的部分的attention短期我沒看到能被取代的可能性。

本文轉(zhuǎn)載自?????熵減AI?????,作者:周博洋

收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
欧美人在线观看| 欧美三级资源在线| 国产区一区二区| 天天综合网久久综合网| 九九亚洲精品| 欧美高清视频一二三区 | 自拍偷拍亚洲区| 三级av免费看| 欲香欲色天天天综合和网| 国产欧美日韩麻豆91| 亚洲在线观看视频网站| 国产一级精品视频| 999国产精品视频| 亚洲高清在线观看| 成人性生交免费看| 日韩深夜视频| 亚洲精品一二三| 欧美日韩国产高清视频| 国产高清视频免费观看| 久久性色av| 欧美高清在线播放| 亚洲色图27p| 欧美日韩看看2015永久免费| 欧美精品色一区二区三区| 中文字幕无码精品亚洲35| 免费观看久久久久| 久久影院视频免费| 国产精品对白刺激久久久| 在线免费看毛片| 亚洲自啪免费| 色综合天天综合网国产成人网 | 韩国女主播一区二区三区| 欧美性猛片xxxx免费看久爱| 2018国产在线| caoporn免费在线视频| 国产丝袜欧美中文另类| 国产一级特黄a大片99| 国产精品伦一区二区三区| 老妇喷水一区二区三区| 午夜精品在线观看| 中文字幕av久久爽av| 欧美一区二区三区高清视频| 亚洲福利视频网站| 久久久久中文字幕亚洲精品| 亚洲热av色在线播放| 欧美午夜精品免费| 99re在线视频免费观看| 老牛影视精品| 亚洲mv在线观看| 日韩在线观看a| 在线播放免费av| 亚洲女厕所小便bbb| 中文字幕99| 秋霞午夜在线观看| 国产精品人成在线观看免费| 日本免费高清一区二区| 你懂的在线视频| www国产精品av| 免费精品视频一区| 青草久久伊人| 久久久久国产成人精品亚洲午夜| 久久精品久久精品国产大片| 蜜桃91麻豆精品一二三区| 国产超碰在线一区| 丁香婷婷久久久综合精品国产| 国产又粗又猛又爽又黄的| 奇米色777欧美一区二区| 国产精品久久久久久久久免费| 波多野结衣一区二区三区在线| 日韩成人午夜电影| 国产精品美乳一区二区免费| 一级片免费观看视频| 经典三级在线一区| 99久热re在线精品996热视频| 国产黄色高清视频| 成人高清av在线| 精品乱码一区| 国产天堂在线| 国产精品免费看片| 午夜啪啪福利视频| 国产探花视频在线观看| 欧美日韩国产精品一区二区三区四区 | 97公开免费视频| 99欧美精品| 欧美久久久久中文字幕| 伊人av在线播放| 网红女主播少妇精品视频| 国产亚洲欧美另类中文| 一区二区三区影视| 激情综合视频| 国产精品国模在线| av天堂一区二区三区| 91香蕉视频污在线| 亚洲欧洲精品在线| 最新超碰在线| 色综合天天综合网国产成人综合天| 黄色片在线免费| 国产精品久久久久久久久久久久久久久 | 国产高清av在线播放| 在线免费三级电影网站| 欧美性三三影院| 无码人妻一区二区三区一| 综合伊思人在钱三区| 色爱av美腿丝袜综合粉嫩av| 豆国产97在线 | 亚洲| 久久不射2019中文字幕| 亚洲一区二区三区在线免费观看 | 日本一区二区三区中文字幕| 欧美videos中文字幕| 中文字幕被公侵犯的漂亮人妻| 天天做天天爱天天爽综合网| 青青草99啪国产免费| 国产情侣av在线| 久久婷婷国产综合精品青草| 玖玖精品在线视频| 小黄鸭精品aⅴ导航网站入口| 欧美一区二区日韩| 少妇人妻好深好紧精品无码| 在线日韩av| 91九色精品视频| 国产一级片在线| 午夜欧美2019年伦理| 中文字幕22页| 免费一区二区三区视频导航| 欧美激情视频一区二区三区不卡| 一级黄色a视频| 99精品国产一区二区三区不卡| 欧美日韩视频免费在线观看| 中文在线аv在线| 欧美草草影院在线视频| 日本一级片免费| 日本视频免费一区| 麻豆91蜜桃| 欧美男人天堂| 精品国产成人在线影院| 看免费黄色录像| 免费不卡在线视频| 日韩欧美亚洲精品| 少妇一区视频| 亚洲男人av在线| 黄网在线观看视频| 99久久er热在这里只有精品66| 黄色小视频大全| 成人国产精品久久| 精品精品国产国产自在线| 中文无码精品一区二区三区| 久久久久久9999| 欧美三级在线观看视频| 96sao在线精品免费视频| 九九久久久久99精品| 99国产精品99| 亚洲男人天堂一区| 99九九精品视频| 亚洲不卡av不卡一区二区| 成人观看高清在线观看免费| 自拍视频在线免费观看| 欧美日韩情趣电影| 国产美女高潮视频| 国产一区二区三区蝌蚪| 妞干网这里只有精品| 国产美女视频一区二区| 欧美日韩电影在线观看| 亚洲爆乳无码一区二区三区| 亚洲午夜羞羞片| 国产精品久久久久久久无码| 国产一区91| 欧美一二三四五区| 成人精品动漫| 久色乳综合思思在线视频| 国产理论视频在线观看| 亚洲资源在线观看| 免费a级黄色片| 日韩激情av在线| 一区精品视频| 亚洲三级av| 欧美专区第一页| av网站在线播放| 欧美一区二区三级| 日本中文在线播放| 国产精品欧美极品| 国产ts在线观看| 老鸭窝毛片一区二区三区| 视频一区二区在线观看| 国产一区二区三区黄网站| 久久久久久久香蕉网| 久久免费看视频| 欧美精品丝袜中出| 国产对白videos麻豆高潮| 久久久99精品免费观看| 性生活一级大片| 母乳一区在线观看| 韩国黄色一级大片| 香蕉久久夜色精品国产使用方法| 国产精品普通话| 男女视频在线| 尤物yw午夜国产精品视频明星| 国产色片在线观看| 欧美性猛交xxxx偷拍洗澡| 久久国产高清视频| 91麻豆swag| 国产大片一区二区三区| 久久精品人人做人人爽电影蜜月| 最近看过的日韩成人| 杨幂一区二区三区免费看视频| 成人a视频在线观看| 桃色av一区二区| 久久国产加勒比精品无码| 天堂中文字幕在线| 欧美一区二区播放| 中文字幕一区二区三区四区欧美| 亚洲黄色尤物视频| 91麻豆制片厂| 99久久精品免费看| 四川一级毛毛片| 免费观看成人鲁鲁鲁鲁鲁视频| 国产传媒久久久| 国产一区毛片| 国产美女精品久久久| 亚洲成人1区| 国产精品爱久久久久久久| www中文字幕在线观看| 日韩有码视频在线| 国内在线精品| 精品中文字幕久久久久久| www.com在线观看| 欧美三级乱人伦电影| 国产精品视频免费播放| 亚洲成人免费在线观看| 69av.com| 亚洲欧美偷拍卡通变态| 手机毛片在线观看| 久久久久久久久久电影| 久久一区二区电影| 成人免费视频一区二区| 三上悠亚 电影| 韩国女主播成人在线| 亚洲综合日韩欧美| 日韩一区欧美二区| 久草精品在线播放| 性伦欧美刺激片在线观看| 成年女人18级毛片毛片免费| 欧美另类综合| 欧美另类videosbestsex日本| 国产精品x453.com| 免费在线观看污污视频| 97欧美在线视频| 影音先锋亚洲视频| 91麻豆国产自产在线观看亚洲| 日韩在线电影一区| 成人情趣视频网站| 亚洲女人毛片| 欧美高清在线| 免费观看中文字幕| 永久亚洲成a人片777777| 中文字幕の友人北条麻妃| 四季av一区二区三区免费观看| 相泽南亚洲一区二区在线播放| 青青草成人影院| 在线观看欧美激情| 亚洲午夜精品一区 二区 三区| 黄色一级视频播放| 国模大胆一区二区三区| 69sex久久精品国产麻豆| 亚洲久久一区| 日本一本二本在线观看| 日韩黄色免费网站| 亚洲一区二区在线视频观看| 精品一区二区av| 麻豆免费在线观看视频| 99精品久久久久久| 亚洲av成人无码久久精品| 国产精品国产三级国产aⅴ中文 | 天天操天天操天天干| 亚洲精品自拍偷拍| av在线免费观看网| 美日韩在线视频| 免费高潮视频95在线观看网站| 国产97在线观看| 国产高清日韩| 精品国产免费久久久久久尖叫 | 国产一区二区三区蝌蚪| www.美色吧.com| 99久久久无码国产精品| 快灬快灬一下爽蜜桃在线观看| 亚洲人成伊人成综合网小说| 国产极品在线播放| 在线精品视频一区二区三四| 国产xxxxxx| 精品视频久久久| 免费大片黄在线观看视频网站| 欧美激情精品久久久久久大尺度 | 欧美丝袜一区二区| 国产一区二区三区中文字幕| 精品成人佐山爱一区二区| 黄色毛片在线看| 欧美精品亚州精品| free欧美| 成人欧美一区二区三区在线观看 | 国产精品影视在线观看| 亚洲第一黄色网址| 中文字幕一区二区三区蜜月 | 韩国无码一区二区三区精品| 国产精品欧美一区二区三区| 日本一区二区免费在线观看| 欧美日本一道本| 天堂影院在线| 欧美成在线视频| 国产亚洲一区二区手机在线观看| 91日韩久久| 成人看的视频| 人人妻人人添人人爽欧美一区| 国产在线播精品第三| 波多野在线播放| 午夜精品久久久久| 91久久精品国产91性色69| 亚洲精品永久免费| 国产第一页在线视频| 国产人妖伪娘一区91| 久久99久久人婷婷精品综合| 日本阿v视频在线观看| 久久99热国产| 亚洲人成人无码网www国产| 亚洲曰韩产成在线| 国产熟女一区二区丰满| 中文字幕精品在线视频| 人狥杂交一区欧美二区| 国产伦精品一区二区三区视频孕妇| 天天操综合网| mm1313亚洲国产精品无码试看| zzijzzij亚洲日本少妇熟睡| 国产大片免费看| 欧美另类z0zxhd电影| av在线免费观看网站| 国产精品久久久久久av下载红粉| 天堂一区二区三区四区| 男女私大尺度视频| 国产v综合v亚洲欧| 欧美黄色免费观看| 91精品国产综合久久福利软件| 自拍视频在线播放| 国产精品久久久久久久美男| 欧洲激情综合| 手机在线免费观看毛片| 久久精品欧美日韩精品| 一级成人黄色片| 亚洲欧美成人一区二区在线电影| 少妇视频一区| 欧美一区免费视频| 久久只有精品| 99精品欧美一区二区| 欧美午夜在线观看| 午夜免费播放观看在线视频| 国产日韩欧美一二三区| 日韩中文首页| 欧美性受xxxxxx黑人xyx性爽| 中文字幕一区二区三区av| 亚洲字幕av一区二区三区四区| 中文字幕亚洲天堂| 天天综合91| 欧美黄网在线观看| 成人av免费在线播放| 日本在线播放视频| 国产亚洲美女久久| 欧美日韩免费电影| 欧美精品一区二区性色a+v| 国产一区999| 日本一二三区不卡| 亚洲天堂网站在线观看视频| 国产亚洲精彩久久| 中文字幕第一页亚洲| 国产91精品欧美| 国产又黄又爽又色| 中日韩美女免费视频网站在线观看| 久久精品黄色| 日本高清视频免费在线观看| 懂色av一区二区夜夜嗨| 欧美日韩综合在线观看| 一个人www欧美| www久久久| a级黄色一级片| 国产女人aaa级久久久级| 国产免费无遮挡| 国内精品美女av在线播放| 国产精品手机在线播放| 91精品999| 欧美日韩免费在线观看| av在线二区| www.成人av| 日韩在线卡一卡二| 一区二区三区四区五区| 亚洲精品美女视频| 婷婷久久综合九色综合99蜜桃| 国产乱淫av片杨贵妃| 亚洲国产精品av| www.好吊色| 国产不卡av在线免费观看| 欧美在线二区| 国产精品成人无码免费| 欧美成人一区二区三区在线观看| 69久成人做爰电影|