精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

一文梳理各類Large Language Model關系和實現要點 精華

發布于 2025-1-21 14:00
瀏覽
0收藏

今天這篇文章給大家匯總市面上的各類Large Language Model,從模型角結構的角度、模型類型的角度進行劃分,涵蓋了目前市面上主流的LLM,一文了解各個LLM的基本實現方法和關系。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

從基礎模型結構的角度,預訓練語言模型可以分為Encoder-only、Decoder-only、Encoder-Decoder三種類型。從市面上的LLM類型來看,可以分為GPT、LLaMA、PaLM等3個最主要的類型。下面,將這6個類別的模型,以及其中各個模型之間的關系給大家詳細介紹一下。

1.模型結構劃分:Encoder-only模型

Encoder-only類型的模型只包含encoder 網絡,代表性網絡包括BERT及其變種,RoBERTa,ALBERT,DeBERTa,XLM,XLNet,UNILM。

BERT:主要包含Embedding模塊、Transformer編碼器、FCN網絡等3個組件。embedding模塊將輸入文本轉化為一系列的embedding vectors;Transformer編碼器將embedding向量轉換為上下文表示向量;FCN將上下文表示向量轉化為one-hot向量。訓練過程使用masked language model(MLM)、next sentence prediction兩個預訓練任務。預訓練后的BERT可以通過增加classifier layer,對多種自然語言理解任務進行fine-tune。其他各個變體的差異如下。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

RoBERTa:通過一系列的模型選擇設計和訓練策略來提升模型的魯棒性,例如修改一些超參數,移除next sentence prediction任務,使用更大的mini-batches和學習率;

ALBERT:使用兩個parameter-reduction技巧來降低內存消耗并提升訓練速度:將embedding矩陣分解為兩個矩陣 && 分組進行重復層的切分;

DeBERTa: 通過兩種技術優化BERT和RoBERTa,一是disentangled attention mechanism,每個word使用兩個embedding,包括內容embedding和position embedding,根據這兩個embedding計算attention weight;二是enhanced mask decoder,在pre-train階段結合解碼層的絕對位置來預測被mask的token;

ELECTRA:使用了一個新的pre-train任務,replaced token detection(RTD)。RTD任務的數據采樣比masked language model 效率更高。RTD 通過從小型生成器生成token來替換原句中的token,然后通過判別式模型來判斷輸入是否被生成樣本替代。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

XLMs: 擴展BERT成為跨語種語言模型,使用了兩個方法:基于單語種的非監督方法 && 一種利用并行數據和新的跨語種語言模型目標的監督方法。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

2.模型結構劃分:Decoder-only模型

典型的decoder only PLMs是OpenAI的GPT-1和GPT-2。

GPT-1 是一個僅有decoder的transformer model,使用差異化的無標注語料庫上,以自監督的形式進行Generative Pre-Training(GPT),  并在每個特定的下游任務中進行判別式的fine-tuning,在多個自然語言處理任務中拿到了非常好的表現。

GPT-2 沒有任何顯示監督,在包含百萬量級網頁的大型網頁文本數據集進行訓練,在特定的自然語言處理任務上表現優異。GPT-2延續了GPT-1的模型框架,僅做少許改動:layer normalization 移動到了每個sub-block的輸入層;在最后的self-attention block之后增加額外的layer normalization層;對初始化進行修改,以考慮殘差路徑上的累積和殘差層權重的縮放;詞典size增加到5025,context size從512增加到1024。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

3.模型結構劃分:Encoder-Decoder模型

所有的自然語言處理任務可以理解成一個sequence2sequence的生成式任務,因此encoder-decoder是解決所有自然語言理解和生成任務的統一范式。代表性的model包括T5,mT5,MASS,BART。

T5:  Text-to-Text Transfer Transformer model。通過引入統一的框架,將遷移學習有效地用于NLP,在這個框架中,所有的NLP任務都被視為是text-text的生成式任務。mT5是一個T5的多語種變種,使用了基于爬蟲的包含101種語言的數據集;

MASS:MAsked Sequence to Sequence pre-training。采用encoder-decoder框架在給定句子部分片段的情況下對該sentence進行重構。encoder 接收被隨機mask fragment(連續多個token)的sentence作為輸入,decoder預測被mask的fragment。因此MASS聯合訓練了生成embedding的encoder和用來生成的decoder;

一文梳理各類Large Language Model關系和實現要點-AI.x社區

BART:標準的seq2seq translating 模型框架,預訓練中使用增加了任意噪聲的文本,重建原始的文本。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

4.模型類型劃分:GPT類型

GPT由OpenAI開發,decoder-only Transformer-based language models。包含GPT-1, GPT-2, GPT-3, InstrucGPT, ChatGPT, GPT-4, CODEX, and WebGPT。其中GPT-1和GPT-2是開源模型,GPT-3/GPT-4非開源,僅可以通過API訪問。

GPT-3:自回歸語言模型,175 billion 參數。GPT-3 可以僅通過與模型進行文本交互來制定任務和小樣本演示,而不經任何梯度更新和fine-tune直接應用到任意下游任務。GPT-3在大量NLP任務上表現優異,包括翻譯,QA,完形填空,以及一些需要即時推理或領域適應的問題。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

CODEX:2023年OpenAI在M3發布,由GPT-3派生,使用從GitHub收集的代碼語料庫進行fine-tune, 可以解析自然語言并生成相應的代碼。

WebGPT: 從GPT-3衍生,經過微調,可以使用基于文本的web瀏覽器回答開放式問題。使用三個步驟進行訓練:首先使用人類示范數據來學習模仿人類的瀏覽行為,然后學習reward function來預測人類的偏好,最后通過強化學習和拒絕采樣來改進WebGPT,來優化reward function.

InstructGPT: 使得GPT可以遵循預期的人類指令。使用人類反饋進行微調,將語言模型與用戶意圖在多個任務上進行對齊。從一組標注員編寫的提示和通過 OpenAI API 提交的提示開始,收集標注員示例及所需的模型行為作為數據集。在該數據集上fine-tune GPT3,然后收集人類對模型輸出的打分,使用強化學習進一步對模型進行fine-tune。這種方法被稱為人類反饋中強化學習(RLHF,Reinforcement Learning from Human Feedback)。由此產生的 InstructGPT 模型優化了輸出的真實性,并減少了toxic output,同時在公共 NLP 數據集上的性能回歸最小。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

ChatGPT: Chat Generative Pre-trained Transformer,20221130發布,是一款聊天機器人,用戶通過引導對話來完成各種任務,如回答問題、查找信息、文本摘要等。ChatGPT 由 GPT-3.5(之后由 GPT-4 )提供支持,它是 InstructGPT 的姐妹模型,經過訓練可以遵循prompt中的指令并提供詳細的回應。

GPT-4:是 GPT 家族中最新、最強大的 LLM。GPT-4 于 2023 年 3 月推出,是一款多模態 LLM,它可以將圖像和文本作為輸入并生成文本輸出。盡管在一些現實場景最有挑戰性的任務中,GPT-4 表現不如人類,但它在多個專業性和學術性的benchmark上都拿到了和人類相似的性能表現,例如在模擬律師資格考試中在參賽者中位列Top 10%。與早期的 GPT 模型相似,GPT-4 首先經過預訓練,在大型文本語料庫預估next token,然后使用 RLHF 進行微調,使得模型行為與人類期望的行為保持一致。

5.模型類型劃分:LLaMA類型

LLaMA是由Meta發布的開源模型。首版LLaMA模型2023年2月發布,參數量在7billion到65billion之間。開源模型一般要比非開源模型發展更迅猛一些。LLaMA發展迅速,基于LLaMa/LLaMA-2的instruction-following 模型在快速出現,例如Code LLaMA/Gorilla/Giraffe/Vigogne/Tulu 65B/Long LLaMA/Stable Beluga2等。

LLaMA:2023年2月發布,包含7B-65B的參數,在萬億級別的tokens上進行訓練。模型結構是在GPT-3的基礎上做了一些改動:激活函數使用SwiGLU替換ReLU;使用旋轉位置嵌入代替絕對位置嵌入;使用均方根歸一化層替換標準歸一化層。LLaMA-13B在絕大多數基線上表現優于GPT-3 (175B),因此成為LLM領域一個較好的基線。

LLaMA-2:2023年7月和微軟合作推出LLaMA-2,  包含基礎語言模型和對話模型,即LLaMA-2 Chat。在多個公開數據集上表現優于其它開源模型。LLaMA-2首先使用開源數據預訓練語言模型,然后通過有監督微調得到初版LLaMA-chat。之后使用RLHF、拒絕采樣和近端策略優化對LLaMA-chat進行迭代優化。在RLHF 階段,人工反饋的累積對修改獎勵模型非常重要,可以防止獎勵模型發生較大變化并影響模型訓練的穩定性。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

Alpaca:在GPT-3.5(text-davinci-003)基礎上,基于self-self-instruct方式,使用52k instruction-following demonstration對模型進行微調。是一個小成本模型,在學術研究領域是一個cost-effective的模型。在self-instruct數據集上,盡管體積小但是可以拿到和GPT-3.5相似的表現

一文梳理各類Large Language Model關系和實現要點-AI.x社區

Vicuna-13B:The Vicuna team使用從ShareGPT收集到的user-shared對話,對LLaMA進行finetune。使用GPT-4作為evaluator,Vicuna可以媲美OpenAI ChatGPT / GG Bards 90%的能力,同時在 90% 以上的情況下優于 LLaMA 和 Stanford Alpaca 等其他模型。Vicuna-13B 模型訓練的計算需求相對較小,訓練成本僅為 300 美元。

QLoRA:使用instruction-following數據對LLaMA進行預訓練,但是微調階段非常高效,例如可以在單個48G GPU上對65B參數的模型進行微調。通過一個凍結的4位量化預訓練語言模型將梯度帆船到低秩適配器(LoRA, Low Rank Adapters)。只需要在單個GPU上進行24小時的微調,就可以在Vicuna基準上的表現優于所有已發布模型,達到了ChatGPT的99.3%;

一文梳理各類Large Language Model關系和實現要點-AI.x社區

Koala:基于LLaMA的instruction-following語言模型,但是會更關注交互數據,包括用戶輸入和ChatGPT等優質非開源聊天模型生成的response。在一些真實用戶prompt上人工評估,Koala-13B性能可與STOA的聊天模型媲美;

Mistral-7B:出于模型的性能和效率考慮的7B參數的語言模型,在所有benchmark上表現優于開源的13B參數模型 LLaMA-2-13B。在因果推斷、數學和代碼生成上表現由于開源的34B模型LLaMA-34B。Mistral 模型利用grouped-query attention進行更快的推理,并結合sliding window attention有效地處理任意長度的序列并降低推理成本。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

6.模型類型劃分:PaLM類型

PaLM(Pathways Language Model)由Google研發,最早的PaLM模型在2022年4月官宣,在2023年公開發布,有540B參數,基于transformer的LLM模型。該模型在由 7800 億個詞條組成的高質量文本語料庫上進行預訓練,這些詞條涵蓋了廣泛的自然語言任務和用例,訓練時在Pathways系統(可以高效跨多TPU進行訓練)在6144 TPU v4 芯片上進行。PaLM 在數百個自然語言理解和生成任務基準上,few-shot learning的結果都取得了SOTA的效果。PaLM-540B 不僅在一系列多步推理任務中超越了SOTA微調模型,而且在最近發布的 BIG-bench 基準測試中也與人類表現不相上下。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

UPaLM:使用 UL2R 在 PaLM 上持續訓練 8B、62B 和 540B 規模的模型,這是一種使用 UL2 的混合降噪目標分幾步持續訓練 LLM 的方法,計算資源大約能節約2倍

Flan-PaLM:對UPaLM進行instruction-finetune。使用更多的任務、更大的模型尺寸以及chain-of-throught數據。在 1.8K個任務上經過指令微調的 Flan-PaLM-540B 的表現遠勝于 PaLM-540B(平均 +9.4%)。微調數據包括 473 個數據集、146 個任務類別和 1836 個總任務。

一文梳理各類Large Language Model關系和實現要點-AI.x社區

PaLM-2:PaLM-2 計算效率更高,與PaLM相比會有更好的多語種和推理能力。PaLM-2 使用多個目標任務進行預訓練,通過對英語、多語種和推理任務的廣泛評估,不同的模型尺寸的PaLM-2 ,在下游任務的模型性能都有顯著提升,同時展現了比PaLM 更快、更高效的推理能力。

Med-PaLM:是為醫療問答提供高質量回答的特定領域模型,使用instruction prompt tuning(使用少量示例 && 節省參數地將LLM對齊到新領域)。盡管不如人類臨床醫生,但是在多個醫療保健任務上取得了非常encouraging的結果。

7.模型類型劃分:其他LLM類型

有一些LLM不在上述三個LLM家族中,但也是一些非常受歡迎的LLM,拿到了優異的性能并推進LLM領域的發展。例如:FLAN、GLM、Orca、Gemini等。

其中Gemini團隊推出了一系列新的多模態模型,這些模型在圖像、音頻、視頻和文本理解方面表現出了優異的能力。Gemini 系列包括三個版本:Ultra 用于高度復雜的任務,Pro 用于增強性能和大規模部署能力,Nano 用于設備應用程序。Gemini 架構建立在 Transformer 解碼器之上,通過使用高效的注意力機制, 可支持 32k 上下文長度的訓練

一文梳理各類Large Language Model關系和實現要點-AI.x社區

本文轉載自 ??圓圓的算法筆記??,作者: 妙子


收藏
回復
舉報
回復
相關推薦
欧美18视频| 91精品国产91久久久久福利| 亚欧美一区二区三区| 91高清在线观看视频| 波多野结衣在线一区| 国产成一区二区| 国产67194| 欧美重口另类| 91 com成人网| 国产精品免费入口| 国产激情视频在线观看| 91网站最新网址| 成人免费直播live| 欧美videossex极品| 99久久婷婷| 日韩电影在线观看中文字幕| 国产免费人做人爱午夜视频| 超碰在线caoporn| www久久久久| 亚洲已满18点击进入在线看片| 中日韩精品视频在线观看| 日韩久久精品网| 亚洲国产一区自拍| 91aaa精品| 日韩影片中文字幕| 亚洲丰满少妇videoshd| 在线成人性视频| 你懂的视频在线免费| 国产精品一区二区果冻传媒| 国产精品99久久久久久人 | 青青久久av北条麻妃海外网| 欧美三级黄色大片| 欧美亚洲精品在线| 亚洲女同精品视频| 大乳护士喂奶hd| 2023国产精华国产精品| 欧美一区二视频| 羞羞的视频在线| 欧美成人影院| 欧美日韩国产精品一区二区不卡中文| 成人手机在线播放| 欧美精品videos另类| 日本一区二区三区免费乱视频| 国产偷国产偷亚洲高清97cao| a级片免费观看| 韩国视频一区二区| 91九色蝌蚪国产| 97超碰中文字幕| 美女视频黄 久久| 国产成人精品一区二区在线| 老熟妇仑乱一区二区av| 亚洲欧美久久久| 欧美一区亚洲一区| 日本一区二区三区精品| 新狼窝色av性久久久久久| 91av国产在线| 国产女同在线观看| 一本色道久久综合亚洲精品不卡| 性色av香蕉一区二区| 国产精彩视频在线| 在线亚洲观看| 青青草成人在线| 中文在线第一页| 日韩av不卡一区二区| 国产精品美女久久久免费| 无码人妻一区二区三区免费| 日韩二区三区四区| 91精品国产自产在线观看永久| a片在线免费观看| 日本女优在线视频一区二区| 91精品久久久久久久久不口人| 中文字幕欧美人妻精品一区蜜臀| 久久成人18免费观看| 成人美女免费网站视频| 亚洲国产av一区二区| 成人午夜激情片| 精品欧美一区二区精品久久| 男人天堂综合| 国产精品进线69影院| 成人区一区二区| 性爽视频在线| 欧美影院一区二区| 99热这里只有精品2| 久久久伦理片| 一本大道亚洲视频| 卡通动漫亚洲综合| 国产一区二区三区的电影| 日韩av快播网址| 国产av无码专区亚洲av麻豆| 99久免费精品视频在线观看| 亚洲国产一区二区三区在线| 日本色护士高潮视频在线观看 | 日本一区二区三区在线不卡| 国产精品啪啪啪视频| 欧美男男tv网站在线播放| 欧美日韩一本到| aaa黄色大片| 欧美精品一区二区三区精品| 欧美大片免费观看| 中文字幕日韩三级| 成人av网站在线观看免费| 亚洲国产一区二区精品视频| 免费在线观看av电影| 欧美亚洲国产怡红院影院| 亚洲乱妇老熟女爽到高潮的片| 国产探花一区在线观看| 色综合久久悠悠| 久久久久精彩视频| 99久久国产综合精品色伊| 在线播放 亚洲| 台湾佬中文娱乐久久久| 日韩女优电影在线观看| 女人裸体性做爰全过| 国产亚洲在线| 国产精品日韩欧美一区二区| 欧美精品hd| 欧美羞羞免费网站| 色天使在线视频| 欧美视频福利| 成人写真福利网| 国产乱理伦片a级在线观看| 亚洲成a人v欧美综合天堂下载 | av一区二区三| 国产精品二三区| 日韩免费毛片视频| 国产一区二区三区不卡av| 久久综合久久美利坚合众国| 男人天堂视频网| av一区二区三区| 国产 欧美 日本| 成人免费91| 久久精品福利视频| 九九热最新视频| 91麻豆视频网站| 天天夜碰日日摸日日澡性色av| 久久久91麻豆精品国产一区| www.亚洲免费视频| 一二三区中文字幕| 国产精品女上位| 在线观看高清免费视频| 久草在线成人| 国产97在线播放| 欧美一区二区三区少妇| 岛国av一区二区在线在线观看| 亚洲无人区码一码二码三码| 国产精品v欧美精品v日本精品动漫| 国产99久久精品一区二区永久免费| 日韩中文字幕观看| 午夜视频久久久久久| 精品国产一二区| 激情视频一区二区三区| 高清免费日韩| 999福利在线视频| 日韩视频在线永久播放| 久久久91视频| 成人毛片视频在线观看| 水蜜桃色314在线观看| 久久a爱视频| 欧美一区二粉嫩精品国产一线天| 香蕉视频免费看| 色综合天天综合狠狠| 精品成人av一区二区三区| 天使萌一区二区三区免费观看| 免费在线一区二区| 黄色欧美视频| 久久天天躁狠狠躁夜夜躁| www国产在线| 亚洲成av人**亚洲成av**| 北岛玲一区二区| 老司机精品导航| 亚洲精品无人区| 久久影院一区二区三区| 久久久亚洲国产| 欧美91精品久久久久国产性生爱| 欧美性欧美巨大黑白大战| 麻豆明星ai换脸视频| 高清不卡在线观看| 妺妺窝人体色www在线小说| 精品国产一区二区三区香蕉沈先生| 国产精品美腿一区在线看| 国产调教视频在线观看| 亚洲大胆人体在线| 99re国产在线| 亚洲精品视频在线观看免费| 免费的av网站| 精品一区二区三区在线播放视频 | 国产综合色产在线精品 | 久久精品欧洲| 9999在线观看| 精品影片在线观看的网站| 91精品久久久久久久久久入口| 狂野欧美性猛交xxxxx视频| 亚洲毛片在线看| 99国产精品久久久久久久成人| 亚洲电影在线播放| 少妇愉情理伦三级| 波多野结衣在线aⅴ中文字幕不卡| 99视频在线视频| 激情亚洲成人| 亚洲一卡二卡三卡四卡无卡网站在线看| 亚洲日本va午夜在线电影| 日韩免费黄色av| 丝袜在线视频| 中文字幕9999| 亚洲人午夜射精精品日韩| 91精品国产一区二区| 9i精品福利一区二区三区| 亚洲综合色成人| 国产福利在线导航| 91亚洲男人天堂| 久久久精品视频国产| 日本视频一区二区| 妞干网在线视频观看| 午夜欧美精品| 亚洲欧洲一二三| 久久99精品久久久久久园产越南| 亚洲最大av网站| 国产精品亚洲成在人线| 欧美中在线观看| 9765激情中文在线| 欧美国产日韩视频| 二区三区在线观看| 中文字幕v亚洲ⅴv天堂| 久久这里精品| 日韩的一区二区| 高潮一区二区三区乱码| 在线综合视频播放| 真实新婚偷拍xxxxx| 一本色道综合亚洲| 国产午夜视频在线| 亚洲一区二区三区视频在线播放| 亚洲欧美另类日本| 国产精品嫩草99a| 国产美女免费网站| 久久先锋影音av鲁色资源网| 国产人妻黑人一区二区三区| 成人免费毛片片v| 亚洲美女精品视频| 福利91精品一区二区三区| 日本成人在线免费观看| 国产一区视频导航| 91精品国产三级| 国产一区二区成人久久免费影院| 五月天视频在线观看| 久久99精品久久久久| 五月婷婷六月合| 欧美aaaaaa午夜精品| 天天插天天操天天射| 麻豆精品一区二区三区| 日韩欧美国产片| 黄网站免费久久| 日本黄色www| 成人精品视频.| 中文字幕在线播放视频| 91一区二区三区在线观看| 丰满圆润老女人hd| 久久久www成人免费无遮挡大片| 日本激情小视频| 欧美国产一区二区在线观看| 国产一区第一页| 亚洲精品国产a久久久久久| 久久艹精品视频| 精品久久久久久亚洲精品| 天天干天天色综合| 欧美日韩一区二区三区四区五区 | 日本少妇久久久| 午夜精品久久久久久久99樱桃| 天天操夜夜操视频| 欧美婷婷六月丁香综合色| 国产又大又黄的视频| 欧美xxxxxxxx| 青青草视频在线免费观看| 色悠悠久久久久| 国产经典三级在线| 热99精品只有里视频精品| 久久精品国产福利| 成人3d动漫一区二区三区91| 天堂综合网久久| 亚洲欧美日韩不卡| 亚洲精品一级| 国产一区二区在线免费播放| 国产98色在线|日韩| 少妇饥渴放荡91麻豆| 国产精品乱码久久久久久| 国产亚洲小视频| 欧美影院精品一区| 亚洲成人黄色片| 国产一区二区三区18| 伊人222成人综合网| 欧美在线观看日本一区| www.成人| 日韩av高清| 黄色免费成人| 日日噜噜夜夜狠狠| 成人久久久精品乱码一区二区三区| 六月婷婷七月丁香| 亚洲资源中文字幕| 中文字幕日韩经典| 亚洲黄色www网站| 久久亚洲天堂| 国产精品video| 91亚洲无吗| 综合国产精品久久久| 香蕉久久国产| 亚洲成人精品在线播放| 欧美国产欧美综合| 五月婷婷开心网| 日韩欧美在线不卡| 成人精品一区二区三区免费 | 亚洲视频在线观看| 激情网站在线| 亚洲一区久久久| 欧美久久精品一级c片| 波多野结衣家庭教师在线播放| 久久国产精品99精品国产| 无码人妻aⅴ一区二区三区| 一区二区三区欧美日| 中文字幕在线观看精品| 亚洲精品一区二区在线| 超碰在线97国产| 99久久无色码| 午夜精品久久久久久久四虎美女版| 国产97色在线 | 日韩| 99re热这里只有精品免费视频| 69xx绿帽三人行| 欧美精品123区| 久久77777| 91久热免费在线视频| 日本一区二区免费高清| 久久久精品三级| 久久久国产精品午夜一区ai换脸 | 欧美揉bbbbb揉bbbbb| 欧美成人综合在线| 欧美一级电影在线| 日韩极品在线| 97国产精东麻豆人妻电影| 成人动漫在线一区| 日本网站在线免费观看| 欧美本精品男人aⅴ天堂| 中文字幕有码在线观看| 亚洲最大的成人网| 91精品国产自产拍在线观看蜜 | 久久久久精彩视频| 国产亚洲精品久久久久久777| 永久免费毛片在线播放| 欧美日本韩国在线| 久久男女视频| 我想看黄色大片| 欧美性一级生活| 日本不卡不卡| 亚洲自拍在线观看| 欧美精品91| av网页在线观看| 日韩人在线观看| 成人高清免费在线播放| 国产精品久久久久久久久久新婚 | 亚洲国产精品久久久久爰性色 | 久久精品免费av| 亚洲第一中文字幕在线观看| h片在线观看下载| 免费中文日韩| 另类欧美日韩国产在线| 国产高清视频免费在线观看| 欧美一卡二卡三卡| av在线资源| 欧美亚洲一级二级| 麻豆国产91在线播放| 18岁成人毛片| 亚洲福利视频在线| 亚洲四虎影院| 天天干天天色天天爽| 成人性生交大合| 自拍偷拍校园春色| 久久精品国产久精国产一老狼| 亚洲va欧美va人人爽成人影院| 国产freexxxx性播放麻豆 | 视频这里只有精品| 亚洲第一中文字幕| 欧美free嫩15| 国产 欧美 日本| 亚洲国产岛国毛片在线| 国产成人精品无码高潮| 欧美亚洲另类制服自拍| 欧美激情欧美| 噜噜噜在线视频| 欧美精品亚洲二区| 欧美男男tv网站在线播放| 亚洲欧美日韩不卡| 91视频一区二区三区| 国产精品视频在线观看免费 | 日韩有码视频在线| 成人动态视频| 亚洲综合色在线观看| 亚洲国产一区二区三区| 1024免费在线视频| 国精产品一区二区| 激情综合色综合久久| 亚洲av无码精品一区二区| 欧美黄网免费在线观看| 日韩大片在线观看|