精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Hugging Face:2023開(kāi)源LLM大爆發(fā),數(shù)據(jù)競(jìng)賽已開(kāi)啟!

開(kāi)源 新聞
2023年的LLM開(kāi)源社區(qū)都發(fā)生了什么?來(lái)自Hugging Face的研究員帶你回顧并重新認(rèn)識(shí)開(kāi)源LLM

2023年的大語(yǔ)言模型(LLM),讓幾乎所有人都燃起了熱情。

現(xiàn)在大多數(shù)人都知道LLM是什么,以及可以做什么。

人們討論著它的優(yōu)缺點(diǎn),暢想著它的未來(lái),

向往著真正的AGI,又有點(diǎn)擔(dān)憂自己的命運(yùn)。

圍繞開(kāi)源與閉源的公開(kāi)辯論也吸引了廣泛的受眾。

2023年的LLM開(kāi)源社區(qū)都發(fā)生了什么?

下面,讓我們跟隨Hugging Face的研究員Clémentine Fourrier一起,

回顧一下開(kāi)源LLM這跌宕起伏的一年。

如何訓(xùn)練大語(yǔ)言模型?

LLM的模型架構(gòu)描述了具體實(shí)現(xiàn)和數(shù)學(xué)形狀。模型是所有參數(shù)的列表,以及參數(shù)如何與輸入交互。

目前,大多數(shù)高性能的LLM都是Transformer架構(gòu)的變體。

LLM的訓(xùn)練數(shù)據(jù)集,包含訓(xùn)練模型所需的所有示例和文檔。

大多數(shù)情況下是文本數(shù)據(jù)(自然語(yǔ)言、編程語(yǔ)言、或者其他可表達(dá)為文本的結(jié)構(gòu)化數(shù)據(jù))。

分詞器(tokenizer)定義如何將訓(xùn)練數(shù)據(jù)集中的文本轉(zhuǎn)換為數(shù)字(因?yàn)槟P捅举|(zhì)上是一個(gè)數(shù)學(xué)函數(shù))。

文本被切分成稱(chēng)為tokens的子單元(可以是單詞、子單詞或字符)。

分詞器的詞匯量通常在32k到200k之間,而數(shù)據(jù)集的大小通常以它包含的tokens數(shù)量來(lái)衡量,當(dāng)今的數(shù)據(jù)集可以達(dá)到幾千億到幾萬(wàn)億個(gè)tokens。

然后,使用超參數(shù)定義如何訓(xùn)練模型——每次迭代,參數(shù)應(yīng)該改變多少?模型的更新速度應(yīng)該有多快?

搞定這些后,剩下的就只需要:大量的算力,以及訓(xùn)練過(guò)程中進(jìn)行監(jiān)控。

訓(xùn)練的過(guò)程包括實(shí)例化架構(gòu)(在硬件上創(chuàng)建矩陣),并使用超參數(shù)在訓(xùn)練數(shù)據(jù)集上運(yùn)行訓(xùn)練算法。

最終得到的結(jié)果是一組模型權(quán)重,——大家討論的大模型就是這個(gè)東西。

這組權(quán)重可以用來(lái)推理,對(duì)新的輸入預(yù)測(cè)輸出、生成文本等。

上面訓(xùn)練好的LLM也可以在之后通過(guò)微調(diào)(fine-tuning)來(lái)適應(yīng)特定任務(wù)(尤其是對(duì)于開(kāi)源模型)。

微調(diào)的過(guò)程是在不同的數(shù)據(jù)集(通常更專(zhuān)業(yè)、更小)上對(duì)模型進(jìn)行額外的訓(xùn)練步驟,以針對(duì)特定應(yīng)用程序進(jìn)行優(yōu)化。

比起從頭開(kāi)始訓(xùn)練一個(gè)大模型,微調(diào)的成本顯然低得多——這也是開(kāi)源LLM受到大家歡迎的原因之一。

從規(guī)模競(jìng)賽到數(shù)據(jù)競(jìng)賽

直到2022年初,機(jī)器學(xué)習(xí)的趨勢(shì)是模型越大,性能就越好。

而且似乎模型的大小在超過(guò)某個(gè)閾值之后,能力會(huì)得到飛躍——有兩個(gè)詞語(yǔ)用來(lái)描述這個(gè)現(xiàn)象:emergent abilities和scaling laws 。

2022年發(fā)布的預(yù)訓(xùn)練開(kāi)源模型大多遵循這種范式,下面舉幾個(gè)例子。

BLOOM(BigScience Large Open-science Open-access Multilingual Language Model)是BigScience發(fā)布的一系列模型,由Hugging Face與法國(guó)組織GENCI和IDRIS合作,涉及來(lái)自60個(gè)國(guó)家和250個(gè)機(jī)構(gòu)的1000名研究人員。這些模型使用decoder-only transformers,并進(jìn)行了微小的修改。

系列中最大的模型有176B參數(shù),使用350B的訓(xùn)練數(shù)據(jù)集,包括46種人類(lèi)語(yǔ)言和13種編程語(yǔ)言,是迄今為止最大的開(kāi)源多語(yǔ)言模型。

OPT(Open Pre-trained Transformer)系列模型由Meta發(fā)布,遵循GPT-3論文的技巧(特定權(quán)重初始化、預(yù)歸一化),對(duì)注意力機(jī)制(交替密集和局部帶狀注意力層)進(jìn)行了一些更改。

這個(gè)系列中最大的模型為175B,在180B的數(shù)據(jù)上進(jìn)行訓(xùn)練,數(shù)據(jù)主要來(lái)自書(shū)籍、社交、新聞、維基百科和互聯(lián)網(wǎng)上的其他信息。

OPT的性能與GPT-3相當(dāng),使用編碼優(yōu)化來(lái)降低計(jì)算密集度。

GLM-130B(通用語(yǔ)言模型)由清華大學(xué)和Zhipu.AI發(fā)布。它使用完整的transformer架構(gòu),并進(jìn)行了一些更改(使用DeepNorm進(jìn)行層后歸一化、旋轉(zhuǎn)嵌入)。

GLM-130B是在400B個(gè)中英文互聯(lián)網(wǎng)數(shù)據(jù)(The Pile、Wudao Corpora和其他中文語(yǔ)料庫(kù))的標(biāo)記上訓(xùn)練的,它的性能也與GPT-3相當(dāng)。

此外,還有一些更小或更專(zhuān)業(yè)的開(kāi)源LLM,主要用于研究目的。

比如Meta發(fā)布的Galactica系列;EleutherAI發(fā)布的GPT-NeoX-20B等。

盡管看起來(lái)越大的模型效果越好,但運(yùn)行起來(lái)也越昂貴。

在執(zhí)行推理時(shí),模型需要加載到內(nèi)存中,而100B參數(shù)的模型通常需要220GB的內(nèi)存。

在2022年3月,DeepMind發(fā)表了一篇論文,研究了在給定計(jì)算預(yù)算下,用于訓(xùn)練的數(shù)據(jù)量與模型參數(shù)的最佳比率是多少。

換句話說(shuō),如果你只有固定的一筆錢(qián)可以花在模型訓(xùn)練上,那么模型大小和訓(xùn)練數(shù)據(jù)量應(yīng)該是多少?

作者發(fā)現(xiàn),總體而言,應(yīng)該把更多的資源分配給訓(xùn)練數(shù)據(jù)。

他們自己的例子是一個(gè)叫做Chinchilla的70B模型,使用1.4T的訓(xùn)練數(shù)據(jù)。

2023的開(kāi)源LLM

模型爆發(fā)

2023年開(kāi)始,一大波模型涌現(xiàn)出來(lái),每個(gè)月、每周、甚至每天都會(huì)有新的模型發(fā)布:

2月的LLaMA(Meta)、4月的Pythia(Eleuther AI)、MPT(MosaicML)、 5月的X-GEN(Salesforce)和Falcon(TIIUAE)、7月的Llama 2(Meta)、9月的Qwen(阿里巴巴)和Mistral(Mistral.AI),11月的Yi(01-ai),12月的DeciLM(Deci)、Phi-2(微軟) 和SOLAR(Upstage)。

在Meta AI的LLaMA系列中,研究人員的目標(biāo)是訓(xùn)練一組不同大小的模型,能夠在給定的預(yù)算下具有最佳性能。

他們首次明確提出不僅要考慮訓(xùn)練預(yù)算,還要考慮推理成本,從而在更小的模型大小上達(dá)到更高的性能(權(quán)衡是訓(xùn)練計(jì)算效率)。

Llama 1系列中最大的模型是在1.4T數(shù)據(jù)上訓(xùn)練的65B參數(shù)模型,而較小的模型(6 B和13B)是在1T數(shù)據(jù)上訓(xùn)練的。

小型13B LLaMA模型在大多數(shù)基準(zhǔn)測(cè)試中都優(yōu)于GPT-3,而最大的LLaMA模型到達(dá)了當(dāng)時(shí)的SOTA。不過(guò),LLaMA是以非商業(yè)許可發(fā)布的,限制了社區(qū)的應(yīng)用。

之后,MosaicML發(fā)布了MPT模型,具有允許商業(yè)用途的許可證,以及訓(xùn)練組合的細(xì)節(jié)。第一個(gè)MPT模型為7B ,隨后是6月份的30B版本,均使用1T英語(yǔ)和代碼數(shù)據(jù)進(jìn)行訓(xùn)練。

在此之前,模型的訓(xùn)練數(shù)據(jù)是公開(kāi)的,不過(guò)之后的模型就不再提供任何關(guān)于訓(xùn)練的信息,——不過(guò)最起碼權(quán)重是開(kāi)源的。

無(wú)處不在的對(duì)話模型

與2022年相比,2023年發(fā)布的幾乎所有預(yù)訓(xùn)練模型都帶有預(yù)訓(xùn)練版本和對(duì)話微調(diào)版本。

公眾越來(lái)越多地使用這些聊天模型,并進(jìn)行各種評(píng)估,還可以通過(guò)聊天的方式對(duì)模型進(jìn)行微調(diào)。

指令微調(diào)(IFT)使用指令數(shù)據(jù)集,其中包含一組查詢(xún)的提示和答案。這些數(shù)據(jù)集教會(huì)模型如何遵循指令,可以是人類(lèi)的,也可以是LLM生成的。

使用LLM輸出合成數(shù)據(jù)集,是完成指令和聊天微調(diào)的方法之一,通常被稱(chēng)為distillation ,表示從高性能模型中獲取知識(shí),來(lái)訓(xùn)練或微調(diào)較小的模型。

這兩種方法都相對(duì)容易實(shí)現(xiàn):只需要查找或生成相關(guān)數(shù)據(jù)集,然后使用與訓(xùn)練時(shí)相同的技術(shù)微調(diào)模型。

來(lái)自人類(lèi)反饋的強(qiáng)化學(xué)習(xí) (RLHF) 是一種特定方法,旨在調(diào)整模型預(yù)測(cè)的內(nèi)容,與人類(lèi)的喜好保持一致。

根據(jù)給定的提示,模型會(huì)生成幾個(gè)可能的答案,人類(lèi)對(duì)這些答案進(jìn)行排名,排名用于訓(xùn)練所謂的偏好模型,然后使用偏好模型通過(guò)強(qiáng)化學(xué)習(xí)對(duì)語(yǔ)言模型進(jìn)行微調(diào)。

這是一種成本高昂的方法,主要用于調(diào)整模型以實(shí)現(xiàn)安全目標(biāo)。

人們之后開(kāi)發(fā)了一種成本較低的變體,使用高質(zhì)量的LLM對(duì)模型輸出進(jìn)行排名,稱(chēng)為來(lái)自AI反饋的強(qiáng)化學(xué)習(xí) (RLAIF)。

直接偏好優(yōu)化 (DPO) 是RLHF的另一種變體,但不需要訓(xùn)練和使用單獨(dú)的偏好模型。

DPO利用人類(lèi)或AI給出的排名數(shù)據(jù)集,通過(guò)查看其原始策略和最佳策略之間的差異,來(lái)直接更新模型。

這使得優(yōu)化過(guò)程變得簡(jiǎn)單很多,同時(shí)實(shí)現(xiàn)了差不多的最終性能。

社區(qū)在做什么?

在2023年初,已經(jīng)發(fā)布了一些用于教學(xué)或聊天微調(diào)的數(shù)據(jù)集。

比如在人類(lèi)偏好方面,OpenAI的WebGPT數(shù)據(jù)集、Anthropic的HH-RLHF數(shù)據(jù)集和OpenAI的Summarize。

指令數(shù)據(jù)集的例子包括BigScience的Public Pool of Prompts、Google的FLAN 1和2、AllenAI的Natural Instructions、Self Instruct(由不同隸屬關(guān)系的研究人員生成自動(dòng)指令的框架)、SuperNatural指令(微調(diào)數(shù)據(jù)的專(zhuān)家創(chuàng)建的指令基準(zhǔn))、Unnatural指令等。

今年1月,中國(guó)研究人員發(fā)布了人類(lèi)ChatGPT指令語(yǔ)料庫(kù) (HC3),包含各種問(wèn)題的人類(lèi)與模型答案。

3月,斯坦福大學(xué)開(kāi)放了Alpaca模型,是第一個(gè)遵循指令的LLaMA模型 (7B),還包括相關(guān)的數(shù)據(jù)集(使用LLM生成的52K指令)。

LAION(一個(gè)非營(yíng)利性開(kāi)源實(shí)驗(yàn)室)發(fā)布了開(kāi)放指令通才(OIG)數(shù)據(jù)集,該數(shù)據(jù)集有43M條指令,既有數(shù)據(jù)增強(qiáng)創(chuàng)建,也有從其他預(yù)先存在的數(shù)據(jù)源編譯而來(lái)的指令。

同月,LMSYS組織(加州大學(xué)伯克利分校)發(fā)布了Vicuna,也是一個(gè)LLaMA微調(diào)(13B),這次使用的是聊天數(shù)據(jù)——用戶(hù)與ChatGPT之間的對(duì)話,由用戶(hù)自己在ShareGPT上公開(kāi)分享。

4月,BAIR(伯克利人工智能研究實(shí)驗(yàn)室)發(fā)布了Koala,一個(gè)聊天微調(diào)的LLaMA模型,使用了之前的幾個(gè)數(shù)據(jù)集(Alpaca、HH-RLHF、WebGPT、ShareGPT),

DataBricks發(fā)布了Dolly數(shù)據(jù)集,包含15K手動(dòng)生成指令。

5月,清華大學(xué)發(fā)布了UltraChat,一個(gè)包含指令的1.5M對(duì)話數(shù)據(jù)集,以及UltraLLaMA,一個(gè)對(duì)該數(shù)據(jù)集的微調(diào)。

Microsoft隨后發(fā)布了GPT4-LLM數(shù)據(jù)集,用于使用GPT4生成指令,

6月,Microsoft研究分享了一種新方法Orca,通過(guò)使用大型模型的推理痕跡來(lái)構(gòu)建指令數(shù)據(jù)集(解釋它們的分步推理),

——社區(qū)用這種方法創(chuàng)建了Open Orca數(shù)據(jù)集,有數(shù)百萬(wàn)個(gè)條目, 并被用于微調(diào)許多模型(Llama、Mistral等)。

8月,中國(guó)非營(yíng)利組織OpenBMB發(fā)布了UltraLM(LLaMA的高性能聊天微調(diào)),

9月,他們發(fā)布了相關(guān)的偏好數(shù)據(jù)集UltraFeedback,這是一個(gè)由GPT4比較的輸入反饋數(shù)據(jù)集(帶有注釋?zhuān)?/span>

另外,清華大學(xué)的一個(gè)學(xué)生團(tuán)隊(duì)發(fā)布了OpenChat,一個(gè)使用新的RL微調(diào)策略的LLaMA微調(diào)模型。

10月,Hugging Face發(fā)布了Zephyr,這是一款在UltraChat和UltraFeedback上使用DPO和AIF的Mistral微調(diào),Lmsys發(fā)布了LMSYS-Chat-1M,是與25個(gè)LLM的真實(shí)用戶(hù)對(duì)話。

11月,NVIDIA發(fā)布了HelpSteer,一個(gè)對(duì)齊微調(diào)數(shù)據(jù)集,根據(jù)幾個(gè)標(biāo)準(zhǔn)提供提示、相關(guān)模型響應(yīng)和所述答案的等級(jí),而Microsoft Research發(fā)布了Orca-2模型,是一個(gè)在新的合成推理數(shù)據(jù)集上微調(diào)的Llama 2。

開(kāi)發(fā)方式

合并:極致定制

在典型的開(kāi)源方式中,社區(qū)的里程碑之一是模型或數(shù)據(jù)合并。

模型合并是一種將不同模型的權(quán)重融合到單個(gè)模型中的方法,以將每個(gè)模型的各自?xún)?yōu)勢(shì)組合在一個(gè)統(tǒng)一的單個(gè)模型中。

最簡(jiǎn)單的方法之一,是對(duì)一組共享通用架構(gòu)的模型的參數(shù)進(jìn)行平均,——不過(guò)需要考慮更復(fù)雜的參數(shù)組合,例如確定哪些參數(shù)對(duì)給定任務(wù)的影響最大(加權(quán)平均),或者在合并時(shí)考慮模型之間的參數(shù)干擾(并列合并)。

這些技術(shù)允許任何人輕松生成模型組合,并且由于現(xiàn)在大多數(shù)模型都是同一架構(gòu)的變體,因此變得特別容易。

這就是為什么一些 LLM 排行榜上的模型會(huì)有奇怪的名字(比如llama2-zephyr-orca-ultra——表示llama2和zephyr 模型的合并,在orca和ultra數(shù)據(jù)集上進(jìn)行了微調(diào)) 。

PEFT:指尖的個(gè)性化

有時(shí),你可能沒(méi)有足夠的內(nèi)存加載整個(gè)模型,以對(duì)其進(jìn)行微調(diào)。但事實(shí)上,微調(diào)時(shí)可以不需要使用整個(gè)模型。

采用參數(shù)高效微調(diào)(PEFT),首先固定住一部分的預(yù)訓(xùn)練模型的參數(shù),然后在其上添加許多新參數(shù),稱(chēng)為適配器。

然后,對(duì)任務(wù)進(jìn)行微調(diào)的只是(輕量級(jí))適配器權(quán)重,比原始模型要小得多。

量化:模型無(wú)處不在

性能良好的大模型在運(yùn)行時(shí)需要大量的內(nèi)存,比如一個(gè)30B參數(shù)的模型可能需要超過(guò)66G的RAM才能加載,大多數(shù)個(gè)人開(kāi)發(fā)者都未必?fù)碛凶銐虻挠布Y源。

一個(gè)解決方案就是量化,通過(guò)改變模型參數(shù)的精度來(lái)減小模型的大小。

在計(jì)算機(jī)中,數(shù)字以給定的精度(如float32、float16、int8等)存儲(chǔ)。

精度既指示數(shù)字類(lèi)型(是浮點(diǎn)數(shù)還是整數(shù))又指示數(shù)字的存儲(chǔ)量:float32將浮點(diǎn)數(shù)存儲(chǔ)在32位的內(nèi)存空間中。精度越高,數(shù)字占用的物理內(nèi)存就越多。

因此,如果降低精度,則會(huì)減少每個(gè)模型參數(shù)占用的內(nèi)存,從而減小模型大小,這也意味著可以減少計(jì)算的實(shí)際精度。

而這種精度的損失帶來(lái)的性能下降,實(shí)際上非常有限。

從一種精度到另一種精度的方法有很多種,每種方案都有自己的優(yōu)點(diǎn)和缺點(diǎn)。常用的方法包括bitsandbytes、GPTQ和AWQ。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2023-10-08 09:00:00

LLMGitHub人工智能

2024-09-26 10:42:20

2024-10-08 09:30:00

AI模型

2023-07-10 14:35:53

2024-02-29 16:35:01

StarCoder2大型語(yǔ)言模型人工智能

2023-11-28 13:53:00

數(shù)據(jù)模型

2023-12-06 15:40:17

AI

2024-08-28 08:25:25

Python預(yù)訓(xùn)練模型情緒數(shù)據(jù)集

2024-12-05 13:50:00

AI大模型

2022-07-13 16:45:34

?大模型AI微軟

2025-03-26 10:57:40

PyTorchGGUF

2023-06-02 13:55:57

開(kāi)源AI

2024-11-15 08:24:41

2025-03-03 13:19:21

2024-06-21 08:42:54

BERTNLP自然語(yǔ)言處理

2024-02-04 13:26:51

2025-07-09 09:23:19

2025-09-17 12:56:56

2024-11-13 08:34:32

T5聊天機(jī)器人大模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

一本大道久久a久久综合| 国产大陆精品国产| 中文字幕一区电影| 三级黄色片免费看| 男女羞羞在线观看| 国产精品乱码一区二区三区软件| 亚洲成色777777女色窝| 国产成人精品一区二| 国产亚洲精品久久久优势| 一二三av在线| 成人美女黄网站| 最新国产精品久久精品| 91精品在线看| 成年人视频在线免费看| 亚洲国产精品久久久天堂| 亚洲黄色www| 一级黄色片国产| 在线天堂中文资源最新版| 亚洲欧美一区二区三区国产精品 | 国产丝袜不卡| 一级久久久久久| 国产精品av久久久久久麻豆网| 欧美在线高清视频| 国产精品69久久久| jizzjizz在线观看| av在线播放不卡| 91色精品视频在线| 欧美一级特黄视频| 欧美日韩国产高清| 精品国产视频在线| 欧美偷拍一区二区三区| 日韩欧美在线精品| 亚洲精品一区二区三区影院| 视频免费1区二区三区| 日韩国产网站| 精品国产精品三级精品av网址| 久久99精品久久久久久久久久| 久久艹免费视频| 欧美激情综合| 久久综合久久八八| 免费一级特黄3大片视频| 日韩精品福利一区二区三区| 欧美xxxx老人做受| aaaaaaaa毛片| 国产精品视频首页| 88在线观看91蜜桃国自产| 手机视频在线观看| 91九色综合| 欧美制服丝袜第一页| aaa毛片在线观看| 在线天堂资源www在线污| 亚洲成人av中文| www..com日韩| 岛国在线视频网站| 欧美日韩国产综合新一区 | 日本精品一区二区三区四区的功能| 日韩在线国产| 黄色在线播放| 欧美激情一区二区三区全黄| 欧美日韩另类综合| 国产黄在线观看免费观看不卡| 国产高清亚洲一区| 97久久人人超碰caoprom欧美| 日本一级一片免费视频| 在线精品一区| 88xx成人精品| 日本黄色一级视频| 蜜桃视频第一区免费观看| 国产剧情久久久久久| 亚洲一区 中文字幕| 国精产品一区一区三区mba视频 | 久操手机在线视频| 美女日批视频在线观看| 天天操天天干天天综合网| 国产人妻777人伦精品hd| 伊人久久国产| 欧美日本一道本| 中文字幕亚洲日本| 色吊丝一区二区| 在线电影av不卡网址| 欧美夫妻性生活xx| 熟妇高潮一区二区| 国产尤物久久久| 日韩一中文字幕| 久久免费精彩视频| 久热综合在线亚洲精品| 成人免费高清完整版在线观看| 国产亚洲欧美精品久久久久久| 欧美日韩性在线观看| 最近2019中文字幕大全第二页| 久久精品aⅴ无码中文字字幕重口| 忘忧草在线www成人影院| 欧美精选一区二区| 95视频在线观看| 日韩大片在线观看| 久久久久久午夜| 日本妇乱大交xxxxx| 国产成人自拍在线| 视频三区二区一区| 免费影视亚洲| 欧美视频一区二区| 成人在线电影网站| 欧美成人自拍| 97久久久免费福利网址| 一级片在线观看视频| 99re热这里只有精品免费视频| 国产日韩欧美中文| 天堂在线视频观看| 亚洲日本成人在线观看| www.四虎成人| eeuss鲁片一区二区三区| 影音先锋欧美精品| 亚洲精品视频在线观看免费视频| 欧美精品偷拍| 国产精品女主播| 无码精品人妻一区二区三区影院| 成人av免费观看| 伊人天天久久大香线蕉av色| 中国色在线日|韩| 日韩一区二区在线免费观看| 91麻豆制片厂| 久久xxxx精品视频| 国产亚洲情侣一区二区无| caoporn免费在线| 欧美三级中文字幕| 美女脱光内衣内裤| 国产精品毛片一区二区三区| 成人久久18免费网站漫画| 麻豆免费在线观看| 九九久久成人| 日韩欧美一二区| 成人黄色短视频| 日韩国产精品久久| 日本成人看片网址| 中文字幕资源网在线观看免费| 亚洲成a人在线观看| 波多结衣在线观看| 红桃成人av在线播放| 欧洲亚洲免费视频| 欧美人与性动交α欧美精品济南到 | 最近免费观看高清韩国日本大全| 日韩成人影视| 色综合久久88色综合天天免费| 日韩无套无码精品| 中文字幕精品影院| 欧美中文在线字幕| 四虎精品在永久在线观看| 亚洲二区在线视频| 天天躁日日躁狠狠躁av| 极品av少妇一区二区| 国产精品麻豆免费版| 波多野结衣在线播放| 9191成人精品久久| 男的操女的网站| 国产麻豆成人传媒免费观看| 欧美另类videos| 最新国产一区二区| 中国av一区| 日韩精品在线观看一区| 欧美片一区二区| 国产成人高清在线| 色欲色香天天天综合网www| 国产亚洲成av人片在线观黄桃| 亚洲欧美日韩一区在线| 日本中文字幕在线| 日本一区二区三级电影在线观看| 欧美日韩午夜爽爽| 911精品国产| 91精品国产高清自在线 | 欧美乱妇23p| 国产67194| 大桥未久av一区二区三区中文| 日韩免费三级| 亚洲一区二区小说| 欧美精品亚州精品| 好吊色一区二区| 日韩欧美在线视频免费观看| 三区四区在线观看| 国产精品一区免费在线观看| 五十路熟女丰满大屁股| 国产精品探花在线观看| 成人a在线观看| ****av在线网毛片| 伊人伊人伊人久久| 亚洲av无码一区二区乱子伦| 中文字幕人成不卡一区| 久久久久久久人妻无码中文字幕爆| 日韩一区亚洲二区| 亚洲一区二区三区久久| sm国产在线调教视频| 精品福利av导航| 日韩不卡高清视频| 亚洲一区二区精品视频| 欧美熟妇激情一区二区三区| 国产精品资源在线看| 国模杨依粉嫩蝴蝶150p| 一本一道久久a久久精品蜜桃| 国产综合香蕉五月婷在线| av在线不卡免费| 在线看欧美日韩| 亚洲欧美自偷自拍| 欧美一区二区高清| 337p粉嫩色噜噜噜大肥臀| 一区二区免费在线播放| 极品蜜桃臀肥臀-x88av| 成人av在线一区二区三区| 少妇激情一区二区三区| 亚洲啪啪91| 国产奶头好大揉着好爽视频| 久久99国产精品视频| 成人黄视频免费| a一区二区三区亚洲| 日韩免费视频在线观看| 国产白丝在线观看| www.色综合| 国产乱视频在线观看| 亚洲国产小视频| 国产黄色一区二区| 欧美日韩高清影院| av片免费观看| 欧美视频第一页| 日本一二三区视频| 亚洲男人天堂av| 日本免费网站视频| 国产欧美综合在线| 91久久免费视频| 99热这里都是精品| 日韩少妇一区二区| 国产99精品国产| 老女人性生活视频| 国产一区欧美一区| 加勒比av中文字幕| 精品一区在线看| 日韩va在线观看| 久久精品99国产精品日本| 久久久久久久久久久免费视频| 欧美hd在线| 欧美日韩一区二| 亚洲va久久| 国产亚洲欧美一区二区 | 超碰97人人人人人蜜桃| 伊人国产精品| 91欧美精品午夜性色福利在线| 超碰在线caoporen| 久久精品小视频| 国产激情在线视频| 欧美成人久久久| 国产传媒在线播放| 欧美大奶子在线| 暖暖在线中文免费日本| 久久久噜久噜久久综合| av成人 com a| 欧美一区二区影院| 免费观看亚洲| 国产精品美女久久久久av超清| 黑人精品视频| 97国产在线视频| 亚洲妇女成熟| 国产精品电影网| 九九九精品视频| 亚洲bt欧美bt日本bt| 超碰成人福利| 久久亚洲午夜电影| 欧美日中文字幕| 99re99热| 亚洲精品资源| 热久久精品免费视频| 麻豆一区二区三| 无码人妻一区二区三区免费n鬼沢| 天使萌一区二区三区免费观看| 男人天堂网站在线| 黄色在线一区| 日韩av资源在线| 开心九九激情九九欧美日韩精美视频电影| 日韩在线观看a| 国产一区二区三区的电影| av免费中文字幕| 激情都市一区二区| 人妻激情偷乱频一区二区三区| 国产乱淫av一区二区三区| 催眠调教后宫乱淫校园| 国产性做久久久久久| 午夜爱爱毛片xxxx视频免费看| 国产三区在线成人av| 伊人久久久久久久久久久久久久| 久久精品日产第一区二区三区高清版| 国产精品二区视频| 久久久久99精品一区| 日本精品在线免费观看| 无码av免费一区二区三区试看 | 精品日韩视频在线观看| 美女黄页在线观看| 精品欧美乱码久久久久久1区2区| av天堂一区二区三区| 亚洲国产精品专区久久| 92国产在线视频| 国内精品免费午夜毛片| 成人日韩在线观看| 国产精品久久国产精品| 成人影院在线| 亚洲不卡中文字幕无码| 久久精品国产久精国产| 亚洲成人av免费在线观看| 卡通动漫国产精品| 在线电影中文日韩| 国产蜜臀在线| 成人女保姆的销魂服务| 综合伊思人在钱三区| 国产成a人亚洲精v品在线观看| 天天精品视频| 欧美日韩中文在线视频| 粉嫩av一区二区三区| 亚洲aaa视频| 91成人网在线| 午夜国产在线观看| 久久99热精品这里久久精品| 看片一区二区| 欧美日韩精品免费看| 一区视频在线看| 日批视频在线看| ㊣最新国产の精品bt伙计久久| 黄视频网站免费看| 欧美日韩在线观看一区二区| 日韩porn| 91大神在线播放精品| 国产suv精品一区| www国产免费| 国产激情精品久久久第一区二区| 99riav国产精品视频| 亚洲特黄一级片| 亚洲综合精品视频| 中文字幕欧美精品在线| 神马久久资源| 奇米精品在线| 丝袜美腿一区二区三区| 李宗瑞91在线正在播放| 高潮白浆女日韩av免费看| 人人妻人人澡人人爽人人欧美一区 | 久草在线综合| 国产精品无码免费专区午夜| 国产麻豆精品久久一二三| 日韩欧美国产成人精品免费| 欧美性大战久久久久久久蜜臀| 亚洲国产精彩视频| 久久91精品国产91久久久| av国产精品| 成人在线观看毛片| 成人性生交大片免费看视频在线| 人妻熟女aⅴ一区二区三区汇编| 国产日韩欧美一区二区三区综合| 九九热视频在线免费观看| 欧美三级电影一区| 99青草视频在线播放视| 国产乱肥老妇国产一区二| 日韩电影二区| 久久精品一二三四| 亚洲午夜在线电影| 香蕉国产在线视频| 91av国产在线| 精品大片一区二区| 久久婷婷综合色| 亚洲少妇屁股交4| 亚洲av永久纯肉无码精品动漫| 国产一区二区三区在线观看网站 | 清纯唯美亚洲综合一区| 91淫黄看大片| 亚洲天堂精品视频| 亚洲第一页在线观看| 亚州欧美日韩中文视频| 欧美**vk| 久久精品久久99| 亚洲国产日韩一级| 黄色在线播放| 亚洲自拍偷拍区| 亚洲视频大全| 午夜黄色福利视频| 欧美videossexotv100| 午夜欧美激情| 一区二区三区欧美成人| 夫妻av一区二区| 无码人妻一区二区三区免费 | 日本在线观看| 99国产视频在线| 丝袜美腿一区二区三区| 少妇久久久久久被弄高潮| 日韩av一区二区在线观看| 精品176极品一区| 国产乱子伦精品视频| 久久一区二区三区四区| 国产精品伊人久久| 2019最新中文字幕| 日韩激情一区| 亚洲激情 欧美| 欧美精品丝袜中出| 在线看片国产福利你懂的| 99精品一区二区三区的区别| a在线播放不卡| a天堂视频在线| 国产精品成av人在线视午夜片| 精品一区二区三区在线|