精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

微調(diào)谷歌開源Gemini Flash模型實(shí)現(xiàn)PII脫敏實(shí)戰(zhàn)

譯文 精選
人工智能
本文中,我們將以PII(個(gè)人識(shí)別信息)脫敏算法數(shù)據(jù)集為例,探討使用微調(diào)谷歌Gemini Flash模型的情況下樣本效率的概念。我們將研究隨著樣本數(shù)量的增加而進(jìn)行的微調(diào)如何影響調(diào)整后的模型的功能。

譯者 | 朱先忠

審校 | 重樓

本文將通過具體的實(shí)戰(zhàn)代碼示例來探索谷歌開源Gemini Flash模型的學(xué)習(xí)曲線和采樣效率。

在大多數(shù)常見的機(jī)器學(xué)習(xí)和自然語言處理中,實(shí)現(xiàn)最佳性能通常需要在用于訓(xùn)練的數(shù)據(jù)量和由此產(chǎn)生的模型準(zhǔn)確性之間進(jìn)行權(quán)衡。本文中,我們將以PII(個(gè)人識(shí)別信息)脫敏算法數(shù)據(jù)集為例,探討使用微調(diào)谷歌Gemini Flash模型的情況下樣本效率的概念。我們將研究隨著樣本數(shù)量的增加而進(jìn)行的微調(diào)如何影響調(diào)整后的模型的功能。

何謂樣本效率,為什么它很重要?

樣本效率(Sample efficiency)是指模型在有限的訓(xùn)練數(shù)據(jù)量下實(shí)現(xiàn)高精度的能力。這是機(jī)器學(xué)習(xí)開發(fā)的一個(gè)關(guān)鍵方面,尤其是在處理大型標(biāo)記數(shù)據(jù)集可能稀缺或獲取成本高昂的任務(wù)或領(lǐng)域的情況下。一個(gè)樣本高效的模型可以從更少的樣本中有效地學(xué)習(xí),減少與數(shù)據(jù)收集和訓(xùn)練相關(guān)的時(shí)間、成本和精力。LLM被證明是非常有樣本效率的,甚至能夠在很少的樣本情況下進(jìn)行情境學(xué)習(xí),也能夠顯著提高性能。本文的主要目標(biāo)是以谷歌開源的Gemini Flash模型為例來探討這方面的問題。我們將在不同設(shè)置條件下評(píng)估此LLM模型,然后繪制學(xué)習(xí)曲線,以便更直觀地了解訓(xùn)練數(shù)據(jù)量是如何影響性能的。

顯示訓(xùn)練得分和交叉驗(yàn)證得分的學(xué)習(xí)曲線示例(來源:維基百科)

微調(diào)Gemini Flash模型實(shí)現(xiàn)PII脫敏實(shí)戰(zhàn)

為了展示樣本效率的影響,我們將進(jìn)行一項(xiàng)實(shí)驗(yàn),重點(diǎn)是微調(diào)Gemini Flash模型,從而應(yīng)用于個(gè)人識(shí)別信息脫敏。我們將使用Hugging Face公司的公開個(gè)人識(shí)別信息脫敏數(shù)據(jù)集,并評(píng)估模型在不同微調(diào)場景下的性能:

  • 零樣本設(shè)置:評(píng)估預(yù)先訓(xùn)練的Gemini Flash模型,無需任何微調(diào)。
  • 小樣本設(shè)置(3-shot):在要求模型個(gè)人識(shí)別信息脫敏新文本之前,為模型提供3個(gè)樣本。
  • 使用50|200|800|3200|6400個(gè)樣本進(jìn)行微調(diào):使用從小到大的“PII/Masked(個(gè)人識(shí)別信息明文/個(gè)人識(shí)別信息密文)”對(duì)數(shù)據(jù)集對(duì)模型進(jìn)行微調(diào)。

對(duì)于每種設(shè)置,我們將在200個(gè)句子的固定測試集上評(píng)估模型的性能,使用BLEU(bilingual evaluation understudy:雙語替換測評(píng))指標(biāo)來衡量生成的脫敏文本的質(zhì)量。該指標(biāo)能夠評(píng)估模型輸出和脫敏句子之間的重疊性,提供脫敏準(zhǔn)確性的定量衡量。

實(shí)驗(yàn)限制

這個(gè)小實(shí)驗(yàn)的結(jié)果可能不會(huì)直接推廣到其他使用場景或數(shù)據(jù)集情況下。另外,微調(diào)的最佳數(shù)據(jù)量取決于各種因素,包括任務(wù)的性質(zhì)和復(fù)雜性、數(shù)據(jù)的質(zhì)量以及基礎(chǔ)模型的具體特征等。

我的建議是,你可以從這篇文章提供的代碼中獲得一些靈感,或者:

  • 如果你已經(jīng)有了數(shù)據(jù),可以直接將其應(yīng)用于你的使用場景,這樣你就可以看到你的訓(xùn)練曲線是否變慢了(這意味著,你的收益正在顯著下降)
  • 或者,如果你沒有數(shù)據(jù)的話,那么可以為你所遇到的同類問題(分類、命名實(shí)體識(shí)別、摘要)和類似的難度級(jí)別找到一個(gè)數(shù)據(jù)集。這樣的話,你就可以通過繪制學(xué)習(xí)曲線來了解你自己的任務(wù)需要多少數(shù)據(jù)。

實(shí)驗(yàn)數(shù)據(jù)

我們將使用在Huggingface上共享的PII(個(gè)人身份信息)掩蔽數(shù)據(jù)集。

該數(shù)據(jù)集中包含兩對(duì)文本,一對(duì)是帶有脫敏信息的原始文本,另一對(duì)文本隱藏了所有原始個(gè)人身份信息。

舉例

輸入:

A student’s assessment was found on device bearing IMEI: 06–184755–866851–3. The document falls under the various topics discussed in our Optimization curriculum. Can you please collect it?

目標(biāo):

A student’s assessment was found on device bearing IMEI: [PHONEIMEI]. The document falls under the various topics discussed in our [JOBAREA] curriculum. Can you please collect it?

注意,上面數(shù)據(jù)是經(jīng)過合成處理的;所以,這里實(shí)際上沒有共享真正的個(gè)人身份信息。

我們的目標(biāo)是建立從源文本到目標(biāo)文本的映射,以自動(dòng)隱藏所有個(gè)人身份信息。

數(shù)據(jù)許可:https://huggingface.co/datasets/ai4privacy/pii-masking-200k/blob/main/license.md。

編程實(shí)現(xiàn)

我們將提供一些編程代碼,以方便加速此實(shí)驗(yàn)進(jìn)程。編碼中,我們將利用Hugging Face數(shù)據(jù)集庫加載個(gè)人身份信息脫敏數(shù)據(jù)集,并利用google.generativeai庫與Gemini Flash交互,還將利用evaluate庫來計(jì)算BLEU(雙語替換測評(píng))分?jǐn)?shù)。

pip install transformers datasets evaluate google-generativeai python-dotenv sacrebleu

此代碼段實(shí)現(xiàn)安裝項(xiàng)目所需的庫,包括:

  • 數(shù)據(jù)集:便于從Hugging Face加載和處理數(shù)據(jù)集。
  • evaluate庫:允許使用SacreBLEU等評(píng)估指標(biāo)。
  • google-generativeai:允許與谷歌的Gemini API交互。

首先,我們進(jìn)行數(shù)據(jù)加載和拆分:

#導(dǎo)入必需的庫
from datasets import load_dataset
from google.generativeai.types import HarmCategory, HarmBlockThreshold
# Define GOOGLE_API_KEY as a global variable
# 加載和分割數(shù)據(jù)集函數(shù)
def load_data(train_size: int, test_size: int):
    """
    加載pii-masking-200k數(shù)據(jù)集并把它拆分成訓(xùn)練與測試兩種類型。
    參數(shù):
        train_size: 訓(xùn)練數(shù)據(jù)集的大小
        test_size: 測試數(shù)據(jù)集的大小
    返回:
       一個(gè)包含訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集的元組。
    """
    dataset = load_dataset("ai4privacy/pii-masking-200k")
    dataset = dataset["train"].train_test_split(test_size=test_size, seed=42)
    train_d = dataset["train"].select(range(train_size))
    test_d = dataset["test"]
    return train_d, test_d

接下來,我們嘗試為該任務(wù)提示零樣本。這意味著,我們向LLM解釋任務(wù),并要求它從原始文本中生成個(gè)人身份信息脫敏數(shù)據(jù)。這是通過使用一個(gè)列出所有需要脫敏標(biāo)簽的提示來完成的。

我們還將LLM API的調(diào)用并行化,以稍微加快速度。

最后,我們使用BLEU評(píng)分進(jìn)行評(píng)估。它是一種基于精度的度量方案,通常用于機(jī)器翻譯,將模型輸出與參考句子進(jìn)行比較。雖然這種方法存在一定局限性,但卻易于應(yīng)用,適用于像我們手頭這樣的文本到文本任務(wù)。

import google.generativeai as genai
from google.generativeai.types.content_types import ContentDict
from google.generativeai.types import HarmCategory, HarmBlockThreshold

from concurrent.futures import ThreadPoolExecutor
import evaluate

safety_settings = {
    HarmCategory.HARM_CATEGORY_HATE_SPEECH: HarmBlockThreshold.BLOCK_NONE,
    HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: HarmBlockThreshold.BLOCK_NONE,
    HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: HarmBlockThreshold.BLOCK_NONE,
    HarmCategory.HARM_CATEGORY_HARASSMENT: HarmBlockThreshold.BLOCK_NONE,
}
SYS_PROMPT = (
    "Substitute all PII in this text for a generic label like [FIRSTNAME] (Between square brackets)\n"
    "Labels to substitute are PREFIX, FIRSTNAME, LASTNAME, DATE, TIME, "
    "PHONEIMEI, USERNAME, GENDER, CITY, STATE, URL, JOBAREA, EMAIL, JOBTYPE, "
    "COMPANYNAME, JOBTITLE, STREET, SECONDARYADDRESS, COUNTY, AGE, USERAGENT, "
    "ACCOUNTNAME, ACCOUNTNUMBER, CURRENCYSYMBOL, AMOUNT, CREDITCARDISSUER, "
    "CREDITCARDNUMBER, CREDITCARDCVV, PHONENUMBER, SEX, IP, ETHEREUMADDRESS, "
    "BITCOINADDRESS, MIDDLENAME, IBAN, VEHICLEVRM, DOB, PIN, CURRENCY, "
    "PASSWORD, CURRENCYNAME, LITECOINADDRESS, CURRENCYCODE, BUILDINGNUMBER, "
    "ORDINALDIRECTION, MASKEDNUMBER, ZIPCODE, BIC, IPV4, IPV6, MAC, "
    "NEARBYGPSCOORDINATE, VEHICLEVIN, EYECOLOR, HEIGHT, SSN, language"
)
#計(jì)算零樣本設(shè)置的函數(shù)
def evaluate_zero_shot(train_data, test_data, model_name="gemini-1.5-flash"):
    """
    評(píng)估該模型的零樣本性能。
    參數(shù):
        train_data: 訓(xùn)練數(shù)據(jù)集(不用于零樣本情況)。
        test_data: 測試數(shù)據(jù)集。
        model_name: 要使用的模型的名稱。
    返回值 :
        零樣本設(shè)置的SacreBLEU分?jǐn)?shù)
    """
    model = genai.GenerativeModel(model_name)
    def map_zero_shot(text):
        messages = [
            ContentDict(
                role="user",
                parts=[f"{SYS_PROMPT}\nText: {text}"],
            ),
        ]
        response = model.generate_content(messages, safety_settings=safety_settings)
        try:
            return response.text
        except ValueError:
            print(response)
            return ""
    with ThreadPoolExecutor(max_workers=4) as executor:
        predictions = list(
            executor.map(
                map_zero_shot,
                [example["source_text"] for example in test_data],
            )
        )
    references = [[example["target_text"]] for example in test_data]
    sacrebleu = evaluate.load("sacrebleu")
    sacrebleu_results = sacrebleu.compute(
        predictions=predictions, references=references
    )
    print(f"Zero-shot SacreBLEU score: {sacrebleu_results['score']}")
    return sacrebleu_results["score"]

現(xiàn)在,讓我們進(jìn)一步探討有關(guān)提示的問題。除了向LLM解釋任務(wù)外,我們還將向它展示三個(gè)我們期望它做什么的例子。這種技巧通常有助于提高性能。

# 評(píng)估小樣本設(shè)置的函數(shù)
def evaluate_few_shot(train_data, test_data, model_name="gemini-1.5-flash"):
    """
    評(píng)估模型的小樣本性能
    參數(shù):
        train_data: 訓(xùn)練數(shù)據(jù)集
        test_data: 測試數(shù)據(jù)集
        model_name: 要使用的模型的名稱。
    返回值:
        小樣本設(shè)置的SacreBLEU分?jǐn)?shù)
    """
    model = genai.GenerativeModel(model_name)
    def map_few_shot(text, examples):
        messages = [
            ContentDict(
                role="user",
                parts=[SYS_PROMPT],
            )
        ]
        for example in examples:
            messages.append(
                ContentDict(role="user", parts=[f"Text: {example['source_text']}"]),
            )
            messages.append(
                ContentDict(role="model", parts=[f"{example['target_text']}"])
            )
        messages.append(ContentDict(role="user", parts=[f"Text: {text}"]))
        response = model.generate_content(messages, safety_settings=safety_settings)
        try:
            return response.text
        except ValueError:
            print(response)
            return ""
    few_shot_examples = train_data.select(range(3))
    with ThreadPoolExecutor(max_workers=4) as executor:
        predictions = list(
            executor.map(
                lambda example: map_few_shot(example["source_text"], few_shot_examples),
                test_data,
            )
        )
    references = [[example["target_text"]] for example in test_data]
    sacrebleu = evaluate.load("sacrebleu")
    sacrebleu_results = sacrebleu.compute(
        predictions=predictions, references=references
    )
    print(f"3-shot SacreBLEU score: {sacrebleu_results['score']}")
    return sacrebleu_results["score"]

最后,我們來嘗試一下使用微調(diào)方案。在這里,我們只使用Gemini API的托管服務(wù)。它現(xiàn)在是免費(fèi)的,所以不妨使用一下。注意,我們將使用越來越多的數(shù)據(jù),并比較每種數(shù)據(jù)的性能。

運(yùn)行調(diào)優(yōu)任務(wù)再簡單不過了:我們只需使用genai.create_tuned_model函數(shù)來處理數(shù)據(jù)、迭代次數(shù)、學(xué)習(xí)率和參數(shù)。

訓(xùn)練任務(wù)是異步的,這意味著我們不必等待程序的運(yùn)行結(jié)束。不過,程序的執(zhí)行要排隊(duì),通常在24小時(shí)內(nèi)完成。

def finetune(train_data, finetune_size, model_name="gemini-1.5-flash"):
    """
    調(diào)優(yōu)模型

    參數(shù):
        train_data: 訓(xùn)練數(shù)據(jù)集。
        finetune_size:用于微調(diào)的樣本數(shù)量。
        model_name: 要用于進(jìn)行微調(diào)的基本模型的名稱。
    返回值:
        已調(diào)優(yōu)的模型的名稱。
    """
    base_model = f"models/{model_name}-001-tuning"
    tuning_data = [
        {
            "text_input": f"{SYS_PROMPT}\nText: {example['source_text']}",
            "output": example["target_text"],
        }
        for example in train_data.select(range(finetune_size))
    ]
    print(len(tuning_data))
    operation = genai.create_tuned_model(
        display_name=f"tuned-{finetune_size}",
        source_model=base_model,
        epoch_count=2,
        batch_size=4,
        learning_rate=0.0001,
        training_data=tuning_data,
    )

你可以使用以下代碼片段來檢查一下調(diào)優(yōu)任務(wù)的狀態(tài):

import google.generativeai as genai

for model_info in genai.list_tuned_models():
    print(model_info.name)
    print(model_info)

實(shí)驗(yàn)結(jié)果對(duì)比分析

構(gòu)建PII數(shù)據(jù)脫敏函數(shù)時(shí)不同設(shè)置方案結(jié)果比較

容易看出,PII數(shù)據(jù)脫敏算法通過添加更多用于微調(diào)的訓(xùn)練數(shù)據(jù)提高了性能。

零樣本和小樣本情況

由上圖可知,零樣本方法獲得了83.85的令人尊敬的BLEU分?jǐn)?shù)。這表明,即使沒有任何訓(xùn)練樣本,模型也會(huì)對(duì)任務(wù)有一些基本的理解。然而,實(shí)驗(yàn)中只提供三個(gè)樣本(3-shot)就可以將分?jǐn)?shù)提高到87.59,這說明了即使是有限的樣本情況下,這些樣本在LLM情境學(xué)習(xí)中也是非常有效的。

微調(diào)情況

實(shí)驗(yàn)一開始,我們使用50個(gè)樣本的小數(shù)據(jù)集進(jìn)行微調(diào),得出的BLEU得分為86.38,略低于3-shot方法。然而,隨著訓(xùn)練數(shù)據(jù)的增加,性能顯著提高。在使用了200個(gè)樣本的情況下,BLEU得分躍升至90.97,而在使用了800個(gè)樣本時(shí)則達(dá)到了94.30。當(dāng)使用最大數(shù)量達(dá)到6400個(gè)樣本測試的情況下達(dá)到最高BLEU分?jǐn)?shù)97.52。

結(jié)論

我們最后得到的基本結(jié)論是:一切都在意料之中,隨著數(shù)據(jù)的增加,性能也會(huì)提高。雖然Gemini Flash模型的零樣本和小樣本功能令人印象深刻,證明了其具有推廣到新任務(wù)的能力,但是使用足夠大的數(shù)據(jù)進(jìn)行微調(diào)時(shí)也會(huì)顯著提高其準(zhǔn)確性。這里唯一出乎意料的是,如果訓(xùn)練數(shù)據(jù)的數(shù)量太少或質(zhì)量太低,那么小樣本提示結(jié)果的準(zhǔn)確率有時(shí)會(huì)勝過經(jīng)過微調(diào)后的準(zhǔn)確率。

總之,我們可以得到如下幾條關(guān)鍵結(jié)論:

  • 要實(shí)現(xiàn)高性能目標(biāo),微調(diào)可能是必要的:即使少量的微調(diào)數(shù)據(jù)也比零樣本和小樣本方法產(chǎn)生巨大的改進(jìn)。
  • 更多的數(shù)據(jù)通常會(huì)帶來更好的結(jié)果:隨著微調(diào)數(shù)據(jù)集大小的增加,調(diào)優(yōu)后的模型的準(zhǔn)確脫敏個(gè)人身份信息的能力也會(huì)提高,如上圖中BLEU分?jǐn)?shù)的上升所表明的。
  • 收益遞減:雖然更多的數(shù)據(jù)通常會(huì)產(chǎn)生更好的數(shù)據(jù)結(jié)果,但也可能會(huì)出現(xiàn)性能增長開始趨于平穩(wěn)的時(shí)刻。確定這一點(diǎn)可以幫助我們更好地權(quán)衡標(biāo)簽預(yù)算和調(diào)整模型質(zhì)量之間的權(quán)衡。

還需要說明的是,在我們的例子中,穩(wěn)定期從3200個(gè)樣本開始,任何高于這個(gè)水平的樣本都會(huì)產(chǎn)生正的但遞減的回報(bào)。

譯者介紹

朱先忠,51CTO社區(qū)編輯,51CTO專家博客、講師,濰坊一所高校計(jì)算機(jī)教師,自由編程界老兵一枚。

原文標(biāo)題:How Much Data Do You Need to Fine-Tune Gemini?,作者:Youness Mansar

責(zé)任編輯:姜華 來源: 51CTO內(nèi)容精選
相關(guān)推薦

2025-04-10 10:44:00

2025-03-17 10:56:18

谷歌Gemini大模型

2023-12-07 11:12:54

大型語言模型Gemini人工智能

2024-12-30 08:33:54

大型模型GeminiLLM

2023-09-19 20:47:59

谷歌人工智能

2025-06-05 09:05:36

2025-04-21 09:15:00

2025-04-10 10:41:36

2024-09-26 10:42:20

2025-06-27 02:29:00

AI工具GitHub

2023-12-12 10:57:05

AI谷歌

2024-09-02 08:30:00

大模型AI

2025-04-10 06:16:33

2024-12-20 14:30:00

2025-05-28 11:46:18

開源模型數(shù)據(jù)

2023-12-07 19:01:25

2018-04-30 18:07:51

谷歌開源編程

2023-12-20 15:32:02

模型數(shù)據(jù)

2024-12-12 09:09:24

2024-11-15 13:09:41

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

老鸭窝91久久精品色噜噜导演| 精品综合久久88少妇激情| 国产日韩欧美激情| 成人网在线视频| 国产一级片久久| 国产剧情一区| 欧美一区二区三区公司| 欧美精品久久久久久久自慰| 国产乱子伦三级在线播放| 国产高清在线精品| 国产91在线播放| 久久精品一级片| 狠狠做六月爱婷婷综合aⅴ| 日韩三级在线免费观看| 黑鬼大战白妞高潮喷白浆| 免费观看久久久久| 久久久噜噜噜久久中文字幕色伊伊| 国产精品丝袜高跟| 日本一级黄色大片| 欧美第一精品| 亚洲欧美日韩第一区| 91pony九色| 日本不卡一二三| 亚洲综合偷拍欧美一区色| 亚洲精品一区二区三区樱花| 色屁屁草草影院ccyycom| 韩国精品免费视频| 国产精品igao视频| 日韩av一区二区在线播放| 91久久高清国语自产拍| 亚洲午夜精品久久久久久性色| 亚洲精品久久一区二区三区777| a成人v在线| 一本大道综合伊人精品热热| www插插插无码免费视频网站| 日本中文字幕视频在线| 久久久99精品久久| 精品国产_亚洲人成在线| 99热这里是精品| 六月婷婷色综合| 国产成人一区二区三区小说| 天海翼一区二区| 欧美视频福利| 久久国产精品免费视频| 午夜爽爽爽男女免费观看| 日韩国产欧美一区二区| 国产亚洲美女精品久久久| 97人妻天天摸天天爽天天| 哺乳一区二区三区中文视频 | 999国产精品一区| 91精品在线一区二区| 久热精品在线播放| a屁视频一区二区三区四区| 欧美主播一区二区三区| 蜜臀视频一区二区三区| 欧美成人a交片免费看| 欧美性猛交xxxx黑人猛交| www.com毛片| 亚洲国产成人二区| 欧美视频精品一区| 男女午夜激情视频| 国产精品一区二区av影院萌芽| 精品人伦一区二区三区蜜桃免费| 东北少妇不带套对白| 99热99re6国产在线播放| 亚洲成人午夜影院| 国产原创popny丨九色| 黑森林国产精品av| 色94色欧美sute亚洲线路一久| 欧美牲交a欧美牲交aⅴ免费真| 一区二区电影免费观看| 在线观看视频一区二区欧美日韩| 国产又粗又长又大的视频| 123成人网| 欧美日韩国产一区二区三区地区| 亚洲怡红院在线| 欧美a级大片在线| 精品少妇一区二区三区日产乱码| 免费黄色三级网站| 国产一区二区三区四区二区 | 久久99精品久久久久久久青青日本 | 99爱在线观看| 狠狠色狠色综合曰曰| 无码人妻h动漫| 精品福利在线| 日韩精品一区二区在线观看| 色综合久久五月| 欧州一区二区| 欧美高清性猛交| 日韩欧美成人一区二区三区| 麻豆成人综合网| 成人高清在线观看| 国产在线91| 亚洲黄网站在线观看| 中文字幕无码精品亚洲35| 韩日精品一区| 精品国产一区二区三区四区四| 亚洲专区区免费| 亚洲综合专区| 奇米一区二区三区四区久久| 97av免费视频| 91久色porny| 欧美亚洲视频一区| 中文字幕 在线观看| 欧美日韩大陆一区二区| 欧美大喷水吹潮合集在线观看| 欧美午夜精彩| 久久久久一本一区二区青青蜜月| 欧美一区二区三区久久久| 国产高清不卡一区| 日韩动漫在线观看| 2021天堂中文幕一二区在线观| 欧美日韩一级片网站| 精品1卡二卡三卡四卡老狼| av一区二区在线播放| 久久男人资源视频| 一区二区三区黄色片| 91美女片黄在线观看| 无码人妻精品一区二区三区99v| 麻豆成全视频免费观看在线看| 6080日韩午夜伦伦午夜伦| 搡老熟女老女人一区二区| 99热国内精品永久免费观看| 欧美又大粗又爽又黄大片视频| 国产手机精品视频| 欧美激情一区二区在线| 成熟丰满熟妇高潮xxxxx视频| 国产一区二区三区视频在线| 亚洲午夜精品久久久久久久久久久久| 久久高清免费视频| 国产麻豆一精品一av一免费 | 国产日韩欧美成人| 色吊丝在线永久观看最新版本| 一区二区三区在线播| 国产探花在线看| 成人国产精品一级毛片视频| 4438全国亚洲精品在线观看视频| 性少妇videosexfreexxx片| 一区视频在线播放| 久久久精品麻豆| 精品影片在线观看的网站| 国内久久久精品| 亚洲精品国偷拍自产在线观看蜜桃 | 国产精品免费一区二区| 免费大片黄在线观看视频网站| 日韩欧美中文第一页| 亚洲一级av无码毛片精品| 国内揄拍国内精品久久| 91国产在线免费观看| 免费在线你懂的| 欧美日韩情趣电影| 亚欧精品视频一区二区三区| 日韩激情一区二区| 色爱区成人综合网| ww久久综合久中文字幕| 亚洲色无码播放| 激情视频网站在线观看| www久久精品| 日批视频在线免费看| 蜜桃视频欧美| 国产精品扒开腿做爽爽爽视频| 久热av在线| 欧美性大战久久久久久久| 久久中文字幕精品| 日日欢夜夜爽一区| 亚洲免费精品视频| 国产精品亚洲四区在线观看| 欧美成aaa人片在线观看蜜臀| 国产高中女学生第一次| 亚洲一区在线观看网站| 久久久久亚洲AV成人无码国产| 日韩午夜免费视频| 欧洲亚洲一区二区| 国产一区精品福利| 九九久久久久久久久激情| 亚洲国产精品久久久久久久| 天天色图综合网| 无码国产69精品久久久久同性| 蜜桃久久久久久| 久久久久久久久久久久久国产| a看欧美黄色女同性恋| 91成人精品网站| 高清日韩av电影| 日韩一区二区在线观看| 五月婷婷亚洲综合| 国产欧美精品区一区二区三区 | 亚洲精品一区二区三区在线| 91sa在线看| 免费网站免费进入在线| 精品日产卡一卡二卡麻豆| 7799精品视频天天看| 亚洲欧洲一区二区三区| 国产 xxxx| 久久99精品久久久久久动态图| www.99riav| 精品国产一区二区三区久久久蜜臀| 成人网址在线观看| 不卡av播放| 欧美高清第一页| 国产黄在线看| 欧美精品一区二区在线播放 | 19禁羞羞电影院在线观看| 亚洲午夜国产成人av电影男同| 精品欧美一区二区精品少妇| 一本大道av伊人久久综合| 久久精品一区二区三| 欧美国产精品中文字幕| 在线观看亚洲免费视频| 日本午夜一区二区| 欧美国产亚洲一区| 午夜精品电影| 午夜精品一区二区在线观看| 国产乱人伦精品一区| 亚洲一区二区三区xxx视频| 偷拍视频一区二区三区| 九九九久久国产免费| www.久久热.com| 亚洲国产成人在线播放| 国产精品羞羞答答在线| 91久久精品一区二区二区| 久草免费新视频| 久久久精品黄色| 国产国语老龄妇女a片| 日本va欧美va瓶| 免费毛片小视频| 亚洲天堂男人| 国产欧美综合一区| 日韩国产综合| 视频一区二区精品| 日韩欧美国产大片| 成人动漫视频在线观看完整版| 成人在线视频免费| 国产精品欧美一区二区| 欧美a级在线观看| 九九热精品视频国产| 日本免费在线观看| 国产亚洲免费的视频看| 欧美美女色图| 亚洲精品v天堂中文字幕| 黑人精品一区二区| 日韩欧美不卡一区| 91精品中文字幕| 欧美色爱综合网| 国产真人无遮挡作爱免费视频| 亚洲图片欧美一区| 永久看片925tv| 亚洲精品欧美在线| 欧美手机在线观看| 中文字幕五月欧美| 国产123在线| 久久久久久久综合日本| 中国美女乱淫免费看视频| 不卡大黄网站免费看| 久久久国产精品无码| 大桥未久av一区二区三区中文| 伦伦影院午夜理论片| 毛片av一区二区三区| 午夜激情在线观看视频| 久久婷婷丁香| 男女视频一区二区三区| 日本亚洲最大的色成网站www| 欧美日韩怡红院| 青青草国产精品97视觉盛宴| 午夜视频在线网站| 激情综合色综合久久| 三级黄色片免费看| 久久福利资源站| 日本黄色一级网站| 国产**成人网毛片九色| 日本50路肥熟bbw| 久久色.com| 丁香花五月婷婷| 国产精品久久久久久久久久免费看 | 久久久久久久久影视| 中文精品久久| 婷婷五月综合缴情在线视频| 国产欧美日韩一区二区三区在线| 欧美 日韩 国产 激情| 久久9热精品视频| 毛毛毛毛毛毛毛片123| eeuss影院一区二区三区| 久久无码人妻精品一区二区三区| 久久人人超碰精品| 久久亚洲AV成人无码国产野外 | 四虎影视国产在线视频| 国产69精品久久久久9| yellow91字幕网在线| 69久久夜色精品国产69| 欧美成人h版| 91网站免费观看| 亚洲欧洲av| 亚洲 欧洲 日韩| 99热这里只有精品8| 不卡的av中文字幕| 国产成人福利片| 国产黄片一区二区三区| 国产精品乱人伦中文| 国产精品成人aaaa在线| 欧美午夜电影在线播放| 在线观看一二三区| 亚洲激情第一页| 婷婷在线视频| 国内久久久精品| 色综合一区二区日本韩国亚洲| 国产精品永久入口久久久| 深爱激情久久| 九一国产精品视频| 裸体在线国模精品偷拍| 免费黄色三级网站| 综合色中文字幕| 免费在线一区二区三区| 在线观看一区二区精品视频| 亚洲精品国产片| 中文字幕欧美在线| 色吧亚洲日本| 91视频8mav| 国产一区二区三区电影在线观看| www.射射射| 精品一区二区免费| 九色porny自拍视频| 亚洲风情在线资源站| 91精品视频免费在线观看| 国产视频精品一区二区三区| 不卡av免费观看| 国产拍精品一二三| 九九热爱视频精品视频| 日韩中文字幕在线不卡| 日韩vs国产vs欧美| 醉酒壮男gay强迫野外xx| 午夜国产精品影院在线观看| 国产精品自拍电影| 中文字幕日韩在线视频| 电影久久久久久| 精品国产_亚洲人成在线| 欧美日韩一视频区二区| 亚洲欧美日韩中文字幕在线观看| 国产精品久久久久9999吃药| 好吊色在线视频| 精品无人区乱码1区2区3区在线| 青春草在线免费视频| 亚洲free性xxxx护士hd| 91精品蜜臀一区二区三区在线| 国产一级做a爰片久久| 久久精品视频在线免费观看| aaa在线视频| 亚洲日本中文字幕| 欧美办公室脚交xxxx| 精品综合久久久| 亚洲免费激情| 老熟妇精品一区二区三区| 亚洲综合图片区| 精品毛片在线观看| 欧美激情国内偷拍| 一区中文字幕| 欧美中文字幕在线观看视频| 国产成人综合网| 日韩欧美亚洲国产| 亚洲精品成人久久| av3级在线| 欧美一区二区三区在线免费观看| 久久激情婷婷| 日本午夜精品视频| 欧美伊人久久久久久午夜久久久久| 你懂的视频在线| 国产精品视频永久免费播放| 欧美成人自拍| 久久精品无码一区二区三区毛片 | 日韩国产精品亚洲а∨天堂免| 国产美女高潮在线观看| 久久久精彩视频| 日韩精品一二三| 国产高潮流白浆| 亚洲成人久久网| 狠狠躁少妇一区二区三区| 欧美自拍资源在线| 久久国产精品区| 精品无码av在线| 亚洲精品国产精品乱码不99按摩| 午夜激情在线播放| 亚洲一区二区高清视频| 激情深爱一区二区| 久久久久久久久久久久久久免费看| 日韩av中文字幕在线| 小明成人免费视频一区| av影院在线播放| 91免费小视频| av首页在线观看| 欧美激情亚洲一区| 自拍欧美一区| 色天使在线观看| 欧美色视频日本高清在线观看| 大胆av不用播放器在线播放| 超碰97在线资源| 免费在线亚洲| 婷婷伊人五月天| 亚洲欧美三级在线| 国产一区二区三区免费观看在线| 这里只有精品66| 99久久久久免费精品国产| 国产女主播喷水视频在线观看|