精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

盤點目前最常用的四種語言模型壓縮技術

人工智能 機器學習
模型壓縮是在不損害其有效性的情況下最小化機器學習模型大小的行為。由于大型神經網絡經常因為過度參數化而包含冗余的計算單元,這種方法對它們是有效的。

你能在不犧牲性能的情況下讓大型語言模型(LLM)變得更小?盡管人們總是對越來越大的語言模型感興趣,但MistralAI向我們展示了尺寸的重要性是相對的,而對邊緣計算日益增長的興趣促使我們用小型語言模型獲得不錯的結果。另一種方法是通過壓縮技術。在本文中,我將解釋這些技術,并提供一些簡單的代碼片段作為示例。

模型壓縮是在不損害其有效性的情況下最小化機器學習模型大小的行為。由于大型神經網絡經常因為過度參數化而包含冗余的計算單元,這種方法對它們是有效的。

壓縮意味著減少參數數量或整體內存占用,從而實現更小的模型大小(例如,從10GB減少到9GB)。這個過程有助于在存儲和推理速度方面提高模型的效率,使它們更容易部署在資源有限的環境中。常見的模型壓縮技術包括:

  • 量化:通過改變模型權重(例如,從32位浮點數到8位整數)的精度來減少內存占用。
  • 剪枝:移除不太重要的權重或神經元,減少參數數量。
  • 知識蒸餾:訓練一個更小的模型(學生模型)來模仿一個更大的模型(教師模型),將知識蒸餾成具有類似性能的壓縮版本。
  • 權重共享:在不同層之間使用共享權重來減少存儲需求,無論是通過設計還是在訓練后應用。

模型量化

模型量化通過改變權重或激活的精度表示(通常是32位或16位)來壓縮LLM,將其轉換為低精度表示(例如,8位、4位甚至二進制)。我們可以量化權重、激活函數或進行其他技巧:

  • 權重量化:神經網絡使用的權重通常存儲為32位或16位浮點數。量化將這些權重減少到更低的位寬,如8位整數(INT8)或4位整數(INT4)。這是通過將原始權重范圍映射到具有較少位的較小范圍來實現的,顯著減少了內存使用。
  • 激活量化:與權重類似,激活(推理期間層的輸出)可以被量化為更低的精度。通過用較少的位表示激活,減少了模型在推理期間的內存占用。
  • 量化感知訓練(QAT):在QAT中,模型在模擬量化的同時進行訓練,允許它適應更低的精度。這有助于保持準確性,因為模型學會了對量化效應更加健壯(參見Tailor等人在Arxiv上的研究)。
  • 訓練后量化(PTQ):這種方法涉及以全精度正常訓練模型,然后在此之后應用量化。雖然PTQ更簡單、更快,但與QAT相比,它可能導致準確性的更大下降(如Wang等人在NIPS2021上的研究)。

權重量化可以使用bitsandbytes輕松實現。安裝庫:

pip install torch transformers bitsandbytes

例如,對于GPT2運行以下代碼:

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# Specify the model you want to use
model_name = "gpt2"  # You can replace this with any other LLM model
# Load the tokenizer
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Load the model with 8-bit quantization using bitsandbytes
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    load_in_8bit=True,  # Enable 8-bit quantization
    device_map="auto"   # Automatically allocate to available device (CPU/GPU)
)
# Example text for inference
input_text = "Weight Quantization is an efficient technique for compressing language models."
input_ids = tokenizer(input_text, return_tensors="pt").input_ids.to("cuda")
# Generate text
with torch.no_grad():
    output_ids = model.generate(input_ids, max_length=50)
# Decode and print the generated text
output_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)
print(output_text)

剪枝

剪枝移除不必要的或不太重要的權重、神經元或整個層,就像從樹上移除不必要的分支一樣。這減少了模型的大小,加快了推理速度,并降低了內存和計算需求,使其在盡可能保持原始性能的同時更加高效。

這比量化更直接,因為我們首先需要找到冗余的部分。例如,我們需要找到冗余的參數并在沒有它們的情況下微調模型。

最常見的是,我們移除權重、神經元或層,但對注意力頭剪枝(特定于基于Transformer的模型)作為一種結構化剪枝的興趣日益增長(參見Wang等人在Arxiv上的研究)。在這里,每個注意力層有多個頭。一些頭對模型性能的貢獻比其他頭更大,所以注意力頭剪枝移除了不太重要的頭。

剪枝的示例代碼可能如下,我們從GPT2模型中移除一定百分比的權重:


import torch
import torch.nn.utils.prune as prune
from transformers import AutoModelForCausalLM, AutoTokenizer

# Load the pretrained model and tokenizer
model_name = "gpt2"  # You can replace this with any other LLM model
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Define a pruning method (here we use L1 unstructured pruning)
def prune_model_layer(layer, amount=0.3):
    # Prune 30% of the weights with the lowest L1 norm in the linear layers
    for name, module in layer.named_modules():
        if isinstance(module, torch.nn.Linear):
            prune.l1_unstructured(module, name="weight", amount=amount)
            print(f"Pruned layer {name} with amount {amount}")
# Apply pruning to all transformer layers in the model
for layer in model.transformer.h:
    prune_model_layer(layer, amount=0.3)  # Prune 30% of the weights
# Check the sparsity of the model
total_params = 0
pruned_params = 0
for name, module in model.named_modules():
    if isinstance(module, torch.nn.Linear):
        total_params += module.weight.nelement()
        pruned_params += torch.sum(module.weight == 0).item()
print(f"Total parameters: {total_params}")
print(f"Pruned parameters: {pruned_params}")
print(f"Sparsity: {pruned_params / total_params:.2%}")
# Test the pruned model on a sample input
input_text = "Pruning is an effective way to compress language models."
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
# Generate text using the pruned model
with torch.no_grad():
    output_ids = model.generate(input_ids, max_length=50)
# Decode and print the generated text
output_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)
print(output_text)

模型蒸餾

模型蒸餾是一種將“知識”從大型、更復雜的模型(稱為教師模型)轉移到小型、更簡單的模型(稱為學生模型)的技術,后者的參數更少。這個過程使得學生模型在保持更小的尺寸或速度的同時,能夠達到接近教師模型的性能,正如我們在開始時承諾的。

這個過程從一個大型的、預訓練的LLM開始,作為教師模型,例如GPT2或LLama。這個模型通常非常準確,但需要大量的計算資源來進行推理。

一個更小、更高效的模型(“學生模型”)被訓練來模仿教師模型的行為,如miniGPT2或TinyLlama(盡管Tinyllama是以不同的方式構建的)。學生模型從原始訓練數據和教師模型生成的輸出(軟標簽)中學習。

以下是Python中教師-學生互動的示例,從教師GPT2開始:

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
from datasets import load_dataset
import torch.nn.functional as F

# Load the teacher (large) and student (smaller) models
teacher_model_name = "gpt2"  # You can replace this with any large LLM
student_model_name = "tiny-gpt2"  # A smaller variant to act as the student
# Load the teacher model and tokenizer
teacher_model = AutoModelForCausalLM.from_pretrained(teacher_model_name).to("cuda")
teacher_tokenizer = AutoTokenizer.from_pretrained(teacher_model_name)
# Load the student model and tokenizer
student_model = AutoModelForCausalLM.from_pretrained(student_model_name).to("cuda")
student_tokenizer = AutoTokenizer.from_pretrained(student_model_name)
# Load a dataset for training (e.g., Wikitext for language modeling)
dataset = load_dataset("wikitext", "wikitext-2-raw-v1", split="train")
# Set training parameters
learning_rate = 5e-5
epochs = 3
optimizer = torch.optim.AdamW(student_model.parameters(), lr=learning_rate)
# Set temperature for softening probabilities
temperature = 2.0
alpha = 0.5  # Weighting factor for combining loss functions
# Training loop for knowledge distillation
for epoch in range(epochs):
    for i, example in enumerate(dataset):
        # Get the input text
        input_text = example["text"]
        
        # Skip empty lines
        if not input_text.strip():
            continue
        
        # Tokenize the input text for the teacher and student models
        teacher_inputs = teacher_tokenizer(input_text, return_tensors="pt", truncation=True, padding="max_length", max_length=32).to("cuda")
        student_inputs = student_tokenizer(input_text, return_tensors="pt", truncation=True, padding="max_length", max_length=32).to("cuda")
        
        # Get teacher predictions (soft labels)
        with torch.no_grad():
            teacher_outputs = teacher_model(**teacher_inputs)
            teacher_logits = teacher_outputs.logits / temperature
            teacher_probs = F.softmax(teacher_logits, dim=-1)
        
        # Get student predictions
        student_outputs = student_model(**student_inputs)
        student_logits = student_outputs.logits
        
        # Calculate distillation loss (Kullback-Leibler divergence)
        distillation_loss = F.kl_div(
            input=F.log_softmax(student_logits / temperature, dim=-1),
            target=teacher_probs,
            reduction="batchmean",
            log_target=False
        ) * (temperature ** 2)
        
        # Calculate student task loss (Cross-Entropy with true labels)
        target_labels = student_inputs["input_ids"]
        task_loss = F.cross_entropy(student_logits.view(-1, student_logits.size(-1)), target_labels.view(-1), ignore_index=student_tokenizer.pad_token_id)
        
        # Combined loss
        loss = alpha * distillation_loss + (1 - alpha) * task_loss
        
        # Backpropagation and optimization
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        
        # Print training progress
        if i % 100 == 0:
            print(f"Epoch [{epoch + 1}/{epochs}], Step [{i}], Loss: {loss.item():.4f}")
print("Knowledge distillation completed!")

權重共享

通過在幾個模型組件之間共享參數,我們可以減少神經網絡的內存占用。當一些或所有層共享同一組權重而不是每層或組件都有獨特的權重時,模型必須保持的參數數量大大減少。人們可以預先定義模型的架構,使其具有共享權重,或者在訓練后將權重共享作為一種模型壓縮技術。例如,一種可能性是像下面的代碼一樣對權重進行聚類:


import torch
import numpy as np
from sklearn.cluster import KMeans

def apply_weight_sharing(model, num_clusters=16):
    # Iterate through each parameter in the model
    for name, param in model.named_parameters():
        if param.requires_grad:  # Only consider trainable parameters
            # Flatten the weights into a 1D array for clustering
            weights = param.data.cpu().numpy().flatten().reshape(-1, 1)
            # Apply k-means clustering
            kmeans = KMeans(n_clusters=num_clusters)
            kmeans.fit(weights)
            # Replace weights with their corresponding cluster centroids
            cluster_centroids = kmeans.cluster_centers_
            labels = kmeans.labels_
            # Map the original weights to their shared values
            shared_weights = np.array([cluster_centroids[label] for label in labels]).reshape(param.data.shape)
            # Update the model's parameters with the shared weights
            param.data = torch.tensor(shared_weights, dtype=param.data.dtype).to(param.device)
    return model
# Example usage with a pre-trained model
from transformers import GPT2LMHeadModel
model = GPT2LMHeadModel.from_pretrained("gpt2")
model = apply_weight_sharing(model, num_clusters=16)  # Apply weight sharing with 16 clusters
print("Weight sharing applied to the model!")

責任編輯:趙寧寧 來源: 小白玩轉Python
相關推薦

2021-08-11 20:17:22

推薦算法系統

2022-07-04 12:07:57

智慧城市智能建筑物聯網

2017-09-21 13:04:35

數據挖掘分析分析方法數據分析師

2015-05-08 12:24:10

惡意軟件逃避技術

2025-03-27 02:44:00

2009-03-17 00:49:48

2025-01-21 00:00:00

權限模型RBAC

2010-03-24 19:09:43

Python語言

2025-02-18 16:27:01

2019-08-13 09:00:24

REST API身份認證密鑰

2022-01-05 08:30:31

BIONIO AIO

2021-06-17 14:46:50

框架jQuery開發

2010-11-04 09:31:21

DB2循環語句

2015-11-06 13:27:39

2015-07-23 14:50:28

大數據

2012-02-22 11:13:53

Java

2021-08-25 10:41:09

人工智能AI深度學習

2010-12-13 17:12:31

2011-09-21 17:56:07

2011-10-09 09:35:11

虛擬化hypervisor
點贊
收藏

51CTO技術棧公眾號

亚洲欧美日韩一区二区在线| 亚洲精品久久嫩草网站秘色| 国产精品视频一| 亚洲怡红院在线观看| 欧美在线在线| 精品久久久久久久中文字幕| 亚洲看片网站| 肥臀熟女一区二区三区| 久久亚洲欧美| 欧美人与性动交| 亚洲激情视频小说| 成人四虎影院| 亚洲h在线观看| 亚洲bbw性色大片| 黑人精品一区二区三区| 日韩专区中文字幕一区二区| 欧美激情极品视频| 欧美成人另类视频| 麻豆一区二区| 欧美日韩视频在线一区二区| 国产精品一线二线三线| av在线播放免费| 国产麻豆91精品| 国产成人涩涩涩视频在线观看 | 日本大胆欧美| 亚洲精品白浆高清久久久久久| 亚洲欧美久久久久| 蜜桃视频m3u8在线观看| 樱花草国产18久久久久| 亚洲国产激情一区二区三区| 色综合888| 不卡一区在线观看| 91久久国产综合久久蜜月精品| 老熟妇一区二区三区啪啪| 在线观看视频免费一区二区三区| 日韩中文字幕在线| 久久国产精品无码一级毛片| 99久久婷婷国产综合精品青牛牛| 欧美女孩性生活视频| 久久久国产欧美| xxx欧美xxx| 精品久久久久久久久久久久久久 | 调教一区二区| 亚洲视频一区二区免费在线观看| 水蜜桃亚洲一二三四在线| 色综合成人av| 久久久不卡影院| 欧美日韩另类丝袜其他| 亚洲av电影一区| 99精品欧美一区二区三区综合在线| 亚洲一区二区中文字幕| 97人妻精品一区二区三区软件| 蜜臀精品久久久久久蜜臀| 国产精品99蜜臀久久不卡二区| 可以免费在线观看的av| 在线亚洲一区| 国产97在线|日韩| jizz国产在线| 蜜桃视频一区二区| 成人免费淫片视频软件| 国产免费高清av| 国产成人高清视频| 国产精品区一区| 日本免费不卡视频| 2022国产精品视频| 日韩免费电影一区二区| 999国产在线视频| 自拍偷拍亚洲激情| 成年丰满熟妇午夜免费视频| 天堂av最新在线| 污片在线观看一区二区| 亚洲成熟丰满熟妇高潮xxxxx| 亚洲高清黄色| 欧美日韩卡一卡二| 久久精品国产99久久99久久久| 国产一区二区久久久久| 亚洲第一天堂无码专区| 醉酒壮男gay强迫野外xx| 国产成人调教视频在线观看 | 在线中文字幕播放| 色8久久精品久久久久久蜜| 少妇黄色一级片| 精品视频一区二区三区| 亚洲级视频在线观看免费1级| 久久精品老司机| 久久国产成人精品| 久久亚洲国产精品| 精品91久久久| 久久电影国产免费久久电影 | 成人综合久久网| 91在线一区| 亚洲日韩中文字幕在线播放| 91精品一区二区三区蜜桃| 精久久久久久| 日韩美女视频免费看| 国产绳艺sm调教室论坛| 久久午夜色播影院免费高清| 伊人久久大香线蕉精品| 大菠萝精品导航| 欧美三级三级三级| 深夜视频在线观看| 日韩精品永久网址| 午夜精品www| 成人黄色免费网| 国产成人精品一区二| 日韩精品极品视频在线观看免费| 国产在线激情视频| 色婷婷综合久久| 日本精品一二三| 日韩理论电影大全| 欧美在线激情网| 精品人妻伦一区二区三区久久| 久久久电影一区二区三区| 国产精品久久久久9999爆乳| 欧美午夜三级| 亚洲欧美制服综合另类| 国产主播在线观看| 国产一区二区精品在线观看| 日本一区二区三区视频在线播放| 爱情岛亚洲播放路线| 91麻豆精品国产综合久久久久久 | 热99精品里视频精品| 精品国产av一区二区| 中文无字幕一区二区三区| 美女日批免费视频| 136国产福利精品导航网址应用| 最新国产精品亚洲| 中文字幕在线播| 91天堂素人约啪| 男人天堂av片| 6080成人| 欧美成人激情视频免费观看| 中文字幕在线观看国产| 国产午夜精品一区二区三区视频| 成人免费aaa| 97se亚洲| 久久久久久久久久久久av| 国产精品羞羞答答在线| 中文字幕中文字幕一区| 韩国视频一区二区三区| 狠狠色丁香婷婷综合影院| 日本国产欧美一区二区三区| 亚洲色图 校园春色| 午夜精品一区二区三区免费视频| 国产女主播在线播放| 66久久国产| 亚洲va欧美va在线观看| 国产黄a三级三级三级av在线看| 欧美丝袜丝交足nylons| аⅴ天堂中文在线网| 轻轻草成人在线| 亚洲成色www久久网站| 欧美日韩尤物久久| 最近免费中文字幕视频2019| 亚洲一级视频在线观看| 国产日韩在线不卡| 亚洲一级片免费| 久久亚洲在线| 亚洲www视频| 手机av在线播放| 亚洲大胆美女视频| 黄色大片网站在线观看| 国产日韩精品一区二区浪潮av | 亚洲天堂第二页| 这里只有精品免费视频| 国产精品视频一二| www.51色.com| 亚洲性视频h| 开心色怡人综合网站| 三上悠亚一区二区| 综合国产在线视频| 亚洲h视频在线观看| 天天爽夜夜爽夜夜爽精品视频| 日本少妇色视频| 热久久久久久久| 日韩在线视频在线| 天堂在线精品| 国产日本欧美一区二区三区在线| 国产激情在线| 亚洲国产精品va在看黑人| 青青国产在线视频| 亚洲欧美另类小说| 丰满大乳奶做爰ⅹxx视频| 日本不卡不码高清免费观看| 18视频在线观看娇喘| 国产伦理久久久久久妇女| 国产成人激情视频| dj大片免费在线观看| 日韩不卡在线观看| 91资源在线视频| 五月婷婷欧美视频| 久久国产高清视频| hitomi一区二区三区精品| 99热这里只有精品在线播放| 午夜亚洲福利| 日本一区二区三区免费看| 亚洲伊人影院| 国产精品露脸av在线| 女人天堂av在线播放| 亚洲天堂av高清| 亚洲免费视频网| 欧美日韩在线一区二区| 国产精品第108页| 中文字幕一区二区三区四区不卡| 国产一卡二卡三卡四卡| 麻豆视频观看网址久久| 国产黄色一级网站| 欧美在线网站| 视频一区国产精品| 天堂成人娱乐在线视频免费播放网站| 成人免费直播live| 成人国产网站| 热草久综合在线| sm捆绑调教国产免费网站在线观看| 一区二区三区精品99久久| 日韩一级片免费看| 日韩一级免费观看| 中文字幕在线观看精品| 色94色欧美sute亚洲线路二| 日本在线视频免费观看| 亚洲女同女同女同女同女同69| 成人无码av片在线观看| 99re66热这里只有精品3直播| 人妻体体内射精一区二区| 日本成人在线不卡视频| 99热成人精品热久久66| 亚洲久久视频| 免费在线看黄色片| 欧美69wwwcom| 四虎免费在线观看视频| 日韩在线二区| 亚洲国产欧美不卡在线观看 | 国产精品成人国产| 国产91免费看片| 忘忧草在线日韩www影院| 久久久久久网址| 第一av在线| 欧美激情亚洲精品| 欧美伦理免费在线| 欧美丰满老妇厨房牲生活| 八戒八戒神马在线电影| 久久最新资源网| а√资源新版在线天堂| 另类美女黄大片| 午夜激情在线| 欧美激情aaaa| 888av在线视频| 97视频色精品| 伊人久久综合一区二区| 日本中文字幕成人| 亚洲精品在线影院| 国产精品爱啪在线线免费观看| 影视一区二区三区| 国产精品久久久久免费a∨| 成人不卡视频| 国产在线精品自拍| 国产电影一区二区| 99一区二区| 精品国内亚洲2022精品成人| 久久草.com| 国产午夜一区| 在线观看欧美亚洲| 欧美国内亚洲| 一区二区传媒有限公司| 老**午夜毛片一区二区三区| 激情视频免费网站| 国产成人在线视频网站| 免费a v网站| 国产欧美一区二区三区在线老狼 | 亚洲国产一区二区三区青草影视 | 中文字幕免费高清电视剧网站在线观看| 久久艳片www.17c.com| 欧美1—12sexvideos| 奇米影视亚洲狠狠色| 本网站久久精品| 97超级碰碰| 亚洲女娇小黑人粗硬| 午夜精品一区二区三区在线观看| 天天超碰亚洲| 福利视频一二区| 日本亚洲免费观看| 日本中文字幕有码| 久久久久青草大香线综合精品| 亚洲不卡的av| 亚洲成av人片一区二区梦乃| 91黑人精品一区二区三区| 欧美一区二区在线播放| 亚洲 美腿 欧美 偷拍| www.欧美免费| 麻豆蜜桃在线观看| 国产一区在线播放| 激情av综合| 亚洲区一区二区三区| 尹人成人综合网| 国产视频1区2区3区| 成人动漫中文字幕| 人人艹在线视频| 无吗不卡中文字幕| 国产成人精品一区二三区四区五区 | 久久久在线免费观看| 国产精品99精品一区二区三区∴| 国产精品推荐精品| 天天射天天综合网| 99久久激情视频| 成人免费高清视频| 人人澡人人澡人人看| 狠狠干狠狠久久| 精品国产无码AV| 中文一区二区视频| 色网在线免费观看| 国产精品伊人日日| 99久久视频| 男人插女人下面免费视频| 不卡的av在线播放| 日本天堂中文字幕| 欧美老女人第四色| 国产一区二区影视| 97成人超碰免| 成人av影音| av中文字幕av| 韩国欧美国产1区| 欧美人与禽zoz0善交| 欧美性猛交xxxx乱大交极品| 丰满少妇被猛烈进入| 久久中文字幕一区| 欧美黄色成人| 亚洲成人在线视频网站| 日韩精品三区四区| 野花社区视频在线观看| 亚洲国产精品精华液网站| 99久久精品国产一区色| 日韩视频在线免费| 精品久久久网| 一区二区三区视频| 麻豆专区一区二区三区四区五区| 亚洲精品国产91| 色香色香欲天天天影视综合网| 少妇高潮一区二区三区69| 久久久久久久久久久av| 极品束缚调教一区二区网站| 国产一区二区三区在线免费| 国产乱人伦精品一区二区在线观看 | 亚州精品视频| 欧美日韩在线中文| 久久这里只有精品6| 久久久国产精品成人免费| 日韩电影在线观看中文字幕| 欧美三级网站| 日本黑人久久| 日韩不卡一二三区| 国产精品18在线| 欧美人动与zoxxxx乱| 操你啦视频在线| 99热在线播放| 999在线观看精品免费不卡网站| 一级特黄a大片免费| 色综合久久久久久久久| 国产色a在线| 国产热re99久久6国产精品| 亚洲天天影视网| 特级特黄刘亦菲aaa级| 午夜激情一区二区| 激情小说 在线视频| 国产女人18毛片水18精品| 影视一区二区| 中国极品少妇videossexhd| 91黄视频在线| 国产网站在线免费观看| 粉嫩av免费一区二区三区| 一本色道精品久久一区二区三区 | 香蕉视频xxxx| 亚洲线精品一区二区三区八戒| 欧美性猛交 xxxx| 日韩免费在线播放| 91精品精品| 国产一级二级在线观看| 欧美午夜精品久久久久久孕妇| 国产精品剧情| 麻豆精品蜜桃一区二区三区| 蜜臀久久99精品久久久画质超高清| 欧美日韩三级在线观看| 亚洲美女www午夜| 北岛玲精品视频在线观看| 欧洲精品在线播放| 国产日韩高清在线| 不卡av中文字幕| 国产成人精品av| 欧美精选一区| 国产美女免费网站| 日韩欧美在线网站| 欧美日韩成人影院| 人妻互换免费中文字幕| 久久久欧美精品sm网站| 国产视频第二页| 国产精品福利观看| 黄色精品网站| 免费精品在线视频| 亚洲色图av在线| www.成人网| 国产又粗又长又爽又黄的视频|