精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

解讀大模型的微調

原創 精選
開發 架構
微調預訓練LLM的所有層仍然是適應新目標任務的黃金準則。但是,諸如基于特征的方法、上下文學習和參數高效微調技術等方法,可以在最小化計算成本和資源的同時,有效地將LLM應用到新任務中。

在快速發展的人工智能領域中,有效地利用大型語言模型(LLM)變得越來越重要。然而,有許多不同的方式可以使用大型語言模型,這可能會讓我們感到困惑。實際上,可以使用預訓練的大型語言模型進行新任務的上下文學習并進行微調。

那么,什么是上下文學習?又如何對大模型進行微調呢?

1. 上下文學習與索引

自從GPT-2和GPT-3出現以來,可以發現在預訓練的通用文本語料庫上的生成式大型語言模型(LLM)具備了上下文學習的能力,這意味著如果我們想要執行LLM沒有明確訓練的特定或新任務,不需要進一步訓練或微調預訓練的LLM。同時,我們可以通過輸入提示直接提供一些目標任務的示例。

In Context Learning(ICL)的關鍵思想是從類比中學習。下圖給出了一個描述語言模型如何使用 ICL 進行決策的例子。首先,ICL 需要一些示例來形成一個演示上下文。這些示例通常是用自然語言模板編寫的。然后 ICL 將查詢的問題(即需要預測標簽的 input)和一個上下文演示(一些相關的 cases)連接在一起,形成帶有提示的輸入,并將其輸入到語言模型中進行預測。

圖片

如果無法直接訪問模型,例如通過 API 使用模型,上下文學習非常有用。與上下文學習相關的是“硬提示微調”的概念,可以通過修改輸入來期望改善輸出。將直接修改輸入的單詞或標記的微調稱為“硬”提示微調,另一種微調方式稱為“軟”提示微調或通常稱為“提示微調”。這種提示微調方法提供了一種更為節省資源的參數微調替代方案。然而,由于它不會更新模型參數以適應特定任務的微小差異,因此可能會限制其適應能力。此外,由于通常需要手動比較不同提示的質量,提示微調可能需要耗費大量人力。

另一種利用純粹的上下文學習方法的方法是索引。在LLM的范圍內,索引可以被視為一個上下文學習的解決方法,它使得LLM可以轉換為信息檢索系統,用于從外部資源和網站中提取數據。在此過程中,索引模塊將文檔或網站分解為較小的段落,并將它們轉換為可以存儲在向量數據庫中的向量。然后,當用戶提交查詢時,索引模塊計算嵌入式查詢與數據庫中每個向量之間的向量相似度。最終,索引模塊獲取前k個最相似的嵌入式向量以生成響應。索引的示意圖如下:

圖片

2. 基于三種特征的微調方法

上下文學習是一種有價值且用戶友好的方法,適用于直接訪問大型語言模型受限的情況,例如通過API或用戶界面與LLM進行交互。然而,如果可以訪問LLM,則使用來自目標領域的數據對其進行適應和微調通常會導致更好的結果。那么,我們如何將模型適應到目標任務?下圖概述了三種常規的基于特征的微調方法。

圖片

除了微調編碼器風格的LLM之外,相同的方法也適用于GPT般的解碼器風格LLM。此外,還可以微調解碼器風格的LLM生成多句話的答案,而不僅僅是分類文本。

2.1 基于特征的方法

在基于特征的方法中,需要加載預訓練的LLM,并將其應用于目標數據集。在這里,需要特別關注生成訓練集的輸出嵌入,這些嵌入可以用作訓練分類模型的輸入特征。雖然這種方法在以嵌入為重點的模型(如BERT)中特別常見,但也可以從生成式GPT-style模型中提取嵌入。

分類模型可以是邏輯回歸模型、隨機森林或XGBoost ,也可以任何我們想要的模型。一般地,在這里線性分類器如邏輯回歸表現最佳。

圖片

從概念上講,可以用以下代碼說明基于特征的方法:

model = AutoModel.from_pretrained("distilbert-base-uncased")

# ...
# tokenize dataset
# ...

# generate embeddings
@torch.inference_mode()
def get_output_embeddings(batch):
    output = model(
        batch["input_ids"],
        attention_mask=batch["attention_mask"]
    ).last_hidden_state[:, 0]
return {"features": output}

dataset_features = dataset_tokenized.map(
  get_output_embeddings, batched=True, batch_size=10)

X_train = np.array(imdb_features["train"]["features"])
y_train = np.array(imdb_features["train"]["label"])

X_val = np.array(imdb_features["validation"]["features"])
y_val = np.array(imdb_features["validation"]["label"])

X_test = np.array(imdb_features["test"]["features"])
y_test = np.array(imdb_features["test"]["label"])

# train classifier
from sklearn.linear_model import LogisticRegression

clf = LogisticRegression()
clf.fit(X_train, y_train)

print("Training accuracy", clf.score(X_train, y_train))
print("Validation accuracy", clf.score(X_val, y_val))
print("test accuracy", clf.score(X_test, y_test))

2.2 基于輸出層更新的微調

與上述基于特征的方法相關的一種流行方法是微調輸出層。與基于特征的方法類似,保持預訓練LLM的參數不變,只訓練新添加的輸出層,類似于在嵌入特征上訓練邏輯回歸分類器或小型多層感知器。在代碼中,將如下所示:

model = AutoModelForSequenceClassification.from_pretrained(
    "distilbert-base-uncased",
     num_labels=2
)

# freeze all layers
for param in model.parameters():
    param.requires_grad = False

# then unfreeze the two last layers (output layers)
for param in model.pre_classifier.parameters():
    param.requires_grad = True

for param in model.classifier.parameters():
    param.requires_grad = True

# finetune model
lightning_model = CustomLightningModule(model)

trainer = L.Trainer(
    max_epochs=3,
    ...
)

trainer.fit(
  model=lightning_model,
  train_dataloaders=train_loader,
  val_dataloaders=val_loader)

# evaluate model
trainer.test(lightning_model, dataloaders=test_loader)

理論上,這種方法應該具有與基于特征的方法同樣的良好建模性能和速度。然而,由于基于特征的方法使預計算和存儲嵌入特征更加容易,因此在特定的實際情況下,記憶特征的方法可能更加方便。

2.3 面向所有層更新的微調

盡管原始的BERT論文聲稱,僅微調輸出層可以實現與微調所有層相當的建模性能,但后者涉及更多參數,因此成本更高。例如,BERT基本模型約有1.1億個參數。然而,BERT基本模型用于二元分類的最后一層僅包含1,500個參數。此外,BERT基本模型的最后兩層占據60,000個參數,僅占總模型大小的約0.6%。]

由于目標任務和目標領域與模型預訓練的數據集相似程度的不同,幾乎總是通過微調所有層來獲得更優秀的模型性能。因此,當優化模型性能時,使用預訓練LLM的黃金標準是更新所有層。從概念上講,這種方法與輸出層更新非常相似。唯一的區別是不凍結預訓練LLM的參數,而是對其進行微調。

model = AutoModelForSequenceClassification.from_pretrained(
    "distilbert-base-uncased",
     num_labels=2
)

# don't freeze layers
# for param in model.parameters():
#    param.requires_grad = False

# finetune model
lightning_model = LightningModel(model)

trainer = L.Trainer(
    max_epochs=3,
    ...
)

trainer.fit(
  model=lightning_model,
  train_dataloaders=train_loader,
  val_dataloaders=val_loader)

# evaluate model
trainer.test(lightning_model, dataloaders=test_loader)

多層微調通常會導致更好的性能,但代價也會增加,各種方法的計算和模型性能如下圖所示。

圖片

上面的情景突出了微調的三種極端情況:基于特征,僅訓練最后一層或幾層,或者訓練所有層。當然,根據模型和數據集的不同,在各種選項之間探索也可能是值得的。

3. 參數高效微調

參數高效微調允許我們在最小化計算和資源占用的同時重復使用預訓練模型。總的來說,參數高效微調至少有以下5個優點:

  • 減少計算成本(需要更少的GPU和GPU時間);
  • 更快的訓練時間(更快地完成訓練);
  • 更低的硬件要求(可以使用更小的GPU和更少的存儲器);
  • 更好的模型性能(減少過擬合);
  • 更少的存儲空間(大部分權重可以在不同任務之間共享)。

如前所述,微調更多的層通常會導致更好的結果。如果想要微調更大的模型,例如重新生成的LLM,這些模型只能勉強適合GPU內存,該怎么辦呢?人們開發了幾種技術,只需訓練少量參數便可通過微調提升LLM的性能。這些方法通常被稱為參數高效微調技術(PEFT)。

在huggingface提供的PEFT工具中,可以很方便地實現將普通的HF模型變成用于支持輕量級微調的模型,使用非常便捷,目前支持4種策略,分別是:

  • LoRA
  • Prefix Tuning
  • P-Tuning
  • Prompt Tuning

下圖總結了一些最廣泛使用的PEFT技術。

圖片

那么這些技術是如何工作的呢?簡而言之,它們都涉及引入少量的額外參數,而不是對所有層都進行修改。從某種意義上講,輸出層微調也可以被視為一種參數高效的微調技術。然而,像前綴微調、適配器和低秩適應等技術,它們“修改”多個層,以極低的成本實現更好的預測性能。

4.RHLF

在人類反饋增強學習中,預訓練模型使用監督學習和強化學習相結合進行微調。這種方法是由原始的ChatGPT模型推廣而來,而該模型又基于InstructGPT。RLHF通過讓人類對不同的模型輸出進行排名或評分來收集人類反饋,從而提供獎勵信號。然后,可以使用收集的獎勵標簽來訓練獎勵模型,進而指導LLM對人類偏好的適應。

獎勵模型本身是通過監督學習進行學習的,通常使用預訓練的LLM作為基本模型。接下來,獎勵模型用于更新預訓練的LLM,以適應人類的偏好。訓練使用了一種稱為近端策略優化的強化學習方法。InstructGPT論文中概述了RLHF的過程。

圖片

為什么要使用獎勵模型而不是直接訓練預先訓練好的模型并使用人類反饋?主要原因是將人類納入學習過程會造成瓶頸,我們無法實時獲取反饋。

5.小結

微調預訓練LLM的所有層仍然是適應新目標任務的黃金準則。但是,諸如基于特征的方法、上下文學習和參數高效微調技術等方法,可以在最小化計算成本和資源的同時,有效地將LLM應用到新任務中。此外,帶有人類反饋的強化學習(RLHF)作為有監督微調的替代方法,也可以提高模型性能。

【參考資料】 

  • A Survey on In-context Learning,https://arxiv.org/pdf/2301.00234.pdf
  • LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS,https://arxiv.org/pdf/2106.09685.pdf
  • Prefix-Tuning: Optimizing Continuous Prompts for Generation, https://aclanthology.org/2021.acl-long.353
  • P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks,https://arxiv.org/pdf/2110.07602.pdf
  • The Power of Scale for Parameter-Efficient Prompt Tuning,https://arxiv.org/pdf/2104.08691.pdf
  • BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,https://arxiv.org/abs/1810.04805
  • https://github.com/huggingface/peft
  • https://github.com/rasbt
責任編輯:武曉燕 來源: 喔家ArchiSelf
相關推薦

2025-06-23 07:54:40

2023-10-06 20:30:33

大模型LLMtoken

2025-04-10 07:59:51

2024-09-09 07:46:16

2024-02-05 14:12:37

大模型RAG架構

2024-05-07 08:00:00

自然語言處理機器學習

2024-04-15 12:50:00

大型語言模型ReFT

2024-12-30 00:01:00

多模態大模型Python

2025-01-14 10:56:14

2025-02-28 10:25:09

2024-05-06 07:58:23

MoE模型系統

2023-04-10 09:59:48

昇思

2024-09-26 10:42:20

2025-05-13 05:11:00

推理模型微調

2025-06-26 09:06:59

2024-01-18 15:38:17

語言模型大型語言模型

2023-10-20 17:53:05

2023-09-01 21:12:13

GPT3.5模型微調

2025-10-23 09:28:39

大模型RAG微調

2025-11-06 01:20:00

點贊
收藏

51CTO技術棧公眾號

亚洲女人毛茸茸高潮| 欧美一级片在线| 国产男人精品视频| 国产美女永久免费无遮挡| 成人小电影网站| 久久久久久久久久久99999| 奇米一区二区三区四区久久| 免费看黄色aaaaaa 片| 国产欧美一区二区三区精品酒店| 国产亚洲污的网站| 国产精品视频26uuu| 国产精品久久国产精麻豆96堂| 999精品嫩草久久久久久99| 亚洲视频一区在线| 精品国产第一页| 一级片在线观看免费| 日本久久一二三四| 日韩欧美一区二区三区在线| 免费av观看网址| 国模精品一区二区| 韩日av一区二区| 国内揄拍国内精品少妇国语| 成人免费无遮挡无码黄漫视频| 韩国理伦片久久电影网| 艳妇臀荡乳欲伦亚洲一区| 麻豆成人小视频| 免费视频久久久| 欧美一区激情| 亚洲性av在线| 亚洲免费观看在线| 成人啊v在线| 一区二区三区美女| 久久久久久久久四区三区| 这里只有精品6| 精品96久久久久久中文字幕无| 日韩精品综合一本久道在线视频| 高清在线观看免费| 午夜av在线播放| 国产亚洲欧美激情| 91精品国产99久久久久久红楼| 亚洲精品中文字幕乱码三区91| 亚洲午夜精品一区 二区 三区| 精品亚洲男同gayvideo网站| 不卡的在线视频| 成人免费直播| 亚洲成人av福利| 中文字幕欧美日韩一区二区三区 | 99久久免费精品| 国产欧美日韩91| 国产情侣自拍av| 欧美精品偷拍| www日韩欧美| 人妻av一区二区| 宅男噜噜噜66国产精品免费| 色综合久久综合网| 给我免费播放片在线观看| 欧美激情二区| 国产精品少妇自拍| 欧美日韩国产综合视频在线| 亚洲国产综合网| 精品一区二区三区欧美| 国产欧美日韩高清| 国产欧美熟妇另类久久久| 狠狠狠色丁香婷婷综合久久五月| 成人h视频在线| 国产日韩欧美中文字幕| 国产成人综合网| 国产手机精品在线| 日本成人一区| 日本一区二区免费在线观看视频| 午夜精品亚洲一区二区三区嫩草| www.亚洲视频| 最新国产の精品合集bt伙计| av动漫在线免费观看| 日本动漫同人动漫在线观看| 亚洲国产成人91porn| 人妻av中文系列| 久久sese| 欧美日韩国产高清一区二区三区| 能看毛片的网站| 成人午夜大片| 亚洲人午夜精品免费| 99成人在线观看| 韩国欧美一区| 日本高清久久天堂| 中文字幕乱码视频| 国产电影精品久久禁18| 久久亚洲高清| 午夜毛片在线| 亚洲第一综合色| 亚洲人成无码www久久久| 欧美天堂在线| 精品久久人人做人人爽| 中文字幕一二三四区| 精品产国自在拍| 不卡av在线播放| wwwxxx亚洲| 精品无人区卡一卡二卡三乱码免费卡 | 精品无码一区二区三区蜜臀| 激情久久五月| 国产精品久久77777| 草草视频在线播放| 久久精品这里都是精品| 国产在线无码精品| 日韩和的一区二在线| 日韩一区二区中文字幕| 我和岳m愉情xxxⅹ视频| 91精品99| 国产精品99久久久久久久久久久久| 国产男女无套免费网站| 国产午夜精品一区二区三区视频| 真实国产乱子伦对白视频| 成人免费福利| 亚洲黄色在线观看| 国产这里有精品| 强制捆绑调教一区二区| 国产伦精品一区二区三区四区视频 | 亚洲毛茸茸少妇高潮呻吟| 婷婷激情四射网| 老司机久久99久久精品播放免费| aa成人免费视频| 在线激情小视频| 日韩欧美中文字幕在线播放| 国产人妖在线观看| 天天操综合网| 国产精品美女主播在线观看纯欲| 天天色天天操天天射| 亚洲人成影院在线观看| 日本中文字幕高清| 国产成人精品三级高清久久91| 久久久久久亚洲| 99热精品在线播放| 中文字幕视频一区二区三区久| 国产成人a亚洲精v品无码| 视频一区日韩| 久久久精品久久| 亚洲综合网av| 日本一区免费视频| 国内外免费激情视频| 欧美日韩破处| 高清视频欧美一级| 丰满人妻一区二区三区四区53 | 国产第100页| 国产成人鲁色资源国产91色综| 亚洲一卡二卡| 久久久久黄色| 在线电影av不卡网址| 日韩人妻精品中文字幕| 久久久精品黄色| 国产一区亚洲二区三区| 自拍视频一区| 日韩av免费在线播放| 经典三级在线| 色婷婷亚洲婷婷| 久久午夜福利电影| 人人狠狠综合久久亚洲| 先锋影音一区二区三区| 欧美男女视频| 美女国内精品自产拍在线播放| 国产又爽又黄又嫩又猛又粗| 亚洲素人一区二区| 在线观看一区二区三区视频| 国产综合视频| 国产亚洲自拍偷拍| 电影网一区二区| 亚洲美女福利视频网站| 糖心vlog精品一区二区| 国产精品久久久一本精品| 狠狠操狠狠干视频| 欧美久久影院| 久久艳妇乳肉豪妇荡乳av| 日本欧美一区| 久久九九有精品国产23| 丰满人妻熟女aⅴ一区| 日韩欧美亚洲一二三区| 日本午夜在线亚洲.国产| 99精品国产99久久久久久97| 一区二区三区美女视频| 人妻在线日韩免费视频| 日日欢夜夜爽一区| 天天干天天操天天干天天操| 日韩在线网址| 26uuu亚洲国产精品| h视频网站在线观看| 在线成人av网站| 精品少妇theporn| 91视频你懂的| 日韩成人精品视频在线观看| 影音先锋亚洲精品| 日产精品高清视频免费| 青草综合视频| 国内精品免费午夜毛片| 福利片在线看| 欧美不卡一二三| 日韩电影在线观看一区二区| 日韩美女久久久| 精品人妻一区二区免费视频| 麻豆精品国产传媒mv男同| 国产精品久久久久7777| 成人3d动漫在线观看| 国产精品视频免费一区| 成人国产精品| 97国产在线观看| 日本三级在线播放完整版| 亚洲国产精品嫩草影院久久| 91tv国产成人福利| 高跟丝袜一区二区三区| 日本一级二级视频| 国产亚洲欧美色| 日本少妇xxxx| 国产乱妇无码大片在线观看| 日本999视频| 一区在线播放| 偷拍盗摄高潮叫床对白清晰| 亚洲国产国产| 成人av免费看| 国产aⅴ精品一区二区四区| 日本伊人精品一区二区三区介绍| 久久五月精品中文字幕| 日韩性生活视频| 黄色免费在线播放| 亚洲国产一区二区三区在线观看| 国产原创中文av| 欧美在线999| 日本中文字幕第一页| 亚洲国产精品欧美一二99| 午夜国产福利视频| 日本一区二区三区四区| 黄色a一级视频| 成人免费高清在线观看| 国产男女无遮挡猛进猛出| 欧美96一区二区免费视频| 日韩免费毛片视频| 国产日本精品| 男人日女人视频网站| 国产精品第十页| 男人的天堂视频在线| 欧美a级成人淫片免费看| 日韩欧美精品一区二区| 久久爱www成人| 欧美日韩亚洲在线| 欧美一级一片| 精品国产乱码久久久久久丨区2区 精品国产乱码久久久久久蜜柚 | 久久久久久亚洲| 免费电影网站在线视频观看福利| 久久精品中文字幕电影| 欧美性videos| 日韩视频欧美视频| 国产精品剧情| 久久国产精品久久久久| 在线观看三级视频| 久久91精品国产91久久跳| 天堂av最新在线| 欧美极品少妇与黑人| 丁香花在线影院| 午夜精品久久久久久久99黑人| 国产污视频在线播放| 91成人性视频| 欧美电影免费观看| 国产精品91在线观看| 欧美成人家庭影院| 91久久精品国产| 99re6热只有精品免费观看| 国产亚洲自拍偷拍| 亚洲人和日本人hd| 日韩精品一区二区三区色偷偷| av影片在线一区| 在线观看亚洲视频啊啊啊啊| 欧美福利电影在线观看| 欧美夫妻性视频| av资源一区二区| 99999精品| 祥仔av免费一区二区三区四区| 欧美中文在线字幕| 99热只有这里有精品| 久久综合九色综合欧美就去吻| 性色av蜜臀av色欲av| 国产日韩欧美精品一区| 国精产品久拍自产在线网站| 一区二区视频在线看| 日本午夜精品理论片a级app发布| 午夜精品在线看| a片在线免费观看| 欧美一区二区福利在线| 国产精品久久久久久免费 | 国产香蕉久久精品综合网| 日本伦理一区二区三区| 亚洲综合丁香婷婷六月香| 日本天堂网在线| 欧美男人的天堂一二区| 成人精品在线播放| 亚洲一区二区黄| 污视频在线看网站| 日韩美女毛茸茸| 精品视频91| 日本日本精品二区免费| 五月天久久久| 91免费视频网站在线观看| 国产最新精品免费| 日本一区二区三区网站| 亚洲伦理在线精品| 老熟妇一区二区三区| 日韩欧美三级在线| yes4444视频在线观看| 欧美黑人又粗大| а√天堂资源国产精品| 狠狠色综合网站久久久久久久| 色综合咪咪久久网| 国产精品免费入口| 国产精品996| 欧美日韩生活片| 欧美日韩激情视频| 国产国语亲子伦亲子| 中文字幕欧美专区| 美女91在线看| av免费观看久久| 色综合天天爱| 熟妇人妻va精品中文字幕 | 欧美中文字幕一二三区视频| 天堂在线观看av| 欧美国产激情18| **日韩最新| 天堂va久久久噜噜噜久久va| 国产日韩欧美一区二区三区在线观看| 超碰在线免费av| 国产欧美精品在线观看| 91av在线免费视频| 精品国产伦一区二区三区观看体验 | 香蕉视频亚洲一级| 精品在线不卡| 亚洲高清激情| 亚洲av午夜精品一区二区三区| 国产精品久久久久久久久搜平片| 国产精品免费精品一区| 亚洲精品成人av| 91探花在线观看| 国产精品露出视频| 欧美另类女人| 日本wwwwwww| 亚洲一二三四久久| 亚洲精品一级片| 色综合老司机第九色激情| www.久久爱.com| 亚洲一区二区不卡视频| 美女视频免费一区| 在线观看天堂av| 欧美日韩视频在线观看一区二区三区| shkd中文字幕久久在线观看| 日韩av毛片网| 欧美日韩中字| 成人综合久久网| 亚洲人成小说网站色在线| 国产又粗又猛又爽又黄视频 | 精品一区二区日本| 99精品国产福利在线观看免费 | 国产日韩v精品一区二区| 亚洲欧美另类在线视频| 亚洲一区二区福利| 国产精品一区二区免费福利视频 | 精久久久久久| 亚洲av无码一区二区三区观看| 精品久久久久久亚洲精品| 你懂的视频在线播放| 国产成人精品在线播放| 成人女性视频| 超碰在线97免费| 最近日韩中文字幕| 亚洲国产精品久久久久爰性色| 久久久伊人日本| 九九久久精品| 色天使在线观看| 夜夜操天天操亚洲| 亚洲人成色777777精品音频| 66m—66摸成人免费视频| 视频一区在线观看| 中文字幕av专区| 一区二区三区高清在线| 日韩私人影院| 成人精品一区二区三区| 欧美色123| 亚洲熟妇一区二区三区| 欧美日韩久久一区| jizz一区二区三区| 日韩av影视| 国产激情视频一区二区三区欧美 | 亚洲aa中文字幕| 亚洲日韩成人| 国产18无套直看片| 日韩欧美中文字幕制服| 欧美aaaaa性bbbbb小妇| 亚洲一区二区精品在线| 成年人国产精品| 亚洲中文一区二区三区| 欧美另类暴力丝袜| 精品中文一区| 国产乱国产乱老熟300部视频| 色综合久久久久久久久| 3d玉蒲团在线观看| 日韩av高清在线播放| 国产+成+人+亚洲欧洲自线|