精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

解析ChatGPT背后的技術演進

人工智能
大語言模型的出現,為我們提供了一種新的思路,即通過大規模預訓練和微調技術,讓模型具備更強大的語言理解能力,從而能夠應用于更多的NLP任務。

1、自然語言理解與語言模型

1.1 自然語言處理

自然語言處理 (NLP) 是人工智能 (AI) 的一個分支。它能夠使計算機理解、生成和處理人類語言,建立在機器語言和人類語言之間溝通的橋梁,以實現人機交流的目的,涉及到語言學、計算機科學以及人工智能等交叉學科。

回顧NLP的主要發展歷程,可大致分為三個階段:

  • 上世紀80年代之前,人工智能萌芽階段,主要是基于規則的語言系統;
  • 80年代之后,從機器學習的興起到神經網絡的引入,帶動了NLP的快速發展和商業化;
  • 2017年至今,基于Attention注意力機制構建的Transformer模型開啟了大語言模型時代;

自然語言處理

NLP可分為自然語言理解(Natural Language Understanding, NLU)和自然語言生成(Natural Language Generation, NLG)兩大部分。

自然語言理解(NLU)就是希望機器像人一樣,具備正常人的語言理解能力,由于自然語言在理解上有很多難點(多樣性、奇歧義性,知識依賴以及語言的上下文等),所以 NLU 是至今還遠不如人類的表現。

自然語言生成(NLG)是為了跨越人類和機器之間的溝通鴻溝,將非語言格式的數據轉換成人類可以理解的語言格式,如文章、報告等。

自然語言處理是是計算機科學領域與人工智能領域中的一個重要方向,被譽為“人工智能皇冠上的明珠”。

圖片

NLP領域世界級大師

近幾年自然語言處理的發展迅猛,尤其是2017年Transformer提出后,在NLP領域得到了普遍應用,都獲得了不錯的效果。其實,在人類尚未明了大腦是如何進行語言的模糊識別和邏輯判斷的情況下,NLP要想有突破性的進展,依然還有很長的路要走。

圖片

NLP文本處理的多種困難

1.2 語言模型

2、語言模型的發展演進

語言模型的研究范式變化是從規則到統計,從統計機器學習到基于神經網絡的深度學習,這同時也是自然語言處理(NLP)發展的歷史。

圖片

語言模型發展演進

2.1 統計語言模型

從語言模型的鏈式定義公式來看,由于涉及到的參數量巨大,計算條件概率困難。隨后引入Markov Assumption,解決參數空間大的問題。在詞語共現的長度選擇做出了讓步,N-gram ML的定義為:

N較大時:

  • 提供了更多的上下文信息,語境更具區分性;
  • 參數多,計算代價大,需要訓練語料多,參數估計不可靠;

N較小時:

  • 上下文信息少,語境不具區分性;
  • 參數少、計算代價小、需要訓練語料少、參數預估可靠;

圖片

困惑度隨著N的變化而變化,N越大,參數量級以指數級增長,而困惑度越小。

2.2 神經網絡語言模型

NNLM模型結構:

圖片

神經網絡語言模型結構圖

  • 延續了Markov Assumption,即固定長度的歷史詞;
  • 詞映射到低維空間,解決了維度災難問題;
  • 詞泛化能力提升(如:相似性、類比性);
  • 相似性:“movie”、“film”和“video”詞語義相近;
  • 類比性:“中國” + “北京” = “日本” + “東京”;
  • 三層結構:Word Embedding Layer、Hidden Layer 和 Output Layer;

缺點:

  • 固定長度的歷史,缺失long term的依賴;

另外,NNLM的出現,直接催生了詞向量化工具word2vec,從此進入詞的向量化階段。是將自然語言表示的單詞轉換為計算機能夠理解的向量形式的技術。有了一個詞的向量之后,各種基于向量的計算就可以實施,如用向量之間的相似度來度量詞之間的語義相關性。其基于的分布式假設就是出現在相同上下文的詞意思應該相近。Word Embedding也有其局限性,比如:難以對詞組做分布式表達;無法解決多義詞問題。此外,Word Embedding對于應用場景的依賴很強,所以針對特殊的應用場景可能需要重新訓練,這樣就會很消耗時間和資源。

word2vec的網絡結構與NNML類似,在目標詞和上下文的預測上,分為倆種,分別為CBOW(上下文信息-> 中間詞)模型和Skip-gram(中間詞-> 上下文信息)模型。

word2vec技術原理圖片

2.3 RNN

循環神經網絡(Recurrent Neural Network, RNN)是一類以序列(sequence)數據為輸入,在序列的演進方向進行遞歸(recursion)且所有節點(循環單元)按鏈式連接的網絡結構。

圖片

RNN網絡結構圖

RNN設計上打破了神經網絡語言模型的限制,認為詞與詞上下文信息決定了詞的語義信息,而非像前饋神經網絡同N-gram一樣,每個詞只依賴前個詞,從而限制了前饋神經網絡語言模型的性能;

缺點:

  • 梯度消失或者爆炸(由多級偏導數連乘導致)

圖片

RNN在自然語言處理任務中,例如語音識別、語言建模、機器翻譯等領域有應用,也被用于各類時間序列預報。

2.4 LSTM

長短期記憶(Long short-term memory, LSTM),顧名思義,它具有記憶長短期信息的能力的神經網絡。在1997年由Hochreiter 和 Schmidhuber 提出,在深度學習在2012年興起后,LSTM又經過了若干代大牛的迭代,形成了比較系統且完整的LSTM框架,并在很多領域得到了廣泛應用。

LSTM提出的動機是為了解決上面我們提到的RNN長期依賴問題,并解決長序列訓練過程中的梯度消失和梯度爆炸問題。相比普通的RNN,LSTM能夠在更長的序列中有更好的表現。從RNN模型的結構看,隨著詞的增加,之前比較長的時間片的特征會被覆蓋。因此,rnn喪失了學習連接較遠的信息的能力。長期依賴產生的原因是當神經網絡的節點經過許多階段的計算后,特征信息被覆蓋造成的。

例如:小李今天上午參加了一個有趣的班級活動,在哪里有許多有趣的朋友,大家一起暢聊學習生活,共同跳舞唱歌,覺得非常開心?!保八爸傅木褪恰靶±睢?,由于詞距離較遠,“小李”的語義信息已衰減,因此“小李”和“他”具有長依賴問題。

LSTM的核心是單元狀態(Cell State),由三個門機制來控制Cell狀態,這三個門分別稱為遺忘門、輸入門和輸出門。LSTM是通過Gate機制控制特征的流通和損失;

LSTM網絡結構如下:

圖片

LSTM網絡結構圖

遺忘門: LSTM的第一步就是決定Cell狀態需要丟棄哪些信息。這部分操作是通過一個稱為遺忘門的 sigmoid 單元來處理的。它通過和信息來輸出一個 0-1 之間的向量,該向量里面的 0-1 值表示單元狀態中的哪些信息保留或丟棄多少。0表示不保留,1表示都保留。 遺忘門如下圖所示。

圖片

LSTM-遺忘門

輸入門: 用于更新單元狀態。首先,將先前的隱藏狀態和當前輸入傳遞給 sigmoid 函數。這決定了通過將值轉換為0到1來更新哪些值。0表示不重要,1表示重要。還將隱藏狀態和當前輸入傳遞給 tanh 函數,將它們壓縮到-1和1之間以幫助調節網絡。然后將 sigmoid 輸出與 tanh 輸出相乘。如下圖所示:

圖片

LSTM-輸入門

??輸出門: 輸出門決定下一個隱藏狀態是什么。隱藏狀態也用于預測。首先,將先前的隱藏狀態和當前輸入傳遞給 sigmoid 函數。然后將新的單元狀態傳遞給 tanh 函數。將 tanh 輸出與 sigmoid 輸出相乘,以決定隱藏狀態應攜帶的信息。它的輸出是隱藏狀態。然后將新的單元狀態和新的隱藏狀態傳遞到下一個時間步。如下圖所示:

圖片

LSTM-輸出門

缺點:

  • 超長序列時,LSTM的性能仍不理想;
  • 計算效率低下;

LSTM長短期神經網絡的主要應用于

  • 文本生成:訓練語言模型,在給定一些前綴的情況下生成合理的文本;
  • 語音識別:可以識別說話人的聲音,也可以用來識別說話的語音;
  • 機器翻譯:seq2seq翻譯模型,可以把一種語言翻譯成另一種語言;
  • 時間序列預測:預測時間序列數據,比如股票價格,天氣預報等;

2.5 ELMo

Word Embedding的杰出代表word2vec,本質上是靜態的詞向量,即訓練完單詞的語義就固定了,不會跟著上下文場景的變化而改變。為了解決這個問題,出現了ELMO(Embedding from Language Models)的訓練方案。ELMO采用了典型的兩階段過程,第一個階段利用語言模型進行預訓練;第二個階段是在做下游任務時,從預訓練網絡中提取對應單詞的網絡各層的Word Embedding作為新特征補充到下游任務中。通過加入雙層雙向的LSTM網絡結構,ELMo引入上下文動態調整單詞的embedding后,多義詞問題得到了解決。另外,ELMo最早提出預訓練機制。

圖片

ELMo模型結構圖

損失函數:

損失函數由倆部分組成,分別是前向的LSTM語言模型的損失函數 和 后向的LSTM語言模型的損失函數之和,認為詞的語義信息是由詞以及詞的上下文信息來決定。

  • 動態詞向量的提出,多義詞方面的得到極大改善;
    例如:"我中午吃了一個蘋果?!?和  “上周我買了一部蘋果手機。” 中的蘋果,相同的詞,但具有不同的語義。
  • 較早提出預訓練的概念;

缺點:

  • 特征抽取能力欠缺,ELMo使用了LSTM而不是Transformer(當時transformer已經被提出),Transformer提取特征的能力是要遠強于LSTM;
  • 訓練時間長;

2.6 Transformer

Transformer是由谷歌公司提出的一種基于自注意力機制的神經網絡模型,用于處理序列數據。在自然語言處理中,序列數據的輸入包括一系列文本、語音信號、圖像或視頻等。傳統的循環神經網絡(RNN、LSTM)模型已經在這些任務中取得了很好的效果,但是該模型存在著兩個主要問題:一是難以并行計算,需要訓練時間長;二是難以捕捉長距離依賴關系。為了解決這些問題,Transformer模型應運而生。

??2017年,Google機器翻譯團隊發表的經典之作:《Attention is All You Need》中,完全拋棄了RNN和CNN等網絡結構,而僅僅采用Attention機制來進行機器翻譯任務,并且取得了很好的效果,隨后注意力機制也成為了研究與應用熱點。

圖片

Transformer經典論文:Attention Is All Your Need

在介紹Transformer之前,我們先了解一下Attention機制、Self-Attention以及殘差網絡等。

2.6.1 Attention機制

2014年,Bengio團隊提出Attention機制,后來被廣泛應用于深度學習中的各個領域。例如在計算機視覺方向用于捕捉圖像上的感受野、NLP中用于定位關鍵token或者特征、以及隨后的Bert與GPT系列模型,都在隨后的NLP任務中取得到 state-of-the-art 的效果。

Attention機制計算流程:圖片

Attention機制的計算邏輯大致分為三步:

優勢:

  • 可并行計算;
  • 一步到位獲取全局與局部聯系,不像rnn有長依賴的局限性;
  • 參數少,模型復雜度低;

缺點:

  • 沒法捕捉位置信息,即沒法學習序列中的順序關系,為隨后 position embedding 的出現埋下來伏筆;

在transformer中,采用的是Self-Attention機制。在Attention機制中,當Q=K=V時,就是Self-Attention,主要體現輸入數據中的各部分的關聯。

2.6.2 殘差網絡(ResNet)

在深度網絡的學習中,網絡深度越深,能夠獲取的信息越多,而且特征也越豐富。但是現實中隨著網絡的加深,優化效果反而越差,測試數據和訓練數據的準確率反而降低了。這是由于網絡的加深會造成梯度爆炸和梯度消失的問題。針對此類問題,由微軟實驗室中的何凱明等在2015年提出了ResNet網絡,緩解了該問題,并斬獲當年ImageNet競賽中分類任務第一名,目標檢測第一名。獲得COCO數據集中目標檢測第一名,圖像分割第一名。

??殘差網絡的特點是容易優化,并且能夠通過增加相當的深度來提高準確率。其內部的殘差塊使用了跳躍連接,緩解了在深度神經網絡中增加深度帶來的梯度消失問題。網絡結構如下:

圖片

殘差網絡結構

  • 殘差網絡的輸出 = 直接映射部分 + 殘差部分

??

  • 為什么有效?
  • “寬而淺”
  • “窄而深”,需要網絡優化,避免梯度消失;
  • 殘差連接使得信息前后向傳播更加順暢,解決梯度消失問題;
  • Ensemble model,降低方差;

2.6.3 Position Embedding

Transformer中的position embedding的作用是在序列模型中引入單詞位置信息,以幫助模型更好地理解序列中的單詞順序和位置關系,從而提高模型的性能和準確性。

圖片

在Transformer中,使用的是Sinusoidal Position Embedding,屬于絕對位置編碼,優點是編碼簡單,不占用參數空間;缺點是限制了最大輸入長度。針對絕對位置編碼的缺點,在隨后的引入了相對位置編碼(Bert中應用) 和 旋轉位置編碼(RoFormer中應用)。

位置編碼:

  • 絕對位置編碼:Sinusoidal Function(sin/cos),不隨著模型參數進行學習更新;
  • 相對位置編碼:位置ID的embedding編碼,在模型參數中,隨著梯度得以訓練學習;
  • 旋轉位置編碼:RoPE等,結合了絕對位置編碼 和 相對位置編碼的有點;

2.6.4 Transformer原理

Transformer與傳統的循環神經網絡(RNN)和卷積神經網絡(CNN)不同,Transformer僅使用自注意力機制(self-attention)來處理輸入序列和輸出序列。在模型中包含了多層encoder和decoder,每一層都由多個注意力機制模塊和前饋神經網絡模塊組成。encoder用于將輸入序列編碼成一個高維特征向量表示,decoder則用于將該向量表示解碼成目標序列。通過不斷堆疊多個自注意力層和前饋神經網絡層,可以構建出Transformer模型。在Transformer模型中,還使用了殘差連接和層歸一化等技術來加速模型收斂和提高模型性能。網絡結構圖如下:

圖片

Transformer的encoder、decoder模塊

圖片

Multi-Head Attention

自注意力機制的計算過程包括三個步驟:

  • 計算注意力權重:計算每個位置與其他位置之間的注意力權重,即每個位置對其他位置的重要性;
  • 計算加權和:將每個位置向量與注意力權重相乘,然后將它們相加,得到加權和向量;
  • 線性變換:對加權和向量進行線性變換,得到最終的輸出向量;

對于Transformer模型的訓練,通常采用無監督的方式進行預訓練,然后再進行有監督的微調。在預訓練過程中,通常采用自編碼器或者掩碼語言模型等方式進行訓練,目標是學習輸入序列的表示。在微調過程中,通常采用有監督的方式進行訓練,例如在機器翻譯任務中,使用平行語料進行訓練,目標是學習將輸入序列映射到目標序列的映射關系。

Transformer 中 Multi-Head Attention 中由多個 Self-Attention的拼接,可以捕獲單詞之間多種維度上的相關系數 attention score。

Transformer模型的缺點:

  • 需要較大的數據集來訓練;
  • 計算復雜度較高,需要更多的計算資源,比如GPU等;
  • 可解釋性差;

在自然語言處理的任務中,Transformer模型真正改變了我們處理文本數據的方式,推動了自然語言處理發展,包括Google的BERT、OpenAI的GPT系列模型都采用Transformer來提取特征。

2.7 BERT

BERT的全稱為Bidirectional Encoder Representation from Transformers,是一個預訓練的語言表征模型。它強調了不再像以往一樣采用傳統的單向語言模型或者把兩個單向語言模型進行淺層拼接的方法進行預訓練,而是采用新的masked language model(MLM),以致能生成深度的雙向語言表征。模型結構圖如下:

圖片

BERT模型結構圖

圖片

BERT的輸入構成

  • MLN 通過上文+下文 -> 中間詞,重在理解;而NSP重在生成;
  • 12 Layers,hidden tokens: 1024;
  • ”深而窄” 比 “淺而寬” 的模型更好;
  • 采用雙向Transformers進行預訓練,生成深層的雙向語言表征,進一步挖掘上下文所帶來的豐富語義;
  • 預訓練后,只需要對增加的輸出層進行fine-tune,就可以在各種各樣的下游任務中取得 state-of-the-art 表現;
  • 開啟了“預訓練 + 參數微調”的研究范式;

圖片

值得一提的是論文發表時提及在11個NLP(Natural Language Processing,自然語言處理)任務中獲得了新的state-of-the-art的結果,尤其是在機器閱讀理解頂級水平測試SQuAD1.1中表現出驚人的成績,全部兩個衡量指標上全面超越人類。

3、GPT系列模型簡介

隨著ChatGPT火遍圈內外,連微博熱搜都出現了它的身影。突然之間,好多許久未聯系的各行各業的同學好友都發來“問候”:ChatGPT 是什么? 其實,ChatGPT 的成功并非一朝一夕,而是 OpenAI長達4年多持續努力、不懈追求取得的成果。從2018年的初代GPT-1開始,到GPT-2、GPT-3、InstructGPT,GPT-4,到如今的GPT-4,每一步都是不可或缺的。所以,ChatGPT不是一次偉大創新的產物,而是許多個階段性創新持續疊加的結果。

圖片

GPT系列模型的發展過程

3.1 GPT-1

2018年6月,OpenAI公司發布了GPT模型的初代版本,GPT-1運用了Transformer的Decoder框架中MaskSelf-attention機制。GPT-1在訓練方式上仍依賴于數據標注和模型微調,同時GPT-1的語言泛化能力仍然不足,因此可以說GPT-1更接近于處理特定語言任務的專家模型,而非通用的語言模型。GPT-1的模型訓練采取的是二段式的訓練模式,第一階段利用無監督學習進行預訓練,使用未標記的數據生成語言模型;第二階段則根據特定的下游任務來對模型進行人工微調,比如分類任務、自然語言推理、語義相似度、問答和常識推理等任務。因此相較于此前NLP模型,GPT-1實際上還是一個半監督式學習的語言模型。GPT-1在多種語言任務方面都有不錯的效果,在自然語言推理、分類、問答、對比相似度的多種測評中均超越了之前的模型。同時,GPT-1的語言泛化能力仍然不足,無法解決通用的語言任務,且和同時代的BERT模型比較的話,GPT-1在能力上要遜色于BERT。

圖片

GPT-1的模型結構

模型結構:

  • 12層 transformer decoder + 768維隱向量
  • Optimizer: Adam
  • Tokens:1024

損失函數:

優勢:

  • 特征抽取器首次使用了強大的 Transformer,能夠捕捉到更長的記憶信息;
  • Auto-regressive Language  Model,根據當前信息生成下一刻的信息,適用于自然語言生成任務(NLG);
  • 預訓練(無監督)+ finetune(有監督);
  • GPT為基于預訓練的自然語言處理模型的發展提供了新的思路和方法;

劣勢

  • 模型泛化能力欠缺;
  • Fine-tune 需要數據量大,耗時耗力,難快速擴展;
  • GPT-1 最大的問題就是同傳統的語言模型是一樣是單向的;

3.2 GPT-2

2019年2月,GPT-2正式發布,相較于GPT-1,GPT-2舍棄了模型微調,直接通過大規模數據進行預訓練,讓模型開始具備解決多種語言任務的能力,實現一個泛化能力更強的語言模型,這也開始讓模型的通用性得以充分展現。盡管此前GPT-1在特定任務上已經取得了不錯的效果,但實際上這類模型都需要針對單個語言任務使用大量的標注數據和模型微調,因此也只能在解決特定語言任務時才能發揮作用。而GPT-2的泛化能力就體現在,能夠讓模型應用到不同的任務,而不需要做專門的訓練。這也更符合人腦處理語言信息的過程,因為人腦既可以讀小說,也可以看新聞,能執行不同的語言處理任務,而且這種能力是相互關聯的。而人腦在獲取一個語句的信息時,這個信息是通用的,因此我們所期望的一個通用的語言模型,既可用于分類任務,也可以用于問答和常識推理等任務。

GPT-1和GPT-2的網絡結構對比:

圖片

GPT-1和GPT-2的網絡結構對比

模型參數

  • 48層transformer decoder + 1600維隱向量
  • Optimizer:Adam
  • 字典大?。?0257
  • tokens:1024
  • 在每一個self-attention之后都添加了Layer Normalization
  • 殘差層的初始化值用1/sqrt(N)進行縮放,N為殘差層個數

損失函數:

從損失函數可以看出,相比與GPT-1拋棄了對task的有監督微調損失部分,損失函數只針對語言模型的生成部分,開啟了NLG的新篇章。

優勢:

  • 更多的訓練語料;
  • 通用化設計:不定義模型應該做什么任務,模型會自動識別出來需要做什么任務;
  • 提出了zero-shot learning;

劣勢

  • 模型學習遠遠不夠,人類學習是不需要大量樣本的,且有能力做到融會貫通;
  • 不支持fine-tune;

3.3 GPT-3

2020年5月,GPT-3正式發布,GPT-3在訓練方式上創新性的引入了In-context學習(上下文學習),即在訓練模型時,在輸入的文本中加入一個或多個示例,引導模型輸出相對應內容。比如:“請把以下中文翻譯成英文:蘋果=>apple;自然語言處理的發展歷程”就是一個典型的帶有一個示例的輸入文本。而In-context學習包含了三種模式,分別為Zero-shotLearning(零樣本學習)、One-shotLearning(單樣本學習)和Few-shotLearning(少樣本學習),zero-shot就是沒有示例只給提示,one-shot是只給一個范例,few-shot則給多個范例,實際上zero-shot在表達方式上已經接近于人類的語言表達方式。In-context學習的優點在于,輸入規范化的語言模板,從人類的例子和類比中去學習,無需進行模型微調和數據標注,特別是大量的標注數據需要很高的人工成本。引入In-context學習后,從最終實際效果來看,GPT-3在few-shot上有非常強勁的表現,但同時one-shot和zero-shot的效果還不夠優秀。

圖片

GPT-3在Few-shot上有很好的表現

GPT-3參數量相較于GPT-2提升了兩個數量級,達到了1750億,數據集在處理前容量達到了45TB,成了真正意義上的超大語言模型。GPT-3在許多NLP任務上相較于GPT-2及其他語言模型有更多出色表現,特別是機器翻譯、聊天問答和文本填空。同時是在海量參數和訓練數據的支撐下,GPT-3的開始能夠完成一些比較困難的NLP任務,比如GPT-3也可以生成新聞報道和撰寫文章,并且很難將機器寫的文章與人類寫的辨別開來,甚至GPT-3在編寫SQL查詢語句,React或者JavaScript代碼也有十分優異的表現。而在GPT-3強大能力的背后是對算力的巨大消耗,GPT-3的計算量達到了BERT-base的上千倍,根據OpenAI公司披露數據,GPT-3的訓練費用超過1200萬美元,因此到這一階段就能看出,大語言模型逐漸成為了只有巨頭才能參與的游戲。

GPT-3 網絡結構圖:

圖片

GPT-3模型網絡結構圖

損失函數為:

  • 預訓練(無監督) + Fine-tune;
  • Meta-learning + 增加參數模型;
  • Sparse attention;
  • prompt learning,One-shot
  • Few-shot;
  • 典型代表模型:Davinci、Curie、Babbage、Ada;
  • 優先使用內置模型,one-shot、few-shot提升可靠性;

圖片

Zero-shot、One-shot和Few-shot的區別

缺點:

  • 生成長文本時存在自相矛盾、不合邏輯,在一些任務上沒有體現理解能力;
  • 模型太大,訓練不高效,缺乏解釋性,存在偏見;

GPT-3 應用到了更大的訓練數據,參數模型更是達到了1750億,并對GPT-3生成的多個結果進行人工標注,用強化學習將標注的結果進行再次學習,得到更加相對一致、準確的生成結果。

圖片

GPT-3引入人工標注結果

圖片

GPT-1、GPT-2和GPT-3的訓練數據和參數量級對比

3.4 ChatGPT

OpenAI公司在GPT-3與ChatGPT之間發布了多個迭代版本,其中包括:2021年7月推出了Codex系列;2022年1月,引入RLHF(基于人工反饋的強化學習)得到了InstructGPT;2022下半年,推出了融合Codex和InstructGPT的ChatGPT,使用了基于人類反饋的強化學習的版本指令微調模型。ChatGPT相較于GPT-3,不僅是在文本生成等方面展現出了非常強大的能力,與人類對話的智能感大幅提升,而且海量數據和參數的支撐下,模型在邏輯推理與思維鏈等方面能力開始涌現。ChatGPT可以完成許多相對復雜的語言任務,可以完成包括自動文本生成、自動問答、多輪對話等,并且能夠主動承認錯誤,質疑不正確的問題等。此外,ChatGPT還能編寫和調試計算機程序。

圖片

ChatGPT訓練流程

圖片

強化學習訓練流程

  • 來源于兄弟模型InstructGPT;
  • ChatGPT核心技術HFRL(Human Feedback Reinforcement Learning),本質就是如何把機器的知識與人的知識對齊;
  • 讓具備豐富世界知識的大模型,學習“人類偏好”;
  • 標注人員明顯感覺 InstructGPT 的輸出比 GPT-3 的輸出更好,更可靠;
  • PPO:Proximal Policy Optimization;
  • Prompt模式較Fine-tune更具生命力;

缺點:

  • 結果不穩定;
  • 推理能力有限;
  • 知識更新困難;

目前ChatGPT的應用主要包括:

  • 聊天機器人,可以使用ChatGPT來自由對話,使機器人能夠向用戶做出自然的回應;
  • 編寫和調試計算機程序;
  • 文學、媒體相關領域的創作,包括創作音樂、電視劇、童話故事、詩歌和歌詞等;
  • 教育、考試、回答測試問題;
  • 通過API結構集成到其他應用中,ChatGPT在推出后僅兩個月活躍用戶就達到了一個億,成為了史上用戶增長速度最快的消費級應用程序;

3.5 GPT-4

GPT-4于2023年3月份發布,相較于之前版本的GPT模型,在推理、文本生成、對話等方面有了大幅提升之外,GPT-4邁出了從語言模型向多模態模型進化的第一步。GPT-4最大的變化即能夠接受圖像的輸入,并且能夠生成文本語言,并且在看圖能力方面有讓人驚喜的表現的。同時可以處理超過25000字長文本,以及寫作能力的大幅提升,能夠編歌曲、寫劇本、學習用戶寫作風格,同時包括GRE、SAT等考試能力也有大幅提升。在基于機器學習模型設計的各項基準上評估GPT-4,GPT-4明顯優于現有的大型語言模型,以及大多數SOTA模型。

GPT-4訓練過程主要分為三個階段,如下圖:圖片

  • 第一階段:構建交叉注意力架構預訓練模型,收集數據并進行有監督策略精調;

GPT-4模型是基于GPT-3.5構建的,增加了視覺語言模型組件(在圖形Transformer階段完成的視覺預訓練模型)。為了預訓練模型在多模態領域進行初步調優,首先會在文本數據集和多模態數據集中抽取問題,由人類標注員,給出高質量答案,然后用這些人工標注好的數據來精調GPT-4初始模型。

  • 第二階段:訓練獎勵模型(RRM)和 基于規則的獎勵模型(RBRM);

首先基于安全規則設計基于規則的獎勵模型并完成驗證。這一模型與傳統NLP領域的規則模型設計方法一致。 然后在數據集中抽取問題,使用第一階段生成的模型,對于每個問題,生成多個不同的回答。人類標注者對這些結果綜合考慮給出排名順序。接下來,使用這個排序結果數據來訓練GPT-4的獎勵模型。對多個排序結果,兩兩組合,形成多個訓練數據對。RM模型接受一個輸入,給出評價回答質量的分數。這樣,對于一對訓練數據,調節參數使得高質量回答的打分比低質量的打分要高。這一過程類似于教練或老師輔導。

圖片

  • 第三階段:采用PPO強化學習來優化策略;

PPO的核心思路在于將Policy Gradient中On-policy的訓練過程轉化為Off-policy,即將在線學習轉化為離線學習,這個轉化過程被稱之為Importance Sampling。這一階段利用第二階段訓練好的獎勵模型和基于規則的獎勵模型,靠獎勵打分來更新預訓練模型參數。在GPT-4數據集中抽取問題,使用PPO模型生成回答,并用上一階段訓練好的RM+RBRM模型給出質量分數。把回報分數依次傳遞,由此產生策略梯度,通過強化學習的方式以更新PPO模型參數。

4、結語

大語言模型的出現,為我們提供了一種新的思路,即通過大規模預訓練和微調技術,讓模型具備更強大的語言理解能力,從而能夠應用于更多的NLP任務。未來,我們可以期待更加智能、靈活、高效的語言模型的出現,它們將會給我們帶來更多新的可能性和優秀的應用場景。

圖片

大語言模型發展時間軸

隨著Transformer的提出,近幾年大語言模型的發展迅猛,優秀代表如GPT系列模型的出現,將語言模型的發展提升到一個前所未有的高度。模型參數量級也在陡增,帶來了模型效果提升的同時,也引入了其他的問題。

  • 在未經大量語料訓練的領域缺乏“人類常識”和一本正經的“胡說八道”;
  • 無法處理復雜冗長或者專業性很強的語言結構;
  • 需要大量的算力來支持其訓練和預測;
  • 訓練成本極高,無法實時的融入新知識到大模型;
  • “黑盒模型”,對其能否產生攻擊性或者傷害性的表述,無法做出保證;
  • 存在幻覺和推理錯誤;
  • 泄露隱私的可能;
  • 事實檢索性和復雜計算性效果差,無法實現一些實時性、動態變化性的任務;

業界大佬對大模型的發展也都各持不同的觀點。圖片

5 、[1] A Neural Probabilistic Language Model

  • [2] Recurrent Neural Network Regularization
  • [3] Long Short-Term Memory
  • [4] Deep Contextual Word Embeddings
  • [5] Attention Is All Your Need
  • [6] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
  • [7] Improving Language Understanding by Generative Pre-Training
  • [8] Language Models are Unsupervised Multitask Learners
  • [9] Language Models are Few-shot Learners
  • [10] Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing
  • [11] Training language models to follow instructions with human feedback
  • [12] Proximal Policy Optimization Algorithms
  • [13] ChatGPT: Optimizing Language Models for Dialogue
  • [14] Deep Residual Learning for Image Recognition
責任編輯:龐桂玉 來源: 轉轉技術
相關推薦

2012-06-14 09:38:00

存儲虛擬化

2023-01-06 12:50:46

ChatGPT

2024-12-24 09:17:31

2017-10-25 13:23:36

互聯網產品推薦系統技術演進

2015-08-24 10:16:53

Google雷擊技術架構 分布式UPS

2016-11-18 12:13:04

數據技術雙11大數據

2025-03-31 08:15:00

LLM大型語言模型人工智能

2023-02-20 16:29:45

開發AI

2023-08-09 09:33:01

ChatGPT流式網絡

2023-11-23 19:26:43

2025-06-27 09:24:38

MCP服務器系統

2011-04-06 11:21:25

PHPPython

2022-12-27 09:10:38

ChatGPT技術邏輯

2012-05-11 14:10:21

Instagram技術

2019-10-29 16:08:41

物聯網RFID技術

2023-05-26 14:50:09

元宇宙ChatGPT

2023-05-06 15:19:58

元宇宙ChatGPT

2013-05-06 14:04:29

PON通信技術無源光網絡

2017-05-14 14:41:20

5G波束基站

2023-08-14 09:43:55

程序員開發
點贊
收藏

51CTO技術棧公眾號

久久久精品少妇| 日韩av一二三四| 午夜视频福利在线观看| 久久精品动漫| 久久影院资源网| 亚洲精品中文字幕在线播放| 精品国产欧美日韩一区二区三区| 18涩涩午夜精品.www| 国产专区一区二区| 97人妻人人澡人人爽人人精品| 亚洲久久视频| 久久久成人精品视频| 国产一级二级视频| 亚洲精品成人一区| 欧美小视频在线| 日本丰满大乳奶| 福利在线视频导航| 9人人澡人人爽人人精品| 国产区精品视频| 91精品国产综合久久久蜜臀九色| 亚洲综合激情在线| 在线成人激情视频| 香港三级日本三级| 日韩高清二区| 欧美日韩激情一区二区| 成年人免费在线播放| 成人性生交大片免费看网站| 国产精品久久精品日日| 欧美日本亚洲| 婷婷伊人综合中文字幕| 国产精品白丝av| 成人美女免费网站视频| 羞羞色院91蜜桃| 美女尤物久久精品| 18性欧美xxxⅹ性满足| 强行糟蹋人妻hd中文| 日韩欧美中字| 在线视频免费一区二区| 精品人妻一区二区三区香蕉| 91久久精品无嫩草影院| 91精品国产一区二区三区| 鲁一鲁一鲁一鲁一av| 91精品韩国| 色域天天综合网| 成人免费在线小视频| 福利在线免费视频| 婷婷久久综合九色综合伊人色| 男人c女人视频| 18加网站在线| 亚洲黄色av一区| 超级碰在线观看| 天堂av在线电影| 亚洲综合在线免费观看| 国产精品久久久影院| 在线观看午夜av| 一区二区日韩电影| 国产www免费| 丝袜诱惑一区二区| 欧美性猛交xxxx富婆弯腰| 99精品在线免费视频| 在线观看欧美日韩电影| 色先锋aa成人| 粉色视频免费看| 麻豆国产一区| 欧美精品一区二区三区蜜臀| 亚洲天堂2024| 九九久久婷婷| 综合网日日天干夜夜久久| 后入内射无码人妻一区| 亚洲v在线看| 欧美黑人xxxx| 日日骚av一区二区| 麻豆国产欧美一区二区三区| 91精品啪在线观看麻豆免费| 精品国产伦一区二区三区| 成人免费高清视频| 欧美日韩一区二区三| av播放在线| 一区二区三区高清在线| 亚洲熟妇av一区二区三区漫画| 伊人网在线播放| 欧美日韩国产电影| 成人做爰69片免费| 国产欧美日韩免费观看| 色偷偷亚洲男人天堂| 99久久婷婷国产综合| 亚洲大胆视频| 国产精品女人久久久久久| www.日韩在线观看| 久久久亚洲精品一区二区三区 | 亚洲高清影视| 国内精品国产三级国产在线专| 波多野结衣啪啪| 国产一区二区调教| 免费精品视频一区| 成人av免费| 欧美日韩在线看| 日韩不卡的av| 嫩草一区二区三区| 欧美激情一级二级| 国产九色91回来了| 99在线精品观看| 一区精品在线| 欧美电影网站| 精品久久久三级丝袜| 性猛交娇小69hd| 在线观看日韩av电影| 国产精品永久在线| 天堂网在线中文| 亚洲桃色在线一区| 成人性做爰aaa片免费看不忠| 国产一区 二区| 一本一道久久a久久精品逆3p| 久久久久久激情| 九九九久久久精品| 日本高清视频一区二区三区| www在线看| 91精品国产欧美日韩| 人人人妻人人澡人人爽欧美一区| 影音先锋一区| 亚洲一区二区久久久久久| 国产大学生校花援交在线播放| 亚洲图片欧美一区| 日本中文字幕在线不卡| 日韩成人综合| 日本高清视频一区| 五月天婷婷在线播放| 亚洲一区在线看| 色噜噜狠狠一区二区三区狼国成人| 国产精品亚洲二区| 日本一区二区三区在线播放| 神宫寺奈绪一区二区三区| 亚洲激情av在线| 992tv人人草| 久久国产成人精品| 国产免费一区二区三区在线能观看 | 精品欧美黑人一区二区三区| 男人av资源站| 久久99国产精品麻豆| 性欧美精品一区二区三区在线播放 | 国产一区二区精品福利地址| 琪琪第一精品导航| 日韩美女一级视频| 欧美午夜女人视频在线| 久久国产精品影院| 久久久精品网| 日韩精品久久一区| 国产麻豆一区| 久久大大胆人体| 国产成人精品一区二区无码呦| 亚洲女子a中天字幕| 三级黄色片播放| 欧美日韩mv| 九色综合日本| 欧美亚洲大片| 久久久国产成人精品| 国产成人精品一区二三区四区五区| 亚洲美女屁股眼交| 69xxx免费视频| 亚洲欧美日韩国产一区二区| 欧美日韩亚洲一区二区三区四区| 日本一区免费网站| 久久久精品一区二区| 国产极品久久久| 午夜日韩在线电影| www.av天天| 国产一区二区三区香蕉| 欧洲精品在线播放| 亚洲aaa级| 国产精品丝袜久久久久久高清| 在线观看黄av| 精品三级在线观看| 中文字幕在线看人| 亚洲女爱视频在线| 三级电影在线看| 麻豆成人av在线| 六月婷婷激情综合| 一本色道久久综合亚洲精品酒店| 国产精品第2页| av免费在线免费| 日韩黄在线观看| 国产精品久久久午夜夜伦鲁鲁| 亚洲午夜免费福利视频| 久久精品无码一区| 国产黄色91视频| www.日日操| 欧美激情自拍| 日韩高清三级| 97色成人综合网站| 国产精品日韩在线播放| 波多一区二区| 中文字幕亚洲欧美一区二区三区| 亚洲国产成人在线观看| 91福利国产成人精品照片| 欧美成人国产精品高潮| 久久久久久久久久电影| av地址在线观看| 蜜臀av性久久久久蜜臀av麻豆| 欧美黄网在线观看| 久久精品国产www456c0m| 精品国产乱码久久久久久蜜柚| 激情久久99| 2020久久国产精品| 天堂8中文在线| 国产亚洲激情在线| 香蕉国产在线视频| 日韩欧美一级精品久久| 怡红院男人天堂| 欧美日韩国产一区在线| 蜜桃av免费观看| 国产拍欧美日韩视频二区| 成人在线视频免费播放| 国产一区在线精品| av在线网址导航| 日韩精品视频网站| 日本三级免费网站| 极品少妇一区二区三区| 艳母动漫在线观看| 成人情趣视频网站| 日韩欧美三级一区二区| 色婷婷精品视频| 国产乱码一区| 亚洲精品一二三**| 91久久久久久久久久久久久| 国产日韩另类视频一区| 欧美亚洲视频在线看网址| av美女在线观看| 欧美激情在线观看视频| 天堂av中文在线| 欧美激情视频网址| 在线观看中文字幕的网站| 久久天天躁狠狠躁夜夜爽蜜月| 东凛在线观看| 在线观看久久av| 成年人在线观看网站| 亚洲欧美综合精品久久成人| 视频在线不卡| 国产视频亚洲精品| 日本一区视频| 国产一区二区三区视频在线观看| 九九九伊在人线综合| 亚洲无av在线中文字幕| 福利在线午夜| 日韩在线播放一区| av文字幕在线观看| 欧美福利视频在线观看| 欧美人体视频xxxxx| 欧美极品第一页| 日本不卡网站| 国产成人久久精品| 国产精品毛片久久久久久久久久99999999| 国产成人aa精品一区在线播放| 亚洲欧美小说色综合小说一区| 欧洲成人午夜免费大片| 日韩欧美精品电影| 国产一区二区在线免费| 国产精品美女久久久久人| 99re视频| 五月激激激综合网色播| 欧美精品一区二区三区在线四季| 欧美色就是色| 中文字幕日韩精品久久| 国产精品地址| 91传媒久久久| 老司机免费视频一区二区| 天堂在线精品视频| www.亚洲色图| 蜜桃久久精品成人无码av| 亚洲欧洲日韩一区二区三区| 午夜精品福利在线视频| 亚洲h在线观看| 一区二区视频网| 日韩欧美综合一区| 欧美日韩伦理片| 精品激情国产视频| 国产激情在线播放| 国产精品自产拍在线观看| 亚洲一区二区三区中文字幕在线观看 | 三级在线观看网站| 国产亚洲精品久久久久动| 国产乱色在线观看| 欧美专区中文字幕| 电影一区中文字幕| 免费av一区二区三区| 午夜久久免费观看| 黄色动漫网站入口| 麻豆国产一区二区| 亚洲欧美日本一区| 中文字幕日韩精品一区| 亚洲激情视频一区| 欧美精品高清视频| 天堂av在线免费观看| 久久久国产精品一区| 热色播在线视频| 亚洲综合av影视| 精品国产99| aa视频在线播放| 久草在线在线精品观看| 全黄一级裸体片| 亚洲精品欧美激情| 中文字幕av久久爽| 日韩精品www| 欧美性video| 国产综合久久久久| 久久av导航| 成人一对一视频| 国产麻豆91精品| 婷婷综合在线视频| 色综合色狠狠天天综合色| 韩国av电影在线观看| 日韩最新在线视频| 亚洲人免费短视频| 精品一区2区三区| 欧美视频久久| 亚洲高清视频免费| 中文av一区二区| 91视频久久久| 日韩精品福利网站| 成人福利影视| 成人激情av| 伊人情人综合网| 中文字幕第一页在线视频| 欧美国产成人精品| 亚洲欧美另类在线视频| 亚洲精品久久久久久久久久久久 | 欧美一区二区三区在线观看免费| 清纯唯美亚洲综合| 色天下一区二区三区| 黄色一级片在线看| 丁香另类激情小说| 久久久久黄色片| 精品国产成人系列| xxxx成人| 国产伦精品一区二区三区高清| 欧美精品aa| 免费黄色a级片| 亚洲国产三级在线| 蜜桃av中文字幕| 久久久视频精品| 国产图片一区| 91视频 -- 69xx| 91一区二区在线| 日日噜噜噜噜人人爽亚洲精品| 亚洲精品丝袜日韩| 日韩影片中文字幕| 日韩精品一区二区三区外面| 日本亚洲免费观看| 蜜桃av.com| 日韩一区二区在线观看视频播放| 亚洲91av| 国产精品一区在线播放| 国产欧美不卡| 国产精品密蕾丝袜| 欧美丝袜自拍制服另类| 日本天堂在线观看| 亚洲a区在线视频| 激情综合久久| 美国黄色a级片| 欧美性视频一区二区三区| 久草免费在线| av蓝导航精品导航| 国产色综合网| 性爱在线免费视频| 日韩欧美国产麻豆| 一个人看的www视频在线免费观看| 日韩一二三区不卡在线视频| 毛片av中文字幕一区二区| 性色av无码久久一区二区三区| 精品乱人伦小说| 免费成人动漫| 吴梦梦av在线| 91在线观看地址| 亚洲手机在线观看| 久久久日本电影| 日本久久黄色| 亚洲精品乱码久久久久久蜜桃欧美| 欧美日韩国产色| 午夜在线免费观看视频| av资源一区二区| 青青国产91久久久久久| 麻豆疯狂做受xxxx高潮视频| 亚洲欧美激情另类校园| 99er精品视频| 国产熟女高潮视频| 亚洲女与黑人做爰| 精品成人一区二区三区免费视频| 91久久精品视频| 久久综合导航| 青娱乐国产在线视频| 亚洲精品一区中文字幕乱码| 精品国模一区二区三区欧美| 无码精品a∨在线观看中文| 中文字幕一区二区视频| 天堂网av在线播放| 91在线视频一区| 蜜乳av另类精品一区二区| 成年人一级黄色片| 在线精品播放av| 日本中文字幕在线一区| 捷克做爰xxxⅹ性视频|