精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

一文詳解大語言模型的流行架構與訓練技術

發布于 2024-7-3 09:55
瀏覽
0收藏

這篇博客全面介紹了大型語言模型(LLMs)的構建流程,從流行架構的選擇到實際建模的每個關鍵步驟。文章首先探討了LLMs的模型架構,然后詳細闡述了數據準備過程,包括數據的收集、清洗和去重,接著是關于如何進行有效標記化的討論。在模型構建方面,博客詳細解釋了采用自監督學習方法的預訓練過程,以及對模型進行指令微調和對齊的重要性。每個環節都被細致地講解,使讀者能夠深入理解LLMs的構建和優化過程。這篇博客為那些對LLMs工作方式感興趣的讀者提供了一個指導。

訓練流程示意

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

1. 主流的LLM架構

  • 常見架構類型:最廣泛使用的LLM架構包括僅編碼器、僅解碼器和編碼器-解碼器。
  • 基礎架構:大多數LLM架構都基于Transformer(Transformer)作為構建模塊。
  • Transformer架構回顧:因此,我們也將在這里回顧Transformer架構。

Transformer

  • 開創性工作:Vaswani等人提出Transformer框架,具有里程碑的意義,最初設計用于使用GPU進行有效的并行計算。
  • 核心機制:Transformer的核心是(自)注意力機制,相比遞歸和卷積機制,它能夠更有效地利用GPU捕捉長期上下文信息。
  • Transformer語言模型架構:最初為機器翻譯提出的Transformer語言模型架構,包括一個編碼器和一個解碼器。編碼器由N=6個相同的Transformer層堆疊組成。每層有兩個子層:第一個是多頭自注意力層,另一個是簡單的逐位置全連接前饋網絡。解碼器由6個相同的層堆疊組成。除了編碼器層中的兩個子層外,解碼器還有第三個子層,它對編碼器堆棧的輸出執行多頭注意力。注意力函數可以描述為將查詢和一組鍵值對映射到一個輸出,其中查詢、鍵、值和輸出都是向量。輸出計算為值的加權和,其中每個值的權重由查詢與相應鍵的兼容性函數計算得出。與執行一個具有dmodel維鍵、值和查詢的單一注意力函數不同,發現將查詢、鍵和值h通過不同的學習線性投影分別映射到dk、dk和dv維是有益的。位置編碼被加入以融合有關序列中標記的相對或絕對位置的信息。

僅編碼器架構

  • 注意力層特點:在這個家族的模型中,每個階段的注意力層都能訪問初始句子中的所有詞語。
  • 預訓練方法:這些模型的預訓練通常包括以某種方式破壞給定句子(例如,通過掩蓋句子中隨機的單詞),然后讓模型找出或重構初始句子。
  • 適用任務:編碼器模型非常適合需要理解整個序列的任務,如句子分類、命名實體識別和抽取式問答。
  • 代表模型:一個突出的僅編碼器模型是BERT(Bidirectional Encoder Representations from Transformers。

僅解碼器架構

  • 注意力層特點:對于這些模型,每個階段的注意力層只能訪問句子中該詞之前的詞語。這些模型有時也被稱為自回歸模型。
  • 預訓練方法:這些模型的預訓練通常被構建為預測序列中的下一個詞(或標記)。
  • 適用任務:僅解碼器模型最適合涉及文本生成的任務。GPT模型是這一類別的突出例子。

編碼器-解碼器架構

  • 架構特點:這些模型使用編碼器和解碼器,有時被稱為序列到序列模型。在每個階段,編碼器的注意力層可以訪問初始句子中的所有詞語,而解碼器的注意力層只訪問輸入中給定詞之前的詞語。
  • 預訓練目標:這些模型通常使用編碼器或解碼器模型的目標進行預訓練,但通常涉及更復雜的內容。例如,一些模型通過用單個掩碼特殊詞替換文本中的隨機文本跨度(可能包含幾個詞)進行預訓練,目標是預測這個掩碼詞替換的文本。
  • 適用任務:編碼器-解碼器模型最適合涉及基于給定輸入生成新句子的任務,如摘要、翻譯或生成式問答。

2. 數據清理

  • 數據清理的重要性:數據質量對于基于其訓練的語言模型的性能至關重要。數據清理技術,如過濾和去重,已被證明對模型性能有很大影響。
  • 實例研究:作為一個例子,在Falcon40B中,Penedo等人展示了經過適當過濾和去重的網絡數據單獨可以構建強大的模型,甚至在性能上顯著超過在The Pile上訓練的最先進模型。盡管進行了廣泛過濾,他們仍然從CommonCrawl獲取了五萬億個標記。他們還發布了來自REFINEDWEB數據集的6000億標記的提取物,以及在此基礎上訓練的1.3/7.5B參數語言模型。
  • 數據精煉過程示意

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

圖:宏觀數據精煉的后續階段剔除了最初在CommonCrawl中的近90%文檔。

2.1 數據過濾

數據過濾的目的是提高訓練數據的質量和訓練數據的有效性。常見的數據過濾技術包括:

  • 去除噪聲:指消除可能影響模型良好泛化能力的無關或噪聲數據。例如,可以考慮從訓練數據中刪除錯誤信息,以降低模型生成錯誤回應的可能性。質量過濾的兩種主流方法包括:基于分類器的和基于啟發式的框架。
  • 處理離群值:識別并處理數據中的離群值或異常,以防止它們對模型產生不成比例的影響。
  • 處理數據不平衡:平衡數據集中類別或類別的分布,避免偏見,確保公平代表性。這對于負責任的模型訓練和評估特別有用。
  • 文本預處理:通過去除停用詞、標點符號或可能不會顯著貢獻于模型學習的其他元素,來清潔和標準化文本數據。
  • 處理模糊性:解決或排除可能在訓練過程中混淆模型的模糊或矛盾數據。這可以幫助模型提供更確定和可靠的答案。

2.2 數據去重

  • 去重的意義:去重指的是移除數據集中的重復實例或重復出現的相同數據的過程。重復的數據點可能會在模型訓練過程中引入偏見,并減少多樣性,因為模型可能多次從相同的示例中學習,可能導致對那些特定實例的過擬合。
  • 改善泛化能力:去重改善了模型對新的、未見過的數據的泛化能力。
  • 大數據集中的重要性:在處理大型數據集時,去重尤其重要,因為重復數據可能無意中放大了某些模式或特征的重要性。這在NLP任務中尤其相關,因為多樣化和具有代表性的訓練數據對于構建健壯的語言模型至關重要。
  • 具體方法:具體的去重方法可能根據數據的性質和特定語言模型的訓練需求而有所不同。它可能涉及比較整個數據點或特定特征來識別和消除重復數據。在文檔層面,現有工作主要依賴于文檔之間高級特征(例如n-gram重疊)的重疊比率來檢測重復樣本。

3 分詞

  • 基本概念:分詞是將文本序列轉換成稱為標記的更小部分的過程。盡管最簡單的分詞工具僅基于空格將文本切分成標記,但大多數分詞工具依賴于詞典。
  • 詞典外問題(OOV):在這種情況下,詞典外(out-of-vocabulary,OOV)問題是一個挑戰,因為分詞器只能識別其詞典中的詞匯。
  • 增加詞典覆蓋率:為了增加詞典的覆蓋率,用于LLMs的流行分詞器基于子詞,這些子詞可以組合形成大量詞匯,包括訓練數據中未出現的詞匯或不同語言的詞匯。
  • 流行分詞器簡介:以下將描述三種流行的分詞器。

3.1 BytePairEncoding(字節對編碼)

  • 算法起源:BytePairEncoding最初是一種數據壓縮算法,使用字節級別的頻繁模式來壓縮數據。
  • 算法特點:該算法主要嘗試保持頻繁出現的單詞的原始形式,并分解不常見的單詞。這種簡單的范式使得詞匯表不會很大,同時也足以代表常見單詞。如果訓練數據中的后綴或前綴也常見,則頻繁單詞的形態變化也可以很好地表示。

3.2 WordPieceEncoding(詞片編碼)

  • 應用模型:這種算法主要用于眾所周知的模型,如BERT和Electra。
  • 訓練過程:在訓練開始時,算法取訓練數據中的所有字母表,確保沒有任何內容會被標記為UNK(未知)。
  • 算法特點:當模型給出一個無法由標記器標記的輸入時,會出現這種情況。這種情況多發生在某些字符無法被標記時。與BytePairEncoding類似,它嘗試根據頻率最大化將所有標記放入詞匯表的可能性。

3.3 SentencePieceEncoding(句子片編碼)

  • 與前兩者對比:盡管前兩種標記器強大且與空白標記相比有許多優勢,它們仍然假設單詞總是由空格分隔。這個假設并非總是成立,在某些語言中,單詞可能會被不需要的空格或甚至是捏造的單詞等噪聲元素破壞。
  • 解決問題:SentencePieceEncoding試圖解決這個問題。

4. 位置嵌入

4.1 絕對位置嵌入(Absolute Positional Embeddings, APE)

  • 原理與應用:APE用于原始Transformer模型,以保留序列順序信息。因此,單詞的位置信息被添加到編碼器和解碼器堆棧底部的輸入嵌入中。
  • 位置編碼的選擇:位置編碼有多種選擇,可以是學習的或固定的。在標準Transformer中,使用正弦和余弦函數來實現這一目的。
  • 主要缺點:使用APE的主要缺點是限制了特定數量的標記。此外,APE無法考慮標記之間的相對距離。

4.2 相對位置嵌入(Relative Positional Embeddings, RPE)

  • 方法和實現:RPE通過擴展自注意力來考慮輸入元素之間的成對鏈接。RPE在兩個層面上被添加到模型中:首先作為鍵的額外組成部分,然后作為值矩陣的子組成部分。
  • 輸入視角:這種方法將輸入視為一個帶標簽和有向邊的完全連接圖。在線性序列的情況下,邊可以捕獲輸入元素之間相對位置差異的信息。
  • 剪輯距離:剪輯距離k()指定了相對位置的最大限制。這允許模型對訓練數據中未包含的序列長度進行合理預測。

4.3 旋轉位置嵌入(Rotary Position Embeddings, RoPE)

  • 解決問題:RoPE解決了現有方法的問題。學習的絕對位置編碼在句子短時可能缺乏泛化性和意義。此外,當前方法如T5的位置嵌入在構建位置之間的完整注意力矩陣方面面臨挑戰。
  • 實現方法:RoPE使用旋轉矩陣來編碼單詞的絕對位置,并在自注意力中同時包含顯式的相對位置細節。
  • 特點:RoPE帶來了一些有用的特性,如靈活應對句子長度、隨著相對距離的增加降低詞匯依賴性,以及通過相對位置編碼改善線性自注意力的能力。GPT-NeoX-20B、PaLM、CODEGEN和LLaMA等模型在其架構中利用了RoPE。

4.4 相對位置偏置(Relative Positional Bias)

  • 背景與概念:這種類型的位置嵌入旨在在推理過程中為比訓練中遇到的序列更長的序列提供外推。
  • 實現方法:Press等人提出了帶線性偏置的注意力(ALiBi)。他們不是簡單地將位置嵌入添加到詞嵌入中,而是為查詢鍵對的注意力分數引入偏置,根據它們的距離施加比例懲罰。BLOOM模型中利用了ALiBi。

5. 模型預訓練

預訓練是大型語言模型訓練流程的第一步,幫助LLMs獲得基本的語言理解能力,適用于廣泛的語言相關任務。在預訓練期間,LLM通常在大量(通常是未標記的)文本上以自監督的方式進行訓練。預訓練的方法有多種,包括下一句預測,最常見的兩種包括下一個標記預測(自回歸語言建模)和遮蔽語言建模。

5.1 自回歸語言建模

  • 定義與方法:在這種框架下,給定n個標記的序列,模型試圖以自回歸方式預測下一個標記(有時是下一序列的標記)。
  • 損失函數:這種情況下常用的損失函數是預測標記的對數似然:

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

  • 適用性:由于框架的自回歸特性,僅解碼器模型更適合學習完成這些任務。

5.2 遮蔽語言建模

  • 定義與方法:在這種方法中,序列中的一些詞被遮蔽,模型訓練預測基于周圍上下文的遮蔽詞。有時也被稱為去噪自編碼。
  • 訓練目標:如果將序列x中被遮蔽/損壞的樣本表示為,該方法的訓練目標可以表示為:
  • 一文詳解大語言模型的流行架構與訓練技術-AI.x社區

5.3 專家混合(Mixture of Experts, MoE)

  • 最近趨勢:MoE近來在LLM領域也變得非常流行,它允許模型以較少的計算進行預訓練,意味著可以在相同的計算預算下顯著擴大模型或數據集的規模。
  • 主要元素:
  • 稀疏MoE層:代替密集前饋網絡(FFN)層使用,擁有一定數量的“專家”(例如8個),每個- 專家都是一個神經網絡。實踐中,專家通常是FFN,但也可以是更復雜的網絡。
  • 門控網絡或路由器:決定哪些標記發送給哪個專家。一個標記可以發送給多個專家。路由標記至專家的決策至關重要,路由器由學習的參數組成,并與網絡的其余部分同時進行預訓練。
  • 圖示說明:下圖展示了MoE中使用的Switch Transformer編碼器塊。

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

圖:Switch Transformer編碼器塊示意圖。它們用稀疏Switch FFN層(淺藍色)替換了Transformer中的密集前饋網絡(FFN)層。

6. 微調和指令微調

微調和指令微調是大型語言模型訓練流程中的重要步驟,這些技術展示了微調和指令微調在提高LLMs性能、提升模型適應特定任務和遵循指令的能力方面的關鍵作用。

6.1 微調

  • 概念與應用:早期語言模型如BERT使用自監督學習,但無法執行特定任務。為使基礎模型實用,需要使用帶標簽的數據針對特定任務進行微調(監督式微調,SFT)。例如,在BERT原論文中,模型被微調以適應11種不同任務。
  • 微調的影響:盡管最新的LLMs不再需要微調即可使用,但它們仍可從特定任務或數據的微調中受益。如GPT-3.5 Turbo在特定任務數據微調后,性能可超過GPT-4。

6.2 指令微調

  • 目的與方法:為使LLMs的響應符合通過提示給出的指令期望,進行指令微調非常重要。這被稱為指令微調。例如,Natural Instructions數據集包含任務定義、正/負示例或需避免事項等組件。
  • 效果與比較:通常,經過指令微調的模型性能優于它們基于的原始基礎模型。例如,InstructGPT在大多數基準測試上優于GPT-3。

6.3 Self-Instruct方法

  • 框架與實現:Wang等人提出的Self-Instruct方法,通過引導自身生成來提高預訓練語言模型的指令遵循能力。其流程包括從語言模型生成指令、輸入和輸出樣本,然后過濾掉無效或相似的樣本,用于微調原始模型。

7. 對齊

7.1 對齊

AI對齊是指引導AI系統朝向人類的目標、偏好和原則的過程。預訓練的LLMs,雖然針對詞預測,但經常會展現出非預期行為,如生成有毒、有害、誤導性和帶有偏見的內容。

7.2 指令微調

指令微調是使LLMs更接近對齊的一步。然而,在許多情況下,還需要進一步的步驟來改善模型的對齊,避免非預期行為。最新研究表明,除SFT外的進一步對齊主要改善至少7B參數的模型。對于較小的模型,SFT已足夠。以下是最流行的對齊方法:

7.3 RLHF和RLAIF

  • RLHF:基于人類反饋的強化學習(RLHF)使用獎勵模型從人類反饋中學習對齊。經調整后的獎勵模型能夠根據人類給出的對齊偏好評分不同輸出,并將反饋用于進一步調整LLM。
  • RLAIF:基于AI反饋的強化學習(RLAIF)將預訓練且良好對齊的模型直接連接到LLM,幫助它從更大和更對齊的模型中學習。

7.4 DPO

  • 方法與效果:Rafailov等人提出的DPO方法針對RLHF的復雜性和不穩定性提出了新的解決方案。他們使用獎勵函數和最優策略之間的映射,表明可以通過單階段的策略訓練精確優化受限獎勵最大化問題,本質上在人類偏好數據上解決分類問題。DPO方法穩定、高效、計算輕量,無需擬合獎勵模型、在微調期間采樣或進行大量超參數調整。DPO微調在控制生成情感和提高摘要響應質量方面超過了RLHF。

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

圖:DPO優化人類偏好,避免強化學習。現有方法首先對人類反饋數據集中的提示和對響應對的人類偏好進行獎勵模型擬合,然后使用RL找到最大化學習獎勵的策略。相比之下,DPO直接針對最佳滿足偏好的策略進行優化,具有簡單的分類目標,無需顯式獎勵函數或RL。

7.5 KTO

  • 方法與優勢:Ethayarajh等人提出的Kahneman-Tversky優化(KTO)方法,不需要成對偏好數據,只需(x,y)和知識判斷y是可取還是不可取。KTO對齊的模型在1B到30B的規模上表現良好,盡管沒有使用成對偏好。KTO更適用于現實世界,因為所需數據類型更加豐富。例如,每家零售公司都有大量客戶互動數據以及這些互動是成功(例如,購買)還是失敗(例如,未購買)。但他們幾乎沒有反事實數據(即,如何將不成功的客戶互動轉變為成功的)。

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

圖:LLM對齊涉及監督微調,然后優化以人為中心的損失(HALO)。然而,現有方法需要的成對偏好數據難以獲取。相比之下,KTO使用一種更加豐富的數據類型,使其在現實世界中更易于使用。

8. 解碼策略

解碼是指使用預訓練的LLMs進行文本生成的過程。在處理輸入提示后,標記器將文本中的每個標記轉換為相應的標記ID。語言模型隨后使用這些ID預測下一個最可能的標記或標記序列。最后,模型產生邏輯值,通過softmax函數轉換為概率。已經開發了多種解碼策略,包括Greedy Search、Beam Search以及Top-K和Top-P (Nucleus sampling)等采樣技術。

8.1 Greedy Search

  • 方法:Greedy Search在每一步選擇最可能的標記作為序列中的下一個標記,舍棄所有其他選擇。
  • 特點與局限:這是一種簡單的方法,但可能會丟失時間上的連貫性和一致性。Greedy Search只考慮每一步最可能的標記,忽視了對整體序列的影響。雖然快速,但它可能錯過更好的序列,這些序列可能會出現在稍不那么可能的后續標記中。

8.2 Beam Search

  • 方法:與只考慮下一個最可能標記的Greedy Search不同,Beam Search在每一步考慮了N個最可能的標記,其中N是束的數量。
  • 特點:例如,對于束大小為2且最大長度為5的情況,Beam Search需要跟蹤 個可能的序列。因此,它比Greedy Search更耗費計算資源。

8.3 Top-K采樣

  • 方法:Top-K采樣使用語言模型生成的概率分布,從k個最可能的選項中隨機選擇一個標記。
  • 實現與隨機性:假設有6個標記(A, B, C, D, E, F),k=2,且P(A)=30%,P(B)=20%,P(C)等于P(D)、P(E)和P(F)的12.5%。在Top-K采樣中,C、D、E、F被忽略,模型輸出A的概率為60%,B的概率為40%。這種方法在選擇過程中引入了隨機性,同時優先考慮最可能的標記。<scripttpe = "math/tex;mode=display">  溫度參數T影響softmax函數生成的概率,使得最可能的標記更具影響力。低溫度設置顯著改變概率分布,高溫度優先考慮概率較高的標記。

8.4 Top-P采樣

  • 方法與特點:Top-P采樣(也稱為Nucleus采樣)采用與Top-K不同的方法。它選擇一個截斷值p,使得選定標記的概率之和超過p,形成一個“核心”,從中隨機選擇下一個標記。這種方法在Top-K標記不具有大概率質量的情況下可能更好。
  • 變化性與多樣性:與Top-K不同,Nucleus采樣中包含的標記數量不固定,這種變化性通常導致更多樣化和創造性的輸出,使Nucleus采樣在文本生成任務中受歡迎。

9. 費效比優化訓練/推理/適應/壓縮

在這部分中,我們回顧了一些用于更經濟、更高效計算地訓練和使用LLMs的流行方法。

9.1 優化訓練

為了更經濟、更高效地訓練LLMs,已經開發了許多框架。這些優化訓練框架有助于更經濟高效地訓練和使用LLMs,降低成本的同時保持或提升性能。這里我們介紹一些主要的框架。

ZeRO

  • 概述:Rajbhandari等人開發了Zero Redundancy Optimizer(ZeRO),旨在優化內存,顯著提高LLMs的訓練速度,同時增加可以高效訓練的模型大小。
  • 優勢:ZeRO消除了數據和模型并行訓練中的內存冗余,同時保持了低通信量和高計算粒度。它允許按比例擴大模型大小以適應設備數量,保持高效率。

RWKV

  • 概述:Peng等人提出了Receptance Weighted Key Value(RWKV),結合了Transformers的高效并行訓練和RNNs的高效推理。
  • 技術細節:RWKV利用線性注意力機制,可以作為Transformer或RNN進行構建,在訓練期間實現并行計算,在推理期間保持恒定的計算和內存復雜度。
  • 架構及時間復雜度比較

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

RWKV架構

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

RWKV與不同Transformers的時間復雜度比較

9.2 低秩適應(LoRA)

  • 概述:低秩適應是一種流行且輕量級的訓練技術,顯著減少了可訓練參數的數量,基于關鍵洞察:針對特定任務微調的權重與初始預訓練權重之間的差異通常表現為“低內在秩”。
  • 實現與優勢:使用LoRA訓練更快、更節省內存,產生更小的模型權重,易于存儲和共享。LoRA基于低秩矩陣可以表示為兩個較小矩陣的乘積這一事實,通過專注于更新這兩個較小矩陣而非整個原始權重矩陣,顯著提高了計算效率。
  • 技術細節:對于預訓練的權重矩陣,LoRA通過低秩分解約束其更新:,其中,,且秩。在訓練期間,被凍結,而和包含可訓練參數。
  • 重參數化示意

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

圖:LoRA的重參數化過程。

9.3 知識蒸餾

  • 概述:知識蒸餾是從更大模型中學習的過程,通過將多個模型的知識蒸餾到一個更小的模型中,創建可在邊緣設備上使用的更小模型。
  • 蒸餾方法:知識蒸餾通常包括響應蒸餾、特征蒸餾和API蒸餾。響應蒸餾專注于教師模型的輸出,教導學生模型執行類似的操作;特征蒸餾使用中間層,以便為學生模型創建更好的內部表示;API蒸餾是使用API訓練更小的模型,類似于響應蒸餾。
  • 蒸餾框架示意

一文詳解大語言模型的流行架構與訓練技術-AI.x社區

圖:具有學生和教師的通用知識蒸餾框架。

9.4 量化

量化是減少模型大小和提升運算速度的關鍵技術。在深度學習的核心,是一系列應用于具有特定精度的模型權重的數學函數。降低權重的精度可以用于減小模型大小,并使其運算更快。例如,與Int-8操作相比,Float-32操作更慢。量化可以在不同階段應用。

主要量化方法:

  • 分類:模型量化的主要方法可分為訓練后量化和量化感知訓練。
  • 訓練后量化:關注于量化訓練好的模型,有兩種著名方法:動態和靜態。動態訓練后量化在運行時計算量化范圍,與靜態相比較慢。
  • 量化感知訓練:在訓練過程中加入量化標準,訓練和優化一個量化模型。這種方法確保最終模型具有良好性能,且不需要在訓練后進行量化。

結束語

到這里關于LLMs的流行架構與訓練技術的介紹就要接近尾聲了, 這個博客是大語言模型教程系列的第六篇,之后會陸續把大語言模型相關的知識點做更多的整理,在本次大語言模型的探索之旅的尾聲,感謝每位朋友的陪伴,我是@APlayBoy,期待與您一起在AI的世界里不斷成長!


本文轉自 AI生成未來 ,作者:APlayBoy


原文鏈接:??https://mp.weixin.qq.com/s/I-P_RuErXfJAc9KrzMGlOA??


本文轉自 AI生成未來 ,作者:APlayBoy


原文鏈接:??https://mp.weixin.qq.com/s/I-P_RuErXfJAc9KrzMGlOA??

標簽
收藏
回復
舉報
回復
相關推薦
国产精品国产亚洲伊人久久| 亚洲高清久久网| 一本二本三本亚洲码| 99这里有精品视频| 亚洲一区二区成人| 中文字幕欧美日韩精品| 三级网站免费看| 亚洲国产成人二区| 亚洲三级久久久| 久久久7777| 国产永久免费视频| 国产精品www.| 少妇高潮久久久久久潘金莲| 欧美性生交xxxxx| 日韩毛片在线| 无码av免费一区二区三区试看| 先锋在线资源一区二区三区| 丰满熟妇乱又伦| 蜜臀91精品一区二区三区| 欧美极品在线播放| 2017亚洲天堂| 九九综合在线| 亚洲国产高清福利视频| 午夜免费看毛片| 日韩性xxx| 亚洲成a人在线观看| 正在播放精油久久| 精品成人一区二区三区免费视频| 国产成人免费在线视频| 国产欧美精品在线| 中文精品久久久久人妻不卡| 99精品视频免费| 久久999免费视频| 国产又色又爽又高潮免费| 亚洲69av| 亚洲福利在线观看| 高清中文字幕mv的电影| 欧美成人精品午夜一区二区| 欧美丝袜第三区| 日韩a在线播放| mm视频在线视频| 亚洲综合色噜噜狠狠| 日韩不卡一二区| 老司机精品视频在线观看6| 久久精品视频在线免费观看| 九色91国产| 天天干,夜夜操| 99视频热这里只有精品免费| 99视频在线| 性做久久久久久久久久| 国产激情一区二区三区四区 | 国产成人精品免费网站| 成人自拍性视频| 国产一区二区三区视频免费观看| 免费在线欧美视频| 国产精品嫩草影院一区二区| 国产精品国产精品国产| 日韩av网站免费在线| 国产成人在线一区| 波多野结衣激情视频| 日韩福利视频网| 国产精品久久久久久久久久99| 亚洲国产av一区二区三区| 久热re这里精品视频在线6| 青青在线视频一区二区三区| 天天干天天操天天操| 日日欢夜夜爽一区| 国产精品视频久久| 国产人妻精品一区二区三| 国产激情一区二区三区桃花岛亚洲| 99精品国产一区二区| 亚洲精品字幕在线| 成人av综合一区| 欧美二区三区在线| 在线观看免费版| 亚洲毛片av在线| 久久久久久免费看| 日韩pacopacomama| 欧美日韩高清不卡| 在线成人精品视频| 日本欧美韩国国产| 中文字幕av一区二区三区谷原希美| 欧美福利第一页| 亚洲区综合中文字幕日日| 欧美激情视频一区| 波多野结衣爱爱| 精品午夜一区二区三区在线观看| 春色成人在线视频| 激情小说 在线视频| 国产精品传媒视频| 你真棒插曲来救救我在线观看| 日韩精品99| 欧美一级生活片| 大尺度做爰床戏呻吟舒畅| 欧美日韩在线二区| 欧美肥臀大乳一区二区免费视频| 日韩欧美一级视频| 韩国成人精品a∨在线观看| 国产欧美在线一区二区| 97最新国自产拍视频在线完整在线看| 亚洲色欲色欲www在线观看| 免费无码毛片一区二三区| abab456成人免费网址| 精品国产第一区二区三区观看体验 | 久久久久高清| wwwav在线| 91豆麻精品91久久久久久| 亚洲精品一区二区18漫画| 深爱激情综合| 国内精品久久影院| 97人人爽人人爽人人爽| 久久尤物电影视频在线观看| 操bbb操bbb| 日韩制服一区| 日韩精品在线私人| 久久久国产精品黄毛片| 美腿丝袜亚洲综合| 免费国产在线精品一区二区三区| 国产一区久久精品| 欧洲精品中文字幕| 国产麻豆剧传媒精品国产av| 综合一区二区三区| 国产精品免费久久久久影院| 四虎影院在线播放| 亚洲一区免费观看| 91免费视频污| 91综合久久| 国产精品久久久久高潮| 肉丝一区二区| 午夜精品一区二区三区三上悠亚 | 久久亚洲精品石原莉奈 | 极品蜜桃臀肥臀-x88av| 亚洲欧美bt| 精品1区2区| f2c人成在线观看免费视频| 91精品国产欧美日韩| 毛片久久久久久| 日韩福利电影在线| 欧美亚洲精品日韩| 在线看的毛片| 精品视频在线播放色网色视频| 国产亚洲精品久久久久久无几年桃| 国产一区二区中文字幕| 天天综合五月天| 91精品一区| 久久国产精品久久国产精品| 中文字幕资源网| 国产精品美女一区二区| 黄色三级视频在线| 日韩欧美综合| 成人a在线视频| a黄色片在线观看| 欧美一区日韩一区| 免费中文字幕视频| 成人动漫av在线| 怡红院av亚洲一区二区三区h| 久久影视三级福利片| 久久久免费观看视频| 天堂中文在线观看视频| 欧美日韩美女在线观看| 精品人妻互换一区二区三区| 日韩电影在线免费看| 亚洲一区美女| 久久天堂久久| 国产69精品99久久久久久宅男| 日韩一区二区三区不卡| 欧美性色视频在线| 美国黑人一级大黄| 国产一区二区三区蝌蚪| 丁香色欲久久久久久综合网| 国产主播性色av福利精品一区| 1769国内精品视频在线播放| 久久精品a一级国产免视看成人| 欧美专区日韩专区| 91香蕉视频在线播放| 成人午夜私人影院| 农村妇女精品一二区| 欧美在线观看视频一区| 亚洲综合最新在线| 免费高潮视频95在线观看网站| 亚洲人成在线一二| 97caocao| 精品福利樱桃av导航| 中字幕一区二区三区乱码| 国产一区二区免费看| 毛片在线视频播放| 手机在线电影一区| 国产欧美日韩一区| 国产精品久久久久久久久久齐齐| 久久色在线播放| 日本xxxx人| 欧美日韩黄色影视| 香蕉免费毛片视频| 18欧美亚洲精品| 精品人妻一区二区三区日产乱码卜| 美国十次了思思久久精品导航| 欧美一二三不卡| 精品美女在线视频| 国产伦精品一区二区三区视频黑人 | 国产精品 欧美在线| 日日夜夜天天综合入口| 一区二区成人精品| 好吊视频一二三区| 制服丝袜成人动漫| 91青青草视频| 亚洲国产成人av好男人在线观看| 欧美丰满美乳xxⅹ高潮www| 成人性视频网站| 五月婷婷六月合| 国产精品一区毛片| 日韩精品久久一区二区| 色综合天天爱| 日本免费高清一区| 精品国产午夜肉伦伦影院| 国产精品揄拍500视频| 在线免费av资源| 午夜精品www| 在线黄色网页| 中文字幕久久久av一区| 成人激情四射网| 欧美久久久久久久久中文字幕| 日本三级网站在线观看| 亚洲欧美日韩成人高清在线一区| 久久国产柳州莫菁门| 91在线一区二区三区| 国产乱淫av片| 国产成人高清视频| 18深夜在线观看免费视频| 精品亚洲欧美一区| 一区二区三区欧美精品| 丝袜诱惑制服诱惑色一区在线观看| 日韩国产一级片| 亚洲视频一区| 天天做天天躁天天躁| 亚洲欧美色图| 中文字幕色呦呦| 亚洲第一天堂| 国产手机视频在线观看| 91成人精品| 精品日韩在线播放| 一本一道久久a久久精品蜜桃| 一区二区在线中文字幕电影视频| 欧美丝袜丝交足nylons172| 日本成人黄色免费看| 国产区精品区| 日韩精品不卡| 久久精品99久久无色码中文字幕| 日韩高清av| 日韩精品永久网址| 伊人久久大香线蕉午夜av| 99成人超碰| 无码毛片aaa在线| 欧美午夜a级限制福利片| 国产黄色激情视频| 一区在线播放| 国产a级一级片| 久久青草久久| 污污动漫在线观看| 国精产品一区一区三区mba桃花| 亚洲色图欧美自拍| 高清成人免费视频| 朝桐光av一区二区三区| 91理论电影在线观看| 99久久久无码国产精品衣服| 国产精品视频九色porn| 99热在线观看精品| 亚洲综合视频网| 欧美另类一区二区| 欧美性受xxxx| av在线免费在线观看| 亚洲精品97久久| 成a人片在线观看www视频| 久久精品国产v日韩v亚洲| 午夜小视频在线观看| …久久精品99久久香蕉国产| 欧美123区| 91视频最新| 一区二区导航| 制服诱惑一区| 夜夜嗨一区二区三区| 欧美日韩在线免费播放| 狠狠v欧美v日韩v亚洲ⅴ| 国产女人18毛片水真多18| 国产午夜精品一区二区三区四区| 一级性生活免费视频| 激情成人中文字幕| 中文字幕在线观看1| 精品三级在线看| av影片免费在线观看| 久久99精品久久久久久琪琪| 625成人欧美午夜电影| 亚洲r级在线观看| 亚洲aa在线| 91免费版看片| 欧美aaa在线| 国产女人18毛片水真多18| 国产精品传媒视频| 日日骚av一区二区| 日韩欧美久久一区| av在线二区| 欧美亚洲在线播放| 国产精品一区二区美女视频免费看 | 老熟妇仑乱视频一区二区| 国产精品1区二区.| 一区二区三区在线观看免费视频| 亚洲国产精品久久久久秋霞影院 | 国模少妇一区二区三区| 黄瓜视频污在线观看| 亚洲黄色免费电影| 一区二区三区在线免费观看视频| 亚洲国产免费av| av片在线观看网站| 国产精品一区久久久| 亚洲图区在线| 久久av综合网| 国产精品18久久久久久久久| 日本黄区免费视频观看| 色哟哟精品一区| 欧美一区二区公司| 久久6免费高清热精品| 午夜精品久久久久久毛片| 欧美中文娱乐网| 国产精品久久久一区二区| 无码人妻丰满熟妇啪啪网站| 亚洲欧洲av在线| 中文字幕永久在线视频| 亚洲网在线观看| 中文在线免费视频| 精品日韩美女| 亚洲国内精品| 日韩精品人妻中文字幕有码| 一个色在线综合| 精品二区在线观看| 另类少妇人与禽zozz0性伦| 欧洲亚洲精品久久久久| 亚洲高清123| 奇米在线7777在线精品| 精品人妻无码一区| 在线视频你懂得一区| 精品av中文字幕在线毛片| 国产97在线观看| 亚洲自拍电影| 无遮挡又爽又刺激的视频| 久久婷婷综合激情| 久久久久久少妇| 亚洲三级av在线| 欧美黄色三级| 五月天色一区| 久久精品国产999大香线蕉| 国产精品一区二区亚洲| 欧美日本韩国一区二区三区视频| freemovies性欧美| 国产精品视频免费在线观看| 欧美xxav| 国产xxxxhd| 亚洲综合在线免费观看| 色呦呦免费观看| 欧美专区福利在线| 日本a级不卡| 日本高清免费在线视频| 一区二区欧美国产| 日韩在线观看视频一区二区三区| 午夜精品三级视频福利| 亚洲免费专区| 小泽玛利亚视频在线观看| 中文字幕中文字幕一区| 亚洲精品一区二区三区四区| 69av视频在线播放| 精品日产免费二区日产免费二区| 色播五月综合网| 亚洲精品视频在线观看免费| 国模人体一区二区| 国产suv精品一区二区| 四虎8848精品成人免费网站| 1314成人网| 色综合婷婷久久| 成人在线播放免费观看| 国产伦理久久久| 日韩av一级电影| 久久久久亚洲AV成人| 日韩精品在线视频| 亚洲青青一区| 成人一区二区免费视频| 国产区在线观看成人精品| 国产美女精品视频国产| 97人人做人人爱| 日韩欧美中字| 中文字幕 亚洲一区| 欧美日韩视频在线第一区| 欧美videos另类精品| 日本一区二区三区四区在线观看| 精品一区二区三区免费视频| 久久久久久久99| 中文字幕日韩欧美精品在线观看| 日韩精品视频中文字幕| 欧美两根一起进3p做受视频| 亚洲激情图片一区| 国产在线电影| 国产一区不卡在线观看| 韩日欧美一区二区三区|