精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

王小川的大模型打造秘籍首次曝光:五步走,兩個月煉成

人工智能 新聞
開源社區在圍繞baichuan-7B進行實驗和應用構建時,GitHub項目LLM-Tuning的作者郭必揚(beyondguo)發現了baichuan-7B的一個特殊能力。

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

王小川兩個月交卷的大模型,是怎么煉成的?

現在,這個問題有了更為詳細的解。

70億參數、一經發布就開源可商用,百川智能的中英文大模型baichuan-7B,近期在圈內備受矚目。

從公開的benchmark測試效果以及社區的使用反饋來看,baichuan-7B的表現非常優秀,據說清北也已經用上了。

其源代碼也已在Github、Huggingface等平臺發布。

有趣的是,開源社區在圍繞baichuan-7B進行實驗和應用構建時,GitHub項目LLM-Tuning的作者郭必揚(beyondguo)發現了baichuan-7B的一個特殊能力。

他在做信息抽取實驗的時候,自己胡編亂造了一段“新聞”,然后故意將“微軟”寫成“巨硬”,“亞馬遜”寫成“亞牛遜”,“谷歌”改為“谷嘎”……

然后使用下面的的instruction:

圖片圖片

ChatGPT(3.5)的表現是這樣嬸兒的:

圖片

接下來就是鵝妹子嚶的時刻了:

圖片

特殊微調之后的 baichuan-7B把作者胡編亂造的公司名字,全都掰了回來!!!

看到這,直接給郭必揚(beyondguo)驚喜(驚嚇)住:

本來是亂編的新聞,這這這就說不清了啊!

圖片

baichuan-7B的能力我們是看到了,但它開源也并不意味著人人都可以輕易復刻一個大模型出來。

源代碼只是算法的核心,也就是能夠看到模型結構而已。

“一開源就能人手一份,進行各種換皮魔改,同人逼死官方”這事兒,在大模型這兒行不通。

要得到一款和ChatGPT效果相仿的大模型,算法、算力和數據缺一不可。

拋開算力不講,從0到1構建一款大模型,都需要哪些步驟?

這不,baichuan-7B給出了一份“高分案例”。

訓練大模型五步走

官方透露,baichuan-7B的“煉化”過程可以歸納為五步。

第一步,構建優質的數據集

數據是大模型的三要素之一。

語言模型是一種用于計算“一段文本”出現可能性的統計模型,其本質是建模字、詞之間的關聯性。

這種字、詞之間的關聯性必須通過大量數據的分析和學習才能得到,因此數據對于大模型而言可以說是最重要的元素,預訓練數據的質量、多樣性、規模、代表性以及公平性和偏見等因素對模型性能有著決定性影響。

baichuan-7B模型在數據方面作了以下處理:

  • 數據規模和多樣性:baichuan-7B的原始數據包括開源的中英文數據和自行抓取的中文互聯網數據,以及部分高質量知識性數據。這種構建方式使其原始數據集包含了大量source的數據,在過濾后也能有1.2T的量級,同時也保證了數據的多樣性。
  • 數據的公平性和偏見:為避免模型輸出有害性內容,提升模型效果,baichuan-7B通過人工規則等方式過濾臟數據,去掉了數據中的噪聲和有害數據。
  • 數據質量和代表性:經過低質過濾之后,baichuan-7B對得到的數據還進行了去重處理和有代表性數據的選取。具體表現為,基于啟發式規則和質量模型打分,對原始數據集進行篇章和句子粒度的過濾;在全量數據上,利用局部敏感哈希方法,對篇章和句子粒度做濾重,從而減少數據中的重復pattern和不具備代表性的數據,進一步提升數據質量。

整體流程如下圖所示:

圖片圖片

此外,為了實現模型在多語言上的良好表現,得到高質量的數據集之后,baichuan-7B又采用了自動化的數據采樣策略,最終確認了一個在下游任務上表現最好的中英文配比。

第二步,制定合理的分詞策略

擁有了一個優質的數據集之后,需要思考的便是:

如何將數據集里面的語料充分利用起來?

目前大部分開源模型主要基于英文優化,因此對中文語料存在效率較低的問題,這也是一些國外的大模型在中文生成方面表現相比英文較差的原因。

baichuan-7B采用了SentencePiece中的Byte-Pair Encoding(BPE)作為分詞算法,并且進行了以下的優化:

  • 首先,使用2000萬條以中英為主的多語言語料訓練分詞模型,顯著提升對于中文的壓縮率。
  • 其次,在數學領域參考了LLaMA和Galactica中的方案,對數字的每一位單獨分開,避免出現數字不一致的問題。
  • 再次,針對罕見字詞(如特殊符號等),支持UTF-8 characters的byte編碼,做到了未知字詞的全覆蓋。

對比不同分詞器對語料的壓縮率,可見其分詞器明顯優于LLaMA、Falcon等開源模型,在壓縮率相當的情況下,訓練和推理效率更高。

第三步,打造良好的模型結構

提到大模型,“大力出奇跡”是我們經常掛在嘴邊的一句話,“力大磚飛”隱藏的含義是大模型并未在技術路線上取得革命性的突破,其底層技術基礎依舊是Transformer。

換言之,當下的絕大部分大語言模型依舊是Transformer模型,只不過模型全部由Transformer的Decoder層構成,具體分為以下幾個部分:

1、Position Embedding,即位置編碼。

在Transformer中所有token都被同樣的對待,沒有前后順序之分,因此需要加入一個Position Embedding用于表征詞之間的位置關系。

目前的位置編碼有絕對位置編碼相對位置編碼兩種形式:

絕對位置編碼指的是直接將位置信息通過向量的形式融合到模型輸入中。

常用的兩種絕對位置編碼方法主要是在Transformers中使用的Sinusoidal Positional Encoding以及Convolutional Sequence-to-Sequence模型中使用的Learned Position Embeddings。

其中,Sinusoidal Positional Encoding在原始的Transformer模型(Vaswani等人,2017)中,引入了一種預定義的正弦函數作為位置編碼。這種方法會為每個位置生成一個固定向量,該向量的維度跟詞嵌入向量相同。

其優點在于,它可以處理任意長度的序列,不需要額外的學習過程,并且對于相對位置關系有一定的編碼能力。

Learned Position Embeddings由Gehring等人于2017年在Convolutional Sequence-to-Sequence模型中首次提出。

對于每個位置,模型都有一個對應的嵌入向量,這個向量會在模型訓練的過程中學習和優化。

該方法的優點在于,它可以根據具體的任務和數據集學習位置信息。然而,它的一大缺點是,由于位置嵌入數量固定,因此模型可能無法處理超過預先設定數量位置的序列。

相對位置編碼指的是在自注意力機制中引入兩個Token的相對位置信息。

目前,相對位置編碼主要有兩種常用方法:ROPE(Rotary Positional Embedding)和ALiBi(Attention with Linear Biases)。

ROPE可以不受固定長度限制處理任意長度的序列。其工作原理是,通過一個基于位置的旋轉矩陣將每個位置的嵌入旋轉到一個新的位置。

這種方法的優點是,可以保持相對位置信息的一致性,在旋轉后,相鄰的位置仍然會有相似的嵌入。

ALiBi能夠讓Transformer語言模型在推理時可以處理比訓練時更長的序列。

它在處理文本序列時不使用實際的位置嵌入,而是在計算某個鍵和查詢之間的注意力時,根據鍵和查詢之間的距離對查詢可以分配給鍵的注意力值進行懲罰。當鍵和查詢靠近時,懲罰非常低,當它們遠離時,懲罰非常高。

這種方法的動機是,靠近的詞比遠離的詞更重要。

2、Attention Layer,即注意力層。

其原理是通過加入注意力層使得不同Token之間能夠交互信息,進而獲得整句話的表征。

目前大模型使用的Attention Layer分為多頭自注意力(Multi-Head Self-Attention)和稀疏自注意力(Sparse Self-Attention)兩種。

Multi-Head Self-Attention機制最早出現在”Attention is All You Need”(Vaswani et al., 2017)論文中,是Transformer模型的核心組成部分。

在多頭自注意力中,模型首先將輸入的嵌入向量分割成多個“頭”,每個頭都會獨立地進行自注意力計算,最后所有頭的輸出會被連接起來并通過一個線性變換,形成最終的輸出。

其優點是,每個頭都可以學習并關注輸入的不同方面,模型能夠同時關注來自不同位置的信息,從而捕獲更豐富的上下文信息。

Sparse Self-Attention是一種改進的自注意力機制,它只關注輸入中的一部分元素。

這種方法的優點是,可以顯著減少計算復雜性,使得模型能夠處理更長的序列。

3、FFN Layer,即前饋神經網絡。

其主要任務是處理來自Attention層的信息。

Attention機制能夠處理詞語之間的相互關系,但是它無法進行更為復雜的、非線性的數據處理。

而FFN層可以在每個Transformer模塊中增加非線性處理能力,增強模型的整體表達能力。

在原始的Transformer模型中,FFN層通常由兩個線性變換和一個非線性激活函數(如ReLU或GELU)組成。

以下是一些FFN層的變種:

  • 標準的FFN層:在”Attention is All You Need”(Vaswani et al., 2017)中,FFN層由兩個線性變換和一個非線性激活函數組成。具體來說,給定輸入x,FFN層的計算過程為:FFN(x) = max(0, xW1)W2,其中W1,b1,W2,b2是模型參數,max(0, *)表示ReLU激活函數。
  • Gated Linear Units(GLU)變種:在”Language Modeling with Gated Convolutional Networks”(Dauphin et al., 2017)中提出,GLU是一種特殊的激活函數,它通過引入一個門控機制來控制信息的流動。在FFN層中使用GLU可以幫助模型更好地捕捉輸入數據的復雜模式。GLU的計算公式為:GLU(x) = (xV + c) ? sigmoid(xW + b),其中?表示元素級別的乘法,sigmoid是sigmoid激活函數。
  • Swish變種:在“Searching for Activation Functions”(Ramachandran et al., 2017)中提出,Swish是一種自門控的激活函數,它的計算公式為:Swish(x) = Swish1(xW1)W2。在FFN層中使用Swish可以幫助模型更好地捕捉輸入數據的復雜模式。
  • SwiGLU變種:在GLU Variants Improve Transformer中,作者提出了一種新的激活函數SwiGLU,它結合了Swish和GLU的優點。SwiGLU的計算公式為:SwiGLU(x) = (xV + c) ? Swish1(xW + b),其中?表示元素級別的乘法,sigmoid是sigmoid激活函數。

baichuan-7B的模型結構同樣基于Transformer

在模型研發過程中,為了能夠讓模型在4096的窗口長度內擁有最好效果,同時在4096長度外也具備較好的外推性能,baichuan-7B采取了和LLaMA相同的結構設計,而這些關鍵要素上的設計也和很多其他模型選擇的設計相類似。

社區中Saleforces所提出的XGen-7B和由Berkeley所提出的OpenLLaMA也是同樣的選擇,具體而言:

  • Position Embedding采用ROPE相對位置編碼,相對編碼能夠讓模型獲得較好的外推能力。Meta的LLaMA、Google的PaLM、清華團隊的ChatGLM2都使用了ROPE相對位置編碼。
  • Attention Layer采用標準的Multi-Head Self-Attention,雖然目前很多稀疏自注意力層能夠在超長文本中獲得較好的效果,但是這些方案由于使用了稀疏計算,對于4096長度內的效果會有一定的犧牲,使用標準的Multi-Head Self-Attention能夠讓大部分結果擁有更好的效果。
  • FFN Layer采用SwiGLU,目前大部分SOTA模型都選擇使用SwiGLU作為FFN層,如2022年Google提出的PaLM模型,2023年META提出的LLaMA,最近清華團隊發布的ChatGLM2等。

第四步,采用恰當的優化訓練策略

訓練策略也是模型取得較好結果的重要組成部分。

例如,初代GPT-3在當時的訓練框架下,基于V100訓練1750億參數模型的整體機器利用率大概只有21.3%。這種極低的利用率會拉長模型訓練周期,影響模型迭代進度。

為更好提升模型訓練過程中的機器利用率,baichuan-7B針對訓練策略也提出了很多優化手段,具體包括:

首先,優化了算子技術,通過應用更有效率的算子提高運算效率,例如Flash-Attention和NVIDIA apex的RMSNorm,優化后的Attention方法在非近似的基礎上可以顯著降低模型的顯存消耗。

其次,baichuan-7B利用算子切分技術,對部分計算算子進行切分,這樣在通信的時候會以更高效的nccl操作進行通信,同時降低內存峰值使用,以進一步提升處理速度。

同時,baichuan-7B還使用了混合精度技術,在不犧牲模型準確性的前提下,加速了計算過程。

此外,為了進一步提高效率,baichuan-7B還采用了通信優化技術,具體包括:利用拓撲感知的集合通信算法避免網絡擁堵問題,提高通信效率;根據卡數自適應設置bucket size,提高帶寬利用率;根據模型和集群環境,調優通信原語的觸發時機,從而實現計算和通信的有效重疊。

最后,baichuan-7B還自研了一種名為訓練容災的技術。

訓練大模型,需要的時間通常很長,很難保證GPU在訓練過程中不出問題,特別是集群訓練的時候,單卡硬件或者網絡錯誤會導致整個集群停擺。因此在訓練中斷后快速、自動化定位故障、恢復服務非常重要。

通過訓練平臺和訓練框架的聯合優化以及IaaS+PaaS的應用,baichuan-7B實現了分鐘級的故障定位和任務恢復,從而保證了訓練的穩定性和效率。

第五步,選擇合適的模型評價方法

完成數據集構建,對數據集中的語料進行分詞并在構建好的模型中進行預訓練之后,為了解模型的各方面能力,還需要對模型進行測試和評價。

不同于微調后的模型直接采用zero-shot(直接給prompt)的評估方式,預訓練基座模型通常采取few-shot(給一些示例prompt)的評價方式來評估效果。

目前,比較權威的幾個評估數據集主要有中文數據集C-Eval數據集、Gaokao、AGIEval,英文數據集MMLU,代碼能力評估集Human Eval和數學能力評估集GSM8K、MATH等。

其中,C-Eval數據集是最全面的中文基礎模型評測數據集,涵蓋了52個學科和四個難度的級別;

Gaokao是以中國高考題作為評測大語言模型能力的數據集,用以評估模型的語言能力和邏輯推理能力;

AGIEval旨在評估模型在中文環境下,認知和解決問題等相關的任務的能力;

MMLU是一個包含57個多選任務的英文評測數據集,涵蓋了初等數學、美國歷史、計算機科學、法律等,難度覆蓋高中水平到專家水平,是目前主流的LLM評測數據集。

中文評測方面,baichuan-7B在C-Eval、Gaokao和AGIEval的綜合評估中均獲得了優異成績,不僅遠超其他同規模參數的大模型,甚至比某些參數規模更大的模型還要出色。

圖片

在英文能力上,選擇MMLU數據集進行評測,baichuan-7b的表現在同尺寸上也大幅領先。

圖片圖片

值得一提的是,根據官方的github開源協議說明上,baichuan-7B開源的推理代碼采用了Apache2.0協議。

不同于其他基于LLaMA繼續訓練(比如IDEA的ziya、鏈家的BELLE等)無法商用的模型,baichuan-7是原生訓練的模型,可以自主定義模型權重的開源協議。

值得稱贊的是百川智能采用的是免費可商用協議,比其他需要付費商用有更大的自由度,開發者們可以直接使用預訓練模型進行各種實驗研究,并完成部署和應用。

開源VS閉源,哪一種模式最有效?

說完了大模型的訓練步驟,最后來談一談開源的問題。

五月初,谷歌曾泄露出一份內部文件,這份文件聲稱:“我們沒有護城河,OpenAI也沒有。當我們還在爭吵時,開源第三方已經悄悄地搶了我們的飯碗”。

谷歌顯然已經意識到了開源的影響,那么開源和閉源究竟哪一種模式更有效?

百川智能給出了他們的回答:

眾所周知大模型的訓練成本極高,因此以閉源保證商業投入是比較有效的方式。

不過,開源創新早就已經成為了軟件發展乃至于IT技術發展的一種主流技術形態,超級計算機的操作系統幾乎都是用Linux這樣的開源軟件操作系統進行構建,智能手機的操作系統80%以上都由開源的安卓系統支持。

在大模型出現之前,深度神經網絡的學習框架也幾乎都是開源的。

雖然目前OpenAI和谷歌都選擇了“閉門造車”,但是Meta卻走上了開源的道路,LLaMA開源之后迅速地吸引了大量開發者,這和互聯網時代Linux,移動互聯網時代的安卓十分相似。

就像Linux和安卓都會在社區上開源出一個核心的版本,然后更多人在這個核心版本上根據他對需求和領域的理解進行不斷地修改,低成本產生更多適應未來發展的新版本,由環境來評價,然后再迭代回來不斷地開發。

這種眾人拾柴的研發路徑在大模型時代無疑還將發揮巨大作用,開源和閉源究竟哪一個更有效現在還很難說,就像我們無法說iOS要安卓更有效一樣。

但是,未來的大模型生態一定會是壟斷與開源并存。

責任編輯:張燕妮 來源: 量子位
相關推薦

2013-11-27 09:26:02

遠程公司

2014-06-25 09:26:16

創業創業失敗

2024-07-24 12:40:44

2022-03-21 14:37:17

數據存儲服務器IT

2023-04-13 07:55:11

項目Ladybird瀏覽器

2012-09-03 14:38:57

2015-11-13 17:53:44

搜索

2012-01-11 11:13:06

惠普ProLiant

2015-06-10 11:43:29

戴爾云計算anycloud

2021-12-14 16:14:14

蘋果數據開發者

2018-04-18 09:07:24

iPhone X手機利潤

2010-08-31 09:59:20

2025-02-08 08:30:00

2019-06-12 09:29:44

華為禁令開發

2018-08-09 09:00:34

Hadoop制造行業國內企業

2024-05-23 12:55:40

2014-08-25 11:25:52

WindowsLinux

2018-01-10 16:07:55

數據數據分析企業轉型

2021-11-30 10:06:40

Windows 11Windows微軟

2016-11-09 16:52:20

Android 7.0谷歌安卓
點贊
收藏

51CTO技術棧公眾號

国产91在线观看丝袜| 牛牛澡牛牛爽一区二区| 日韩欧美四区| 日本精品一级二级| 欧美日本乱大交xxxxx| 一区二区三区四区免费视频| 中文字幕xxxx| 女生裸体视频一区二区三区| 亚洲精品videossex少妇| 欧美污视频网站| 欧美三级网站在线观看| 日韩夫妻性生活xx| 精品免费99久久| 裸模一区二区三区免费| 中文字幕一区二区三区波野结| 在线精品国产| 亚洲欧美日韩国产精品| 精品国产午夜福利在线观看| 国产欧美一区二区三区精品酒店| 椎名由奈av一区二区三区| 青青草一区二区| 国产亚洲精品熟女国产成人| 国产精品刘玥久久一区| 成人av电影免费观看| 国产情人节一区| 日韩av成人网| 欧美xx视频| 一区二区三区av电影 | 国产精品无码在线| 国产精品伦一区二区| 欧美日韩久久久久| 国产精品国三级国产av| 你懂的在线观看视频网站| 国产成人综合视频| 国内精品伊人久久| 日本成人午夜影院| 高清一区二区三区| 欧美日韩小视频| 熟女性饥渴一区二区三区| 免费在线观看av网站| 国产69精品久久久久毛片| 91精品视频专区| 国产无精乱码一区二区三区| 51精产品一区一区三区| 国产小视频国产精品| 天天插天天射天天干| 亚洲一区有码| 欧美性受xxxx| 日日鲁鲁鲁夜夜爽爽狠狠视频97 | 精品黑人一区二区三区在线观看| 精品国产亚洲一区二区三区| 高跟丝袜欧美一区| www.日本在线播放| 9lporm自拍视频区在线| 亚洲图片欧美综合| 激情五月婷婷六月| 菠萝菠萝蜜在线视频免费观看| 亚洲国产精品国自产拍av| 欧美一区2区三区4区公司二百| 色婷婷综合视频| 99久久er热在这里只有精品66| 国产精品二区在线| www.国产黄色| 成人一级片在线观看| 97超碰在线播放| 国产喷水福利在线视频| 国产精品99久久久| 国产精品久久久久久久久久久久冷| aaa一区二区| 伊人天天综合| 97久久精品视频| 欧美三级午夜理伦| 校园春色综合网| 日韩av理论片| 亚洲一级黄色大片| 精品午夜一区二区三区在线观看| 亚洲最大福利视频网| 国产区精品在线| 国产**成人网毛片九色| 国产乱人伦精品一区二区| 一级黄色片视频| 国产精品99久久久久久久女警| 国产精品免费一区二区三区观看| 亚洲三区在线观看无套内射| 久久久精品一品道一区| 亚洲成人网上| 欧美家庭影院| 日本久久电影网| 无需播放器的av| 97成人超碰| 欧美日韩亚洲综合一区二区三区| 丰满饥渴老女人hd| 欧美成人ⅴideosxxxxx| 欧美日本一区二区在线观看| 岛国大片在线免费观看| 曰本一区二区三区视频| 亚洲天堂色网站| 亚洲一级片在线播放| 亚洲成人tv| 5252色成人免费视频| 国产在线一级片| 精品一区二区日韩| 久久精品ww人人做人人爽| 成人免费黄色网页| 亚洲一区二区三区四区五区黄| 极品美女扒开粉嫩小泬| 欧美视频精品| 亚洲免费精彩视频| 美国一级片在线观看| 99国产精品私拍| 国产亚洲精品久久久久久| 日本在线一级片| 亚洲一区免费| 成人性生交大片免费看小说| 农村少妇久久久久久久| 国产精品色呦呦| 精品久久久久久一区| 噜噜噜在线观看播放视频| 国产日韩欧美精品综合| 久久成人资源| 91网址在线观看| 亚洲一区电影777| 欧美激情国产精品日韩| 国产色噜噜噜91在线精品| 欧美日韩国产在线一区| 亚洲高清在线视频| xxxx一级片| 国产欧美久久久久久久久| 欧美视频一区二区三区…| 九九久久久久久| 日韩免费大片| 亚洲国产精品热久久| 日本视频在线免费| 日韩avvvv在线播放| 国产精品久久久91| 天堂av手机版| 一区二区三区 在线观看视频| 日本少妇高潮喷水视频| 成人av动漫| 精品自在线视频| 亚洲字幕av一区二区三区四区| 成人黄色一级视频| 欧美狂野激情性xxxx在线观| 向日葵视频成人app网址| 黄色成人在线免费| 性生交大片免费看l| 一本一道久久a久久精品蜜桃| 国产精品免费看久久久香蕉| 无码精品一区二区三区在线 | 国产伦视频一区二区三区| h片在线免费| 欧美一区二区在线免费播放| 在线观看国产网站| 亚洲一区二区三区免费在线观看| 国产一区二区视频在线免费观看| 国产美女在线观看| 欧美一级片在线看| www.毛片com| 麻豆精品国产传媒mv男同 | 1区2区3区在线观看| 在线精品观看国产| 老鸭窝一区二区| 久久aⅴ国产紧身牛仔裤| 国产一区二区三区免费不卡| 91精品久久| 精品嫩草影院久久| 亚州国产精品视频| 久久久久9999亚洲精品| 天堂中文视频在线| 欧美xxxxx视频| 亚洲尤物视频网| 日本动漫理论片在线观看网站| 欧美大片免费久久精品三p| 波多野结衣福利| 国产一区二区精品| 日韩偷拍一区二区| www.久久99| 久久久女人电视剧免费播放下载 | 啪啪av大全导航福利综合导航 | av中文在线资源库| 亚洲精品一区二区在线| 中国一级片黄色一级片黄| 亚洲特黄一级片| 在线播放国产视频| 男人天堂欧美日韩| 国产日本欧美在线| 国产精品1luya在线播放| 久久久久久久久中文字幕| 天天操天天插天天射| 欧美在线小视频| 激情综合网五月天| 91香蕉视频mp4| 午夜久久久精品| 精品91久久久久| 国产综合动作在线观看| 99久久婷婷国产综合精品首页| 久久国产精品视频| 亚洲h视频在线观看| 色94色欧美sute亚洲线路一ni| 日本黄区免费视频观看| 成人性生交大合| 色欲av无码一区二区人妻| 97精品视频在线看| 久久99精品国产99久久| 亚洲天堂网站| 国产91色在线|免| yellow91字幕网在线| 亚洲国产欧美久久| 亚洲一二区视频| 日韩人体视频一二区| 免费人成又黄又爽又色| 国产91精品欧美| 91 在线视频观看| 香蕉久久国产| 欧美这里只有精品| 免费精品国产| 欧美大奶子在线| 青青草手机在线| 日韩欧美亚洲国产另类| 中文字幕+乱码+中文| 五月激情六月综合| 欧美精品一区二区蜜桃| 久久久久高清精品| 无码成人精品区在线观看| 激情六月婷婷久久| 国产av人人夜夜澡人人爽| 在线日韩电影| 日韩精品第1页| 天堂精品久久久久| 国产欧美亚洲视频| 成人免费影院| 97av在线播放| 亚洲综合影视| 亚洲欧美国产精品va在线观看| 六月婷婷综合网| 制服丝袜中文字幕亚洲| 伊人免费在线观看高清版| 日韩欧美国产成人| 日本午夜视频在线观看| 亚洲国产美女搞黄色| 久久久国产成人| 亚洲精品中文字幕乱码三区| 亚洲毛片亚洲毛片亚洲毛片| www国产精品av| 特级特黄刘亦菲aaa级| 久久精品二区亚洲w码| 国产视频一区二区三区在线播放| 亚洲在线成人| 国产树林野战在线播放| 91免费精品国偷自产在线在线| 91丨九色丨国产在线| 欧洲精品久久久久毛片完整版| 国产精品视频999| 精品视频在线一区二区在线| 中文字幕亚洲色图| www.中文字幕久久久| 在线观看日韩视频| 在线视频91p| 日韩网站免费观看| 黄网站在线免费| 欧美大片大片在线播放| 久久青青色综合| 91干在线观看| 高潮一区二区| 国产精品入口尤物| www.久久99| 国产精品一区二区三区免费观看| 欧美freesex8一10精品| 欧美日韩综合久久| 久久美女精品| 日本一级黄视频| 亚洲精品综合| 久久久久久香蕉| 欧美在线网址| 美女黄色免费看| 亚洲免费中文| 污视频网站观看| 国产ts人妖一区二区| bl动漫在线观看| 狠狠网亚洲精品| 亚洲免费av一区| 国产成人h网站| 久久国产精品无码一级毛片| 日本一区二区三区国色天香| 亚洲精品无码一区二区| 国产精品一二二区| 亚洲国产欧美视频| 中文字幕一区二区视频| 国产一级免费av| 日韩欧美一区二区三区| 国产精品久久久久久久久久久久久久久久久久 | 欧美一区二区三区爽爽爽| 午夜电影网一区| 中文有码在线播放| 亚洲国产欧美一区二区三区同亚洲 | 亚洲中字黄色| 日韩av在线中文| 国产一区福利在线| 久久福利小视频| 国产精品人成在线观看免费 | 麻豆av免费在线观看| 午夜精品久久17c| 欧美大片网站| 国内视频一区二区| 亚洲乱码精品| 日韩欧美xxxx| 成人免费三级在线| 国产成人免费在线观看视频| 一区二区三区在线视频免费观看| 国产精品suv一区| 欧美精品一二三四| 日本一卡二卡四卡精品 | 亚洲风情在线资源| 国产在线久久久| 亚洲性视频大全| 91网站在线观看免费| 欧美综合国产| 国产伦精品一区三区精东| 国产精品福利影院| 国产性生活视频| 精品欧美黑人一区二区三区| 超碰在线国产| 久久久之久亚州精品露出| 懂色av色香蕉一区二区蜜桃| 日本一区二区视频| 亚洲欧洲一区二区天堂久久| 久久久久久久久久毛片| 国产精品青草久久| www欧美在线| 亚洲高清免费观看高清完整版| 成人直播在线| 国产欧美中文字幕| 亚洲免费观看高清完整版在线观| 2019日韩中文字幕mv| 国产乱人伦精品一区二区在线观看| 无码人妻aⅴ一区二区三区69岛| 五月天欧美精品| 亚洲成人黄色片| 欧美成人免费播放| 欧美日韩免费电影| 亚洲巨乳在线观看| 日本最新不卡在线| jizz18女人高潮| 一区二区三区中文免费| 精品人妻aV中文字幕乱码色欲 | 国产大学生自拍| 精品视频在线看| 成人精品一区二区| 国产精品视频久久| 99re久久最新地址获取| 日韩一区二区三区不卡视频| 成人综合激情网| www.xx日本| 欧洲中文字幕精品| 91大神xh98hx在线播放| 国产精品欧美日韩一区二区| 你懂的一区二区三区| 91在线视频观看免费| 国产精品天干天干在线综合| 怡红院男人天堂| 久久精品视频在线播放| 日韩中文在线| 国产xxxx振车| 久久综合久久综合亚洲| 国产999精品久久久| 欧洲亚洲精品视频| 国产91网红主播在线观看| 操欧美老女人| 欧美一级小视频| 亚洲精品久久久蜜桃| 亚洲精品无码久久久| 久久在精品线影院精品国产| 97品白浆高清久久久久久| 欧美日韩二三区| 欧美国产精品久久| 国产成人久久精品77777综合 | 国产福利免费在线观看| 国产精品一区二区久久久| 亚洲高清影视| 超碰97在线资源站| 欧美性69xxxx肥| aaa在线观看| 国产精品自产拍在线观看| 欧美aaaa视频| 韩国三级hd两男一女| 欧美日韩国产中字| 求av网址在线观看| 国产精品久久一区二区三区| 日韩高清中文字幕一区| 精品国产乱码久久久久久鸭王1| 欧美一区二区久久| 美女100%一区| 综合一区中文字幕| 精品72久久久久中文字幕| 中文字幕在线综合| 亚洲主播在线观看| 成人免费一区二区三区视频网站| 不卡一区二区三区四区五区| 久久亚洲欧美| 久久久久久欧美精品se一二三四|