精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大模型迎來「開源季」,盤點過去一個月那些開源的LLM和數據集

人工智能 新聞
開源的力量正在源源不斷地影響著整個 AI 社區,無論是 LLM 還是數據集。本文作者 Sebastian Raschka 對相關資源進行了匯總,并分享了自己的洞見。

前段時間,谷歌泄露的內部文件表達了這樣一個觀點,雖然表面看起來 OpenAI 和谷歌在 AI 大模型上你追我趕,但真正的贏家未必會從這兩家中產生,因為有一個第三方力量正在悄然崛起。這個力量就是「開源」。

圍繞 Meta 的 LLaMA 開源模型,整個社區正在迅速構建與 OpenAI、谷歌大模型能力類似的模型,而且開源模型的迭代速度更快,可定制性更強,更有私密性。

近日,前威斯康星大學麥迪遜分校助理教授、初創公司 Lightning AI 首席 AI 教育官 Sebastian Raschka 表示,對于開源而言,過去一個月很偉大

不過,那么多大語言模型(LLM)紛紛出現,要緊緊把握住所有模型并不容易。所以,Sebastian 在本文中分享了關于最新開源 LLM 和數據集的資源和研究洞見。

圖片

論文與趨勢

過去一個月出現了很多研究論文,因此很難從中挑選出最中意的幾篇進行深入的探討。Sebastian 更喜歡提供額外洞見而非簡單展示更強大模型的論文。鑒于此,引起他注意力的首先是 Eleuther AI 和耶魯大學等機構研究者共同撰寫的 Pythia 論文。

圖片

論文地址:https://arxiv.org/pdf/2304.01373.pdf

Pythia:從大規模訓練中得到洞見

開源 Pythia 系列大模型真的是其他自回歸解碼器風格模型(即類 GPT 模型)的有趣平替。論文中揭示了關于訓練機制的一些有趣洞見,并介紹了從 70M 到 12B 參數不等的相應模型。

Pythia 模型架構與 GPT-3 相似,但包含一些改進,比如 Flash 注意力(像 LLaMA)和旋轉位置嵌入(像 PaLM)。同時 Pythia 在 800GB 的多樣化文本數據集 Pile 上接受了 300B token 的訓練(其中在常規 Pile 上訓練 1 個 epoch,在去重 Pile 上訓練 1.5 個 epoch )。

圖片

下面為一些從 Pythia 論文中得到的洞見和思考:

  • 在重復數據上的訓練(即訓練 epoch>1)會不會有什么影響?結果表明,數據去重不會改善或損害性能;
  • 訓練命令會影響記憶嗎?遺憾的是,結果表明并不會。之所以說遺憾,是因為如果影響的話,則可以通過訓練數據的重新排序來減輕討厭的逐字記憶問題;
  • batch 大小加倍可以將訓練時間減半但不損害收斂。

開源數據

對于開源 AI,過去一個月特別令人興奮,出現了幾個 LLM 的開源實現和一大波開源數據集。這些數據集包括 Databricks Dolly 15k、用于指令微調的 OpenAssistant Conversations (OASST1)、用于預訓練的 RedPajama。這些數據集工作尤其值得稱贊,因為數據收集和清理占了真實世界機器學習項目的 90%,但很少有人喜歡這項工作。

Databricks-Dolly-15 數據集

Databricks-Dolly-15 是一個用于 LLM 微調的數據集,它由數千名 DataBricks 員工編寫了超過 15,000 個指令對(與訓練 InstructGPT 和 ChatGPT 等系統類似)。

OASST1 數據集

OASST1 數據集用于在由人類創建和標注的類 ChatGPT 助手的對話集合上微調預訓練 LLM,包含了 35 種語言編寫的 161,443 條消息以及 461,292 個質量評估。這些是在超過 10,000 個完全標注的對話樹中組織起來。

用于預訓練的 RedPajama 數據集

圖片

RedPajama 是一個用于 LLM 預訓練的開源數據集,類似于 Meta 的 SOTA LLaMA 模型。該數據集旨在創建一個媲美大多數流行 LLM 的開源競爭者,目前這些 LLM 要么是閉源商業模型要么僅部分開源。

RedPajama 的大部分由 CommonCrawl 組成,它對英文網站進行了過濾,但維基百科的文章涵蓋了 20 種不同的語言。

圖片

LongForm 數據集

論文《The LongForm: Optimizing Instruction Tuning for Long Text Generation with Corpus Extraction》介紹了基于 C4 和 Wikipedia 等已有語料庫的人工創作文檔集合以及這些文檔的指令,從而創建了一個適合長文本生成的指令調優數據集。

論文地址:https://arxiv.org/abs/2304.08460

Alpaca Libre 項目

Alpaca Libre 項目旨在通過將來自 Anthropics HH-RLHF 存儲庫的 100k + 個 MIT 許可演示轉換為 Alpaca 兼容格式,以重現 Alpaca 項目。

擴展開源數據集

指令微調是我們從類 GPT-3 預訓練基礎模型演化到更強大類 ChatGPT 大語言模型的關鍵方式。Databricks-Dolly-15 等開源人工生成指令數據集有助于實現這一點。但我們如何進一步擴展呢?是否可以不收集額外數據呢?一種方法是從自身的迭代中bootstrap 一個 LLM。雖然 Self-Instruct 方法在 5 個月前提出(以如今標準來看過時了),但它仍是一種非常有趣的方法。值得強調的是,由于 Self-Instruct 一種幾乎不需要注釋的方法,因而可以將預訓練 LLM 與指令對齊。

如何運作呢?簡而言之可以分為以下四個步驟:

  • 首先是具有一組人工編寫指令(本例中為 175)和樣本指令的種子任務池;
  • 其次使用一個預訓練 LLM(如 GPT-3)來確定任務類別;
  • 接著給定新指令,使預訓練 LLM 生成響應;
  • 最后在將指令添加到任務池之前收集、修剪和過濾響應。

圖片

在實踐中,基于 ROUGE 分數的工作會比較有效、例如 Self-Instruct 微調的 LLM 優于 GPT-3 基礎 LLM,并可以在大型人工編寫指令集上預訓練的 LLM 競爭。同時 self-instruct 也可以使在人工指令上微調過的 LLM 收益。

但是當然,評估 LLM 的黃金標準是詢問人類評分員。基于人類評估,Self-Instruct 優于基礎 LLM、以及以監督方式在人類指令數據集上訓練的 LLM(比如 SuperNI, T0 Trainer)。不過有趣的是,Self-Instruct 的表現并不優于通過人類反饋強化學習(RLHF)訓練的方法。

人工生成 vs 合成訓練數據集

人工生成指令數據集和 self-instruct 數據集,它們兩個哪個更有前途呢?Sebastian 認為兩者皆有前途。為什么不從人工生成指令數據集(例如 15k 指令的 databricks-dolly-15k)開始,然后使用 self-instruct 對它進行擴展呢?論文《Synthetic Data from Diffusion Models Improves ImageNet Classification》表明,真實圖像訓練集與 AI 生成圖像相結合可以提升模型性能。探究對于文本數據是否也是這樣是一件有趣的事情。

論文地址:https://arxiv.org/abs/2304.08466

最近的論文《Better Language Models of Code through Self-Improvement》就是關于這一方向的研究。研究者發現如果一個預訓練 LLM 使用它自己生成的數據,則可以改進代碼生成任務。

論文地址:https://arxiv.org/abs/2304.01228

少即是多(Less is more)?

此外,除了在越來越大的數據集上預訓練和微調模型之外,又如何提高在更小數據集上的效率呢?論文《Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smaller Model Sizes》中提出使用一種蒸餾機制來管理任務特定的更小模型,它們使用更少的訓練數據卻超越了標準微調的性能。

論文地址:https://arxiv.org/abs/2305.02301

圖片

追蹤開源 LLM

開源 LLM 的數量呈爆炸式增長,一方面是非常好的發展趨勢(相較于通過付費 API 控制模型),但另一方面追蹤這一切可能很麻煩。以下四種資源提供了大多數相關模型的不同摘要,包括它們的關系、底層數據集和各種許可信息。

第一種資源是基于論文《Ecosystem Graphs: The Social Footprint of Foundation Models》的生態系統圖網站,提供如下表格和交互式依賴圖(這里未展示)。

這個生態系統圖是 Sebastian 迄今為止見過的最全面的列表,但由于包含了很多不太流行的 LLM,因而可能顯得有點混亂。檢查相應的 GitHub 庫發現,它已經更新了至少一個月。此外尚不清楚它會不會添加更新的模型。

圖片

  • 論文地址:https://arxiv.org/abs/2303.15772
  • 生態系統圖網站地址:https://crfm.stanford.edu/ecosystem-graphs/index.html?mode=table

第二種資源是最近論文《Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond》中繪制精美的進化樹,該論文側重于最流行的 LLM 和它們的關系。

雖然讀者看到了非常美觀和清晰的可視化 LLM 進化樹,但也有一些小的疑惑。例如不清楚為什么底部沒有從原始 transformer 架構開始。此外開源標簽并不是非常的準確,例如 LLaMA 被列為開源,但權重在開源許可下不可用(只有推理代碼是這樣的)。

圖片

論文地址:https://arxiv.org/abs/2304.13712

第三種資源是 Sebastian 同事 Daniela Dapena 繪制的表格,出自于博客《The Ultimate Battle of Language Models: Lit-LLaMA vs GPT3.5 vs Bloom vs …》。

雖然下述表格比其他資源要小,但其優點在于包含了模型尺寸和許可信息。如果你計劃在任何項目中采用這些模型,則該表格會非常有實用性。

圖片

博客地址:https://lightning.ai/pages/community/community-discussions/the-ultimate-battle-of-language-models-lit-llama-vs-gpt3.5-vs-bloom-vs/

第四種資源是 LLaMA-Cult-and-More 總覽表,它提供了有關微調方法和硬件成本的額外信息。

圖片

總覽表地址:https://github.com/shm007g/LLaMA-Cult-and-More/blob/main/chart.md

利用 LLaMA-Adapter V2 微調多模態 LLM

Sebastian 預測本月會看到更多的多模態 LLM 模型,因此不得不談到不久前發布的論文《LLaMA-Adapter V2: Parameter-Efficient Visual Instruction Model》。先來回顧一下什么是 LLaMA-Adapter?它是一種參數高效的 LLM 微調技術,修改了前面幾個 transformer 塊并引入一種門控機制來穩定訓練。

論文地址:https://arxiv.org/abs/2304.15010

使用 LLaMA-Adapter 方法,研究人員能夠在 52k 個指令對上僅用 1 小時(8 塊 A100 GPU)來微調一個 7B 參數的 LLaMA 模型。雖然僅對新添加的 1.2M 參數(adapter 層)進行了微調,但 7B LLaMA 模型仍處于凍結(frozen)狀態。

LLaMA-Adapter V2 的重點在多模態,即構建一個可以接收圖像輸入的視覺指令模型。最初的 V1 雖然可以接收文本 token 和圖像 token,但在圖像方面沒有得到充分探索。

LLaMA-Adapter 從 V1 到 V2,研究人員通過以下三個主要技巧來改進 adapter 方法。

  • 早期視覺知識融合:不再在每個 adapted 層融合視覺和 adapted 提示,而是在第一個 transformer 塊中將視覺 token 與單詞 token 連接起來;
  • 使用更多參數:解凍(unfreeze)所有歸一化層,并將偏置單元和縮放因子添加到 transformer 塊中每個線性層;
  • 具有不相交參數的聯合訓練:對于圖文字幕數據,僅訓練視覺投影層;針對指令遵循的數據僅訓練 adaption 層(以及上述新添加的參數)。

LLaMA V2(14M)比 LLaMA V1 (1.2 M) 的參數多了很多,但它仍是輕量級,僅占 65B LLaMA 總參數的 0.02%。特別令人印象深刻的是,通過僅對 65B LLaMA 模型的 14M 參數進行微調,得到的 LLaMA-Adapter V2 在性能上媲美 ChatGPT(當使用 GPT-4 模型進行評估)。LLaMA-Adapter V2 還優于使用全微調方法的 13B Vicuna 模型。

遺憾的是,LLaMA-Adapter V2 論文省略了 V1 論文中包含的計算性能基準,但我們可以假設 V2 仍然比全微調方法快得多。

圖片

其他開源 LLM

大模型的發展速度奇快,我們無法一一列舉,本月推出的一些著名的開源 LLM 和聊天機器人包括 Open-Assistant、Baize、StableVicuna、ColossalChat、Mosaic 的 MPT 等。此外,下面是兩個特別有趣的多模態 LLM。

OpenFlamingo

OpenFlamingo 是 Google DeepMind 去年發布的 Flamingo 模型的開源復制版。OpenFlamingo 旨在為 LLM 提供多模式圖像推理功能,讓人們能夠交錯輸入文本和圖像。

MiniGPT-4

MiniGPT-4 是另一種具有視覺語言功能的開源模型。它基于 BLIP-27 的凍結視覺編碼器和凍結的 Vicuna LLM。

圖片

NeMo Guardrails

隨著這些大語言模型的出現,許多公司都在思考如何以及是否應該部署它們,安全方面的擔憂尤為突出。目前還沒有好的解決方案,但至少有一個更有前途的方法:英偉達開源了一個工具包來解決 LLM 的幻覺問題。

簡而言之,它的工作原理是此方法使用數據庫鏈接到硬編碼的 prompt,這些 prompt 必須手動管理。然后,如果用戶輸入 prompt,該內容將首先與該數據庫中最相似的條目相匹配。然后數據庫返回一個硬編碼的 prompt,然后傳遞給 LLM。因此,如果有人仔細測試硬編碼 prompt,就可以確保交互不會偏離允許的主題等。

圖片

這是一種有趣但不是開創性的方法,因為它沒有為 LLM 提供更好的或新的能力,它只是限制了用戶可以與 LLM 交互的程度。盡管如此,在研究人員找到減輕 LLM 中的幻覺問題和負面行為的替代方法之前,這可能是一種可行的方法。

guardrails 方法還可以與其他對齊技術相結合,例如作者在上一期 Ahead of AI 中介紹的流行的人類反饋強化學習訓練范例。

一致性模型

談論 LLM 以外的有趣模型是一個不錯的嘗試,OpenAI 終于開源了他們一致性模型的代碼:https://github.com/openai/consistency_models。

一致性模型被認為是擴散模型的可行、有效的替代方案。你可以在一致性模型的論文中獲得更多信息。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2025-09-05 13:53:51

AI開源模型

2022-12-19 10:40:53

2024-04-10 09:29:16

LLM開源大模型

2025-01-26 11:38:54

2023-06-09 16:50:21

Tigerbo

2024-12-18 18:57:58

2022-05-24 09:57:32

微軟開源AI 驅動

2015-10-12 16:15:55

自媒體閱讀數

2018-01-10 12:09:12

Android開發程序員

2023-06-19 16:05:22

大型語言模型人工智能

2023-02-15 09:00:49

2021-10-28 05:39:14

Windows 10操作系統微軟

2013-05-27 09:47:33

Java開發Java跨平臺

2019-10-08 11:07:55

Python 開發編程語言

2009-11-23 08:52:02

Windows 7首月銷量

2017-12-13 16:21:51

內存價格崩盤

2023-12-05 11:40:02

2013-03-08 09:40:00

數據百度360

2016-01-11 19:38:51

七牛

2009-12-29 09:11:00

點贊
收藏

51CTO技術棧公眾號

欧美午夜精品| 国内露脸中年夫妇交换精品| 国产精品九色蝌蚪自拍| 91欧美精品成人综合在线观看| 男人与禽猛交狂配| 网曝91综合精品门事件在线| 欧美中文字幕亚洲一区二区va在线| 久久久一二三四| 五月婷婷丁香花| 麻豆91精品视频| 91超碰中文字幕久久精品| 男女男精品视频网站| 久久电影在线| 日韩一区二区三区观看| 亚洲综合在线网站| 超级白嫩亚洲国产第一| 中文字幕一区二区三区乱码在线 | 99久久精品国产观看| 国产精品亚洲一区二区三区| 成年人午夜视频| 一区二区电影在线观看| 亚洲欧美福利视频| 国产黑丝一区二区| 天堂av一区| 欧美视频自拍偷拍| 黄色片一级视频| 成入视频在线观看| 亚洲欧美日韩在线| 亚洲一区二区精品在线观看| 亚洲色图狠狠干| 国产mv日韩mv欧美| 91热福利电影| 一级片在线免费观看视频| 久久国产成人| 国产91精品久久久久久久| 免费看一级一片| 中文字幕日韩欧美精品高清在线| 日韩视频中文字幕| 男女男精品视频网站| 国产探花一区| 亚洲视频axxx| 精品成人无码一区二区三区| 羞羞答答一区二区| 精品亚洲一区二区三区在线播放 | 91成人精品在线| 欧美一级国产精品| 中文字幕一区二区三区人妻在线视频| av在线精品| 欧美日韩精品系列| 在线观看免费污视频| 成人国产精品一区二区免费麻豆 | 不卡的日韩av| 国产白丝网站精品污在线入口| 亚洲一区二区三区久久| 国产又粗又猛又爽又黄91| 国产在线不卡视频| 亚洲一区二区三区在线视频| 国产三级午夜理伦三级| 国产精品夜夜嗨| 99精品在线直播| 亚洲免费成人在线| av中文字幕在线不卡| 久久99影院| 黄色毛片在线观看| 欧美高清在线一区二区| 亚洲人成网站在线播放2019| 日本中文字幕电影在线免费观看| 国产精品不卡在线观看| 佐佐木明希av| 久久男人av资源站| 在线观看日韩精品| 亚洲小视频网站| 日韩三级久久| 欧美一级久久久| 久久精品女同亚洲女同13| 免费看av成人| 超碰97人人做人人爱少妇| 丰满少妇高潮久久三区| 国产精品女主播一区二区三区| 国产成人精品网站| 国产一区二区在线视频观看| 国产成人综合亚洲网站| 精品久久久久久综合日本 | 中文字幕日韩高清在线| 日韩大陆毛片av| 国产性猛交xx乱| 在线精品小视频| 7777精品视频| 中文字幕乱码中文字幕| 成人性生交大片免费看中文 | 国产精品va| 欧美有码在线视频| 国产精品一区二区免费视频| 高清国产午夜精品久久久久久| 久久久久久久久久码影片| 黄色在线观看网站| 欧美日韩国产一中文字不卡| 亚洲综合欧美在线| 国产厕拍一区| 日韩在线视频中文字幕| 免费日韩一级片| 国产乱码精品一区二区三区五月婷| 精品无人区一区二区三区竹菊| 极品美乳网红视频免费在线观看 | 蜜臀av性久久久久蜜臀av| 日本午夜大片a在线观看| 欧美日韩国产天堂| 双性尿奴穿贞c带憋尿| 亚洲影视一区二区三区| 国产成人精品一区| 无码精品视频一区二区三区| 成人免费一区二区三区视频| 女性隐私黄www网站视频| 久久天堂久久| 色悠悠国产精品| 无码免费一区二区三区| 成人网男人的天堂| 国产精品一二三在线观看| 成人在线黄色| 亚洲欧美日韩精品久久奇米色影视 | 中文亚洲av片在线观看| 91丨九色丨黑人外教| 91传媒免费视频| 91精品网站在线观看| 亚洲欧洲一区二区三区在线观看| 日韩精品国产一区二区| 国产99久久久国产精品免费看| 一级做a爰片久久| 中文.日本.精品| 亚洲欧美成人一区二区在线电影| 国产一级做a爱片久久毛片a| 国产成人无遮挡在线视频| 在线观看一区二区三区三州| 懂色aⅴ精品一区二区三区| 亚洲欧美资源在线| 国内免费精品视频| 久久综合色播五月| 国产又黄又大又粗视频| 网红女主播少妇精品视频| 97超碰国产精品女人人人爽| 全国男人的天堂网| 午夜视频一区二区三区| av无码一区二区三区| 99精品国产在热久久| 国产欧美日本在线| 玖玖在线播放| 亚洲情综合五月天| 这里只有精品国产| 国产精品乱码妇女bbbb| 午夜视频在线网站| 欧美一区免费| 国产精品一区二区三区观看| av手机在线观看| 日韩大片免费观看视频播放| 日韩久久精品视频| 久久嫩草精品久久久精品一| 人妻内射一区二区在线视频| 视频一区中文| 成人av番号网| 欧美人与禽性xxxxx杂性| 亚洲аv电影天堂网| 日本熟妇毛耸耸xxxxxx| 久久天天做天天爱综合色| 韩国日本美国免费毛片| 日韩理论电影院| 亚洲自拍欧美色图| 国内激情视频在线观看| 亚洲欧美精品在线| 91禁在线观看| 亚洲一区二区在线观看视频| 亚洲制服丝袜在线播放| 天堂蜜桃91精品| 中日韩在线视频| 丁香一区二区| 国产99久久精品一区二区 夜夜躁日日躁| 国产福利在线视频| 欧美一区二区日韩一区二区| 久青草视频在线观看| 国产日韩欧美电影| 亚洲精品一二三四| 另类亚洲自拍| 国产精品久久成人免费观看| 精品国产乱子伦一区二区| 国产精品黄页免费高清在线观看| 色开心亚洲综合| 日韩高清欧美高清| 91久久精品无码一区二区| 亚洲国产一区二区视频| 人成免费在线视频| 99国产欧美久久久精品| 欧美性受xxxxxx黑人xyx性爽| 亚洲承认在线| 亚洲自拍偷拍二区| 日韩激情网站| 亚洲淫片在线视频| 日韩免费小视频| 久久久中精品2020中文| 在线免费观看黄色网址| 亚洲国产精品人久久电影| 国产精品视频一二区| 色综合久久久久综合99| 1024手机在线视频| 国产日韩欧美一区二区三区综合| 肉丝美足丝袜一区二区三区四| 日韩精品每日更新| 黄色av网址在线播放| 中国成人一区| 亚洲不卡中文字幕| 国产精品网站在线看| 91在线视频成人| 国产超碰精品| 668精品在线视频| 亚洲妇熟xxxx妇色黄| 色婷婷av一区二区三区在线观看| 香蕉久久国产av一区二区| 欧美大片在线观看一区二区| 一区二区三区免费观看视频| 在线一区二区三区做爰视频网站| xxxxxx国产| 亚洲主播在线播放| 欧美激情国产精品免费| **网站欧美大片在线观看| 影音先锋男人在线| 国产日韩欧美麻豆| 亚洲欧洲久久久| 久久色.com| 中文字幕一区二区三区人妻不卡| 成人精品视频网站| 免费黄色在线播放| 国产不卡视频在线播放| 久久久久亚洲av片无码v| 久久99精品国产麻豆婷婷| 天天综合网日韩| 蜜桃一区二区三区在线| 在线观看高清免费视频| 日日夜夜精品免费视频| 免费看黄色一级大片| 快she精品国产999| 色悠悠久久综合网| 久久精品99国产国产精| 午夜免费福利视频在线观看| 免费在线观看精品| 国内外成人免费在线视频| 美女性感视频久久| 国产三级精品三级在线| 经典三级在线一区| www.国产福利| 国产91精品精华液一区二区三区 | 1769国产精品视频| 激情小说综合区| 神马久久影院| 奇米精品在线| 国产精品x453.com| 毛片在线视频观看| 亚洲国产一区二区三区a毛片| 人人妻人人做人人爽| 一区二区黄色| 国产裸体免费无遮挡| 美女视频黄久久| 亚洲综合在线一区二区| 国产很黄免费观看久久| 国产女人18毛片水真多18| 91日韩精品一区| 日本黄色小视频在线观看| 亚洲欧洲av在线| 国产午夜精品一区二区理论影院| 欧美日韩国产中文字幕| 亚洲av综合一区| 日韩欧美在线网站| 婷婷亚洲一区二区三区| 深夜福利一区二区| www.综合网.com| 国产成人在线亚洲欧美| 成人影院网站ww555久久精品| 国产九色精品| 欧美日韩中文字幕一区二区三区| 久久久成人精品一区二区三区 | 国产在线视频综合| 99成人在线| 亚洲欧美自拍另类日韩| 国产精品一区久久久久| 男生裸体视频网站| 国产精品久久久久久久久搜平片| 久久久久亚洲AV成人| 精品毛片网大全| 国产精品久久婷婷| 亚洲国产精品成人av| 秋霞午夜理伦电影在线观看| 国内偷自视频区视频综合| 99精品在免费线偷拍| 鬼打鬼之黄金道士1992林正英| 蜜桃国内精品久久久久软件9| 视频一区二区视频| 老司机精品视频网站| 亚洲AV无码久久精品国产一区| 久久久久亚洲蜜桃| 久久国产露脸精品国产| 欧美三级一区二区| 天堂资源最新在线| 久久久黄色av| 久久亚洲精品爱爱| 久久国产精品久久精品国产| 中文字幕日韩欧美精品高清在线| www.xxx亚洲| av亚洲精华国产精华| 精品无码一区二区三区蜜臀| 一本大道av伊人久久综合| 丰满熟妇人妻中文字幕| 日韩少妇与小伙激情| 高清不卡亚洲| 国外成人在线视频网站| 亚洲情侣在线| 538任你躁在线精品免费| 91在线一区二区三区| 免费无遮挡无码永久在线观看视频| 欧美写真视频网站| 欧美zzoo| 国产91成人video| 欧美男人操女人视频| 无码人妻精品一区二区蜜桃网站| 九色|91porny| 波多野结衣家庭教师在线观看 | 91极品视频在线观看| 91视频观看视频| 久久久久久久久影院| 亚洲成人网久久久| 懂色av一区| 国产乱码一区| 亚洲国产精品一区| 亚洲精品无码一区二区| 一区二区三区中文在线观看| 97人妻一区二区精品免费视频 | av黄色免费在线观看| 在线精品亚洲一区二区不卡| 可以在线观看的av| 日韩av成人在线| 国产探花在线精品一区二区| 成年人黄色片视频| 国产亚洲美州欧州综合国| 欧美一区二区三区网站| 亚洲人在线视频| 国产综合av| 亚洲一区二区不卡视频| 久久av中文字幕片| 欧美大片xxxx| 欧美电影精品一区二区| 超碰97国产精品人人cao| 国产视频一区二区不卡| 国产精品一区亚洲| 男人操女人动态图| 欧美天堂一区二区三区| 婷婷五月在线视频| 亚洲一区免费网站| 亚洲天堂激情| 亚洲av无码一区二区二三区| 色综合久久久网| 欧美videos极品另类| 亚洲已满18点击进入在线看片| 亚洲国产二区| 日韩精品无码一区二区三区久久久 | 久久久99免费| 在线观看黄色国产| 欧美成人久久久| 国产精品中文字幕制服诱惑| 9久久9毛片又大又硬又粗| 国产亚洲短视频| 国产免费久久久| 97在线日本国产| 欧美一站二站| www.四虎精品| 欧洲一区二区三区免费视频| 黄av在线播放| 久久99精品久久久久久秒播放器| 秋霞午夜鲁丝一区二区老狼| 人妻人人澡人人添人人爽| 亚洲高清久久网| 99久久伊人| 久久久久99精品成人片| 国产日韩在线不卡| 精品国产无码一区二区三区| 欧美在线播放视频| 午夜精品毛片| 噜噜噜在线视频| 91麻豆精品国产自产在线观看一区 | 成人一区而且| 不许穿内裤随时挨c调教h苏绵| 一本色道a无线码一区v| www在线观看播放免费视频日本| 精品国产乱码久久久久久108| 日本伊人色综合网| 日韩男人的天堂| 欧美老少做受xxxx高潮| 国产精品手机在线播放| 超碰人人cao| 欧美视频日韩视频| 欧美调教sm| 狠狠干视频网站| 国产精品不卡一区| 黄色在线小视频| 国产亚洲二区|