精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

我們距離GPT-4V真的很近了嗎? 原創

發布于 2024-3-28 09:42
瀏覽
0收藏

在 ChatGPT 引爆 AI 圈之后,很多人預言 2024 年將會是多模態的元年。的確,我們在 23 年的最后一季度見證了 GPT-4V 的發布,前不久Google 家的 Gemini 和 Anthropic 的 Claude 3 也同樣支持多模態(Multimodal to Text),并且 Gemini 1.5 中能夠從兩小時的視頻中準確“撈針”出其中一幀包含的畫面。


國內這方面的工作以 Qwen-VL 為代表,也同樣取得了非常不錯的效果。我們最近也在大視覺語言模型(LMM)做了一些嘗試,發布了 Reka Flash,能夠接受圖片、音頻和視頻的輸入,在 MMMU 上也靠著相對較小的基礎語言模型(21B)也排名能夠排名靠前(截至 2024 年 3 月 9 日,這各領域變化太快了誰知道明天會是什么樣呢哈哈),且 vibe test 下來感覺還行)。

我們距離GPT-4V真的很近了嗎?-AI.x社區


但是我們真的距離 GPT-4V 很近了嗎?The Dawn of LMMs 展現了很多目前無法被 benchmark 分數所涵蓋的能力,似乎還在提醒著我們,前面的路還很長。這篇文章,我將嘗試結合自己的經歷和公開的資料,分享一下對未來視覺語言模型發展的一些想法。


01 Why LMMs?

?

為什么大家都會預測視覺語言模型會在 2024 年爆發?我覺得原因主要有兩點:


1. 視覺的基礎模型眾多 + 數據充足:CV 的自監督學習隨著 BERT 開始就已經有一系列工作,CLIP、MAE 、DINO 等能夠很好地編碼圖片,很好地起到了 visual tokenizer 的效果。


此外,應對上下文的限制,QFormer、Perceiever 也已經被廣泛地驗證了其有效性。除了純文本以外,圖文對也是少數我們能夠輕易獲取到的大量的數據 (e.g,Laion5B),image captioning 本質也是一種 next token prediction。


2. 應用場景廣泛:這個也很直接,日常生活中大多數數據的呈現方式就是,圖片 + 文本 -> 文本的范式能夠極大擴充模型處理任務的范圍。


另外,隨著大語言模型發展催生出的一系列 Agent 研究,在瀏覽網頁的時候會依賴 html 作為輸入。如果能夠直接讓 Agent 看到屏幕,輸出對應的操作坐標,更加簡潔優雅。進一步地,Deepmind 的 RT 2 也驗證了視覺語言模型能夠很快地遷移到諸如 robotic 場景,在 embodied 環境中發揮重要的作用。


這兩個條件可謂是大視覺語言模型發展的天時和地利,我們也同樣可以用這一條路徑來進一步驗壓縮即智能這一想法,看看這一框架是否能夠在具備了更豐富模態信息后,背后世界模型的學習速率是否會進一步加快


關于這一點,之前我們的一個工作 VEC 就發現即使基于純文本 NTP 訓練的 LLMs 也能夠學習到視覺世界的一些基礎概念,但更 embodied 的一些知識則很難(或者以相當低的速率)被學習到,需要借助視覺語言模型來輔助學習。

02 模型架構

目前主流的 LMM 架構基本上是以大語言模型 LLM 為核心骨架,然后將圖片視覺信息整合到 LLM 的預測過程中,因而這個框架里一般有以下幾個組件:


1. 基座語言模型:負責處理多模態的 embedding,并且執行預測推理的功能。一般選擇能夠獲取到的最強、大小最合適的語言模型即可;


2. 視覺編碼器:負責將圖片信息編碼成一組向量,常用的選擇是 CLIP-style 的各個模型(e.g., CLIP-ViT-L/14),最新的 Prismatic VLM 表明,CLIP 得到的圖片表示缺少細粒度的信息,可以通過和另外的視覺編碼器結合來提升在 grounding 等任務上的性能。


3. 模態橋接(Modality Bridge):負責將視覺編碼器得到的圖片表示進行變換映射到新的空間方便 LLM 進行處理。這里的做法有一些不同的方案:


  • Image as Word Embedding:一種經典的嘗試是將視覺編碼器得到的圖片向量通過簡單的 MLP 映射到對應的 word embedding 維度,隨后就可以將圖片作為多個 word embeddings 進行統一的處理。這一方面的局限是視覺編碼器的分辨率往往是固定且比較小的(224 和 336)

?

而在很多場景下這樣的分辨率完全不夠用(OCR 識別、Agent 瀏覽等),可以通過 post-training 來提升圖片的分辨率也可以 bypass 掉 image encoder(沒有了預訓練分辨率的限制),直接將圖片切成小塊,隨后映射到 word embedding 空間。


Fuyu-8B 就是這樣一個思路,在高分辨率的場景下展現出了非常出色的性能。分辨率提升帶來的圖片向量數量平方級增長帶來的計算開銷,可以通過利用 QFormer 或者是 Perceiver 來映射到固定數量來解決。


  • Cross Attention to Visual Embedding:Deepmind 最早搞的 Flamingo就是通過在 LLM 中引入額外的 Gated Cross-Attention Layer,來在文本生成的過程中整合視覺端的信息:


我們距離GPT-4V真的很近了嗎?-AI.x社區


這種方案對區分不同模態有著更加強的先驗,但后續看到的一些開源實現和改進,都很難超越前一種方案。如果訓練量足夠大,那么在前一種方案中 LLM 也能夠自適應地學習到這種先驗,因而我個人覺得這個方案或許在 2 年前是有道理,但在今天 scaling law 的暴力美學下,可能更少先驗,更多數據會是樸實且有效的方案。


GPT-4V 是什么架構?雖然 tech report 里啥也沒說,但是我們從 GPT-4V 的收費計算的方式以及 API Doc,可能可以猜測一下背后視覺模塊的方案。收費模式分兩種:


  • Low Resolution: 這種模式下圖片會被算作 85 input token 進行收費;
  • High Resolution: 圖片首先在保持長寬比會被縮放 2K x 2K 的方塊內(花費 85 個 token)然后圖片的短邊將會被縮放到 768px,并且計算縮放后的圖片需要多少個 512 x 512 的 grid 來覆蓋。
  • ?

官方給出的示例:

我們距離GPT-4V真的很近了嗎?-AI.x社區


由此我們可以看到,一個 512 x 512 的 image tile 被 170 個 token 所表示。假設背后也是 VIT,那我們可以推測:


  1. 如果使用 QFormer 對輸出的 visual token 做降采樣,那原先的 visual tokens 在 300 - 1000 左右(參考 Qwen-VL 的 report,1024 個 patch 被壓縮到 256 個的效果相對最好),則意味著 VIT 的 patch size 最大可能是 28,最小可能是 16 的樣子;
  2. 如果沒有使用 QFormer 進行壓縮,那么以為著 512 x 512 的圖片可能被用了一個 40 的 patch size 。如果是用了這樣的 patch size,那么我們可以進一步推測 low resolution 原始的圖片可能會被統一放縮到 384 x 384 ,因此我們可以用差不多 85 個 token 來表示每個圖片。


最近開源的 LLaVA-Next 也采用了類似的方案,并且在一種 benchmark 上都取得了出色的性能,側面驗證了這種方法的有效性。還有一種是 adaptive 的搜索式的方案 V*,根據需要來切分圖片里的小塊重新交給模型,類似起到 re-attention 的效果,在小物體的檢測問題上面有很大的潛力。總的來說,這些方案都是為了解決輸入圖片分辨率不夠的問題

03 數據

數據一直是這波大語言模型發展的重中之重,從訓練和測評的角度,目前我個人的感受是:

  • LMM 依舊能夠通過構建高質量的訓練數據獲取性能躍遷的階段;
  • LMM 測評基準有了不少進展,但是依舊無法比較全面的 cover 多模態的能力。多模態下的 language modeling loss 也許依舊是一個金指標。

訓練數據

?

我們大致的可以將訓練分成兩個階段:Modality Alignment Training 和 Supervised fine tuning(SFT),前者為了圖片映射到 LLM 的語義空間,而后者則是激發模型的能力來做各種下游任務。


Alignment Dataset: 這塊早先大家會用開源的 Laion400M 和 Laion5B 進行對齊訓練,但實際情況可能是這些數據集中的 image-text pair 都過于 noisy,對于學習模態的 alignment 效率并不高。


一種解決思路是對 alignment數據集進行更加細粒度的表述,進而能夠幫助模型更好地學習圖片中物體的相關位置等關系,和LLM原先的知識掛上鉤。ShareGPT4V 就是一個很好的嘗試,驗證了利用 GPT-4V 重新標注 image captions,就能夠帶來明顯的提升。除了 ShareGPT4V 以外,CapsFusion 也展現了用更豐富的 caption 帶來的提升。


SFT Dataset: 學術界開源的比較好的訓練數據目前主要是 LLaVA 系列,其利用 bounding box 等輔助信息將圖片文本化后,利用 ChatGPT/GPT-4 來生成了大量的 pseudo multimodal pair (detailed captioning, reasoning and conversation)

這個范式非常有效,也是為什么 LLaVA 系列一出來效果很驚艷的原因。但他依舊存在著一些問題:


  1. 既然是 pseudo multimodal,那必然會引發 hallucination 問題(因為 ChatGPT 并沒有真正的 see the image)。這一點也是目前大家關注的重點。解決的方案有 LLaVA-RLHF,通過額外引入一個 Factual reward model 來提升 hallucination;Volcano 則是用 self-feedback 來 revise 輸出。或者更直接一點,我們用早先人工標注的數據做一下統一格式,在保真度方面就會有很大的提升,這方面我們做了 M3IT 來方便大家重新利用之前的數據集來做 SFT 。


  1. 任務的覆蓋面不夠廣,在重要的 OCR、Chart 場景下能力都有所欠缺。這點我們對比 Qwen、LLaVA 1.5 以及 LLaVA-Next 的性能就能看出來,使用了更多更豐富的多模態數據集,基本上都能對下游如 MMMU、MathVista 等測評數據集有所提升。


通過這些研究我們可以猜測,GPT-4V 背后一定是大量的數據工程,具體地可能體現在:


Alignment 端:相比于開源模型利用 CLIP 等作為 vision encoder,OpenAI 應該采用了強化版的 CLIP 模型(畢竟現在的 CLIP 還都是他們 2021 年的成果)。之前的 CLIP 不夠好的很大原因就在于圖片和文本的信息量不對等,caption 大多是簡單的幾個詞來描述物體,而圖片中則有豐富的顏色、位置等時空信息。


不妨可以想象一下,我們用現在的 GPT-4V 標注整個 web images(~ 10B level ?),提升文本端的豐富度并對 hallucination 做控制。在此數據集基礎上我們訓練一個 vision encoder,再迭代地更新 GPT-4V,相信會有一個明顯的提升;


SFT 端:我認為在足夠好的對齊 + 在基模型足夠強大這兩個條件下,可能只需要足夠多樣的(質量 >> 數量)的 prompting 數據就能夠在現在的 VQA、Captioning benchmark 上表現出色。因為客觀來說,現在的測評數據集也都集中在這兩個任務形式上,因此少量的 prompt 就能夠泛化到下游的數據集上。


測評基準

?

目前關注 LMM 測評的工作有很多,大致歸類一下:


綜合性 Benchmark:融合了各種多模態任務,綜合地評估 LMM 各個方面的能力,主要形式是 VQA,給定問題和圖片讓模型回答 Yes/No 或者是給出選項,代表的工作有 MME 還有 MM-Vet。


這里有一些有意思的事情是 MME 采用 Yes/No parsing 來評估,而 MM-Vet 則會采用 ChatGPT 打分的方式評估,前者其實對 GPT-4V 喜歡給出帶理由的回答的模型并不友好,模型可能回答正確但沒有被正確解析;而后者則容易傾向于 prefer ChatGPT style 的模型,偏好使用了接近數據的模型。


特定領域的 Benchmark:hallucination 是多模態更容易體現出來的一個問題,造成的潛在后果也挺大,這方面測評的 benchmark 像 POPE 和 MMHal。但是 POPE 有個問題這個數據集依賴于 COCO 的 tag,就我個人的經驗而言,那個 tag 的準確率并不高,POPE 上的分數因而會收到一定程度的影響。


此外,大家認為 math reasoning 可能是比較有挑戰性的任務,因此像 MMMU 和 MathVista 的關注度都比較高,目前 GPT-4V 也距離人類還是有很大差距。這塊我們最近的一個工作是意識到 ArXiv 上的很多 paper 天然也是多模態的,并且涵蓋了豐富的學科內容,因而我們構建了一個 Multimodal ArXiv,提供 captioning 和 QA (GPT-4V generated) 的數據集,能夠很有效地提升模型數學推理的能力。


這些基準上的分數依舊很難比較全面的反應模型的能力,模型會做題不代表這個模型可用性高。能夠給用戶體驗讓用戶有 wow 感覺的模型,才可能說真的是看到了 GPT-4V 的尾巴,而目前能做到這點的模型,還不多。

04 Future Directions

?

總體來看,我認為我們和 GPT4-V 的差距在于 (i) 基模型的指令跟隨和理解能力;(ii) 模態對齊的訓練質量和數量,以及 (iii) 多樣的 SFT 數據的構建。


其中 (i) 是國內很多公司和研究組努力的方向,相信在大伙的努力下我們會有一個強大的基模型,現在有的 Qwen 、Deepseek、Skywork 等系列模型都很有機會。


(ii) 目前開源出來數據集的量級還不夠大,而這件事情的投入(re-annotating the image world)應該也是巨大。但值得注意的是,DALLE 3 和 Sora 也是用了類似的方案來對 image/video的描述進行細節化,因而進一步提升了生成圖片和視頻的質量。做這件事情的意義可能對于我們去建模一個高分辨率的世界模型是有重大意義的。


(iii) 這件事情或許可以交給學術界來搞,定義和標注有意義的多模態任務,進而整合到 SFT 過程中即可。


除去這些看似比較 boring 的搞數據以外,還有什么值得探索的方向呢,這邊我也分析一些我個人比較感興趣的問題(帶貨環節):


1. LMM Hallucination 形成的原因?在文本領域的 Hallucination 的原因大家也都還在廣泛地討論中,那引入一個額外模態之后,hallucination 的來源會更多了嗎?是數據還是模型架構帶來的問題?如果我們能夠更清晰的看到模型內部的一些信號,或許會對理解這些問題更有幫助。


2. LMM 的安全性:ChatGPT 出來之后就有很多 Red Teaming 和 Jailbreaking的嘗試,那 GPT-4V 會不會也有這種安全性上的 concern 呢?


Red Teaming VLM 提供了一個很好的 benchmark 來做這方面的探索;此外,ImgTrojan 也發現之前 NLP 廣泛存在的后門攻擊同樣適用于 LMM,并且會成為更為隱蔽的特洛伊木馬來規避掉 safe alignment。這里后續的研究又可以進行攻擊、防御、消除的探索。


3. RLHF/DPO for LMM:前面提到的 alignment 和 sft 更多地還是依賴于人類標注的數據,當人類無法給出 ground-truth 的標注的時候,我們就需要構建一個 reward model 來告訴我們哪些回復是更合適的。


RLHF 和 DPO 已經在大語言模型上被驗證了有效性,但當存在額外的模態的時候,如何定義哪個回復是更好的(例如會有更多樣的偏見),如何更好地協調一致的 reward label 的標注等等都會帶來新的問題和挑戰。


我們的 VLFeedback 提供了一個很直給的方案,讓 GPT-4V 來標注不同的方面,并且也驗證了這個框架的有效性。但最近我們也發現 DPO 在不同基模型上的效果還不太一樣,依舊存在很多細節的問題,值得進一步的分析。


總的來說,LMM 在無論是學術界還是工業界,都依舊大有可為。

希望能和這一領域的研究者們一起,接近 GPT-4V,超越 OpenAI!


本文轉自 PaperWeekly ,作者:李磊


原文鏈接:??https://mp.weixin.qq.com/s/sz0cfChe9SXh5wDWHN-UEA??

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
標簽
收藏
回復
舉報
回復
相關推薦
午夜在线观看免费一区| 99只有精品| 91亚洲精品久久久蜜桃网站 | 亚洲午夜一区| 亚洲免费中文字幕| 网站在线你懂的| 2018av在线| 国产精品入口麻豆原神| 国产成人av一区二区三区| 波多野结衣啪啪| 不卡一区二区在线| www国产精品视频| 极品白嫩少妇无套内谢| 国产亚洲综合视频| 国产www.大片在线| 国产黑丝在线一区二区三区| 欧美性做爰毛片| 亚洲女人毛茸茸高潮| 欧美成人专区| 日韩一区二区三区三四区视频在线观看 | 中国一级特黄视频| 女生裸体视频一区二区三区| 国产午夜精品视频| 亚洲av无码一区东京热久久| 本网站久久精品| 精品久久久久久中文字幕大豆网 | 91精品国产91热久久久做人人| 337p粉嫩大胆噜噜噜鲁| av网站在线免费| 中文字幕精品一区二区精品绿巨人 | 99麻豆久久久国产精品免费| 成人激情视频小说免费下载| 五月婷婷六月婷婷| 国产日韩欧美一区在线| 欧美成人手机在线| 91视频最新网址| 成人精品视频| 精品福利av| 亚洲天堂色网站| 污污内射在线观看一区二区少妇| 欧美精品三级在线| 欧美日韩国产成人在线91| 黑森林福利视频导航| 美女av在线免费看| 五月激情综合婷婷| 日韩精品一区二区免费| fc2ppv国产精品久久| 国产精品伦理在线| 日韩中文一区二区三区| 神马午夜在线观看| 成人一区二区三区视频| 成人午夜电影在线播放| 成人av一区二区三区在线观看| 激情深爱一区二区| 91美女片黄在线观看游戏| 一区二区日韩在线观看| 免费高清成人在线| 国产日韩欧美成人| 国产精品乱码久久久| 奇米精品一区二区三区在线观看 | 日韩精品成人一区| 在线免费高清一区二区三区| 久久久久五月天| 久久网中文字幕| 一区二区亚洲精品| 2019亚洲日韩新视频| 国产成人亚洲欧洲在线| 亚洲影院在线| 国产精品狠色婷| 在线视频 中文字幕| 久久99精品一区二区三区三区| 91精品国产自产在线| 国产视频一区二区三| 国产激情视频一区二区在线观看| 97se国产在线视频| 色婷婷激情五月| 久久久久青草大香线综合精品| 日韩欧美三级电影| 麻豆视频免费在线观看| 一区二区三区精品久久久| 日韩一级片免费视频| 擼擼色在线看观看免费| 在线免费av一区| 做a视频在线观看| 2020国产精品极品色在线观看| 亚洲国模精品一区| xxxx日本黄色| 中文字幕一区二区三区欧美日韩| 97精品在线视频| 波多野结衣高清视频| 国产一区二区在线视频| 精品视频在线观看| 99免在线观看免费视频高清| 一区二区三区资源| 国产aaa一级片| 看片一区二区| 亚洲国产精品va| 亚洲色图 激情小说| 欧美激情第二页| 国产999精品久久久| 国产视频手机在线| 国产亚洲女人久久久久毛片| 中文字幕精品在线播放| 我爱我色成人网| 欧美成人性战久久| 黄色三级生活片| 亚洲看片一区| 成人天堂噜噜噜| 人成在线免费视频| 亚洲一级二级在线| 一区二区在线免费看| 神马久久av| 欧美大片免费看| 亚洲一区二区影视| 2024国产精品视频| 欧美美女黄色网| 国产91亚洲精品久久久| 亚洲精品美女久久| 久久精品www| 老司机一区二区| 蜜桃导航-精品导航| 欧美巨大xxxx做受沙滩| 在线播放国产精品二区一二区四区| 国产精品无码网站| 欧美国产三区| 成人免费淫片视频软件| 国产在线视频网站| 日韩欧美一区二区三区| 年下总裁被打光屁股sp | 91综合久久爱com| 色yeye香蕉凹凸一区二区av| 亚洲天堂一区在线观看| 不卡免费追剧大全电视剧网站| 日韩视频在线观看视频| 99热播精品免费| 国产亚洲欧美日韩美女| 国产区一区二区三| 99精品视频在线观看| 日韩精品综合在线| 99精品在免费线中文字幕网站一区| 久久久999国产| 国产精品一二三四五区| 中文字幕一区二区不卡| 手机看片一级片| 日韩精品诱惑一区?区三区| 国产精品高清在线观看| 福利成人在线观看| 欧美自拍丝袜亚洲| 日韩一区二区三区四区视频| 美女一区二区三区| 亚洲精品乱码久久久久久动漫| 国产欧美高清在线| 97成人在线| 欧美日本在线视频中文字字幕| 中文字幕在线播放av| 国产精品无人区| 中文av一区二区三区| 欧美疯狂party性派对| 国产欧美日韩中文字幕| av电影在线观看一区二区三区| 欧美丝袜一区二区三区| 91av在线免费| 久久蜜桃精品| 亚洲精品久久区二区三区蜜桃臀| 国产精品久久久久久久久免费高清| 一区二区福利视频| 91亚洲国产成人精品一区| 亚洲欧洲国产日本综合| 性高潮久久久久久| 亚洲激情影院| 欧美在线播放一区二区| 国产精品伦一区二区| 九九视频这里只有精品| 亚洲av成人无码网天堂| 欧洲国产伦久久久久久久| av片在线免费看| 国产精品99久| 久无码久无码av无码| 婷婷精品在线| 国产欧美亚洲精品| 国产美女一区视频| 亚洲人成自拍网站| 国产精品久久综合青草亚洲AV| 亚洲国产毛片aaaaa无费看| 我和岳m愉情xxxⅹ视频| 狠狠网亚洲精品| 免费超爽大片黄| 精品精品久久| 91免费国产视频| 在线观看爽视频| 日韩在线观看av| 免费看黄网站在线观看| 欧美在线高清视频| 久久综合综合久久| 中文字幕乱码亚洲精品一区| 国产精品嫩草69影院| 丝瓜av网站精品一区二区| 成人在线免费观看视频网站| 一区二区三区四区在线看| 亚洲a一级视频| 欧美电影免费看| 色综合久久久久久中文网| 黑人与亚洲人色ⅹvideos| 日韩一区二区三区三四区视频在线观看| 免费在线不卡视频| 亚洲精品免费在线| 极品人妻videosss人妻| 暴力调教一区二区三区| 老司机久久精品| 久久久久久久尹人综合网亚洲| 91精品国产吴梦梦| 日本精品三区| 欧美精品中文字幕一区二区| 日韩有吗在线观看| 国产主播欧美精品| 二区三区不卡| 欧美激情影音先锋| 国产美女在线观看| 国产亚洲视频在线| 日韩三级电影网| 亚洲精品在线三区| 国内精品偷拍视频| 欧美人与z0zoxxxx视频| 日本久久综合网| 无码av中文一区二区三区桃花岛| 99久久婷婷国产综合| 国产精品色一区二区三区| 精品人妻无码一区二区三区| 成人高清av在线| 自拍视频第一页| 国产一区在线视频| 五月婷婷之婷婷| 免费在线看成人av| 福利在线一区二区三区| 香蕉视频成人在线观看| 久久免费视频3| 亚洲精品男同| 久激情内射婷内射蜜桃| 好吊一区二区三区| 成人免费在线视频播放| 欧美a级一区| 粉嫩av一区二区三区天美传媒| 久久精品久久久| 在线观看18视频网站| 精品国产乱码久久久久久天美| 破处女黄色一级片| 中文字幕一区二区三中文字幕| 国产手机在线观看| 久久久久久久综合色一本| 短视频在线观看| 久久久久久影视| 性の欲びの女javhd| 欧美激情一区二区三区蜜桃视频| 熟女高潮一区二区三区| 国产三级一区二区| 又色又爽的视频| 自拍偷自拍亚洲精品播放| 美女福利视频在线观看| 一区二区三区国产豹纹内裤在线| 欧美久久久久久久久久久久| 亚洲午夜久久久久| 国产美女激情视频| 欧美无人高清视频在线观看| 中文字幕自拍偷拍| 欧美一级片在线| 秋霞av鲁丝片一区二区| 亚洲精品久久久久久久久久久久久| 无码精品黑人一区二区三区 | 少妇高潮一区二区三区| 欧美日韩在线观看一区| 精品国产1区| 一级二级三级欧美| 欧美精品99| 欧美三级在线观看视频| 日韩黄色在线观看| 亚洲无在线观看| 99精品欧美一区二区三区小说| 男人天堂av电影| 亚洲免费色视频| 日韩毛片一区二区三区| 欧美军同video69gay| 国产美女主播在线观看| 亚洲国产精久久久久久| 98在线视频| 久久久久久久国产| 亚洲mmav| 91免费看蜜桃| av一区二区高清| 国产欧美久久久久| 日韩高清在线观看| 亚洲天堂伊人网| 91老师国产黑色丝袜在线| 五月天av网站| 色综合婷婷久久| www日本高清| 中文字幕日韩有码| 蜜桃视频在线观看免费视频| 国产日韩在线视频| 首页亚洲中字| 黄黄视频在线观看| 日韩电影免费在线观看网站| 无码人妻丰满熟妇区毛片蜜桃精品 | 91精彩视频在线播放| 久久琪琪电影院| 青青久久精品| 美媛馆国产精品一区二区| 欧美日本不卡| 日韩精品视频一二三| 91色视频在线| 国产真实乱人偷精品视频| 欧美日韩精品一区二区三区| 香蕉视频黄色片| 久久99久国产精品黄毛片入口| 国产成人免费9x9x人网站视频| 成人区精品一区二区| 亚洲午夜精品一区 二区 三区| 亚洲成熟丰满熟妇高潮xxxxx| 成人午夜又粗又硬又大| 三上悠亚作品在线观看| 欧美三级电影在线看| 极品白浆推特女神在线观看 | 9i精品福利一区二区三区| 欧美精品一区男女天堂| 1769免费视频在线观看| 国产在线观看一区二区三区| 国产精品三级| 97av视频在线观看| 99久久精品国产毛片| 动漫精品一区一码二码三码四码| 欧美一区二区性放荡片| 欧美69xxx| 国产日韩在线精品av| 9999国产精品| 国产aⅴ爽av久久久久| 国产精品国产自产拍高清av王其| 国产午夜无码视频在线观看| 亚洲免费一级电影| 小草在线视频免费播放| 久久99国产精品| 国产精品女主播一区二区三区| 国产乱国产乱老熟300部视频| 亚洲美女视频在线观看| av中文字幕免费| 欧美另类老女人| 69精品国产久热在线观看| 久久这里只有精品8| 粉嫩av一区二区三区在线播放| 青娱乐国产在线视频| 精品国内二区三区| а_天堂中文在线| 精品国产一区二区三区日日嗨| 国产精品久久久久久久久久妞妞| 成人在线视频免费播放| 都市激情亚洲色图| 蝌蚪视频在线播放| 国产欧美日韩高清| 亚洲激情中文在线| 绯色av蜜臀vs少妇| 亚洲成人自拍一区| 久青青在线观看视频国产| 国产精品视频网站| 欧美成熟视频| 天天躁日日躁狠狠躁免费麻豆| 精品国产乱码久久久久久婷婷| 男人天堂亚洲二区| 成人福利在线观看| 国产精品99一区二区| a视频免费观看| 色8久久人人97超碰香蕉987| 日韩欧美小视频| 999在线观看免费大全电视剧| 亚洲人妖在线| 欧美午夜激情影院| 欧美一区二区三区婷婷月色| 24小时免费看片在线观看 | 欧美成人嫩草网站| japanese在线观看| 欧美亚洲一区二区三区四区| 黄色成人影院| 久久爱av电影| 美女网站色91| 国产第100页| 尤物yw午夜国产精品视频明星| 国语精品视频| 欧美极品欧美精品欧美图片| 国产精品久久精品日日| 丰满少妇一级片| 国产精品久久久久久av福利| 欧美在线免费一级片| 国内精品久久99人妻无码| 欧美高清你懂得| 中文字幕在线看片| 中国黄色录像片| 久久久精品日韩欧美| 国产黄a三级三级看三级| 欧洲成人免费aa| 欧美体内she精视频在线观看| 亚洲做受高潮无遮挡| 91精品国产麻豆国产自产在线| 成人性生交大片免费观看网站|