精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

四種通過LLM進行文本知識圖譜的構建方法對比介紹

人工智能
我們在以前的文章中已經介紹了使用大語言模型將非結構化文本轉換為知識圖譜。但是對于知識圖譜的創建是一個很復雜的過程,比如需要對屬性增加限制,創建符合特定主題/模式的圖譜,并且有時文檔非常大,無法作為單個提示處理,所以在切分后的提示中創建的圖譜需要前后一致。

我們在以前的文章中已經介紹了使用大語言模型將非結構化文本轉換為知識圖譜。但是對于知識圖譜的創建是一個很復雜的過程,比如需要對屬性增加限制,創建符合特定主題/模式的圖譜,并且有時文檔非常大,無法作為單個提示處理,所以在切分后的提示中創建的圖譜需要前后一致。

所以本文將介紹和比較使用LLM轉換非結構化文本的四種方法,這些方法在不同的場景中都可能會用到。

使用LLM預訓練本體(ontologies)

LLM似乎已經接受了各種標準本體(如SCHEMA)的預先培訓。ORG, FOAF, SKOS, RDF, RDFS, OWL等。所以通過適當的系統提示來指導使用這個預訓練的本體,再加上包含非結構化文本的用戶提示,我們可以獲得想要的轉換后的圖譜結構。

提示如下

Translate the following user text to an RDF graph using the RDF, RDFS, and OWL ontologies formatted as TTL.
 Use the prefix ex: with IRI <http://example.com/> for any created entities.

LLM的相應如下

@prefix ex: <http://example.com/> .
 @prefix rdf: <http://www.w3.org/1999/02/22-rdf-syntax-ns#> .
 @prefix rdfs: <http://www.w3.org/2000/01/rdf-schema#> .
 @prefix owl: <http://www.w3.org/2002/07/owl#> .
 ex:PeterJones rdf:type ex:Person ;
  rdf:label "Peter Jones" .
 ex:BethHampton rdf:type ex:Person ;
  rdf:label "Beth Hampton" .
 ex:BrunelUniversity rdf:type ex:University ;
  rdf:label "Brunel University" .
 ex:George rdf:type ex:Person ;
  rdf:label "George" .
 ex:James rdf:type ex:Person ;
  rdf:label "James" .
 ex:Harold rdf:type ex:Person ;
  rdf:label "Harold" .
 ex:PeterJones ex:studiedAt ex:BrunelUniversity ;
  ex:marriedTo ex:BethHampton ;
  ex:hasChild ex:George, ex:James, ex:Harold .

對于gpt-3.5-turbo在創建新屬性時沒有問題。如果我們修改系統提示符,只使用SCHEMA.ORG

Translate the following user text to an RDF graph using the SCHEMA.ORG ontologies formatted as TTL.
 Use the prefix ex: with IRI <http://example.com/> for any created entities.

也會得到相應的輸出

@prefix ex: <http://example.com/> .
 @prefix schema: <https://schema.org/> .
 
 ex:PeterJones a schema:Person ;
  schema:spouse ex:BethHampton ;
  schema:alumniOf ex:BrunelUniversity .
 
 ex:BethHampton a schema:Person ;
  schema:spouse ex:PeterJones .
  ex:BrunelUniversity a schema:EducationalOrganization .
 
 ex:George a schema:Person .
 ex:James a schema:Person .
 ex:Harold a schema:Person .
 
 ex:PeterJones schema:children ex:George, ex:James, ex:Harold .
 ex:BethHampton schema:children ex:George, ex:James, ex:Harold .

這是最簡單的方法,因為我們不需要做任何的操作,完全的使用LLM已經訓練好的內容,并且也能得到很好的輸出。提示也非常簡潔(約41個token),不會占用太多的字符。

但是轉換僅限于LLM預先訓練過的那些“標準”本體。如果你問ChatGPT是在什么標準本體上進行訓練的,他不會給你想要的答案,這樣對我們來說就是一個黑盒。并且在文本到圖譜的轉換中生成的實體還需要在各個圖譜之間進行對齊。

在LLM提示中添加本體

在大多多情況下,我們希望使用非標準或自定義本體。LLM不太可能在這樣的本體上進行預訓練,因此我們需要在提示中包含完整的本體。

Translate the following user text to an RDF graph using the following schema1: <http://inova8.com/schema/1/> ontologies formatted as TTL.
 Use the prefix ex: with IRI <http://example.com/> for any created entities.
 Only use pre-defined classes and properties from the schema1: <http://inova8.com/schema/1/> ontology.
 Use the properties and classes in the schema1: ontology.
 Include individuals, their data, and relationships.
 
 ... the full ontology in TTL format ...

我們需要對轉換的內容進行詳細的說明,這導致提示token增加到了~3567,使用與之前相同的輸入提示,LLM也可以很好地轉換文本:

ex:PeterJones rdf:type schema1:CC ;
  :dc "Peter" ;
  :de "Jones" ;
  :oa ex:BrunelUniversity ;
  :oh ex:BethHampton ;
  :of ex:business .
 ex:BethHampton rdf:type schema1:CC ;
  :dc "Beth" ;
  :de "Hampton" ;
  :oa ex:BrunelUniversity ;
  :oh ex:PeterJones ;
  :of ex:business .
 ex:BrunelUniversity rdf:type schema1:CA ;
  rdfs:label "Brunel University" .
 ex:George rdf:type schema1:CC ;
  rdfs:label "George" ;
  :od ex:PeterJones ;
  :od ex:BethHampton .
 ex:James rdf:type schema1:CC ;
  rdfs:label "James" ;
  :od ex:PeterJones ;
  :od ex:BethHampton .
 ex:Harold rdf:type schema1:CC ;
  rdfs:label "Harold" ;
  :od ex:PeterJones ;
  :od ex:BethHampton .
 ex:PeterJones :oh ex:BethHampton .
 ex:BethHampton :oh ex:PeterJones .

當我們將自定義的內容包含在提示中時,LLM似乎可以理解用RDF、RDFS和OWL表示的本體,并且能夠將非結構化文本轉換為自定義本體。

但是這導致提示現在非常長,以為系統提示token開銷很大。這將增加成本也會減慢響應時間,因為時間與要處理的token成正比。并且這個結果仍然需要對齊。

使用本體進行微調

前兩種方法的主要問題是局限于預訓練的本體,或者在提示中包含自定義本體時開銷很大。所以我們可以對LLM進行微調使用KG對LLM進行微調是非常簡單的,因為圖的本質是三元組:

{:subject :predicate :object}

我們可以將其映射到提示中進行訓練。下面的內容都是可以從圖中自動生成的。

{“messages”: [
  {"role": "system", "content": "Complete the following graph edge"},
  {"role": "user", "content": "What is <:subject> <predicate>?"},
  {"role": "assistant", "content": " <:subject> is <:predicate> <:object>."}]
 }
 …

這個問題就變成了訓練LLM將一種語言(非結構化英語文本)翻譯成另一種語言(使用微調本體語義的高度結構化rdf圖)。

messages”: [
  {"role": "system", "content": "Translate the following user text to an RDF graph using the Schema1 ontology."},
  {"role": "user", "content": "{example unstructured text}"},
  {"role": "assistant", "content": "{RDF graph using custom Schema1 ontology semantics}"}]
 }
 …

所以問題就變成了創建一個具有代表性的微調訓練集(100~200個)和RDF轉換集。但是如何設計提示呢?我們來直接問問LLM,因為她最了解自己,哈。

I want to fine-tune an LLM on this Schema1 ontology. 
 This training aims to take an example user text and the assistant translates it into an RDF graph based on the Schema1 ontology. 
 Please create a comprehensive set of 50 example system, user, and assistant messages in JSONL message conversational chat format format for fine-tuning an LLM to translate text to Schema1 ontology RDF.
 The system content should be the instruction to translate the user text to the assistant RDF graph response using Sxchema1 ontology.
 The user text should be examples that cover all the concepts within the Schema1 ontology.
 The assistant content should be an RDF graph using the Schema1 ontology of the translation of the user text examples.
 Use the prefix ex: with IRI <http://example.com/> for any created entities.
 Use the message format as follows:
  {"messages": [
    {"role": "system", "content": "<system_content>"}, 
    {"role": "user", "content": "<user_content>}, 
    {"role": "assistant", "content": "<assistant_content>"}
  ]}

gpt-3.5-turbo以正確的格式做出了回應。

{“messages”: [
  {“role”: “system”, “content”: “
      Translate the following user text to an RDF graph using the Schema1 ontology.”}, 
  {“role”: “user”, “content”: “
      John Smith is a professor who graduated from a reputed college.”}, 
  {“role”: “assistant”, “content”: “
      @prefix ex: <http://example.com/> .
      @prefix schema1: <http://inova8.com/schema/1/> .
      ex:JohnSmith rdf:type schema1:CC ;
        schema1:dc \”John\” ;
        schema1:de \”Smith\” ;
        schema1:of schema1:professor ;
        schema1:oa ex:ReputedCollege .
      ex:ReputedCollege rdf:type schema1:CA .”}]}
 
 … and so on

我們來試試效果,使用它生成了一個適當大小的(160)轉換調優數據集。使用3和10個epoch對LLM進行了微調。

System-prompt (34 tokens):

Translate the following user text to an RDF graph using the Schema1 ontology.
 Use the prefix ex: with IRI <http://example.com/> for any created entities.

User-prompt (28 tokens):

Peter Jones and Beth Hampton both studied at Brunel University, then got married, and have three children: George, James, and Harold.

LLM的結果

@prefix ex: <http://example.com/> .
 ex:PeterJones a schema1:CC ;
  schema1:dc "Peter" ;
  schema1:de "Jones" ;
  schema1:of schema1:student .
 ex:BethHampton a schema1:CC ;
  schema1:dc "Beth" ;
  schema1:de "Hampton" ;
  schema1:of schema1:student .
 ex:JonesHamptonMarriage a schema1:CG ;
  schema1:og ex:PeterJones ;
  schema1:oh ex:BethHampton .
 ex:GeorgeJones a schema1:CD ;
  schema1:dc "George" ;
  schema1:od ex:PeterJones ;
  schema1:of ex:BethHampton .
 ex:JamesJones a schema1:CD ;
  schema1:dc "James" ;
  schema1:od ex:PeterJones ;
  schema1:of ex:BethHampton .
 ex:HaroldJones a schema1:CD ;
  schema1:dc "Harold" ;
  schema1:od ex:PeterJones ;
  schema1:of ex:BethHampton .

可以看到,工作的還不錯,LLM自己給自己上了一課,我們只是動動嘴(手)。另外在質量上3 epoch和10 epoch微調的LLM之間的轉換質量似乎沒有什么差別。

LLM可以使用自定義本體進行微調,調優LLM的提示可以非常簡潔(約41個token),因此大部分token成本由要轉換的非結構化文本組成。

但是微調需要度量llm理解自定義本體的準確性和圖譜轉換的準確性的指標,如何判斷好壞就是一個需要仔細研究的問題,我們生成的圖譜仍然需要對齊。

改進微調的提示

通常情況下,單個本體/模式不足以捕獲文本的完整語義,所以需要使用兩個或更多本體。這里的一個好消息是經過微調,LLM并沒有忘記預訓練的本體,所以我們可以將它們結合使用。

Translate the following user text to an RDF graph using both the FOAF, and Schema1 ontologies.
 Use the prefix ex: with IRI <http://example.com/> for any created entities.
 Peter Jones and Beth Hampton both studied at Brunel University, then got married, and have three children: George, James, and Harold. 
 Peter, email address peter.jones@inova8.com, has been friends with Paul Williams because of their shared interest in ornithology.

結果如下:

@prefix ex: <http://example.com/> .
 ex:PeterJones a schema1:Thing, foaf:Person ;
  schema1:email "peter.jones@inova8.com" ;
  foaf:name "Peter Jones" ;
  foaf:interest ex:Ornithology .
 ex:BethHampton a schema1:Thing, foaf:Person ;
  foaf:name "Beth Hampton" .
 ex:GeorgeJones a schema1:Thing, foaf:Person ;
  foaf:name "George Jones" ;
  foaf:maker ex:PeterJones .
 ex:JamesJones a schema1:Thing, foaf:Person ;
  foaf:name "James Jones" ;
  foaf:maker ex:PeterJones .
 ex:HaroldJones a schema1:Thing, foaf:Person ;
  foaf:name "Harold Jones" ;
  foaf:maker ex:PeterJones .
 ex:BrunelUniversity a schema1:Thing, foaf:Document ;
  foaf:name "Brunel University" .
 ex:JonesHamptonMarriage a schema1:Thing ;
  schema1:spouse ex:PeterJones, ex:BethHampton .
 ex:JonesHamptonFamily a schema1:Thing ;
  schema1:parent ex:PeterJones, ex:BethHampton ;
  schema1:child ex:GeorgeJones, ex:JamesJones, ex:HaroldJones .
 ex:PeterJones foaf:knows ex:PaulWilliams .
 ex:PaulWilliams a schema1:Thing, foaf:Person ;
  foaf:name "Paul Williams" .

可以看到,回復中不僅包含了我們微調的結果,還包含了模型預訓練時返回的結果

但是這里有一個問題,當同一概念在本體之間重疊時,我們需要控制LLM返回使用哪個。

總結

對于上面幾種方法的對比,我們總結了一個圖表:

llm可以有效地將非結構化文本轉換為RDF圖。自定義本體微調模型的token效率要高得多,因為它不需要在每個轉換請求提示符中提供完整本體的開銷,當需要轉換多個文本時,這可以降低生產環境中的轉換成本。

但是我們還沒有提到如何建立文本到KG轉換的“準確性”測試,并且轉換后如何進行實體對齊,我們將在后面的文章中繼續介紹。

責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2025-11-13 09:35:29

2024-10-08 10:37:12

語言數據自然語言

2022-08-11 14:11:14

知識圖譜人工智能

2019-05-07 10:01:49

Redis軟件開發

2025-07-28 05:00:00

知識圖譜AI人工智能

2024-10-07 08:49:25

2025-06-05 02:00:00

人工智能知識圖譜AI

2025-05-08 09:00:00

知識圖譜LLMSQL

2017-03-06 16:48:56

知識圖譜構建存儲

2021-01-19 10:52:15

知識圖譜

2025-04-27 00:10:00

AI人工智能知識圖譜

2024-08-27 08:29:49

2011-06-30 14:45:52

外鏈

2021-01-25 10:36:32

知識圖譜人工智能

2023-04-26 06:22:45

NLPPython知識圖譜

2023-10-17 07:54:43

AI算法

2025-06-03 06:14:37

2023-06-29 07:27:26

知識圖譜Shopee

2025-06-06 01:00:00

AI人工智能知識圖譜

2025-07-18 10:35:30

Python知識圖譜圖數據庫
點贊
收藏

51CTO技術棧公眾號

国产精品二线| www亚洲视频| 欧美专区视频| 久久色.com| 欧美巨大黑人极品精男| 一二三区视频在线观看| av免费在线免费观看| 成人深夜在线观看| 国产精品女人久久久久久| 国产尤物在线播放| 色天下一区二区三区| 亚洲成人一区二区在线观看| 欧美亚洲丝袜| 国产v在线观看| 婷婷综合网站| 亚洲精品永久免费精品| 91精产国品一二三产区别沈先生| h片在线观看下载| 国产精品色在线观看| 国产精品久久久久久亚洲调教| www欧美com| 精品国产欧美日韩| 精品福利一区二区三区免费视频| 国产尤物av一区二区三区| 国产小视频在线| 粉嫩在线一区二区三区视频| 国外视频精品毛片| 在线视频 日韩| 日本久久二区| 日本大香伊一区二区三区| 日韩精品综合在线| 少妇人妻精品一区二区三区| 久久99国产精品免费网站| 51久久精品夜色国产麻豆| 波多野结衣办公室33分钟| 亚洲欧洲国产精品一区| 精品国产乱码久久久久久天美| 久久精品一区二区三区不卡免费视频| 亚洲av中文无码乱人伦在线视色| 欧美网站在线| 国产婷婷97碰碰久久人人蜜臀| 麻豆精品国产传媒| 涩涩av在线| 亚洲一区二区三区在线播放| 午夜久久久久久久久久久| 电影在线高清| 国产精品一区在线| 成人福利在线视频| 国产成人愉拍精品久久| 国产伦精品一区二区三区千人斩 | 在线一区亚洲| 国产精品久久久久一区二区国产| 久久综合色鬼综合色| 国产精品欧美一区二区| 久久久精品99| 欧美午夜不卡| 欧美高清视频在线| 欧美日韩人妻精品一区二区三区| 偷拍亚洲色图| 51久久夜色精品国产麻豆| 久久久久久久久久久久91| 成人涩涩视频| 欧美日韩久久久一区| 131美女爱做视频| av丝袜在线| 欧美日韩国产丝袜另类| 日韩中文一区二区三区| 成人h小游戏| 中文子幕无线码一区tr| 国产精品综合久久久久久| 国模无码一区二区三区| 91在线视频播放地址| 美女主播视频一区| 亚洲精品国偷拍自产在线观看蜜桃| 久久www成人_看片免费不卡| 欧美日韩第一视频| 少妇太紧太爽又黄又硬又爽小说| 区一区二视频| 久久伊人91精品综合网站| aaaaaav| 电影91久久久| 欧美日韩免费一区二区三区视频| 九九九九九伊人| 性高爱久久久久久久久| 欧美网站一区二区| 免费欧美一级片| 黑色丝袜福利片av久久| 在线观看成人黄色| 天天天天天天天天操| 久久在线视频| 久久久亚洲成人| 波多野结衣一区二区在线| 久久99久国产精品黄毛片色诱| 91精品国自产在线观看 | 日本高清不卡一区二区三区视频| 亚洲永久精品大片| aaa免费在线观看| 在线观看av的网站| 亚洲综合在线第一页| 日批视频在线免费看| 一二三四视频在线中文| 亚洲v精品v日韩v欧美v专区| 国产av无码专区亚洲精品| 欧美天堂一区二区| 亚洲高清在线观看| 午夜国产福利视频| 一区二区91| 国产一区二区丝袜高跟鞋图片| 最近中文字幕在线免费观看 | 成人xvideos免费视频| 中文字幕永久在线视频| 麻豆精品视频在线观看视频| 国产精品视频免费观看| 五月婷婷久久久| 国产精品女主播av| 国产97在线 | 亚洲| 97成人资源| 日韩精品一区二区三区swag | 超碰在线观看av| 国产99久久久精品| 在线视频91| 在线播放蜜桃麻豆| 欧美色综合网站| 污污污www精品国产网站| 欧美激情国产在线| 欧美日产国产成人免费图片| 中文字幕乱码视频| 久久久久久久久久看片| 亚洲国产另类久久久精品极度| av中文天堂在线| 中文字幕在线不卡一区二区三区| 欧美丰满熟妇bbbbbb百度| 久久野战av| 精品亚洲国产成av人片传媒 | 国产在线视频一区| 黄色片在线免费看| 色综合夜色一区| 亚洲综合婷婷久久| 精品国产中文字幕第一页| 97视频在线观看视频免费视频 | www.国产精品| 91精品国产色综合久久不卡蜜臀 | 一区二区视频免费| 国产酒店精品激情| 久久最新免费视频| 国产白浆在线免费观看| 欧美va亚洲va在线观看蝴蝶网| 午夜国产小视频| 麻豆成人久久精品二区三区红| 少妇精品久久久久久久久久| 欧美艳星kaydenkross| 制服丝袜av成人在线看| av直播在线观看| 亚洲在线黄色| 成人免费91在线看| 欧美四级在线| 欧美va亚洲va香蕉在线 | 欧美午夜电影在线| 亚洲午夜久久久久久久久红桃| 午夜在线a亚洲v天堂网2018| 亚洲a∨日韩av高清在线观看| 国产一二区在线| 欧美一级日韩不卡播放免费| 手机在线免费看毛片| 日韩成人午夜精品| 国产精品免费视频一区二区| 欧美成人二区| 精品日本一线二线三线不卡| 欧美精品亚洲精品日韩精品| 2017欧美狠狠色| 成人午夜视频在线观看免费| 日日夜夜精品| 亚洲色图激情小说| 在线观看中文字幕av| 最近中文字幕一区二区三区| www.日本xxxx| 999久久久91| 97伦理在线四区| 日本在线观看免费| 91精品国产麻豆| 日本a在线观看| 国产亚洲1区2区3区| 岛国av免费在线| 亚洲日韩视频| 午夜精品区一区二区三 | 国产一区二区在线网站| 国产免费不卡| 久久成人av网站| 一起草av在线| 亚洲成人高清在线| 久久久男人的天堂| 日韩精品每日更新| 51xx午夜影福利| 国产a久久精品一区二区三区| 97色在线视频观看| 生活片a∨在线观看| 亚洲黄色av女优在线观看| 亚洲一区二区激情| 国产精品乱码一区二区三区软件| 美女黄色片视频| 精品国产91乱码一区二区三区四区 | 日韩av二区在线播放| 欧美精品免费观看二区| 午夜欧美激情| 蜜月aⅴ免费一区二区三区 | 99精品热视频| 极品美女扒开粉嫩小泬| 欧美gay男男猛男无套| 国产精品专区一| 国产三区视频在线观看| 亚洲色图第三页| 中文字幕乱码中文字幕| 婷婷国产v国产偷v亚洲高清| 亚洲av无码成人精品国产| 久久亚洲欧美| 青青在线视频免费观看| 波多野结衣在线播放一区| 国产在线久久久| 亚洲丝袜一区| 亚洲精品国产福利| 亚洲黄色小说网| 欧美日韩亚洲高清| 调教驯服丰满美艳麻麻在线视频| av网站免费线看精品| 男人午夜视频在线观看| 日韩国产高清影视| 一本久道久久综合狠狠爱亚洲精品| 久久资源综合| 国产成人成网站在线播放青青| 国产成人免费视频网站视频社区 | 真人做人试看60分钟免费| 色一区二区三区四区| 97免费高清电视剧观看| 中国色在线日|韩| 国外视频精品毛片| 俄罗斯一级**毛片在线播放| 亚洲欧美国产精品va在线观看| 秋霞网一区二区| 欧美日韩免费一区二区三区视频 | 日韩一区二区免费在线电影| 91av久久久| 欧美三日本三级三级在线播放| 无码人妻aⅴ一区二区三区有奶水| 精品日本美女福利在线观看| 亚洲第一在线播放| 福利视频第一区| 精品人妻一区二区三区免费看| 精品国产91久久久| 最新黄色av网址| 日韩一区在线免费观看| 黑人狂躁日本娇小| 亚洲天天做日日做天天谢日日欢| 久久久久人妻一区精品色| 国产精品久久久久久福利一牛影视| www.com日本| 久久国产欧美日韩精品| 国产探花在线看| 亚洲一区一卡| 国产精品无码免费专区午夜| 在线免费高清一区二区三区| 男人添女人下面高潮视频| 亚洲一区成人| 免费的一级黄色片| 四虎成人av| 麻豆一区二区三区在线观看| 国产精品嫩模av在线| 亚洲欧美日韩国产成人综合一二三区 | 黄色三级生活片| 国产精品久久久久久亚洲伦| 全黄一级裸体片| 亚洲国产高清不卡| 岛国毛片在线观看| 黄色成人av在线| 国产在线视频卡一卡二| 亚洲品质自拍视频网站| 免费黄色片网站| 91蜜桃传媒精品久久久一区二区| 蜜桃视频无码区在线观看| 精品亚洲欧美一区| 国产精品99久久久精品无码| av午夜精品一区二区三区| 免费黄在线观看| 国产日产欧美精品一区二区三区| 在线天堂www在线国语对白| 国产成人精品亚洲777人妖| www.17c.com喷水少妇| 成人午夜视频在线观看| 30一40一50老女人毛片| 中文字幕日韩精品一区| 日本最新中文字幕| 亚洲第一狼人社区| 69xxxx国产| 日韩欧美高清在线视频| 亚洲一级片免费看| 欧美美女黄视频| 伊人精品一区二区三区| 亚洲精品一区二区三区福利| 亚洲卡一卡二卡三| 欧美mv日韩mv亚洲| 高清性色生活片在线观看| 国产性色av一区二区| 男女视频在线| 国产精品美女在线观看| 风间由美中文字幕在线看视频国产欧美 | 国产肥臀一区二区福利视频| 亚洲美洲欧洲综合国产一区| 性chinese极品按摩| 不卡电影一区二区三区| 国产三级视频网站| 一区二区在线观看不卡| 亚洲精品一区二区二区| 亚洲激情在线观看视频免费| 日韩国产福利| 欧美大片在线看免费观看| 日本精品在线中文字幕| 精品日产一区2区三区黄免费| 日韩人体视频| 日本在线视频一区| 一本一本久久| 绯色av蜜臀vs少妇| 91女厕偷拍女厕偷拍高清| xxxx日本免费| 图片区小说区区亚洲影院| 探花视频在线观看| 精品久久久久久久久久久久久久久 | 亚洲国产第一页| 中文字幕伦理免费在线视频| 国产欧美日韩丝袜精品一区| 国产一区日韩| 夫妻免费无码v看片| 麻豆freexxxx性91精品| 日批视频在线看| 国产精品理论片在线观看| 久草资源在线视频| 欧美一区二区日韩| 久久综合之合合综合久久| 国产精品欧美日韩一区二区| 国产尤物久久久| 天堂社区在线视频| 国产欧美日韩久久| 无码人妻丰满熟妇区bbbbxxxx| 日韩精品中文字幕在线播放| 幼a在线观看| 91精品国产乱码久久久久久蜜臀 | 欧美一区二区三区喷汁尤物| 欧美成人精品一区二区男人看| 午夜精品在线观看| 精品中国亚洲| 人人妻人人澡人人爽精品欧美一区| 日韩av中文字幕一区二区三区| 精品人伦一区二区三电影| 一区二区三区欧美日韩| www.四虎在线观看| 国产午夜精品美女视频明星a级| 91高清在线观看视频| 国产精品久久色| 久久a爱视频| 99视频精品全部免费看| 国产成人精品亚洲午夜麻豆| 欧美激情 一区| 欧美日韩国产综合久久 | 免费视频一区三区| 国产裸体舞一区二区三区| 国产日韩欧美精品电影三级在线| 久久国产露脸精品国产| 欧美日韩国产电影| 亚洲第一图区| 激情小说网站亚洲综合网| 亚洲国产精品91| 亚洲v在线观看| 亚洲美女视频在线| 亚洲一级黄色大片| 久久99久久99精品中文字幕| 91tv亚洲精品香蕉国产一区| 久久久久高清| 亚洲国产三级| 女~淫辱の触手3d动漫| 欧美性一区二区| 免费一级毛片在线观看| 国内精品久久久久久影视8| 国产95亚洲| 欧美在线观看成人| 国产精品乱码一区二三区小蝌蚪| 国产高清视频免费观看| 国产69精品久久久久久| 露出调教综合另类| av网站在线不卡| 国产日韩欧美a| 国产夫绿帽单男3p精品视频| 欧美亚洲日本黄色| 久久精品亚洲成在人线av网址| 日韩欧美xxxx| 一区二区三区四区av| 精品欧美一区二区精品少妇| 欧美影院在线播放| 色爱综合av| 久久久精品视频国产| 狠狠躁夜夜躁久久躁别揉| 亚洲三区在线播放| 青青青国产精品一区二区|