精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

你知道《圣經》中的主要角色有哪些嗎?三種NLP工具將告訴你答案!

開發 開發工具
本文將以《圣經》為例,用 spaCy Python 庫把三個最常見的 NLP 工具(理解詞性標注、依存分析、實體命名識別)結合起來分析文本,以找出《圣經》中的主要人物及其動作。

提到數據科學,我們想到的都是數字的統計分析,但如今需要對很多非結構文本進行量化分析。本文將以《圣經》為例,用 spaCy Python 庫把三個最常見的 NLP 工具(理解詞性標注、依存分析、實體命名識別)結合起來分析文本,以找出《圣經》中的主要人物及其動作。

[[233875]]

引言

在思考數據科學的時候,我們常常想起數字的統計分析。但是,各種組織機構越來越頻繁地生成大量可以被量化分析的非結構文本。一些例子如社交網絡評論、產品評價、電子郵件以及面試記錄。

就文本分析而言,數據科學家們通常使用自然語言處理(NLP)。我們將在這篇博客中涵蓋 3 個常見的 NLP 任務,并且研究如何將它結合起來分析文本。這 3 個任務分別是:

  • 詞性標注——這個詞是什么類型?
  • 依存分析——該詞和句子中的其他詞是什么關系?
  • 命名實體識別——這是一個專有名詞嗎?

我們將使用 spaCy Python 庫把這三個工具結合起來,以發現誰是《圣經》中的主要角色以及他們都干了什么。我們可以從那里發現是否可以對這種結構化數據進行有趣的可視化。

這種方法可以應用于任何問題,在這些問題中你擁有大量文檔集合,你想了解哪些是主要實體,它們出現在文檔中的什么位置,以及它們在做什么。例如,DocumentCloud 在其「View Entities」分析選項中使用了類似的方法。

分詞 & 詞性標注

從文本中提取意思的一種方法是分析單個單詞。將文本拆分為單詞的過程叫做分詞(tokenization)——得到的單詞稱為分詞(token)。標點符號也是分詞。句子中的每個分詞都有幾個可以用來分析的屬性。詞性標注就是一個例子:名詞可以是一個人,地方或者事物;動詞是動作或者發生;形容詞是修飾名詞的詞。利用這些屬性,通過統計最常見的名詞、動詞和形容詞,能夠直接地創建一段文本的摘要。

使用 spaCy,我們可以為一段文本進行分詞,并訪問每個分詞的詞性。作為一個應用示例,我們將使用以下代碼對上一段文本進行分詞,并統計最常見名詞出現的次數。我們還會對分詞進行詞形還原,這將為詞根形式賦予一個單詞,以幫助我們跨單詞形式進行標準化。

  1. from collections import Counter 
  2. import spacy 
  3. from tabulate import tabulate 
  4. nlp = spacy.load('en_core_web_lg') 
  5.  
  6. text = ""
  7. One way to extract meaning from text is to analyze individual words. 
  8. The processes of breaking up a text into words is called tokenization -- 
  9. the resulting words are referred to as tokens. 
  10. Punctuation marks are also tokens. 
  11. Each token in a sentence has several attributes we can use for analysis. 
  12. The part of speech of a word is one example: nouns are a person, place, or thing; 
  13. verbs are actions or occurences; adjectives are words that describe nouns.  
  14. Using these attributes, it's straightforward to create a summary of a piece of text 
  15. by counting the most common nouns, verbs, and adjectives.  
  16. """ 
  17.  
  18. doc = nlp(text) 
  19. noun_counter = Counter(token.lemma_ for token in doc if token.pos_ == 'NOUN') 
  20.  
  21. print(tabulate(noun_counter.most_common(5), headers=['Noun', 'Count'])) 
  1. Noun         Count 
  2. ---------  ------- 
  3. word             5 
  4. text             3 
  5. token            3 
  6. noun             3 
  7. attribute        2 

依存分析

單詞之間也是有關系的,這些關系有好幾種。例如,名詞可以做句子的主語,它在句子中執行一個動作(動詞),例如「Jill 笑了」這句話。名詞也可以作為句子的賓語,它們接受句子主語施加的動作,例如「Jill laughed at John」中的 John。

依存分析是理解句子中單詞之間關系的一種方法。盡管在句子「Jill laughed at John」中,Jill 和 John 都是名詞,但是 Jill 是發出 laughing 這個動作的主語,而 John 是承受這個動作的賓語。依存關系是一種更加精細的屬性,可以通過句子中單詞之間的關系來理解單詞。

單詞之間的這些關系可能變得特別復雜,這取決于句子結構。對句子做依存分析的結果是一個樹形數據結構,其中動詞是樹根。

讓我們來看一下「The quick brown fox jumps over the lazy do」這句話中的依存關系。

  1. nlp("The quick brown fox jumps over the lazy dog.") 
  2. spacy.displacy.render(doc, style='dep'options={'distance' : 140}, jupyter=True

 

依存關系也是一種分詞屬性,spaCy 有專門訪問不同分詞屬性的強大 API(https://spacy.io/api/token)。下面我們會打印出每個分詞的文本、它的依存關系及其父(頭)分詞文本。

  1. token_dependencies = ((token.text, token.dep_, token.head.text) for token in doc)  
  2. print(tabulate(token_dependencies, headers=['Token', 'Dependency Relation', 'Parent Token'])) 
  1. Token    Dependency Relation    Parent Token 
  2. -------  ---------------------  -------------- 
  3. The      det                    fox 
  4. quick    amod                   fox 
  5. brown    amod                   fox 
  6. fox      nsubj                  jumps 
  7. jumps    ROOT                   jumps 
  8. over     prep                   jumps 
  9. the      det                    dog 
  10. lazy     amod                   dog 
  11. dog      pobj                   over 
  12. .        punct                  jumps 

作為分析的先導,我們會關心任何一個具有 nobj 關系的分詞,該關系表明它們是句子中的賓語。這意味著,在上面的示例句子中,我們希望捕獲到的是單詞「fox」。

命名實體識別

***是命名實體識別。命名實體是句子中的專有名詞。計算機已經相當擅長分析句子中是否存在命名實體,也能夠區分它們屬于哪一類別。

spaCy 在文檔水平處理命名實體,因為實體的名字可以跨越多個分詞。使用 IOB

(https://spacy.io/usage/linguistic-features#section-named-entities)把單個分詞標記為實體的一部分,如實體的開始、內部或者外部。

在下面的代碼中,我們在文檔水平使用 doc.ents 打印出了所有的命名實體。然后,我們會輸出每個分詞,它們的 IOB 標注,以及它的實體類型(如果它是實體的一部分的話)。

我們要使用的句子示例是「Jill laughed at John Johnson」。

  1. doc = nlp("Jill laughed at John Johnson.") 
  2.  
  3. entity_types = ((ent.text, ent.label_) for ent in doc.ents) 
  4. print(tabulate(entity_types, headers=['Entity', 'Entity Type'])) 
  5. print() 
  6. token_entity_info = ((token.text, token.ent_iob_, token.ent_type_,) for token in doc) 
  7. print(tabulate(token_entity_info, headers=['Token', 'IOB Annotation', 'Entity Type'])) 
  1. Entity        Entity Type 
  2. ------------  ------------- 
  3. Jill          PERSON 
  4. John Johnson  PERSON 
  5.  
  6. Token    IOB Annotation    Entity Type 
  7. -------  ----------------  ------------- 
  8. Jill     B                 PERSON 
  9. laughed  O 
  10. at       O 
  11. John     B                 PERSON 
  12. Johnson  I                 PERSON 
  13. .        O 

實例:對《圣經》進行自然語言處理

上面提到的每個方法本身就很強大了,但如果將它們結合起來,遵循語言學的模式提取信息,就能發揮自然語言處理的真正力量。我們可以使用詞性標注、依存分析、實體命名識別的一部分來了解大量文本中的所有角色及其動作。因其文本長度和角色范圍之廣,《圣經》是一個很好的例子。

我們正在導入的數據每個《圣經》經文包含一個對象。經文被用作圣經部分的參考方案,通常包括一個或多個經文句子。我們會遍歷所有的經文,并提取其主題,確定它是不是一個人物,并提取這個人物所做的所有動作。

首先,讓我們從 GitHub 存儲庫中以 JSON 的形式加載圣經。然后,我們會從每段經文中抽取文本,通過 spaCy 發送文本進行依存分析和詞性標注,并存儲生成的文檔。

  1. import requests 
  2.  
  3. r = requests.get('https://github.com/tushortz/Bible/raw/master/json/kjv.json') 
  4. bible_json = [line['fields'] for line in r.json()] 
  5. print('Number of Verses:', len(bible_json)) 
  6.  
  7. text_generator = (line['text'] for line in bible_json) 
  8.  
  9. %time verse_docs = [doc for doc in nlp.pipe(text_generator, n_threads=-1)] 

我們已經用 3 分鐘多一點的時間將文本從 json 解析到了 verse_docs,大約每秒 160 個經文章節。作為參考,下面是 bible_json 前 3 行的內容。

  1. [{'book_id': 1, 
  2.   'chapter': 1, 
  3.   'comment': '', 
  4.   'text': 'In the beginning God created the heaven and the earth.', 
  5.   'verse': 1}, 
  6.  {'book_id': 1, 
  7.   'chapter': 1, 
  8.   'comment': '', 
  9.   'text': 'And the earth was without form, and void; and darkness was upon the face of the deep. And the Spirit of God moved upon the face of the waters.', 
  10.   'verse': 2}, 
  11.  {'book_id': 1, 
  12.   'chapter': 1, 
  13.   'comment': '', 
  14.   'text': 'And God said, Let there be light: and there was light.', 
  15.   'verse': 3}] 

使用分詞屬性

為了提取角色和動作,我們將遍歷一段經文中的所有分詞,并考慮 3 個因素:

  • 這個分詞是句子的主語嗎?(它的依存關系是不是 nsubj?)
  • 它的父分詞是不是動詞?(通常是這樣的,但是有時候 POS 標注和依存分析之間會存在沖突,我們會安全地使用它。此外,我并不是語言學家,所以這里還會有一些奇怪的案例。)
  • 一個分詞的命名實體是否為一個人物?我們不想提取任何不是人物的名詞。(為了簡便,我們僅僅會提取名字)

如果我們的分詞滿足以上 3 種條件,我們將會收集以下的屬性:

  • 名詞/實體分詞的文本。
  • 包含名詞和動詞的范圍。
  • 動詞。
  • 動詞出現在標準英語文本中的對數概率(使用對數的原因是這里的概率都很小)。
  • 經文數量。
  1. actors_and_actions = [] 
  2.  
  3. def token_is_subject_with_action(token): 
  4.     nsubj = token.dep_ == 'nsubj' 
  5.     head_verb = token.head.pos_ == 'VERB' 
  6.     person = token.ent_type_ == 'PERSON' 
  7.     return nsubj and head_verb and person 
  8.  
  9. for verse, doc in enumerate(verse_docs): 
  10.     for token in doc: 
  11.         if token_is_subject_with_action(token): 
  12.             span = doc[token.head.left_edge.i:token.head.right_edge.i+1] 
  13.             data = dict(name=token.orth_, 
  14.                         spanspan=span.text, 
  15.                         verb=token.head.lower_, 
  16.                         log_prob=token.head.prob, 
  17.                         verseverse=verse) 
  18.             actors_and_actions.append(data) 
  19.  
  20. print(len(actors_and_actions)) 

分析

我們已經獲得了提取到的所有角色及其動作的列表,現在我們做以下兩件事來快速分析:

  • 找出每個角色最常做出的動作(動詞)
  • 找出每個人最獨特的動作。我們將其確定為英文文本中出現概率***的動詞。
  1. import pandas as pd 
  2.  
  3. action_df = pd.DataFrame(actors_and_actions) 
  4.  
  5. print('Unique Names:', action_df['name'].nunique()) 
  6.  
  7. most_common = (action_df 
  8.     .groupby(['name', 'verb']) 
  9.     .size() 
  10.     .groupby(level=0group_keys=False
  11.     .nlargest(1) 
  12.     .rename('Count') 
  13.     .reset_index(level=1
  14.     .rename(columns={ 
  15.         'verb': 'Most Common' 
  16.     }) 
  17.  
  18. # exclude log prob < -20, those indicate absence in the model vocabulary 
  19. most_unique = (action_df[action_df['log_prob'] > -20] 
  20.     .groupby(['name', 'verb'])['log_prob'] 
  21.     .min() 
  22.     .groupby(level=0group_keys=False
  23.     .nsmallest(1) 
  24.     .rename('Log Prob.') 
  25.     .reset_index(level = 1
  26.     .rename(columns={ 
  27.         'verb': 'Most Unique' 
  28.     }) 
  29.  
  30. # SO groupby credit 
  31. # https: //stackoverflow.com/questions/27842613/pandas-groupby-sort-within-groups 

讓我們看一下前 15 個角色的動詞數及其最常用的動詞。

  1. most_common.sort_values('Count', ascending=False).head(15) 

貌似《圣經》里面很多人都說了很多話,而所羅門簡直是個例外,他做了很多事情。

那么從出現概率來看,最獨特的動詞是什么呢?(我們將在此處刪去重復項,以便每個單詞都是唯一的)

  1. (most_unique 
  2.  .drop_duplicates('Most Unique') 
  3.  .sort_values('Log Prob.', ascending=True
  4.  .head(15) 

看來我們要學習一些有趣的新詞匯了!我最喜歡的是 discomfited 和 ravin。

可視化

接下來可視化我們的結果。我們將選取行動最多、情節最多的前 50 個名字,這些行動發生在整篇文章中。我們還會在《圣經》每本書的開頭畫垂直線。姓名將按***出現的順序排序。

這可以讓我們知道圣經中每個角色最活躍的時候。

我們將添加一些分隔符來分隔《圣經》的不同部分。我自己并非研究《圣經》學者,所以我參考了如下分隔法

(https://www.thoughtco.com/how-the-books-of-the-bible-are-organized-363393):

《舊約》:

  • 摩西五經或律法書:《創世紀》、《出埃及記》、《利未記》、《民數記》和《申命記》。
  • 舊約歷史書:《約書亞記》、《士師記》、《路得記》、《撒慕耳記》上下、《列王記》上下、《歷代志》上下、《尼希米記》、《以斯拉記》、《以斯帖記》
  • 詩歌智慧書:《約伯記》、《詩篇》、《箴言》、《傳道書》和《雅歌》;
  • 大先知書:《以賽亞書》、《耶利米書》、《耶利米哀歌》、《以西結書》、《但以理書》、《何西阿書》、《約珥書》、《阿摩司書》、《俄巴底亞書》、《約拿書》、《彌迦書》、《那鴻書》、《哈巴谷書》、《西番雅書》、《哈該書》、《撒迦利亞書》、《瑪拉基書》。

《新約》:

  • 福音書:《馬太福音》、《馬可福音》、《路加福音》、《約翰福音》
  • 新約歷史書:《使徒行傳》
  • 保羅書信:《羅馬書》、《哥林多前書》、《哥林多后書》、《加拉太書》、《以弗所書》、《腓立比書》、《歌羅西書》《帖撒羅尼迦前書》、《帖撒羅尼迦后書》、《提摩太前書》、《提摩太后書》、《提多書》、《腓利門書》、《希伯來書》、《雅各書》、《彼得前書》、《彼得后書》、《約翰壹書》、《約翰貳書》、《約翰叁書》和《猶大書》
  • 語言/啟示錄:《啟示錄》

此外,我們還會用一條紅色的標志線分割《舊約》和《新約》。

  1. import seaborn as sns 
  2. import matplotlib.pyplot as plt 
  3. %matplotlib inline 
  4. sns.set(context='notebook'style='dark'
  5.  
  6. most_frequent_actors = list(action_df['name'].value_counts().index[:50]) 
  7. top_actors_df = action_df[action_df['name'].isin(most_frequent_actors)].copy() 
  8. book_locations = (pd.DataFrame(bible_json) 
  9.                   .reset_index() 
  10.                   .groupby('book_id')['index'] 
  11.                   .min() 
  12.                   .to_dict() 
  13.                  ) 
  14.  
  15. fig, ax = plt.subplots(figsize=(8,12), dpi=144*2) 
  16. sns.stripplot(x='verse'y='name',  
  17.               data=top_actors_dfaxax=ax, 
  18.               color='xkcd:cerulean'
  19.               size=3alpha=0.25, jitter=0.25) 
  20.  
  21. sns.despine(bottom=Trueleft=True
  22.  
  23. for book, verse_num in book_locations.items(): 
  24.     ax.axvline(verse_num, alpha=1lw=0.5, color='w'
  25.  
  26. divisions = [1, 6, 18, 23, 40, 44, 45, 65] 
  27. for div in divisions: 
  28.     ax.axvline(book_locations[div], alpha=0.5, lw=1.5, color='grey'
  29.  
  30. ax.axvline(book_locations[40], alpha=0.5, lw=1.75, color='xkcd:coral'
  31.  
  32. ax.set_xlim(left=-150) 
  33.  
  34. ax.set_title("Where Actions Occur in the Bible\nCharacters Sorted by First Appearance"); 

可視化分析

  • 在《圣經》開頭的《創世紀》中,上帝(God)被密集地提到。
  • 在《新約》中,主(Lord)不再作為一個實體使用。
  • 我們***次看到保羅是在《使徒行傳》中被提及。(福音書后的***本書)
  • 在《詩歌智慧書》里沒有提到很多實體。
  • 耶穌的生活在《福音書》中被密集地記錄了下來。
  • 彼拉多出現在《福音書》的末尾。

這種方法的問題

  • 實體識別無法區分兩個名字相同的人掃羅王(《舊約》)直到《使徒行傳》的中途,保羅(使徒)一直被稱作掃羅
  • 有些名詞不是實際的實體(如 Ye)
  • 有些名詞可以使用更多的語境和全名(如 Pilate)

下一步

一如既往,有辦法擴展和改進這一分析。我在寫這篇文章的時候想到了以下幾點:

  • 使用依存關系來尋找實體之間的關系,通過網絡分析的方法來理解角色。
  • 改進實體提取,以捕獲單個名稱之外的實體。
  • 對非人物實體及其語言關系進行分析——《圣經》中提到了哪些位置?

寫在結尾

僅僅通過使用文本中分詞級別的屬性我們就可以做一些很有趣的分析!在本文中,我們介紹了 3 種主要的 NLP 工具:

  • 詞性標注——這個詞是什么類型?
  • 依存分析——該詞和句子中的其他詞是什么關系?
  • 命名實體識別——這是一個專有名詞嗎?

我們結合這三個工具來發現誰是《圣經》中的主要角色,以及他們采取的動作。并且我們還繪制了這些角色和動作的圖表,以了解每個角色的主要動作發生在何處。

原文鏈接:https://pmbaumgartner.github.io/blog/holy-nlp/

【本文是51CTO專欄機構“機器之心”的原創文章,微信公眾號“機器之心( id: almosthuman2014)”】

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2025-04-01 00:18:55

2021-10-10 12:29:27

機器人AI人工智能

2020-03-23 08:15:43

JavaScriptError對象函數

2024-11-26 07:47:41

2023-02-02 14:24:08

物聯網數據分析云平臺

2019-04-30 08:25:35

2023-03-07 10:32:34

Go語言結構體

2023-10-16 23:12:02

Redis數據結構

2020-03-23 08:31:13

網絡時延時延網絡

2021-03-11 07:26:52

垃圾回收器單線程

2010-04-16 14:51:05

網絡流量

2023-04-26 10:06:08

RocketMQ屬性Consumer

2020-08-06 11:05:30

函數調用寄存器語言

2016-11-10 13:00:32

網絡傳輸協議pythonhttp

2025-10-27 01:11:00

2019-11-01 11:12:50

PythonExcelWindows

2022-02-15 20:08:41

JDKJavaWindows

2013-05-20 10:14:42

軟件工具項目工具開發工具

2022-08-02 06:55:35

移動設備Android

2022-06-30 13:41:44

SQL 語句group by
點贊
收藏

51CTO技術棧公眾號

久久中文字幕在线观看| 另类美女黄大片| 成人高清dvd| 婷婷丁香一区二区三区| 欧美专区18| 亚洲午夜性刺激影院| 污版视频在线观看| 三级网站视频在在线播放| 国产精品亚洲人在线观看| 午夜精品国产精品大乳美女| wwwxxx色| 久久精品女人天堂av免费观看| 99在线精品免费| 国产精品一区电影| 日韩大片免费在线观看| 成人在线免费小视频| 日韩女优视频免费观看| 亚洲熟女乱色一区二区三区| 国产激情在线视频| 狠狠色丁香久久婷婷综合_中| 国产91精品久久久| 无码黑人精品一区二区| 亚洲图区在线| 欧美一卡2卡三卡4卡5免费| 久久久久久久中文| 97caopor国产在线视频| 久久嫩草精品久久久精品| 91在线|亚洲| 岛国av中文字幕| 影音先锋久久资源网| 最近中文字幕日韩精品| 在线播放av网址| 91国产精品| 色欧美日韩亚洲| 黄色一级片av| 免费a在线看| 久久精品水蜜桃av综合天堂| 国语精品中文字幕| 性网爆门事件集合av| 国内久久婷婷综合| 国产区精品在线观看| 日韩黄色一级视频| 嫩草成人www欧美| 538国产精品一区二区免费视频| 精品欧美一区二区久久久久| 久久在线视频免费观看| 亚洲视频欧美视频| 亚洲一区二区三区综合| 玖玖玖视频精品| 日韩一区二区精品| 日韩欧美中文视频| av成人在线网站| 在线综合+亚洲+欧美中文字幕| 超碰超碰在线观看| 亚洲精品成a人ⅴ香蕉片| 欧美日韩亚洲不卡| 午夜两性免费视频| 99久久久国产精品免费调教网站| 色吊一区二区三区| 在线观看av日韩| 青青久久精品| 7777精品伊人久久久大香线蕉 | 亚洲欧美日韩一区在线观看| 91精品国产99| 欧美国产成人精品一区二区三区| 国产精品日韩久久久| 亚洲91精品在线| 国产高清中文字幕| 视频一区国产视频| 国产日韩av在线| 国产日韩欧美一区二区东京热| 国产精品小仙女| 99免费在线观看视频| 精品久久久中文字幕人妻| 高清shemale亚洲人妖| 精品欧美一区二区久久久伦| 国产私拍精品| 自拍偷拍欧美激情| youjizz.com在线观看| 欧美xxxx免费虐| 欧美日韩日本国产| 日本中文字幕高清| 日韩中文字幕| 亚洲精品丝袜日韩| 亚洲女人久久久| 一区视频在线| 国产精品久久国产精品99gif| 激情视频网站在线观看| 国产又黄又大久久| 欧美精品中文字幕一区二区| 午夜激情在线观看| 亚洲成人一区在线| 久久人妻精品白浆国产| 久久亚洲精精品中文字幕| 亚洲国产欧美一区二区丝袜黑人 | 免费精品国产| 色婷婷av一区二区三区在线观看 | 国产日韩久久| av电影在线观看| 亚洲成人手机在线| av丝袜天堂网| 岛国精品一区| 亚洲视频在线观看| 国产在线观看你懂的| 国产精品久久久久久久久久妞妞| 国产原创欧美精品| 天天摸天天干天天操| 国产精品久久久久一区二区三区| 国产情侣第一页| 手机看片久久| 亚洲国产成人精品久久| 亚洲第一视频区| 在线亚洲自拍| 波多野结衣精品久久| 999国产在线视频| 欧美午夜性色大片在线观看| 亚洲在线观看网站| 精品国产一区二区三区噜噜噜| zzjj国产精品一区二区| 狠狠人妻久久久久久| 顶级嫩模精品视频在线看| 一区二区三区电影| 欧美一级大片| 亚洲国产精品成人一区二区| 玖玖爱这里只有精品| 国产精品主播| 亚洲最大成人免费视频| 成年人在线看| 狠狠躁夜夜躁人人爽天天天天97| 欧美色图校园春色| 国产国产精品| 91精品久久久久久| 搞黄视频在线观看| 日韩欧美一区二区三区久久| 女同性恋一区二区三区| 国精品一区二区三区| 91免费看片网站| 麻豆91在线| 在线电影国产精品| 欧美视频一区二区在线| 久久99久久99精品免视看婷婷| 久久精品国产精品国产精品污 | 欧美日韩日日骚| 一区二区三区在线观看免费视频| 久久精品国产清高在天天线| 免费亚洲一区二区| 欧洲成人综合网| 精品国产乱码久久久久久老虎| 久久久夜色精品| 美女在线一区二区| 久久96国产精品久久99软件| 91探花在线观看| 欧美tk—视频vk| 久一视频在线观看| 成人高清视频在线| 少妇av一区二区三区无码| 精品素人av| 日韩av电影在线播放| 国产小视频在线| 洋洋av久久久久久久一区| 亚洲婷婷在线观看| 亚洲一区二区三区免费在线观看| 欧美亚洲精品日韩| 日韩一区二区三区四区五区 | 日韩精品极品| 欧美成人猛片aaaaaaa| 中文字幕在线观看免费视频| 久久久五月婷婷| 一区二区三区入口| 国产精品97| 国产精品一区在线播放| 欧美成人黑人| 久久久精品日本| 殴美一级特黄aaaaaa| 欧美午夜女人视频在线| 国产精品一二三区在线观看| 国产真实乱偷精品视频免| 一区一区视频| 国产伦理久久久久久妇女| 国产va免费精品高清在线观看| 免费av毛片在线看| 亚洲高清久久网| 伊人网站在线观看| 亚洲一二三四在线观看| 欧美另类z0zx974| 国产精品自拍av| 国产美女三级视频| 人人狠狠综合久久亚洲婷| 成人免费高清完整版在线观看| 不卡在线视频| 亚洲成人xxx| 中文字幕视频免费观看| 亚洲欧美色综合| 国产中年熟女高潮大集合| 国产精品一区二区久激情瑜伽| 欧洲av无码放荡人妇网站| 亚洲国产成人精品女人| 蜜桃日韩视频| 亚洲性视频在线| 国产suv精品一区二区三区88区| 在线中文免费视频| 一区二区中文字幕| 亚洲一区二区色| 精品久久久精品| 妖精视频在线观看免费| av在线不卡电影| 潘金莲激情呻吟欲求不满视频| 国产一级久久| www.成年人视频| 婷婷激情综合| 日韩电影免费观看在| 激情小说一区| 成人欧美一区二区三区在线湿哒哒| 亚洲妇女成熟| 久久久久久久久久亚洲| 国产天堂在线| 亚洲欧美日韩精品久久| 人妻一区二区三区四区| 4438x亚洲最大成人网| 欧美特级黄色片| 亚洲专区一二三| 亚洲精品成人无码| 国产电影精品久久禁18| 亚洲综合伊人久久| 久久99这里只有精品| 日本久久久久久久久久久久| 亚洲一区二区三区免费在线观看| 久无码久无码av无码| 91精品国产自产在线观看永久∴| 日韩wuma| 日韩在线观看| 久久国产精品免费一区| 欧美三级电影在线| av电影成人| 国产高清精品二区| 国产欧美va欧美va香蕉在| 高清av一区| 国产成人精品一区二区在线 | 欧美性开放视频| 国产高潮久久久| 中文字幕一区在线观看视频| 欧美亚洲色综久久精品国产| 久久久夜色精品亚洲| 日韩片在线观看| 91麻豆国产香蕉久久精品| 北岛玲一区二区| 97精品久久久午夜一区二区三区| v天堂中文在线| 91在线视频官网| xxxx日本免费| 26uuu精品一区二区在线观看| 真人bbbbbbbbb毛片| 久久综合久久99| www.88av| 久久综合婷婷| 亚洲成人福利在线| 蜜臀av性久久久久蜜臀aⅴ| 亚洲综合欧美激情| 蜜臀av在线播放一区二区三区| 人妻有码中文字幕| 人人超碰91尤物精品国产| av免费一区二区| 国产在线精品视频| 国产高潮失禁喷水爽到抽搐| 91在线看国产| 貂蝉被到爽流白浆在线观看| 中文字幕中文字幕中文字幕亚洲无线| 人妻互换一区二区激情偷拍| 亚洲人成影院在线观看| 久久久久久久久99| 色香蕉久久蜜桃| 欧美成人一区二区视频| 欧美一级片免费看| 天天射天天操天天干| 永久免费毛片在线播放不卡| a级影片在线观看| 欧美一区在线直播| 久久福利在线| 成人毛片网站| 国产伦一区二区三区| 国产91av视频在线观看| 136国产福利精品导航网址| 97在线播放视频| 国内成人精品2018免费看| 中国极品少妇videossexhd| 中文字幕成人网| 五月天婷婷丁香| 欧美综合色免费| 成人av手机在线| 国产亚洲精品日韩| 黄色在线播放网站| 国产69久久精品成人| 在线观看欧美| 国产欧美精品在线播放| 粉嫩久久久久久久极品| 视频一区二区三| 国产亚洲精品自拍| 色一情一乱一伦一区二区三区日本| 久久97超碰国产精品超碰| 国产精品探花一区二区在线观看| 国产精品成人一区二区三区夜夜夜 | 国产丝袜高跟一区| 国产原创在线观看| 欧美一区二区.| 国产色99精品9i| 精品1区2区| 色综合天天爱| 亚洲中文字幕无码不卡电影| 国产91丝袜在线播放九色| 国产ts在线播放| 亚洲最大成人网4388xx| 亚洲一区二区天堂| 亚洲午夜色婷婷在线| 国产拍在线视频| 国产欧美一区二区三区久久| theporn国产在线精品| 国产av不卡一区二区| 国产婷婷精品| 强迫凌虐淫辱の牝奴在线观看| 中文字幕制服丝袜成人av| 麻豆成人免费视频| 亚洲激情在线观看| 97天天综合网| 亚洲在线免费观看| 久久精品不卡| 国产精品久久a| 2014亚洲片线观看视频免费| 日韩精品在线免费看| 日韩精品中文字幕在线不卡尤物| 国产在线一在线二| 欧美在线观看网站| 欧洲精品99毛片免费高清观看| 在线成人性视频| 久久国产夜色精品鲁鲁99| 99久久人妻无码精品系列| 欧美日韩亚洲视频一区| 亚洲av成人无码久久精品老人 | 日韩精品免费观看| 蜜臀av在线| 性欧美长视频免费观看不卡| 丁香综合av| 中文字幕日本最新乱码视频| 97se亚洲国产综合在线| 日本免费观看视| 日韩精品免费观看| 丝袜美腿一区| 日韩一区国产在线观看| 免费在线观看日韩欧美| 99久久久无码国产精品不卡| 欧美三级乱人伦电影| av午夜在线| 国产精品一区二区三区在线播放| 欧美码中文字幕在线| 久久国产成人精品国产成人亚洲| 国产成人99久久亚洲综合精品| 欧美一级特黄高清视频| 亚洲va欧美va人人爽| 性感美女一级片| 国产91色在线免费| 国产一区日韩| 亚洲18在线看污www麻豆| 亚洲美女在线国产| 成人免费公开视频| 欧洲美女7788成人免费视频| 久久国产精品免费精品3p| 亚洲色图都市激情| 成人网页在线观看| 国产精品xxxx喷水欧美| 亚洲精品一区久久久久久| 四虎成人在线| 992tv成人免费观看| 粉嫩蜜臀av国产精品网站| 91video| 日韩精品久久久久久福利| 啪啪av大全导航福利综合导航| 成人午夜视频免费观看| 337p粉嫩大胆色噜噜噜噜亚洲| 国产美女www| 久热精品视频在线观看一区| 欧洲vs亚洲vs国产| 欧美牲交a欧美牲交aⅴ免费真 | 亚洲第一av网站| 日韩不卡视频在线观看| 真人做人试看60分钟免费| 久久这里都是精品| 国产男女裸体做爰爽爽| 国内精品中文字幕| 日韩在线理论| v天堂中文在线| 欧美乱妇23p| 涩涩涩视频在线观看| 日本特级黄色大片| www久久精品| 国产99视频在线| 性亚洲最疯狂xxxx高清| 99久久99热这里只有精品| 性猛交╳xxx乱大交| 亚洲成av人片一区二区三区| 国产精品麻豆一区二区三区| 国产精品久久久一区二区三区|