精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

OpenAI與開源多語言嵌入模型,你選擇哪一家?

譯文 精選
人工智能
關于這些模型的設計和訓練方式,披露的信息很少。作為他們之前發布的嵌入模型(2022年12月,通過模型類ada-002的方式呈現),OpenAI公司再次選擇了一種閉源市場策略,即這些模型只能通過付費的API方式進行訪問。

譯者 | 朱先忠

審校 | 重樓

出品 | 51CTO技術棧(微信號:blog51cto)

本文對OpenAI的多個嵌入模型與多家開源的多語言嵌入模型進行了綜合比較,幫助你最終選擇最適合自己的大數據開發模型。

1.引言

OpenAI最近發布了他們的新一代嵌入模型,稱為嵌入v3,他們將其描述為性能最高的嵌入模型,而且具有更高的多語言性能。這些模型分為兩類:一類較小,稱為text-embedding-3-mall;另一類較大,功能也更強大,稱為text-embedding-3-large。

關于這些模型的設計和訓練方式,披露的信息很少。作為他們之前發布的嵌入模型(2022年12月,通過模型類ada-002的方式呈現),OpenAI公司再次選擇了一種閉源市場策略,即這些模型只能通過付費的API方式進行訪問。

但是,這些模型的性能是否如此優秀以至于值得人們以付費方式來使用呢?

這篇文章的目的是將這些新模型的性能與開源模型的性能進行實證比較。我們將使用數據檢索工作流進行比較;在該工作流中,必須在給定用戶查詢的情況下找到語料庫中最相關的文檔。

我們的語料庫將是《歐盟人工智能法案》(https://artificialintelligenceact.eu/),該法案目前正處于最后的驗證階段。這個語料庫的一個有趣的特點是,除了是世界上第一個人工智能的法律框架外,它還有24種語言版本。這使得可以比較不同語言族的數據檢索準確性。

本文將采取以下兩個主要步驟:

  • 從多語言文本語料庫生成自定義合成問答數據集;
  • 在這個自定義數據集上比較OpenAI和當今最先進的開源嵌入模型的準確性。

在Github存儲庫(https://github.com/Yannael/multilingual-embeddings)中提供了重現本文中呈現的所有結果的代碼和相關數據。請注意,以《歐盟人工智能法案》為例,本文所遵循的方法可以適用于其他數據語料庫。

2.生成自定義問答數據集

讓我們首先從生成自定義數據的問答數據集(Q/a)開始,該數據集將用于評估不同嵌入模型的性能。生成自定義問答數據集的好處有兩個。

首先,它通過確保數據集沒有成為嵌入模型訓練的一部分來避免偏差,這可能發生在參考基準,如MTEB:https://huggingface.co/spaces/mteb/leaderboard)上。

其次,它允許根據特定的數據語料庫進行評估,例如在檢索增強應用程序(RAG)的情況下,這可能是相關的。

我們將遵循Llama Index在其文檔(https://blog.llamaindex.ai/fine-tuning-embeddings-for-rag-with-synthetic-data-e534409a3971)中建議的簡單流程。語料庫首先被分成一組組的塊。然后,對于每個塊,通過大型語言模型(LLM)生成一組合成問題,使得答案位于相應的塊中。該過程如下所示:

圖片圖片

通過Llama Index方法為你的數據生成問答數據集

使用LLM的數據框架(如Llama Index)實現上述策略非常簡單。使用高級函數可以方便地加載語料庫和分割文本,如以下代碼所示:

from llama_index.readers.web import SimpleWebPageReader
from llama_index.core.node_parser import SentenceSplitter
language = "EN"
url_doc = "https://eur-lex.europa.eu/legal-content/"+language+"/TXT/HTML/?uri=CELEX:52021PC0206"
documents = SimpleWebPageReader(html_to_text=True).load_data([url_doc])
parser = SentenceSplitter(chunk_size=1000)
nodes = parser.get_nodes_from_documents(documents, show_progress=True)

在本例中,語料庫是英語版的《歐盟人工智能法案》,使用其官方URL(https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206)可直接從網絡上獲取。

我們使用2021年4月的草案版本,因為最終版本尚未適用于所有歐洲語言。在這個版本中,URL中的英語可以替換為其他23種歐盟官方語言中的任何一種,以檢索不同語言的文本(保加利亞語為BG,西班牙語為ES,捷克語為CS,等等)。

圖片圖片

下載24種歐盟官方語言的《歐盟人工智能法案》鏈接(來自歐盟官方網站)

我們使用PensioneSplitter對象將文檔拆分為1000個標記的塊。對于英語來說,這會產生大約100個塊。

然后,將每個塊作為上下文提供給以下提示(Llama索引庫中建議的默認提示:

https://github.com/run-llama/llama_index/blob/c058f2531ea86ee74822cb1421ceaeee7098a99f/llama_index/finetuning/embeddings/common.py#L51):
prompts={}
prompts["EN"] = """\
Context information is below.
---------------------
{context_str}
---------------------
Given the context information and not prior knowledge, generate only questions based on the below query.
You are a Teacher/ Professor. Your task is to setup {num_questions_per_chunk} questions for an upcoming quiz/examination.
The questions should be diverse in nature across the document. Restrict the questions to the context information provided."
"""

提示旨在生成有關文檔塊的問題,就好像老師正在準備即將到來的測驗一樣。為每個區塊生成的問題數量作為參數“num_questions_per_chunk”傳遞,我們將其值設置為2。然后,可以通過調用Llama索引庫中的generate_qa_embedding_pairs來生成問題:

from llama_index.llms import OpenAI
from llama_index.legacy.finetuning import generate_qa_embedding_pairs
qa_dataset = generate_qa_embedding_pairs(
llm=OpenAI(model="gpt-3.5-turbo-0125",additional_kwargs={'seed':42}),
nodes=nodes,
qa_generate_prompt_tmpl = prompts[language],
num_questions_per_chunk=2
)

我們依靠OpenAI的GPT-3.5-turbo-0125模型來完成這項任務,根據OpenAI的說法,這是該系列的旗艦模型,支持16K大小的上下文窗口,并針對對話框進行了優化(https://platform.openai.com/docs/models/gpt-3-5-turbo)。

生成的對象“qa_dataset”中包含問題和答案(組塊)對。作為生成問題的示例,以下是前兩個問題的結果(“answer(答案)”是第一塊文本):

1)What are the main objectives of the proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) according to the explanatory memorandum?

大致中文意思是:根據解釋性備忘錄,制定人工智能統一規則的法規(《人工智能法》)提案的主要目標是什么?

2)How does the proposal for a Regulation on artificial intelligence aim to address the risks associated with the use of AI while promoting the uptake of AI in the European Union, as outlined in the context information?

大致中文意思是:如上下文信息所述,人工智能條例的提案如何旨在解決與人工智能使用相關的風險,同時促進歐盟對人工智能的吸收?

語塊和問題的數量取決于語言,從英語的大約100個語塊和200個問題到匈牙利語的200個語塊或400個問題。

3.OpenAI嵌入模型的評估

我們的評估功能遵循Llama Index文檔,如下:

(https://docs.llamaindex.ai/en/stable/examples/finetuning/embeddings/finetune_embedding.html),

包括兩個主要步驟——

首先,所有答案(文檔塊)的嵌入都存儲在VectorStoreIndex中,以實現高效檢索。然后,評估函數在所有查詢上循環,檢索前k個最相似的文檔,并根據MRR(平均倒數排名)評估檢索的準確性。

def evaluate(dataset, embed_model, insert_batch_size=1000, top_k=5):
# 從qa_dataset對象獲取語料庫、查詢和相關文檔
corpus = dataset.corpus
queries = dataset.queries
relevant_docs = dataset.relevant_docs
# 為語料庫中的每個文檔創建TextNode對象,并創建VectorStoreIndex以有效地存儲和檢索嵌入
nodes = [TextNode(id_=id_, text=text) for id_, text in corpus.items()]
index = VectorStoreIndex(
nodes, embed_model=embed_model, insert_batch_size=insert_batch_size
)
retriever = index.as_retriever(similarity_top_k=top_k)
#準備收集評估結果
eval_results = []
# 對數據集中的每個查詢進行迭代,以評估檢索性能
for query_id, query in tqdm(queries.items()):
# 檢索當前查詢的前_k個最相似的文檔,并提取檢索到的文檔的ID
retrieved_nodes = retriever.retrieve(query)
retrieved_ids = [node.node.node_id for node in retrieved_nodes]
#檢查所需文檔是否在檢索到的文檔中
expected_id = relevant_docs[query_id][0]
is_hit = expected_id in retrieved_ids  # 假設每個查詢有1個相關文檔
# 計算平均倒數排名(MRR)并添加到結果集中
if is_hit:
rank = retrieved_ids.index(expected_id) + 1
mrr = 1 / rank
else:
mrr = 0
eval_results.append(mrr)
#返回所有查詢的平均MRR作為最終評估度量
return np.average(eval_results)

嵌入模型通過“embed_mode”參數傳遞給評估函數。對于OpenAI模型,該參數是用模型名稱和模型維度初始化的OpenAIEmbedding對象。

from llama_index.embeddings.openai import OpenAIEmbedding
embed_model = OpenAIEmbedding(model=model_spec['model_name'],
dimensinotallow=model_spec['dimensions'])

API參數dimensions可以縮短嵌入(即從序列的末尾移除一些數字),而不會丟失嵌入的概念表示屬性。例如,OpenAI在其公告中建議,在MTEB基準上,嵌入可以縮短到256的大小,同時仍然優于1536大小的未縮短的text-embedding-ada-002嵌入。

我們在四個不同的OpenAI嵌入模型上運行了評估函數:

ltext-embedding-3-large的兩個版本:一個具有盡可能低的維度(256),

另一個具有最高的維度(3072)。這些被稱為“OAI-large256”和“OAI-Large3072”。

lOAI-small:即text-embedding-3-small嵌入模型,尺寸為1536。

lOAI-ada-002:傳統的text-embedding-ada-002模型,尺寸為1536。

每個模型在四種不同的語言上進行了評估:英語(EN)、法語(FR)、捷克語(CS)和匈牙利語(HU),分別涵蓋了日耳曼語、羅曼斯語、斯拉夫語和烏拉爾語。

embeddings_model_spec = {
}
embeddings_model_spec['OAI-Large-256']={'model_name':'text-embedding-3-large','dimensions':256}
embeddings_model_spec['OAI-Large-3072']={'model_name':'text-embedding-3-large','dimensions':3072}
embeddings_model_spec['OAI-Small']={'model_name':'text-embedding-3-small','dimensions':1536}
embeddings_model_spec['OAI-ada-002']={'model_name':'text-embedding-ada-002','dimensions':None}
results = []
languages = ["EN", "FR", "CS", "HU"]
# 循環遍歷所有語言
for language in languages:
#加載數據集
file_name=language+"_dataset.json"
qa_dataset = EmbeddingQAFinetuneDataset.from_json(file_name)
# 循環遍歷所有模型
for model_name, model_spec in embeddings_model_spec.items():
#取得模型
embed_model = OpenAIEmbedding(model=model_spec['model_name'],
dimensinotallow=model_spec['dimensions'])
# 評估嵌入分數(根據MRR)
score = evaluate(qa_dataset, embed_model)
results.append([language, model_name, score])
df_results = pd.DataFrame(results, columns = ["Language" ,"Embedding model", "MRR"])

根據MRR的結果準確性報告如下:

OpenAI模型的性能摘要OpenAI模型的性能摘要

正如預期的那樣,對于大模型,3072的較大嵌入尺寸可以觀察到更好的性能。然而,與小型和傳統的Ada模型相比,大型模型比我們預期的要小。為了進行比較,我們還在下面報告了OpenAI模型在MTEB基準上獲得的性能。

OpenAI嵌入模型的性能(如其官方公告所述)

值得注意的是,在我們的評估中,大、小和Ada模型之間的性能差異遠不如MTEB基準中明顯。這反映了一個事實,即在大型基準中觀察到的平均性能并不一定反映在自定義數據集上獲得的性能。

4.開源嵌入模型的評估

當前,圍繞嵌入的開源研究相當活躍,并且定期發布新的模型。關于最新發布的模型,一個保持更新的好地方是Hugging Face MTEB排行榜(https://huggingface.co/spaces/mteb/leaderboard)。

為了在本文中進行比較,我們選擇了最近發表的一組四個嵌入模型(2024)。選擇的標準是它們在MTEB排行榜上的平均得分以及它們處理多語言數據的能力。所選模型的主要特征概述如下:

選定的開源嵌入模型選定的開源嵌入模型

lE5-Mistral-7B-instruct(E5-Mistral-7B):微軟的這個E5嵌入模型(https://huggingface.co/intfloat/e5-mistral-7b-instruct)是從Mistral-7B-v0.1初始化的,并在多語言數據集的混合上進行了微調。該模型在MTEB排行榜上表現最好,但也是迄今為止最大的模型(14GB)。

lmultilingual-e5-large-instruct(ML-e5-larg):微軟的另一個e5模型(https://huggingface.co/intfloat/multilingual-e5-large-instruct),旨在更好地處理多語言數據。它是從xlm-roberta-large初始化的,并在多語言數據集的混合上進行訓練。它比E5-Mistral小得多(10倍),但上下文大小也低得多(514)。

lBGE-M3:該模型(https://huggingface.co/BAAI/bge-m3)由北京人工智能研究院設計,是他們最先進的多語言數據嵌入模型,支持100多種工作語言。截至2024年2月22日,尚未在MTEB排行榜上進行基準測試。

lnomic-embed-text-v1(nomic-embed):該模型由Nomic公司(https://home.nomic.ai/)設計,聲稱比OpenAI Ada-002和text-embedding-3-small性能更好,但尺寸僅為0.55GB。有趣的是,該模型是第一個完全可復制和可審計的模型(開放數據和開源訓練代碼)。

用于評估這些開源模型的代碼與用于OpenAI模型的代碼相似。主要的變化在于模型規范,其中必須指定額外的細節,如最大上下文長度和池類型。然后,我們為四種語言中的每一種評估每個模型:

embeddings_model_spec = {
}
embeddings_model_spec['E5-mistral-7b']={'model_name':'intfloat/e5-mistral-7b-instruct','max_length':32768, 'pooling_type':'last_token',
'normalize': True, 'batch_size':1, 'kwargs': {'load_in_4bit':True, 'bnb_4bit_compute_dtype':torch.float16}}
embeddings_model_spec['ML-E5-large']={'model_name':'intfloat/multilingual-e5-large','max_length':512, 'pooling_type':'mean',
'normalize': True, 'batch_size':1, 'kwargs': {'device_map': 'cuda', 'torch_dtype':torch.float16}}
embeddings_model_spec['BGE-M3']={'model_name':'BAAI/bge-m3','max_length':8192, 'pooling_type':'cls',
'normalize': True, 'batch_size':1, 'kwargs': {'device_map': 'cuda', 'torch_dtype':torch.float16}}
embeddings_model_spec['Nomic-Embed']={'model_name':'nomic-ai/nomic-embed-text-v1','max_length':8192, 'pooling_type':'mean',
'normalize': True, 'batch_size':1, 'kwargs': {'device_map': 'cuda', 'trust_remote_code' : True}}
results = []
languages = ["EN", "FR", "CS", "HU"]
# 循環遍歷所有模型
for model_name, model_spec in embeddings_model_spec.items():
print("Processing model : "+str(model_spec))
# 獲取模型
tokenizer = AutoTokenizer.from_pretrained(model_spec['model_name'])
embed_model = AutoModel.from_pretrained(model_spec['model_name'], **model_spec['kwargs'])
if model_name=="Nomic-Embed":
embed_model.to('cuda')
# 循環遍歷所有語言
for language in languages:
# 加載數據集
file_name=language+"_dataset.json"
qa_dataset = EmbeddingQAFinetuneDataset.from_json(file_name)
start_time_assessment=time.time()
# 評估嵌入得分(根據k=5時的命中率)
score = evaluate(qa_dataset, tokenizer, embed_model, model_spec['normalize'], model_spec['max_length'], model_spec['pooling_type'])
#計算分數評估的持續時間
duration_assessment = time.time()-start_time_assessment
results.append([language, model_name, score, duration_assessment])
df_results = pd.DataFrame(results, columns = ["Language" ,"Embedding model", "MRR", "Duration"])

根據MRR得出的精度報告如下:

開源模型的性能摘要開源模型的性能摘要


由上述圖表可見,BGE-M3的性能最好,其次是ML-E5-Large、E5-mistral-7b和Nomic Embed。BGE-M3模型尚未在MTEB排行榜上進行基準測試,我們的結果表明,它的排名可能高于其他模型。值得注意的是,雖然BGE-M3針對多語言數據進行了優化,但它在英語方面的表現也比其他模型更好。

下面,我們還報告了每個嵌入模型的處理時間。

瀏覽英文問答數據集的處理時間(秒)瀏覽英文問答數據集的處理時間(秒)

易見,E5-mistral-7b比其他模型大10多倍,是迄今為止速度最慢的模型。

5.結論

現在,讓我們把八個測試模型的性能放在同一個圖中進行比較。

八款測試模型的性能比對八款測試模型的性能比對

從上述這些結果中,我們得到如下的主要分析結論:

  • 開源模型獲得了最佳性能。其中,北京人工智能研究院開發的BGE-M3模型脫穎而出。該模型的上下文長度與OpenAI模型(8K)相同,大小為2.2GB。
  • OpenAI范圍內的一致性。大型(3072)、小型和傳統OpenAI模型的性能非常相似。然而,減小大模型(256)的嵌入尺寸導致了性能的下降。
  • 語言敏感性。幾乎所有模型(ML-E5-large除外)的英語表現都最好。捷克語和匈牙利語等語言的表現有顯著差異。

根據此結論,你應該訂閱付費的OpenAI還是選擇使用托管的開源嵌入模型呢?

OpenAI最近的價格修訂(https://openai.com/pricing)使其API的訪問變得更加實惠,目前成本為每百萬代幣0.13美元。因此,每月處理一百萬個查詢(假設每個查詢涉及大約1K個代幣)的成本約為130美元。因此,根據你的使用情況,租用和維護自己的嵌入服務器可能不劃算。

然而,成本效益并不是唯一的考慮因素。可能還需要考慮其他因素,如延遲、隱私和對數據處理工作流的控制。相對來說,開源模型提供了完全的數據控制、增強隱私和自定義的優勢。另一方面,OpenAI的API還存在延遲問題,有時會導致響應時間延長。

總之,在開源模型和OpenAI等專有解決方案之間的選擇還不能馬上給出一個簡單的答案。顯然,開源嵌入提供了一種引人注目的選擇,其優勢主要表現在能夠將性能與對數據的更大控制相結合。相反,OpenAI的產品可能仍然會吸引那些優先考慮便利性的人,尤其是在隱私問題是次要的情況下。

關鍵參考資料

Companion Github存儲庫:

https://github.com/Yannael/multilingual-embeddings

你想知道的關于句子嵌入的一切(也許還有更多):

https://osanseviero.github.io/hackerllama/blog/posts

OpenAI博客發布:新的嵌入模型和API更新

https://openai.com/blog/new-embedding-models-and-api-updates

嵌入:OpenAI指南

ttps://platform.openai.com/docs/guides/embeddings/embedding-models

MTEB:海量文本嵌入基準與Hugging Face MTEB排行榜

https://huggingface.co/spaces/mteb/leaderboard

文本嵌入:綜合指南

https://towardsdatascience.com/text-embeddings-comprehensive-guide-afd97fce8fb5

檢索增強生成(RAG)從業者指南

https://cameronrwolfe.substack.com/p/a-practitioners-guide-to-retrieval。

如何為RAG找到最佳的多語言嵌入模型

https://towardsdatascience.com/how-to-find-the-best-multilingual-embedding-model-for-your-rag-40325c308ebb

譯者介紹

朱先忠,51CTO社區編輯,51CTO專家博客、講師,濰坊一所高校計算機教師,自由編程界老兵一枚。

原文鏈接:https://towardsdatascience.com/openai-vs-open-source-multilingual-embedding-models-e5ccb7c90f05

責任編輯:武曉燕 來源: 51CTO技術棧
相關推薦

2024-02-26 16:36:48

2024-05-09 08:14:09

系統設計語言多語言

2021-06-29 21:48:32

開源語言架構

2024-09-29 13:10:08

2021-05-12 07:55:02

.Net語言配置

2014-04-16 14:50:20

Spark

2010-04-19 10:48:55

培訓

2025-05-22 05:00:00

2018-01-11 21:53:22

人工智能搜索互聯網

2018-08-27 04:55:53

2009-08-25 10:44:50

C#實現多語言

2011-08-05 17:54:33

Cocoa Touch 多語言

2014-07-09 09:20:06

WPFWPF應用

2012-04-19 11:40:21

Titanium

2011-03-14 09:24:39

下一代防火墻供應商

2025-06-06 14:32:20

阿里開源Qwen3

2023-10-27 20:52:13

OpenAIJina AI開源

2023-10-18 15:21:23

2012-09-07 09:47:53

2022-08-09 07:22:15

語言數據庫程序
點贊
收藏

51CTO技術棧公眾號

成人黄色免费片| 在线电影中文日韩| 国产精品50p| 九色在线观看| 久久99热这里只有精品| 久久免费视频在线观看| av黄色在线免费观看| va天堂va亚洲va影视| 亚洲综合免费观看高清完整版| 97在线视频精品| 一二三四国产精品| 国产精品三p一区二区| 欧美性做爰猛烈叫床潮| 97中文字幕在线| 欧美日韩在线精品一区二区三区激情综| 久久久久午夜电影| 国产丝袜一区二区三区| 国产探花在线观看视频| 一个人www视频在线免费观看| 99精品一区二区| 国产精品一区二区性色av| 日韩精品一卡二卡| 999国产精品999久久久久久| 日韩精品视频在线观看免费| 午夜免费看视频| 自拍一区在线观看| 亚洲国产成人av网| 艳母动漫在线观看| av黄色在线观看| 久久影院视频免费| 国产亚洲情侣一区二区无| 国产美女永久免费| 免费成人av在线播放| 久久久久久网址| 粉嫩av性色av蜜臀av网站| 凹凸成人精品亚洲精品密奴| 亚洲精品一区二区三区精华液| 蜜桃传媒一区二区三区| 日本动漫理论片在线观看网站| 国产91丝袜在线播放| 国产精品入口日韩视频大尺度| 亚洲色图欧美色| 你懂的视频欧美| 亚洲成年网站在线观看| 亚洲 自拍 另类 欧美 丝袜| 高清亚洲高清| 欧美视频三区在线播放| 国产综合免费视频| 亚洲欧洲自拍| 色综合久久九月婷婷色综合| 日日碰狠狠添天天爽超碰97| av中文在线资源库| 亚洲va在线va天堂| 久久视频这里有精品| 182在线视频观看| 婷婷综合久久一区二区三区| 免费不卡av在线| 日韩精品美女| 色综合天天综合网国产成人综合天| 亚洲一区综合| 免费在线观看黄色| 亚洲免费伊人电影| 国产黄色激情视频| 1区2区3区在线| 亚洲国产视频在线| 香港三级韩国三级日本三级| 免费看男女www网站入口在线 | 自拍视频一区二区| 69精品国产久热在线观看| 精品88久久久久88久久久| 99久久免费看精品国产一区| 亚洲大片精品免费| 国产亚洲激情在线| 亚洲怡红院在线观看| 欧美韩日精品| 55夜色66夜色国产精品视频| 波多野结衣小视频| 国产一区二区伦理片| 国产精品国产亚洲精品看不卡15 | 亚洲美女久久久| 日韩精品电影一区二区| 成人精品天堂一区二区三区| 久久天堂av综合合色| 国产午夜精品无码一区二区| 玖玖玖国产精品| 亚洲一区二区三区久久 | 中文字幕在线中文字幕在线中三区| 最近日韩中文字幕| 在线观看av的网址| 中文字幕av一区二区三区佐山爱| 一区二区欧美视频| 亚洲欧洲国产日韩精品| 欧美性video| 在线免费观看视频一区| 成人在线短视频| 久草在线成人| 欧美成人免费在线视频| 日本久久综合网| 国产精品99久久久久久宅男| 久久精品aaaaaa毛片| 免费网站看v片在线a| 午夜电影久久久| 狠狠干狠狠操视频| 任我爽精品视频在线播放| 久久影院资源网| 中文字幕一区在线播放| 国产东北露脸精品视频| 婷婷久久青草热一区二区| 国产盗摄一区二区| 欧美老肥妇做.爰bbww| 亚洲国产精品狼友在线观看| 日韩欧美不卡| 欧洲日韩成人av| 亚洲av永久纯肉无码精品动漫| 国产精品99久久久| 天天人人精品| 中文日产幕无线码一区二区| 91精品久久久久久久久99蜜臂| aaa一级黄色片| 国产精品探花在线观看| 欧美日韩福利在线观看| 亚洲图片欧美在线| 国产亚洲欧美一区在线观看| 国产精品专区在线| 亚洲视频三区| 美乳少妇欧美精品| 国产精品女同一区二区| 亚洲国产精品精华液ab| 韩国日本在线视频| 外国成人在线视频| 97国产成人精品视频| www.日日夜夜| 一区二区三区蜜桃网| 一级淫片在线观看| 51精产品一区一区三区| 国产欧美精品在线播放| 日本电影在线观看网站| 欧美性极品少妇| 欧美日韩国产黄色| 日本不卡一区二区三区 | 日韩欧美ww| 久久久久中文字幕2018| av网站免费大全| 亚洲人成网站精品片在线观看| 国产激情片在线观看| 久久国际精品| 欧美麻豆久久久久久中文| 国产毛片毛片毛片毛片| 中文字幕在线观看不卡| 视频在线观看免费高清| 欧美电影免费| 亚洲一区二区三区xxx视频| 综合图区亚洲| 欧美成人aa大片| 国产一级做a爰片在线看免费| 丝袜国产日韩另类美女| 色一情一区二区三区四区| 欧美电影免费看| 国产亚洲精品久久久| 欧美日韩 一区二区三区| 中文字幕的久久| 久久这里只精品| 欧美a级片网站| 国产偷国产偷亚洲高清97cao| 免费在线观看av| 日韩免费在线观看| 日韩伦人妻无码| 久久久99精品久久| 777一区二区| 欧美视频二区| 欧美日韩在线精品| 久久久久久久性潮| 久久99亚洲热视| 日韩欧美亚洲系列| 欧美性感一类影片在线播放| 亚洲xxxx3d动漫| 99视频精品全部免费在线| 黄色一级免费大片| 综合久久综合| 免费精品视频一区| 亚洲国产91视频| 欧美激情精品久久久久| 久久久久久女乱国产| 91精品婷婷国产综合久久性色| 五月天精品在线| 国产精品亚洲а∨天堂免在线| 亚洲mv在线看| 91免费精品国偷自产在线在线| 在线观看免费高清视频97| 精品国产999久久久免费| 天天影视色香欲综合网老头| 妖精视频在线观看免费| 成人一区在线看| 天堂av在线网站| 99综合在线| 欧美 日韩 国产 在线观看| 黑色丝袜福利片av久久| 国产欧美在线播放| 欧美激情网站| 欧美巨大黑人极品精男| 第三区美女视频在线| 精品va天堂亚洲国产| 中文字幕91爱爱| 午夜激情一区二区三区| 日韩一级片大全| 久久久www成人免费无遮挡大片| 日本精品www| 国产综合自拍| 一区二区三区四区在线视频| 欧美一级一片| 国产高清精品一区| 国外成人福利视频| 奇米四色中文综合久久| 日本电影在线观看| 久久成年人视频| 午夜不卡视频| 亚洲欧美一区二区精品久久久 | 日韩视频一区在线观看| 无码人妻精品一区二区三区9厂| 99riav久久精品riav| xxx中文字幕| 裸体一区二区三区| 能看的毛片网站| 性欧美xxxx大乳国产app| 欧美在线一区视频| 欧美成熟视频| 一区二区视频在线免费| 自拍自偷一区二区三区| 精品国产一区二区三区四区vr | 国产精品区一区二区三含羞草| 91吃瓜在线观看| 久久99亚洲精品| 91高清在线观看视频| 久久精品影视伊人网| 天堂а√在线官网| 中文字幕亚洲自拍| 3p在线观看| 日韩在线精品视频| 日韩伦理在线观看| 日韩视频免费在线观看| gogogo高清在线观看免费完整版| 欧美一区二区三区成人| 中文字幕网址在线| 欧美日韩成人综合| 伊人影院中文字幕| 欧美精品 日韩| 国产成人精品无码高潮| 日韩一区二区精品| 亚洲精品一区二区三区不卡| 精品噜噜噜噜久久久久久久久试看| 精品久久久久久久久久久久久久久久久久| 久久久亚洲国产美女国产盗摄| 手机看片一级片| 久久精品国产亚洲aⅴ| 色婷婷一区二区三区av免费看| 黑人一区二区| 欧美精品自拍视频| 亚洲免费网址| 乌克兰美女av| 黑人巨大精品欧美黑白配亚洲| 分分操这里只有精品| 亚洲啪啪91| 国产免费视频传媒| 另类欧美日韩国产在线| 日韩av加勒比| av在线免费不卡| 手机av免费看| 国产精品理论片| 日本精品人妻无码77777| 亚洲福利一区二区三区| 激情视频网站在线观看| 欧美日韩中文字幕精品| 国产ts变态重口人妖hd| 日韩欧美的一区二区| 四虎影视2018在线播放alocalhost| 日韩亚洲欧美综合| 色wwwwww| 中文字幕亚洲欧美日韩在线不卡| 香蕉视频网站在线| 中文字幕欧美在线| 亚洲小说区图片区都市| 欧洲成人性视频| 在线成人免费| 精品欧美一区二区在线观看视频| 日本超碰一区二区| 欧美日韩一区二区视频在线观看| 国产精品中文字幕制服诱惑| 欧美日韩国产综合视频在线| 亚洲成人日韩| 欧美亚洲一二三区| 韩国av一区二区| 亚洲av无码成人精品国产| 国产精品国产三级国产aⅴ原创| 国产精品毛片一区二区| 亚洲精品中文在线影院| 中文字幕第15页| 欧美精品视频www在线观看| 无码国精品一区二区免费蜜桃| 欧美精品一区二区三区蜜桃视频| www.国产免费| 中日韩午夜理伦电影免费 | 中文字幕在线播放av| 色悠久久久久综合欧美99| 草逼视频免费看| 这里只有精品丝袜| 久久r热视频| 国产区二精品视| 中文字幕av亚洲精品一部二部| 中国 免费 av| 日韩av高清在线观看| 日韩www视频| 一区二区激情小说| 亚洲一区二区三区高清视频| 日韩av在线网址| 青青草原国产在线| 亚洲自拍中文字幕| 水蜜桃久久夜色精品一区| 日本黄网站免费| 91在线免费视频观看| 久久无码精品丰满人妻| 91精品麻豆日日躁夜夜躁| 91大神在线网站| 国产精品视频播放| 精品国产91久久久久久浪潮蜜月| 在线观看日韩羞羞视频| 美女日韩在线中文字幕| 成人在线视频免费播放| 一区二区三区在线免费| 国产精品久久免费| 日韩视频欧美视频| 亚洲福利影视| 国产日本欧美在线| 极品少妇xxxx精品少妇偷拍| 国产极品视频在线观看| 在线日韩av片| 国产福利在线| 国产精品旅馆在线| 青青一区二区三区| 三上悠亚在线一区| 自拍偷拍亚洲欧美日韩| 国产精品久久久久久久久毛片 | 在线播放成人| 中文字幕一区二区三区乱码| 美女视频黄免费的久久| 黄色片网站在线播放| 欧美日韩视频一区二区| www.91在线| 成人美女免费网站视频| 国产精品99久久精品| 欧美日韩精品区别| 亚洲男人天堂av| 丰满肉嫩西川结衣av| 高清欧美性猛交| 天堂99x99es久久精品免费| 妺妺窝人体色www在线小说| 久久一区二区视频| 亚洲精品国产精品国自产网站按摩| 亚洲成年人在线播放| 成人免费观看在线观看| 欧美精品一区二区三区在线看午夜| 欧美在线播放| 性欧美18—19sex性高清| 欧美日韩亚洲一区二区| 免费毛片在线| 成人免费视频网址| 国内精品久久久久久久影视麻豆 | 四虎精品在线观看| 日本不卡一区二区三区四区| 风流少妇一区二区| 久久久久久久黄色片| 国产一区二区三区在线观看网站| 麻豆av在线免费观看| 好看的日韩精品视频在线| 爽好久久久欧美精品| av最新在线观看| 亚洲高清不卡av| 成人午夜亚洲| 欧美大黑帍在线播放| 久久精品这里都是精品| 96亚洲精品久久久蜜桃| 性色av一区二区三区| 狠狠做深爱婷婷综合一区| 中文字幕12页| 欧美午夜影院在线视频| 动漫一区在线| 国产在线一区二区三区四区| 日本aⅴ免费视频一区二区三区| aa一级黄色片| 欧美精品日日鲁夜夜添| 国产精品25p| 国产四区在线观看| 99精品视频中文字幕| 国产精品九九九九| 日韩av成人在线| 亚洲小说欧美另类社区| 日本美女xxx| 日韩av网址在线| 国产一区二区三区国产精品| 欧美黄色一级片视频| 亚洲制服丝袜av|