精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Meta官方的Prompt工程指南:Llama 2這樣用更高效

人工智能 新聞
最近,Llama 系列開源模型的提出者 Meta 也針對 Llama 2 發布了一份交互式提示工程指南,涵蓋了 Llama 2 的快速工程和最佳實踐。

隨著大型語言模型(LLM)技術日漸成熟,提示工程(Prompt Engineering)變得越來越重要。一些研究機構發布了 LLM 提示工程指南,包括微軟、OpenAI 等等。

最近,Llama 系列開源模型的提出者 Meta 也針對 Llama 2 發布了一份交互式提示工程指南,涵蓋了 Llama 2 的快速工程和最佳實踐。

以下是這份指南的核心內容。

Llama 模型

2023 年,Meta 推出了 Llama 、Llama 2 模型。較小的模型部署和運行成本較低,而更大的模型能力更強。

Llama 2 系列模型參數規模如下:

Code Llama 是一個以代碼為中心的 LLM,建立在 Llama 2 的基礎上,也有各種參數規模和微調變體:

圖片

部署 LLM

LLM 可以通過多種方式部署和訪問,包括:

自托管(Self-hosting):使用本地硬件來運行推理,例如使用 llama.cpp 在 Macbook Pro 上運行 Llama 2。優勢:自托管最適合有隱私 / 安全需要的情況,或者您擁有足夠的 GPU。

云托管:依靠云提供商來部署托管特定模型的實例,例如通過 AWS、Azure、GCP 等云提供商來運行 Llama 2。優勢:云托管是最適合自定義模型及其運行時的方式。

托管 API:通過 API 直接調用 LLM。有許多公司提供 Llama 2 推理 API,包括 AWS Bedrock、Replicate、Anyscale、Together 等。優勢:托管 API 是總體上最簡單的選擇。

托管 API

托管 API 通常有兩個主要端點(endpoint):

1. completion:生成對給定 prompt 的響應。

2. chat_completion:生成消息列表中的下一條消息,為聊天機器人等用例提供更明確的指令和上下文。

token

LLM 以稱為 token 的塊的形式來處理輸入和輸出,每個模型都有自己的 tokenization 方案。比如下面這句話:

Our destiny is written in the stars.

Llama 2 的 tokenization 為 ["our", "dest", "iny", "is", "writing", "in", "the", "stars"]。考慮 API 定價和內部行為(例如超參數)時,token 顯得尤為重要。每個模型都有一個 prompt 不能超過的最大上下文長度,Llama 2 是 4096 個 token,而 Code Llama 是 100K 個 token。

Notebook 設置

作為示例,我們使用 Replicate 調用 Llama 2 chat,并使用 LangChain 輕松設置 chat completion API。

首先安裝先決條件:

pip install langchain replicate
from typing import Dict, List
from langchain.llms import Replicate
from langchain.memory import ChatMessageHistory
from langchain.schema.messages import get_buffer_string
import os
# Get a free API key from https://replicate.com/account/api-tokens
os.environ ["REPLICATE_API_TOKEN"] = "YOUR_KEY_HERE"
LLAMA2_70B_CHAT = "meta/llama-2-70b-chat:2d19859030ff705a87c746f7e96eea03aefb71f166725aee39692f1476566d48"
LLAMA2_13B_CHAT = "meta/llama-2-13b-chat:f4e2de70d66816a838a89eeeb621910adffb0dd0baba3976c96980970978018d"
# We'll default to the smaller 13B model for speed; change to LLAMA2_70B_CHAT for more advanced (but slower) generations
DEFAULT_MODEL = LLAMA2_13B_CHAT
def completion (
prompt: str,
model: str = DEFAULT_MODEL,
temperature: float = 0.6,
top_p: float = 0.9,
) -> str:
llm = Replicate (
model=model,
model_kwargs={"temperature": temperature,"top_p": top_p, "max_new_tokens": 1000}
)
return llm (prompt)
def chat_completion (
messages: List [Dict],
model = DEFAULT_MODEL,
temperature: float = 0.6,
top_p: float = 0.9,
) -> str:
history = ChatMessageHistory ()
for message in messages:
if message ["role"] == "user":
history.add_user_message (message ["content"])
elif message ["role"] == "assistant":
history.add_ai_message (message ["content"])
else:
raise Exception ("Unknown role")
return completion (
get_buffer_string (
history.messages,
human_prefix="USER",
ai_prefix="ASSISTANT",
),
model,
temperature,
top_p,
)
def assistant (content: str):
return { "role": "assistant", "content": content }
def user (content: str):
return { "role": "user", "content": content }
def complete_and_print (prompt: str, model: str = DEFAULT_MODEL):
print (f'==============\n {prompt}\n==============')
response = completion (prompt, model)
print (response, end='\n\n')

Completion API

complete_and_print ("The typical color of the sky is:")
complete_and_print ("which model version are you?")

Chat Completion 模型提供了與 LLM 互動的額外結構,將結構化消息對象數組而不是單個文本發送到 LLM。此消息列表為 LLM 提供了一些可以繼續進行的「背景」或「歷史」信息。

通常,每條消息都包含角色和內容:

具有系統角色的消息用于開發人員向 LLM 提供核心指令。

具有用戶角色的消息通常是人工提供的消息。

具有助手角色的消息通常由 LLM 生成。

response = chat_completion (messages=[
user ("My favorite color is blue."),
assistant ("That's great to hear!"),
user ("What is my favorite color?"),
])
print (response)
# "Sure, I can help you with that! Your favorite color is blue."

LLM 超參數

LLM API 通常會采用影響輸出的創造性和確定性的參數。在每一步中,LLM 都會生成 token 及其概率的列表。可能性最小的 token 會從列表中「剪切」(基于 top_p),然后從剩余候選者中隨機(溫度參數 temperature)選擇一個 token。換句話說:top_p 控制生成中詞匯的廣度,溫度控制詞匯的隨機性,溫度參數 temperature 為 0 會產生幾乎確定的結果。

def print_tuned_completion (temperature: float, top_p: float):
response = completion ("Write a haiku about llamas", temperature=temperature, top_p=top_p)
print (f'[temperature: {temperature} | top_p: {top_p}]\n {response.strip ()}\n')
print_tuned_completion (0.01, 0.01)
print_tuned_completion (0.01, 0.01)
# These two generations are highly likely to be the same
print_tuned_completion (1.0, 1.0)
print_tuned_completion (1.0, 1.0)
# These two generations are highly likely to be different

prompt 技巧

詳細、明確的指令會比開放式 prompt 產生更好的結果:

complete_and_print (prompt="Describe quantum physics in one short sentence of no more than 12 words")
# Returns a succinct explanation of quantum physics that mentions particles and states existing simultaneously.

我們可以給定使用規則和限制,以給出明確的指令。

  • 風格化,例如:
  • 向我解釋一下這一點,就像兒童教育網絡節目中教授小學生一樣;
  • 我是一名軟件工程師,使用大型語言模型進行摘要。用 250 字概括以下文字;
  • 像私家偵探一樣一步步追查案件,給出你的答案。
  • 格式化
  • 使用要點;

  • 以 JSON 對象形式返回;

  • 使用較少的技術術語并用于工作交流中。

  • 限制
  • 僅使用學術論文;
  • 切勿提供 2020 年之前的來源;
  • 如果你不知道答案,就說你不知道。

以下是給出明確指令的例子:

complete_and_print ("Explain the latest advances in large language models to me.")
# More likely to cite sources from 2017
complete_and_print ("Explain the latest advances in large language models to me. Always cite your sources. Never cite sources older than 2020.")
# Gives more specific advances and only cites sources from 2020

零樣本 prompting

一些大型語言模型(例如 Llama 2)能夠遵循指令并產生響應,而無需事先看過任務示例。沒有示例的 prompting 稱為「零樣本 prompting(zero-shot prompting)」。例如:

complete_and_print ("Text: This was the best movie I've ever seen! \n The sentiment of the text is:")
# Returns positive sentiment
complete_and_print ("Text: The director was trying too hard. \n The sentiment of the text is:")
# Returns negative sentiment

少樣本 prompting

添加所需輸出的具體示例通常會產生更加準確、一致的輸出。這種方法稱為「少樣本 prompting(few-shot prompting)」。例如:

def sentiment (text):
response = chat_completion (messages=[
user ("You are a sentiment classifier. For each message, give the percentage of positive/netural/negative."),
user ("I liked it"),
assistant ("70% positive 30% neutral 0% negative"),
user ("It could be better"),
assistant ("0% positive 50% neutral 50% negative"),
user ("It's fine"),
assistant ("25% positive 50% neutral 25% negative"),
user (text),
])
return response
def print_sentiment (text):
print (f'INPUT: {text}')
print (sentiment (text))
print_sentiment ("I thought it was okay")
# More likely to return a balanced mix of positive, neutral, and negative
print_sentiment ("I loved it!")
# More likely to return 100% positive
print_sentiment ("Terrible service 0/10")
# More likely to return 100% negative

Role Prompting

Llama 2 在指定角色時通常會給出更一致的響應,角色為 LLM 提供了所需答案類型的背景信息。

例如,讓 Llama 2 對使用 PyTorch 的利弊問題創建更有針對性的技術回答:

complete_and_print ("Explain the pros and cons of using PyTorch.")
# More likely to explain the pros and cons of PyTorch covers general areas like documentation, the PyTorch community, and mentions a steep learning curve
complete_and_print ("Your role is a machine learning expert who gives highly technical advice to senior engineers who work with complicated datasets. Explain the pros and cons of using PyTorch.")
# Often results in more technical benefits and drawbacks that provide more technical details on how model layers

思維鏈

簡單地添加一個「鼓勵逐步思考」的短語可以顯著提高大型語言模型執行復雜推理的能力(Wei et al. (2022)),這種方法稱為 CoT 或思維鏈 prompting:

complete_and_print ("Who lived longer Elvis Presley or Mozart?")
# Often gives incorrect answer of "Mozart"
complete_and_print ("Who lived longer Elvis Presley or Mozart? Let's think through this carefully, step by step.")
# Gives the correct answer "Elvis"

自洽性(Self-Consistency)

LLM 是概率性的,因此即使使用思維鏈,一次生成也可能會產生不正確的結果。自洽性通過從多次生成中選擇最常見的答案來提高準確性(以更高的計算成本為代價):

import re
from statistics import mode
def gen_answer ():
response = completion (
"John found that the average of 15 numbers is 40."
"If 10 is added to each number then the mean of the numbers is?"
"Report the answer surrounded by three backticks, for example:```123```",
model = LLAMA2_70B_CHAT
)
match = re.search (r'```(\d+)```', response)
if match is None:
return None
return match.group (1)
answers = [gen_answer () for i in range (5)]
print (
f"Answers: {answers}\n",
f"Final answer: {mode (answers)}",
)
# Sample runs of Llama-2-70B (all correct):
# [50, 50, 750, 50, 50]  -> 50
# [130, 10, 750, 50, 50] -> 50
# [50, None, 10, 50, 50] -> 50

檢索增強生成

有時我們可能希望在應用程序中使用事實知識,那么可以從開箱即用(即僅使用模型權重)的大模型中提取常見事實:

complete_and_print ("What is the capital of the California?", model = LLAMA2_70B_CHAT)
# Gives the correct answer "Sacramento"

然而,LLM 往往無法可靠地檢索更具體的事實或私人信息。模型要么聲明它不知道,要么幻想出一個錯誤的答案:

complete_and_print ("What was the temperature in Menlo Park on December 12th, 2023?")
# "I'm just an AI, I don't have access to real-time weather data or historical weather records."
complete_and_print ("What time is my dinner reservation on Saturday and what should I wear?")
# "I'm not able to access your personal information [..] I can provide some general guidance"

檢索增強生成(RAG)是指在 prompt 中包含從外部數據庫檢索的信息(Lewis et al. (2020))。RAG 是將事實納入 LLM 應用的有效方法,并且比微調更經濟實惠,微調可能成本高昂并對基礎模型的功能產生負面影響。

MENLO_PARK_TEMPS = {
"2023-12-11": "52 degrees Fahrenheit",
"2023-12-12": "51 degrees Fahrenheit",
"2023-12-13": "51 degrees Fahrenheit",
}
def prompt_with_rag (retrived_info, question):
complete_and_print (
f"Given the following information: '{retrived_info}', respond to: '{question}'"
)
def ask_for_temperature (day):
temp_on_day = MENLO_PARK_TEMPS.get (day) or "unknown temperature"
prompt_with_rag (
f"The temperature in Menlo Park was {temp_on_day} on {day}'",  # Retrieved fact
f"What is the temperature in Menlo Park on {day}?",  # User question
)
ask_for_temperature ("2023-12-12")
# "Sure! The temperature in Menlo Park on 2023-12-12 was 51 degrees Fahrenheit."
ask_for_temperature ("2023-07-18")
# "I'm not able to provide the temperature in Menlo Park on 2023-07-18 as the information provided states that the temperature was unknown."

程序輔助語言模型

LLM 本質上不擅長執行計算,例如:

complete_and_print ("""
Calculate the answer to the following math problem:
((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))
""")
# Gives incorrect answers like 92448, 92648, 95463

Gao et al. (2022) 提出「程序輔助語言模型(Program-aided Language Models,PAL)」的概念。雖然 LLM 不擅長算術,但它們非常擅長代碼生成。PAL 通過指示 LLM 編寫代碼來解決計算任務。

complete_and_print (
    """
    # Python code to calculate: ((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))
    """,
model="meta/codellama-34b:67942fd0f55b66da802218a19a8f0e1d73095473674061a6ea19f2dc8c053152"
)
# The following code was generated by Code Llama 34B:
num1 = (-5 + 93 * 4 - 0)
num2 = (4**4 + -7 + 0 * 5)
answer = num1 * num2
print (answer)


責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-12-18 13:12:00

AI模型

2020-02-01 16:06:34

跳槽那些事兒網絡安全大數據

2023-07-25 14:08:41

羊駝模型

2023-05-11 15:39:34

模型設計

2024-05-27 09:01:42

Llama 3大型語言模型人工智能

2016-09-18 20:19:01

LinuxVimGitHub

2021-01-25 13:52:08

SOC/SIEM/安全

2023-11-01 15:46:15

大語言模型戴爾

2023-08-02 11:56:58

2025-09-01 02:11:00

ClaudeAgentic模型

2010-01-14 16:35:31

C++優化

2024-07-30 13:48:37

2011-03-17 13:33:35

虛擬化網絡交換機H3C

2018-05-08 14:58:07

戴爾

2017-12-21 14:36:10

大數據健身智慧

2016-10-27 17:49:07

群暉群暉科技NAS

2023-09-28 12:06:23

AI模型

2025-05-28 18:41:30

AI視頻生成

2024-02-22 17:19:26

谷歌模型PC

2023-10-12 00:01:01

點贊
收藏

51CTO技術棧公眾號

www.com久久久| 日韩免费av片在线观看| 久久久久久国产精品日本| 久草在线资源站资源站| 99re在线视频这里只有精品| 日本中文字幕成人| 极品色av影院| 亚洲精品白浆高清| 欧美男生操女生| 日本www在线视频| www.亚洲.com| 成人蜜臀av电影| 成人疯狂猛交xxx| 日韩欧美性视频| 亚洲色图88| 亚洲日韩中文字幕| 美女搡bbb又爽又猛又黄www| 国产91亚洲精品久久久| 亚洲va在线va天堂| 中文字幕免费高| 日本亚洲一区| 成人一区二区视频| 国产欧美精品一区二区三区-老狼| 国产一级一级片| 一色道久久88加勒比一| 国产精品无码2021在线观看| 国产一区二区日韩精品| 日本一区二区在线播放| 亚洲一区 视频| 香蕉国产精品| 在线午夜精品自拍| 国产肉体xxxx裸体784大胆| 欧美日韩午夜电影网| 欧美日韩中文国产| av无码精品一区二区三区| 电影k8一区二区三区久久| 国产精品护士白丝一区av| 欧洲亚洲一区| 视频国产在线观看| 成人精品亚洲人成在线| 成人性教育视频在线观看| 中文字幕人妻丝袜乱一区三区| 国产不卡一区视频| 欧美年轻男男videosbes| 成年人网站免费视频| 老司机在线永久免费观看| 国产视频视频一区| 鲁鲁视频www一区二区| 国产福利视频导航| 国产主播一区二区| 国产人妖伪娘一区91| 一级片在线免费播放| 久久九九精品| 国产成人精品电影久久久| 国产一区二区三区影院| 欧美三区美女| 久久久久久久久爱| xxxx 国产| 黄色精品免费| 久久久久久伊人| 国产一级理论片| 亚洲人成人一区二区三区| 精品中文字幕在线2019| 国产高清在线免费观看| 自由日本语亚洲人高潮| 欧美成人黑人xx视频免费观看| 小向美奈子av| 欧美淫片网站| 久久久久久久久久婷婷| 国产精品suv一区二区69| 日韩av免费网址| 亚洲人成777| 8x福利精品第一导航| 国产乱码一区二区三区四区| 日日狠狠久久| 日韩欧美久久久| 韩国三级hd两男一女| 欧美网色网址| 一本色道久久综合狠狠躁篇怎么玩| 中文字幕第二区| 亚洲激情五月| 97国产精品视频人人做人人爱| 国产毛片aaa| 日本vs亚洲vs韩国一区三区二区 | 可以免费看不卡的av网站| 国产成人综合亚洲| 国产精品毛片久久久久久久av| 国产一区二区在线看| 国产一级特黄a大片99| 国产三区四区在线观看| 国产精品第四页| 97超碰在线视| 韩日成人影院| 制服丝袜日韩国产| 六十路息与子猛烈交尾| 日韩av在线播放网址| 久久99视频免费| 久久精品无码av| 精品一区二区av| 国产一区喷水| 日本免费在线视频| 五月婷婷激情综合| 激情五月俺来也| 国产精品高潮呻吟久久久久| 一区三区二区视频| 国产91av视频| 九色综合狠狠综合久久| 国产综合av一区二区三区| 欧美一区二区三区在线观看免费| 亚洲国产精品天堂| 粉色视频免费看| 欧美色资源站| 欧美日韩成人在线视频| 天干夜夜爽爽日日日日| 丁香婷婷综合五月| 在线观看欧美激情| 三年中文高清在线观看第6集| 中文日本在线观看| 欧美日韩裸体免费视频| 无人码人妻一区二区三区免费| 久久99视频| 久久久久久国产精品| 91在线观看喷潮| 国产亚洲精品aa午夜观看| 中文字幕日韩精品无码内射| 国产一区一一区高清不卡| 亚洲国产欧美一区二区三区同亚洲| 你懂得在线观看| 日韩和欧美的一区| 欧美日韩一区二区三区免费| heyzo高清国产精品| 日韩网站在线看片你懂的| 中文字幕黄色网址| 可以看av的网站久久看| 久久久久资源| 小早川怜子影音先锋在线观看| 日韩精品一区二区三区视频| 久久久精品少妇| 蜜臀久久99精品久久久久久9| 欧美伦理一区二区| 欧美一区久久久| 亚洲免费人成在线视频观看| 国产成人无码精品久在线观看| 丁香亚洲综合激情啪啪综合| av动漫在线免费观看| 亚洲欧美在线综合| 久久精品国产免费观看| 91精品国产综合久| 亚洲欧洲在线观看av| 亚洲最大成人在线观看| 欧美三级三级| 国产九九精品视频| 日本在线观看| 日韩一区二区三区在线| 欧洲猛交xxxx乱大交3| 国产呦精品一区二区三区网站| 欧美 日韩 国产 在线观看| 亚洲一区有码| 久久成年人免费电影| 精品久久国产视频| 亚洲国产日产av| 亚洲精品国产成人av在线| 91久久综合| 欧美连裤袜在线视频| 日韩中文在线播放| 久久久精品在线| 不卡视频在线播放| 性感美女极品91精品| 国产精品久久精品| 一本色道久久hezyo无码| 国产大片一区| 亚洲资源在线看| 日韩电影免费看| 一区二区欧美久久| a级片在线视频| 午夜成人在线视频| 美女av免费看| 国产宾馆实践打屁股91| 精品这里只有精品| 日本一区二区高清不卡| 51国偷自产一区二区三区的来源| 啪啪免费视频一区| 亚洲免费视频观看| 国产美女主播在线观看| 婷婷一区二区三区| 在线观看免费黄色网址| 国产精品白丝jk黑袜喷水| 国产伦精品一区二区三区四区视频_| 亚洲尤物av| 亚洲最大的av网站| 都市激情亚洲一区| 久久伊人精品天天| 日韩一二三四| 4438成人网| 亚洲黄色小说图片| 综合久久久久久| 亚洲中文字幕无码av| 麻豆精品新av中文字幕| 久久这里只有精品23| 日本精品黄色| 精品乱子伦一区二区三区| 日日夜夜亚洲精品| 欧美中文在线字幕| sm国产在线调教视频| 亚洲色图国产精品| 黄色成人一级片| 欧美精品乱码久久久久久按摩| 日韩女优一区二区| 国产精品嫩草影院av蜜臀| 五十路六十路七十路熟婆| 极品少妇xxxx精品少妇偷拍| 成年人视频观看| 欧美日韩a区| 影音先锋亚洲视频| 精品国产一区二区三区噜噜噜| 痴汉一区二区三区| 最新亚洲国产| 国产精品高潮粉嫩av| 91福利区在线观看| 欧美激情国产精品| 免费超碰在线| 中文字幕精品在线| 久蕉依人在线视频| 日韩av在线电影网| 成人免费一级视频| 午夜激情电影在线播放| 国产午夜精品理论片a级探花| 99视频在线观看免费| 欧美午夜寂寞影院| 日韩精品成人免费观看视频| 五月婷婷激情综合| 国产精品第108页| 夜夜嗨av一区二区三区四季av| 人妻无码一区二区三区免费| 久久先锋影音av鲁色资源网| 日本性生活一级片| 成人丝袜18视频在线观看| 日本亚洲一区二区三区| 韩日欧美一区二区三区| 中文字幕网av| 免费视频一区二区| 精品久久久久av| 石原莉奈一区二区三区在线观看| 久久国产亚洲精品无码| 亚洲一区观看| 亚洲熟妇av一区二区三区漫画| 99国产精品99久久久久久粉嫩| 国产尤物av一区二区三区| 欧美日本一区| 少妇人妻大乳在线视频| 99精品热视频只有精品10| 日韩小视频在线播放| 国产日韩一区二区三区在线| 日韩av片在线看| 欧美亚洲网站| 天天影视综合色| 蜜臀av在线播放一区二区三区 | 男人在线观看视频| 国产精品每日更新| 九九热久久免费视频| 国产精品久久久久久亚洲伦 | 黄视频在线观看免费| 亚洲欧美日韩一区二区在线| 国产精品秘入口| 一本色道久久综合狠狠躁篇的优点 | 91精品久久久久久蜜桃| 美女久久精品| 成人av免费看| 台湾佬综合网| 午夜精品一区二区三区四区| 久久理论电影| 男人草女人视频| 在线观看视频免费一区二区三区| 日韩av综合在线观看| 丝袜诱惑制服诱惑色一区在线观看| 日本成人中文字幕在线| 久久精品国产精品亚洲综合| 日本一区二区三区在线免费观看| 成人精品高清在线| 欧美人与性囗牲恔配| 亚洲欧美日韩一区二区三区在线观看| 青青草手机在线观看| 精品久久久久久亚洲国产300| 中文字幕手机在线视频| 91精品国产丝袜白色高跟鞋| 色哟哟中文字幕| 色悠悠久久久久| av在线视屏| 国产精品一区二区三区在线播放 | 韩国成人av| 久久高清免费| av女优在线播放| 蜜臀91精品一区二区三区| 久久发布国产伦子伦精品| 26uuu国产一区二区三区| 国产3级在线观看| 精品久久久久久国产91| 国产又粗又黄又爽的视频| 精品国产人成亚洲区| 亚洲高清在线观看一区| 91九色美女在线视频| 国产精品白丝jk喷水视频一区| 成人在线视频国产| 麻豆精品传媒视频| 欧美/亚洲一区| 丝袜制服一区二区三区| www.亚洲在线| 极品久久久久久| 在线观看国产一区二区| 国产 欧美 精品| 久久精品亚洲热| 亚洲wwww| 精品无人区一区二区三区竹菊 | 91在线看国产| 印度午夜性春猛xxx交| 在线观看欧美日本| 外国精品视频在线观看 | 性高爱久久久久久久久| 成人三级视频在线观看一区二区| 成人在线免费观看91| 激情五月宗合网| 国产成人av电影在线| 999精品在线视频| 在线免费不卡电影| 四虎影视精品成人| 久久久久久久999| 深夜激情久久| av磁力番号网| 狠狠狠色丁香婷婷综合久久五月| 国产精品扒开腿做爽爽| 午夜电影网亚洲视频| 高h调教冰块play男男双性文| 久久精品精品电影网| 成人免费黄色| 五月婷婷综合色| 日本美女一区二区三区| 亚洲 小说 欧美 激情 另类| 精品久久中文字幕久久av| 人人妻人人澡人人爽久久av| 欧美成人午夜免费视在线看片| 91精品国产一区二区在线观看| 亚洲一区二区精品在线| 老司机午夜精品| 亚洲欧美精品久久| 欧美日韩日日摸| 欧美另类极品| 91在线视频导航| 欧美一区精品| 男女性杂交内射妇女bbwxz| 亚洲综合视频网| 国产成人三级在线观看视频| 欧美黑人性猛交| 九色丨蝌蚪丨成人| 青青青免费在线| www日韩大片| 69亚洲精品久久久蜜桃小说| 亚洲桃花岛网站| 欧美男男gaygay1069| 黄色一级视频播放| 成人免费视频caoporn| 中日韩精品视频在线观看| 亚洲美女在线观看| 青青热久免费精品视频在线18| 香蕉久久夜色| 精品一二三四区| 久久久精品视频免费观看| 亚洲精品在线免费观看视频| 国产高清中文字幕在线| 欧美日韩一区在线播放| 日本少妇一区二区| 久久久久久久久久网站| 精品乱码亚洲一区二区不卡| 原纱央莉成人av片| 日韩在线国产| 国产成人综合在线观看| 国产网友自拍视频| 亚洲视频在线看| 久久久久久久久成人| 无码专区aaaaaa免费视频| 国产亚洲精品7777| 国产精品国产三级国产aⅴ| 久久久久国产一区二区三区| 国产精品片aa在线观看| 欧美xxxxxbbbbb| 婷婷综合久久一区二区三区| 18免费在线视频| 国产精品18毛片一区二区| 老司机精品久久| 少妇久久久久久被弄高潮| 亚洲美女自拍视频| 成人噜噜噜噜| 中国丰满人妻videoshd| 综合久久一区二区三区| 亚洲 国产 欧美 日韩| 国产欧美精品一区二区三区-老狼| 亚洲无线一线二线三线区别av| 色综合99久久久无码国产精品| 日韩一本二本av| 巨胸喷奶水www久久久免费动漫| 日韩精品一区二区在线视频|