精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

用上這個工具包,大模型推理性能加速達40倍

人工智能 新聞
只需不到9行代碼,就能在CPU上實現出色的LLM推理性能。英特爾? Extension for Transformer創新工具包中的LLM Runtime為諸多模型顯著降低時延,且首個token和下一個token的推理速度分別提升多達40倍和2.68倍,還能滿足更多場景應用需求。

英特爾? Extension for Transformer是什么?

英特爾Extension for Transformers[1]是英特爾推出的一個創新工具包,可基于英特爾? 架構平臺,尤其是第四代英特爾? 至強? 可擴展處理器(代號Sapphire Rapids[2],SPR)顯著加速基于Transformer的大語言模型(Large Language Model,LLM)。其主要特性包括:

  • 通過擴展Hugging Face transformers API[3]和利用英特爾? Neural Compressor[4],為用戶提供無縫的模型壓縮體驗;
  • 提供采用低位量化內核(NeurIPS 2023:在CPU上實現高效LLM推理[5])的LLM推理運行時,支持Falcon、LLaMA、MPT、Llama2、 BLOOM、OPT、ChatGLM2、GPT-J-6B、Baichuan-13B-Base、Baichuan2-13B-Base、Qwen-7B、Qwen-14B和Dolly-v2-3B等常見的LLM[6];
  • 先進的壓縮感知運行時[7](NeurIPS 2022:在CPU上實現快速蒸餾和QuaLA-MiniLM:量化長度自適應MiniLM;NeurIPS 2021:一次剪枝,一勞永逸:對預訓練語言模型進行稀疏/剪枝)。

本文將重點介紹其中的LLM推理運行時(簡稱為“LLM運行時”),以及如何利用基于Transformer的API在英特爾? 至強? 可擴展處理器上實現更高效的LLM推理和如何應對LLM在聊天場景中的應用難題。

LLM運行時(LLM Runtime)

英特爾? Extension for Transformers提供的LLM Runtime[8]是一種輕量級但高效的LLM推理運行時,其靈感源于GGML[9],且與llama.cpp[10]兼容,具有如下特性:

  • 內核已針對英特爾? 至強? CPU內置的多種AI加速技術(如 AMX、VNNI)以及AVX512F和AVX2指令集進行了優化;
  • 可提供更多量化選擇,例如:不同的粒度(按通道或按組)、不同的組大小(如:32/128);
  • 擁有更優的KV緩存訪問以及內存分配策略;
  • 具備張量并行化功能,可助力在多路系統中進行分布式推理。

LLM Runtime的簡化架構圖如下:

圖片

△圖1.英特爾? Extension for Transformers的LLM Runtime簡化架構圖

使用基于Transformer的API,在CPU上實現LLM高效推理

只需不到9行代碼,即可讓您在CPU上實現更出色的LLM推理性能。用戶可以輕松地啟用與Transformer類似的API來進行量化和推理。只需將 ‘load_in_4bit’設為true,然后從HuggingFace URL或本地路徑輸入模型即可。下方提供了啟用僅限權重的(weight-only)INT4量化的示例代碼:

from transformers import AutoTokenizer, TextStreamer
from intel_extension_for_transformers.transformers import AutoModelForCausalLM
model_name = "Intel/neural-chat-7b-v3-1” 
prompt = "Once upon a time, there existed a little girl,"

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
inputs = tokenizer(prompt, return_tensors="pt").input_ids
streamer = TextStreamer(tokenizer)

model = AutoModelForCausalLM.from_pretrained(model_name, load_in_4bit=True)
outputs = model.generate(inputs, streamer=streamer, max_new_tokens=300)

默認設置為:將權重存儲為4位,以8位進行計算。但也支持不同計算數據類型(dtype)和權重數據類型組合,用戶可以按需修改設置。下方提供了如何使用這一功能的示例代碼:

from transformers import AutoTokenizer, TextStreamer
from intel_extension_for_transformers.transformers import AutoModelForCausalLM, WeightOnlyQuantConfig
model_name = "Intel/neural-chat-7b-v3-1” 
prompt = "Once upon a time, there existed a little girl,"

woq_config = WeightOnlyQuantConfig(compute_dtype="int8", weight_dtype="int4")
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
inputs = tokenizer(prompt, return_tensors="pt").input_ids
streamer = TextStreamer(tokenizer)

model = AutoModelForCausalLM.from_pretrained(model_name,quantization_cnotallow=woq_config)
outputs = model.generate(inputs, streamer=streamer, max_new_tokens=300)

性能測試

經過持續努力,上述優化方案的INT4性能得到了顯著提升。本文在搭載英特爾? 至強? 鉑金8480+的系統上與llama.cpp進行了性能比較;系統配置詳情如下:@3.8GHz,56核/路,啟用超線程,啟用睿頻,總內存 256 GB (16 x 16 GB DDR5 4800 MT/s [4800 MT/s]),BIOS 3A14.TEL2P1,微代碼0x2b0001b0,CentOS Stream 8。

當輸入大小為32、輸出大小為32、beam為1時的推理性能測試結果,詳見下表:

圖片

△表1.LLM Runtime與llama.cpp推理性能比較(輸入大小=32,輸出大小=32,beam=1)

輸入大小為1024、輸出大小為32、beam為1時的推理性能的測試結果,詳見下表:

圖片

△表2.LLM Runtime與llama.cpp推理性能比較(輸入大小=1024,輸出大小=32,beam=1)

根據上表2可見:與同樣運行在第四代英特爾? 至強? 可擴展處理器上的llama.cpp相比,無論是首個token還是下一個token,LLM Runtime都能顯著降低時延,且首個token和下一個token的推理速度分別提升多達 40 倍[a](Baichuan-13B,輸入為1024)和2.68倍[b](MPT-7B,輸入為1024)。llama.cpp的測試采用的是默認代碼庫[10]。

而綜合表1和表2的測試結果,可得:與同樣運行在第四代英特爾? 至強? 可擴展處理器上的llama.cpp相比,LLM Runtime能顯著提升諸多常見LLM的整體性能:在輸入大小為1024時,實現3.58到21.5倍的提升;在輸入大小為32時,實現1.76到3.43倍的提升[c]

準確性測試

英特爾? Extension for Transformers可利用英特爾? Neural Compressor中的SignRound[11]、RTN和GPTQ[12]等量化方法,并使用lambada_openai、piqa、winogrande和hellaswag數據集驗證了 INT4 推理準確性。下表是測試結果平均值與FP32準確性的比較。

圖片
△表3.INT4與FP32準確性對比

從上表3可以看出,多個模型基于LLM Runtime進行的INT4推理準確性損失微小,幾乎可以忽略不記。我們驗證了很多模型,但由于篇幅限制此處僅羅列了部分內容。如您欲了解更多信息或細節,請訪問此鏈接:https://medium.com/@NeuralCompressor/llm-performance-of-intel-extension-for-transformers-f7d061556176

更先進的功能:滿足LLM更多場景應用需求

同時,LLM Runtime[8]還具備雙路CPU的張量并行化功能,是較早具備此類功能的產品之一。未來,還會進一步支持雙節點。

然而,LLM Runtime的優勢不僅在于其更出色的性能和準確性,我們也投入了大量的精力來增強其在聊天應用場景中的功能,并且解決了LLM 在聊天場景中可能會遇到的以下應用難題:

  1. 對話不僅關乎LLM推理,對話歷史也很有用。
  2. 輸出長度有限:LLM模型預訓練主要基于有限的序列長度。因此,當序列長度超出預訓練時使用的注意力窗口大小時,其準確性便會降低。
  3. 效率低下:在解碼階段,基于Transformer的LLM會存儲所有先前生成的token的鍵值狀態(KV),從而導致內存使用過度,解碼時延增加。

關于第一個問題,LLM Runtime的對話功能通過納入更多對話歷史數據以及生成更多輸出加以解決,而llama.cpp目前尚未能很好地應對這一問題。

關于第二和第三個問題,我們將流式LLM(Steaming LLM)集成到英特爾? Extension for Transformers中,從而能顯著優化內存使用并降低推理時延。

Streaming LLM

與傳統KV緩存算法不同,我們的方法結合了注意力匯聚(Attention Sink)(4個初始token)以提升注意力計算的穩定性,并借助滾動KV緩存保留最新的token,這對語言建模至關重要。該設計具有強大的靈活性,可無縫集成到能夠利用旋轉位置編碼RoPE和相對位置編碼ALiBi的自回歸語言模型中。

圖片

△圖2.Steaming LLM的KV緩存(圖片來源:通過注意力下沉實現高效流式語言模型[13])

此外,與llama.cpp不同,本優化方案還引入了“n_keep”和“n_discard”等參數來增強Streaming LLM策略。用戶可使用前者來指定要在KV緩存中保留的token數量,并使用后者來確定在已生成的token中要舍棄的數量。為了更好地平衡性能和準確性,系統默認在KV緩存中舍棄一半的最新token。

同時,為進一步提高性能,我們還將Streaming LLM添加到了MHA融合模式中。如果模型是采用旋轉位置編碼(RoPE)來實現位置嵌入,那么只需針對現有的K-Cache應用“移位運算(shift operation)”,即可避免對先前生成的、未被舍棄的token進行重復計算。這一方法不僅充分利用了長文本生成時的完整上下文大小,還能在KV緩存上下文完全被填滿前不產生額外開銷。

“shift operation”依賴于旋轉的交換性和關聯性,或復數乘法。例如:如果某個token的K-張量初始放置位置為m并且旋轉了θfor i ∈ [0,d/2),那么當它需要移動到m-1這個位置時,則可以旋轉回到(-1)×θfor i ∈ [0,d/2)。這正是每次舍棄n_discard個token的緩存時發生的事情,而此時剩余的每個token都需要“移動”n_discard個位置。下圖以“n_keep=4、n_ctx=16、n_discard=1”為例,展示了這一過程。

圖片

△圖3.Ring-Buffer KV-Cache和Shift-RoPE工作原理

需要注意的是:融合注意力層無需了解上述過程。如果對K-cache和V-cache進行相同的洗牌,注意力層會輸出幾乎相同的結果(可能存在因浮點誤差導致的微小差異)

您可通過以下代碼啟動Streaming LLM:

from transformers import AutoTokenizer, TextStreamer  
 from intel_extension_for_transformers.transformers import AutoModelForCausalLM, WeightOnlyQuantConfig  
 model_name = "Intel/neural-chat-7b-v1-1"     # Hugging Face model_id or local model
 woq_config = WeightOnlyQuantConfig(compute_dtype="int8", weight_dtype="int4")
 prompt = "Once upon a time, a little girl"

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
 inputs = tokenizer(prompt, return_tensors="pt").input_ids
 streamer = TextStreamer(tokenizer)

model = AutoModelForCausalLM.from_pretrained(model_name, quantization_cnotallow=woq_config, trust_remote_code=True)

 # Recommend n_keep=4 to do attention sinks (four initial tokens) and n_discard=-1 to drop half rencetly tokens when meet length threshold

 outputs = model.generate(inputs, streamer=streamer, max_new_tokens=300, ctx_size=100, n_keep=4, n_discard=-1)

結論與展望

本文基于上述實踐經驗,提供了一個在英特爾? 至強? 可擴展處理器上實現高效的低位(INT4)LLM推理的解決方案,并且在一系列常見LLM上驗證了其通用性以及展現了其相對于其他基于CPU的開源解決方案的性能優勢。未來,我們還將進一步提升CPU張量庫和跨節點并行性能。

歡迎您試用英特爾? Extension for Transformers[1],并在英特爾? 平臺上更高效地運行LLM推理!也歡迎您向代碼倉庫(repository)提交修改請求 (pull request)、問題或疑問。期待您的反饋!

特別致謝

在此致謝為此篇文章做出貢獻的英特爾公司人工智能資深經理張瀚文及工程師許震中、余振滔、劉振衛、丁藝、王哲、劉宇澄。

[a]根據表2 Baichuan-13B的首個token測試結果計算而得。
[b]根據表2 MPT-7B的下一個token測試結果計算而得。
[c]當輸入大小為1024時,整體性能=首個token性能+1023下一個token性能;當輸入大小為32時,整體性能=首個token性能+31下一個token性能。

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-09-03 10:02:19

2019-10-14 09:58:00

機器學習人工智能計算機

2025-04-07 09:00:00

數據測試工具

2024-12-02 12:37:42

2025-04-21 09:07:00

2024-12-26 16:00:00

英特爾推理模型

2020-05-29 15:40:40

NVIDIA

2024-08-16 14:15:00

AI訓練

2023-09-10 12:37:38

模型英偉達

2021-09-17 12:54:05

AI 數據人工智能

2024-08-29 12:58:35

2024-12-09 13:40:26

2024-11-21 14:00:00

模型AI

2025-08-04 08:40:00

2025-10-23 08:50:32

2025-02-07 09:00:00

2025-03-19 10:10:43

2023-12-19 13:32:00

模型數據

2023-01-05 09:33:37

視覺模型訓練
點贊
收藏

51CTO技術棧公眾號

日韩欧美高清视频| 91视频com| 欧美国产日本在线| 亚洲av无码一区二区三区观看| 国产高清自产拍av在线| 国产色产综合色产在线视频| 成人a视频在线观看| 一起操在线播放| 另类图片第一页| 欧美日韩一区视频| 免费拍拍拍网站| jizz在线观看视频| 国产1区2区3区精品美女| 秋霞午夜一区二区| 三级影片在线看| 一区二区三区日本久久久| 91精品综合久久久久久| 动漫av网站免费观看| 毛片在线视频| 久久精品网站免费观看| 99www免费人成精品| 精品国产乱子伦| 国产精品a久久久久| 亚洲国产精品人人爽夜夜爽| 永久免费的av网站| 福利在线免费视频| 最近日韩中文字幕| 欧美日本韩国国产| 亚洲男人第一天堂| 久久国产精品72免费观看| 91高清免费视频| 久草免费新视频| 欧美偷拍综合| 日韩精品视频在线免费观看| 波多野结衣免费观看| 成人18视频在线观看| 欧美日韩国产区| 欧美黄网在线观看| 精产国品自在线www| 久久久精品tv| 欧美国产视频在线观看| 色婷婷激情五月| 岛国一区二区在线观看| 亚洲一区二区三区成人在线视频精品 | 17婷婷久久www| 欧美日韩人妻精品一区二区三区| 久久免费av| 国产亚洲精品成人av久久ww| 国产美女喷水视频| 天海翼亚洲一区二区三区| 精品久久久久久无| 久久久久亚洲av无码网站| 欧美三级电影网址| 欧美日韩在线精品一区二区三区激情| 免费日韩视频在线观看| 手机av在线| 欧美网站在线观看| 男人靠女人免费视频网站 | 日韩av黄色在线观看| 日本黄色片视频| 亚洲久久一区二区| 992tv成人免费影院| 免费观看一区二区三区毛片| 亚洲国产裸拍裸体视频在线观看乱了中文| 欧美韩国理论所午夜片917电影| 青青操在线视频观看| 9999国产精品| 久久久999国产精品| 午夜69成人做爰视频| 午夜日韩电影| 久久久久久久网站| 黑人一级大毛片| 久久婷婷亚洲| 国产美女久久精品| 99热这里只有精品9| 国产一区二区三区在线观看精品| 92国产精品视频| 国产综合在线播放| 95精品视频在线| 日本一区二区在线视频| 黄色av网站在线播放| 亚洲一区二区三区四区在线观看 | 亚洲欧美99| 羞羞网站在线看| 精品国产乱码久久久久久虫虫漫画| 亚洲色成人一区二区三区小说| 成人日韩在线观看| 日韩一区二区中文字幕| 99精品一区二区三区无码吞精| 神马午夜久久| 久久精品99无色码中文字幕| 日本一二三区不卡| 青草av.久久免费一区| 97人人模人人爽人人喊38tv| 日本xxxx人| 国产精品欧美久久久久一区二区| 六月婷婷激情网| 无码小电影在线观看网站免费| 欧美性一二三区| 国产精品嫩草69影院| 美女久久久久| 欧美疯狂性受xxxxx另类| 国产伦精品一区二区三区视频网站| 免费观看日韩电影| 激情视频一区二区| 美女黄视频在线观看| 福利视频导航一区| 手机在线观看日韩av| 你微笑时很美电视剧整集高清不卡| 久久久www成人免费精品| 超碰中文字幕在线| 国产精品综合视频| 日本精品一区二区| 77thz桃花论族在线观看| 欧美色老头old∨ideo| 亚洲无人区码一码二码三码| 日本大胆欧美| 欧美孕妇与黑人孕交| 国内精品国产成人国产三级| 国产日韩欧美精品电影三级在线| 日韩国产小视频| 久久夜夜久久| 亚洲欧美中文字幕| 日本在线小视频| 国模大尺度一区二区三区| 欧美一级爱爱| 国产精品一二三产区| 日韩一级片在线观看| 少妇愉情理伦三级| 久久精品中文| 九九热久久66| 国产美女精品写真福利视频| 日韩欧美国产午夜精品| 天堂网中文在线观看| 石原莉奈在线亚洲二区| 狠狠色狠狠色综合人人| 久久大胆人体| 日韩欧美色综合| 一区二区三区四区五区| 另类小说一区二区三区| 色播亚洲婷婷| 韩国美女久久| 亚洲人永久免费| 久久人妻免费视频| xfplay精品久久| 日韩少妇内射免费播放18禁裸乳| 高清日韩中文字幕| 午夜精品久久久99热福利| 成人小说亚洲一区二区三区| 一区二区三区免费网站| 日本一二三四区视频| 天天影视欧美综合在线观看| 91精品久久久久久久久| 麻豆免费在线视频| 欧美一区二区二区| 国内偷拍精品视频| 粉嫩aⅴ一区二区三区四区五区| 国产一二三四区在线观看| 成人51免费| 九九热99久久久国产盗摄| 国产高清在线免费| 午夜一区二区三区在线观看| 一女三黑人理论片在线| 毛片一区二区| 亚洲第一在线综合在线| 99久久久国产| 欧美激情视频网址| 日本免费网站在线观看| 五月激情六月综合| japanese中文字幕| 蜜桃精品在线观看| 国产精品av免费观看| 久久夜色精品国产噜噜av小说| 97超碰国产精品女人人人爽 | 337p粉嫩大胆噜噜噜噜噜91av| 日本三级免费观看| 欧美色图国产精品| 99精品99久久久久久宅男| 高清在线视频不卡| 中文字幕欧美日韩| 国内老熟妇对白hdxxxx| 午夜一区二区三区在线观看| a级大片在线观看| 麻豆精品精品国产自在97香蕉| 91手机视频在线| 精品久久97| 国产精品美女在线观看| 四虎影视国产在线视频| 日韩毛片中文字幕| 国产一区二区波多野结衣| 午夜久久久久久| 国产三级在线观看完整版| 国产精品一区在线观看乱码| 大陆极品少妇内射aaaaa| 成人午夜国产| 国产日韩三区| 国产综合色在线观看| 精品自拍视频在线观看| 欧美日韩在线精品一区二区三区激情综| 欧美日韩在线播放一区| 日本三级免费看| 国产精品理论片| 亚洲av无码一区二区三区网址| 日本强好片久久久久久aaa| www.日本三级| 视频在线不卡免费观看| 九9re精品视频在线观看re6| 99久久这里有精品| 日韩av电影在线网| 91av久久| 久精品免费视频| 欧美三级理伦电影| 亚洲欧美三级伦理| 高清乱码毛片入口| 91.麻豆视频| 国产精品第六页| 天天色图综合网| 日韩影院一区二区| 日本一区二区三区dvd视频在线| 影音先锋资源av| 日本aⅴ亚洲精品中文乱码| 国产毛片视频网站| 欧美日本一区| 妞干网这里只有精品| 精品欧美激情在线观看| 久久久久久久久四区三区| 欧美专区一区| 91亚洲va在线va天堂va国| 日韩欧美看国产| 55夜色66夜色国产精品视频| 肉体视频在线| 久久成人综合视频| 麻豆电影在线播放| 色噜噜狠狠色综合网图区| 国产一二三区在线视频| 精品一区电影国产| 性感美女福利视频| 亚洲成年人在线播放| 99视频国产精品免费观看a| 欧美日本精品一区二区三区| 日韩免费av网站| 色8久久精品久久久久久蜜| 毛片在线免费视频| 色综合久久久久综合| 啦啦啦免费高清视频在线观看| 午夜精品一区二区三区电影天堂 | 成人18视频| 中文字幕av一区二区三区四区| 亚洲专区国产精品| 欧美片网站免费| 51国偷自产一区二区三区的来源| 国产成人久久精品一区二区三区| 91精品啪aⅴ在线观看国产| 91成人精品观看| 91青青草免费观看| 99久久香蕉| 国产成人精品免费视频大全最热| 欧美经典一区| 国产精品久久精品国产| 欧美freesex8一10精品| 久久综合九色99| 美日韩中文字幕| 色姑娘综合网| 91精品推荐| 欧美国产视频一区| 国产日韩一区二区三区在线播放| heyzo国产| 日本麻豆一区二区三区视频| 污污网站免费观看| 国产精品99久久久久| 久久性爱视频网站| 国产欧美日韩亚州综合| 日本一级片免费| 亚洲一区在线观看免费| 亚洲精品午夜国产va久久成人| 色综合久久久久综合| 怡红院男人的天堂| 日韩欧美高清dvd碟片| 天堂资源中文在线| 在线观看精品国产视频| 成人日韩欧美| 性色av一区二区三区免费| 中文字幕乱码在线播放| 国产精品一区二区三区久久久| 91麻豆精品国产综合久久久 | 日韩av色综合| 在线日韩三级| 精品中文字幕一区| 天天精品视频| 欧美变态另类刺激| 极品少妇一区二区| 黑丝av在线播放| 亚洲欧洲精品一区二区三区不卡| 国产精品成人国产乱| 欧美三级韩国三级日本一级| 丰满人妻一区二区三区四区53| 国产亚洲精品久久久久动| 中文字幕免费高清电视剧网站在线观看| 91国产视频在线| 一区二区三区无毛| av成人观看| 日韩电影一区| 国产一区二区视频播放| 蜜桃传媒麻豆第一区在线观看| 美女伦理水蜜桃4| 国产精品国产精品国产专区不蜜 | 亚洲成人7777| 怡春院在线视频| 亚洲免费电影在线观看| 在线中文字幕第一页| 国产精品久久中文| 日韩深夜影院| 久久福利一区二区| 免费成人美女在线观看.| 国产精品300页| 亚洲一区二区三区在线看| 国产一区二区波多野结衣| 一区二区三区精品99久久 | 国产日韩欧美另类| 亚洲丝袜美腿一区| 女人帮男人橹视频播放| 久久69国产一区二区蜜臀| 成年人免费观看视频网站| 亚洲.国产.中文慕字在线| 一级全黄少妇性色生活片| 亚洲日韩中文字幕在线播放| av蜜臀在线| 国产精品久久久对白| 你懂的成人av| 午夜啪啪小视频| 国产精品久久二区二区| 波多野结衣电车痴汉| 亚洲美女在线观看| 手机在线观看av| 精品国产乱码久久久久久久软件| 午夜日韩激情| 精品国产aⅴ一区二区三区东京热 久久久久99人妻一区二区三区 | 国产精品爱久久久久久久| 欧美人妖视频| 91精品91久久久中77777老牛 | 久久丫精品忘忧草西安产品| 亚瑟在线精品视频| 色网站免费观看| 97色伦亚洲国产| 欧美交a欧美精品喷水| 水蜜桃色314在线观看| 成人免费看黄yyy456| 国产精品suv一区二区| 欧美大片日本大片免费观看| 91精品久久久久久粉嫩| 91在线看网站| 欧美黄色免费| wwwxx日本| 欧美性猛xxx| 黄色av网站在线看| 国产精品揄拍500视频| 97色伦图片97综合影院| 无人码人妻一区二区三区免费| 一区二区三区四区五区视频在线观看| 国产视频一区二区三区四区五区| 欧美成人精品在线| 国产精品国产| 苍井空浴缸大战猛男120分钟| 久久精品视频在线免费观看| 中文在线最新版天堂| 久久精品一偷一偷国产| 日韩精品中文字幕一区二区| 国产精品久久..4399| xnxx国产精品| 一级淫片免费看| 欧美区二区三区| 图片婷婷一区| mm131亚洲精品| 亚洲精品日日夜夜| 欧美 日韩 国产 精品| 日本一区二区不卡| 久久国产精品成人免费观看的软件| 亚洲精品免费一区亚洲精品免费精品一区| 亚洲激情六月丁香| 手机av在线免费观看| 国产精品视频久久久久| 欧美激情在线| 熟女少妇内射日韩亚洲| 91精品国产综合久久久久| 高清视频在线观看三级| 亚洲精品一区二区三区蜜桃久| 国产酒店精品激情| 国产伦精品一区二区三区视频我| 日韩中文在线中文网在线观看 | 国内精品二区| 蜜桃视频一区二区三区在线观看| 欧美激情一区二区视频| 日韩精品免费电影| 一区二区三区日本视频| 自慰无码一区二区三区| 亚洲视频在线观看一区| 色视频免费在线观看| 91色中文字幕| 老妇喷水一区二区三区| 久草视频免费播放|