精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

00后華裔小哥哈佛輟學(xué)組團(tuán)挑戰(zhàn)英偉達(dá),史上最快AI芯片Sohu推理性能超H100二十倍!

人工智能
史上最快Transformer芯片誕生了!用Sohu跑Llama 70B,推理性能已超B200十倍,超H100二十倍!剛剛,幾位00后小哥從哈佛輟學(xué)后成立的公司Etached,宣布再融資1.2億美元。

有史以來最快的Transformer芯片,剛剛誕生了?

去年21歲哈佛輟學(xué)華裔小哥的神級(jí)創(chuàng)業(yè)故事,進(jìn)化到了新的階段。

這一次,號(hào)稱專為LLM推理加速打造的Sohu芯片,已經(jīng)成超越Groq,成為最強(qiáng)AI芯片。

如今的Sohu,在跑Llama 70B時(shí)每秒可生成高達(dá)500000個(gè)token的輸出。

換句話說就是:1張Sohu≈20張H100≈10張B200。

圖片圖片

在去年12月,Etced就曾火過一陣,當(dāng)時(shí)兩位哈佛輟學(xué)小哥的2人公司,估值已經(jīng)高達(dá)3400萬刀。當(dāng)時(shí)Sohu號(hào)稱LLM推理性能達(dá)到H100的10倍,單價(jià)吞吐量更是高達(dá)140倍。

而就在剛剛,Etced又宣布了炸裂的新消息:已籌到1.2億美元。

圖片圖片

就在上周,英偉達(dá)的市值達(dá)到3.3萬億美元,超過微軟成為全球第一。而Etched相信,自己的35人團(tuán)隊(duì)能夠擊敗英偉達(dá)。

他們的豪放預(yù)言,得到了硅谷真金白銀的支持。投資名單中,是一眾豪華的機(jī)構(gòu)和硅谷大佬,包括Peter Thiel。

Primary Venture Partners和Positive Sum Ventures領(lǐng)投了這輪融資,機(jī)構(gòu)投資者包括 Hummingbird、Fundomo、Fontinalis、Lightscape、Earthshot、Two Sigma Ventures和 Skybox Data Centers。

天使投資者包括Peter Thiel、Stanley Druckenmiller、David Siegel、Balaji Srinivasan、Amjad Masad、Kyle Vogt、Kevin Hartz、Jason Warner、Thomas Dohmke、Bryan Johnson、Mike Novogratz、Immad Akhund、Jawed Karim和Charlie Cheeve。

Etched創(chuàng)始人之一Gavin Uberti表示,「我們正在押注人工智能領(lǐng)域最大的賭注——一種只能運(yùn)行Transformer模型的芯片,但其運(yùn)行速度比GPU快幾個(gè)數(shù)量級(jí)。也許注意力確實(shí)是你所需要的全部...」

圖片圖片

Pika研究人員表示,每秒50萬token簡直太瘋狂了。你可以在2秒內(nèi)寫出「圣經(jīng)」,或者一年內(nèi)生成15萬億token。

圖片圖片

Sohu大約每秒能輸出21個(gè)人一天說的話,簡直太不真實(shí)了。

圖片圖片

Thiel Fellowship的主任Alex Handy,對(duì)幾位年輕人表示了高度的贊許:「投資Etched是對(duì) AI 價(jià)值的戰(zhàn)略性押注。他們的芯片解決了競爭對(duì)手不敢面對(duì)的可擴(kuò)展性問題,挑戰(zhàn)了同行中普遍存在的停滯狀態(tài)。」

在他看來,正是因?yàn)閹孜恍「缱隽说讓拥墓ぷ鳎韫鹊某绦騿T們才能繼續(xù)安心編程,不必?fù)?dān)心正在開發(fā)技術(shù)的底層出問題。

圖片圖片

兩年前開始的豪賭

這個(gè)傳奇的故事,始于兩年前。

2022年,幾位創(chuàng)始人就打賭:Transformer將占領(lǐng)世界。

圖片圖片

為此,他們花了兩年時(shí)間打造Sohu,這是世界上第一個(gè)用于Transformer的專用芯片(ASIC)。

圖片圖片

將Transformer架構(gòu)燒錄到Sohu芯片后,它無法運(yùn)行大多數(shù)的傳統(tǒng)AI模型:比如DLRMs、AlphaFold 2,或Stable Diffusion 2;也無法運(yùn)行CNNs、RNNs或LSTMs。

但對(duì)于Transformer來說,Sohu確實(shí)是有史以來最快的芯片。但它還可以更快。

對(duì)于Llama 70B,Sohu的吞吐量每秒超過了50萬個(gè)token,因此它可以構(gòu)建在GPU上根本不可能實(shí)現(xiàn)的產(chǎn)品。

而且,它甚至比英偉達(dá)的下一代Blackwell(B200)更快、更便宜!

如今最先進(jìn)的AI模型,無一不是基于Transformer的,比如ChatGPT、Sora、Gmini、Stable Diffusion 3等等。

如果Transformer被SSM、RWKV或任何新架構(gòu)取代,那Sohu將毫無用處。

但是,創(chuàng)始人小哥表示,如果他們押對(duì)了,Sohu將徹底改變世界!

這,就是一場豪賭。

Scale是「超級(jí)智能」所需的全部?

五年內(nèi),AI模型在大多數(shù)標(biāo)準(zhǔn)化測試中,超越了人類。

這是怎么做到的?

因?yàn)镸eta用于訓(xùn)練Llama 400B(2024年SOTA模型)的計(jì)算量,比OpenAI訓(xùn)練GPT-2(2019年SOTA模型)多5萬倍。

OpenAI用Scaling Law預(yù)測了GPT-4性能,并預(yù)計(jì)GPT-5+同樣適用OpenAI用Scaling Law預(yù)測了GPT-4性能,并預(yù)計(jì)GPT-5+同樣適用

奧特曼曾說過,「擴(kuò)展參數(shù)規(guī)模確實(shí)非常重要。當(dāng)我們在太陽周圍建造了一個(gè)戴森球(Dyson Sphere)之后,我們才可以考慮討論是否應(yīng)該停止這么做,但在那之前不應(yīng)該停下來」。

也就是說,通過向LLM提供更多的算力和更好的數(shù)據(jù),才使得AI變得更加智能。

不得不承認(rèn),參數(shù)規(guī)模擴(kuò)展(Scale)將會(huì)是幾十年來唯一持續(xù)有效的方法。

每個(gè)大型AI公司(谷歌、OpenAI/微軟、Anthropic/亞馬遜等)都在未來幾年投入超1000億美元來繼續(xù)擴(kuò)大LLM規(guī)模。

然而,再擴(kuò)展1000倍必定是昂貴的,形象地解釋,下一代數(shù)據(jù)中心的成本將超過一個(gè)小國的GDP。

按照目前的發(fā)展速度,我們的硬件、成本、財(cái)力根本無法跟得上。

GPU撞墻了

圣克拉拉,英偉達(dá)總部所在地,不愿意讓人知道的小秘密是——

GPU性能其實(shí)沒有變得更好,只是變得更大了。

過去四年里,芯片單位面積的計(jì)算能力(每平方毫米的TFLOPS)幾乎沒有提升。

就比如,英偉達(dá)的B200、AMD的MI300、英特爾的Gaudi 3,以及亞馬遜的Trainium2都將2個(gè)芯片集成到一張卡上,以使其性能翻倍。

如下曲線圖中,也可以看出,從2022年-2025年,AI芯片并沒有真正變得更好只是變得更大了。

在過去四年中,計(jì)算密度(TFLOPS/mm^2)僅提高了約15%。

圖片圖片

而現(xiàn)在,隨著摩爾定律的放緩,提高芯片性能的唯一途徑,便是讓其走向「專用」化。

專用芯片,勢在必行

在Transformer占領(lǐng)世界之前,許多公司構(gòu)建了靈活的AI芯片和GPU來處理數(shù)百種不同的機(jī)器學(xué)習(xí)架構(gòu)。

舉幾個(gè)例子:

圖片圖片

卻從來沒有人制造,針對(duì)特定算法的AI芯片(ASIC)。

因?yàn)椋碌男酒?xiàng)目需要花費(fèi)5000萬-1億美元,甚至要用許多年的時(shí)間才能投入生產(chǎn)。

當(dāng)Etched開始著手這一項(xiàng)目時(shí),根本就不存在這樣的市場。

突然間,這種情況一下子發(fā)生了轉(zhuǎn)變。

ChatGPT出現(xiàn)之前,Transformer的推理市場規(guī)模大約是5000萬美元。

而現(xiàn)在,已經(jīng)達(dá)到數(shù)十億美元。所有的科技巨頭,初創(chuàng)公司都在使用Transformer模型。

大模型架構(gòu),都在走向融合趨同。自從GPT-2誕生以來,最先進(jìn)的模型架構(gòu)幾乎保持一致!

OpenAI GPT系列、谷歌PaLM、Meta Llama,甚至特斯拉的全自動(dòng)駕駛系統(tǒng),都采用了Transformer架構(gòu)。

圖片

當(dāng)模型的訓(xùn)練成本超過10億美元,推理成本超過100億美元時(shí),專用芯片的出現(xiàn)是必然的。

在這種巨大參數(shù)規(guī)模之下,即使只有1%的性能提升,也足以證明5000萬-1億美元的定制芯片項(xiàng)目是值得的。

實(shí)際上,ASIC的速度要比GPU快很多個(gè)數(shù)量級(jí)。

Transformer擁有巨大的護(hù)城河

Etched.ai的幾位創(chuàng)始人表示,他們相信硬件彩票——能在硬件上運(yùn)行得最快、最便宜的模型,就是獲勝的那一個(gè)。

而Transformer擁有巨大的護(hù)城河,足以在替代方案成熟之前主導(dǎo)各大AI計(jì)算市場。

理由如下——

1. Transformer正在為每一個(gè)大型AI產(chǎn)品提供支持,無論是Agent、搜索還是聊天。

為了優(yōu)化GPU去適應(yīng)Transformer,AI實(shí)驗(yàn)室已經(jīng)在研發(fā)上投入了數(shù)億美元。

無論是當(dāng)前還是下一代SOTA模型,都是基于Transformer的。

2. 隨著未來幾年模型訓(xùn)練的規(guī)模從10億美元擴(kuò)大到100億美元,再到1000億美元,測試新架構(gòu)的風(fēng)險(xiǎn)也急劇上升。

與其重新測試Scalling law和性能,不如把時(shí)間花在基于Transformer的功能開發(fā)上,比如多token預(yù)測。

3. 當(dāng)前的軟件棧,已為Transformer進(jìn)行了優(yōu)化。每個(gè)流行的庫(TensorRT-LLM、vLLM、Huggingface TGI等),都有在GPU上運(yùn)行Transformer模型的專用內(nèi)核。

許多建立在Transformer之上的功能,比如推測解碼、樹搜索等,在替代方案中都很難得到支持。

圖片圖片

Sohu可以通過樹搜索更好地編碼,能夠并行比較數(shù)百個(gè)響應(yīng)

4. 未來的硬件棧,也將為Transformer進(jìn)行優(yōu)化。比如英偉達(dá)的GB200,對(duì)Transformer Engine就有特殊的支持。

隨著像Sohu這樣的ASIC進(jìn)入市場,將會(huì)帶來一種不可逆的趨勢。

也就是說,作為「Transformer Killer」的模型需要在GPU上,運(yùn)行得比Sohu上的Transformer更快。

而但凡出現(xiàn)這種情況,創(chuàng)始人表示,他們也會(huì)為此構(gòu)建一款全新的ASIC!

圖片圖片

Sohu支持多重推測解碼,可以實(shí)時(shí)生成新內(nèi)容

Sohu來了!

Sohu是世界上第一個(gè)Transformer ASIC。

通過專門化,Sohu獲得了前所未有的性能。一臺(tái)8xSohu服務(wù)器每秒可以處理超過50萬個(gè)Llama 70B token,等效于160塊H100 GPU。

Sohu僅支持Transformer推理,并支持當(dāng)今所有的模型(Google、Meta、Microsoft、OpenAI、Anthropic等),以及處理未來模型的調(diào)整。

無論是Meta的Llama、谷歌的Gemini、OpenAI的GPT、Anthropic的Claude、還是Stability AI的Stable Diffusion 3等等,都可以。

由于Sohu只能運(yùn)行一種算法,因此絕大多數(shù)的控制流邏輯可以被移除,從而允許其擁有更多的數(shù)學(xué)模塊。

結(jié)果就是,Sohu的FLOPS利用率高達(dá)90%以上;相比之下,使用TRT-LLM的GPU僅為為30%左右。

如何實(shí)現(xiàn)比GPU更多的FLOPS?

目前最先進(jìn)的算力——英偉達(dá)H200,在沒有稀疏處理的情況下具有989 TFLOPS的FP16/BF16算力。(超過了Google的新Trillium芯片之一)

而2025年推出的GB200,將會(huì)在算力上增加25%(每個(gè)芯片1250 TFLOPS)。

由于GPU的大部分面積都用于可編程性,因此專注于Transformer可以容納更多的算力。

從基本原理上來看,這一點(diǎn)可以很容易被證明:

制造一個(gè)FP16/BF16/FP8乘法加法電路(所有矩陣數(shù)學(xué)的基礎(chǔ)構(gòu)件)需要10,000個(gè)晶體管。H100 SXM有528個(gè)張量核心,每個(gè)核心有4×8×16個(gè)FMA電路。通過計(jì)算可以得到,H100有27億個(gè)晶體管專用于張量核心。

實(shí)際上,H100擁有800億個(gè)晶體管!這意味著在H100 GPU上的晶體管中,僅有3.3%用于矩陣乘法!

但問題是,如果想要為各種模型(CNN、LSTM、SSM等)都提供支持,就不得不采取這樣的設(shè)計(jì)。

這時(shí),如果選擇只運(yùn)行Transformer,就可以在芯片上容納更多的FLOPS,且無需依賴更低的精度或稀疏處理。

推理的瓶頸是內(nèi)存帶寬,而非計(jì)算?

事實(shí)上,對(duì)于像Llama-3這樣的現(xiàn)代模型,并非如此!

使用英偉達(dá)和AMD的標(biāo)準(zhǔn)基準(zhǔn)測試——2048個(gè)輸入token和128個(gè)輸出token,大多數(shù)AI產(chǎn)品的輸入都要比輸出長得多(即使是新的Claude聊天,系統(tǒng)提示也有1000多個(gè)token)。

在GPU和Sohu上,推理是以批次運(yùn)行的。每個(gè)批次都會(huì)加載一次所有的模型權(quán)重,并在批次中的每個(gè)token上重復(fù)使用它們。

通常,LLM的輸入是計(jì)算密集的,而LLM的輸出是內(nèi)存密集的。所以,當(dāng)我們將輸入和輸出token與連續(xù)批處理結(jié)合時(shí),工作負(fù)載就會(huì)變得非常「計(jì)算密集」。

下圖的示例中,就展示了連續(xù)批處理LLM的過程。

這個(gè)過程中,會(huì)運(yùn)行帶有四個(gè)輸入token和四個(gè)輸出token的序列;每種顏色代表一個(gè)不同的序列。

圖片圖片

同樣的技巧,就可以擴(kuò)展到2048個(gè)輸入token和128個(gè)輸出token的Llama-3-70B上。

要讓每個(gè)batch,都包含一個(gè)序列的2048個(gè)輸入token,和127個(gè)不同序列的127個(gè)輸出token。

如果這樣做的話,每個(gè)batch將需要大約(2048+127)×70B參數(shù)×每個(gè)參數(shù)2字節(jié)=304 TFLOPs,同時(shí)只需要加載70B參數(shù)×每個(gè)參數(shù)2字節(jié)=140 GB的模型權(quán)重,以及大約127× 64×8×128×(2048+127)×2×2=72GB的KV緩存權(quán)重。

這需要的計(jì)算,就遠(yuǎn)超過內(nèi)存帶寬的需求,因?yàn)橐粋€(gè)H200需要6.8PFLOPS的計(jì)算能力,才能最大化其內(nèi)存帶寬。

而且,這是在100%利用率的情況下——如果利用率是30%,需要的計(jì)算能力還要多出3倍。

由于Sohu有極高的計(jì)算能力和高利用率,我們就可以在不受內(nèi)存帶寬限制的情況下,運(yùn)行巨大的吞吐量。

注:在現(xiàn)實(shí)世界中,batch通常更大,輸入長度各不相同,并且請(qǐng)求會(huì)以泊松分布到達(dá)。在這種情況下,Sohu的效果會(huì)更好。在這里之所以使用2048/128基準(zhǔn)作為例子,是因?yàn)橛ミ_(dá)和AMD都在使用。

只需編寫Transformer軟件即可

無論在GPU和還是TPU上,軟件都是一場噩夢。

處理任意的CUDA和PyTorch代碼,需要的編譯器極其復(fù)雜。

為此,AMD、英特爾、AWS這些第三方AI芯片,都在軟件上投入了數(shù)十億,但效果依然不佳。

這里,Sohu的好處就體現(xiàn)出來了——因?yàn)樗贿\(yùn)行Transformer模型,所以我們只需要為Transformer模型編寫軟件!

大多數(shù)運(yùn)行開源或內(nèi)部模型的公司,都會(huì)使用特定的Transformer推理庫,如TensorRT-LLM、vLLM或HuggingFace的TGI。

這些框架往往很死板,雖然我們可以調(diào)節(jié)模型的超參數(shù),但并不支持更改底層的模型代碼。

但是,沒有關(guān)系!所有的Transformer模型都非常相似(即使是文本、圖像、視頻模型),調(diào)節(jié)超參數(shù)就足夠了。

這樣,就足以支持95%的AI公司了,不過,最大的AI實(shí)驗(yàn)室,仍然會(huì)進(jìn)行定制化開發(fā)。

工程師團(tuán)隊(duì)會(huì)手動(dòng)調(diào)優(yōu)GPU內(nèi)核,以擠出更多的利用率,并進(jìn)行逆向工程,比如哪些寄存器對(duì)每個(gè)張量核心的延遲最低。

而創(chuàng)始人聲稱,有了Etched,我們就不再需要逆向工程了!

從驅(qū)動(dòng)程序到內(nèi)核再到服務(wù)框架,Etched的所有軟件都會(huì)是開源的。

如果我們想實(shí)現(xiàn)一個(gè)自定義的Transformer層,內(nèi)核專家完全可以自由地去做。

Etched已經(jīng)破紀(jì)錄,將成歷史第一

現(xiàn)在看起來,Etced的決定很瘋狂。

但更瘋狂的是,他們是在2022年做出這項(xiàng)決定的——那時(shí)ChatGPT甚至還不存在!

當(dāng)時(shí),圖像和視頻生成模型還是U-Net模型,自動(dòng)駕駛汽車是由卷積神經(jīng)網(wǎng)絡(luò)(CNNs)驅(qū)動(dòng)的,Transformer架構(gòu)還遠(yuǎn)未普及。

而現(xiàn)在,形勢顯然對(duì)他們非常有利。如今從語言到視覺,每個(gè)領(lǐng)域的頂尖模型都是Transformer。

這種趨同驗(yàn)證了Etced的前瞻性,更使Sohu成為十年來最重要的硬件項(xiàng)目。

種種跡象表明,公司正走在史上最快芯片發(fā)布的進(jìn)程中——

- 頂尖的AI研究人員和硬件工程師紛紛離職原團(tuán)隊(duì),加入Etced;

- Etced會(huì)直接和臺(tái)積電合作開發(fā)4nm工藝,并且獲得了足夠的HBM和服務(wù)器,第一年的產(chǎn)量可以快速提升;

- Etced的早期客戶,已經(jīng)預(yù)訂了數(shù)千萬美元的硬件

「如果我們是對(duì)的,Sohu將改變世界」

如果AI模型在一夜之間,速度飆升20倍,且成本降低20倍,會(huì)發(fā)生什么?

目前,Gemini需要60多秒才能回答一個(gè)與視頻相關(guān)的問題。

編碼智能體的成本,比軟件工程師更高,而且需要數(shù)小時(shí)才能完成任務(wù)。

視頻模型每秒只能生成一幀,甚至ChatGPT注冊用戶達(dá)到1000萬時(shí)(僅占全球用戶的0.15%),就耗盡了OpenAI的GPU容量。

即便是持續(xù)以每兩年2.5倍的速度增加GPU的容量,也得需要10年時(shí)間,才能實(shí)現(xiàn)「實(shí)時(shí)」視頻生成。

而現(xiàn)在有了Sohu,這一切將瞬時(shí)完成。

網(wǎng)友表示,「AI的未來是定制硬件,實(shí)時(shí)視頻模型即將現(xiàn)世」!

圖片圖片

如果當(dāng)實(shí)時(shí)視頻、通話、AI智能體和搜索功能終于能夠順暢運(yùn)行時(shí),會(huì)發(fā)生什么呢?

很快,你就能知道了。

三位哈佛輟學(xué)生,挑戰(zhàn)AI芯片霸主英偉達(dá)

成立于2022年,這家35人團(tuán)隊(duì)的初創(chuàng)公司Etched,堅(jiān)信一定能夠擊敗英偉達(dá)。

到底是什么樣的背景,能讓三位哈佛輟學(xué)生,敢于挑戰(zhàn)芯片行業(yè)目前最炙手可熱的賽道呢?

圖片圖片

Robert Wachen、Gavin Uberti、Chris Zhu

創(chuàng)始人兼CEO Gavin Uberti自2020入學(xué)哈佛攻讀數(shù)學(xué)專業(yè),隨后在2022年攻讀碩士學(xué)位,專業(yè)是計(jì)算機(jī)。

不過,這兩段上學(xué)經(jīng)歷,都以輟學(xué)告終。

圖片圖片

在創(chuàng)辦Etched之前,Gavin Uberti曾在另外兩家公司分別有過一段全職和簡直經(jīng)歷,擔(dān)任了算法和后端工程師,以及軟件工程師。

圖片圖片

在進(jìn)入大學(xué)之前,他參與了美國最著名的青少年科技創(chuàng)新大賽FIRST Tech Challenge,團(tuán)隊(duì)獲得了Top 10獎(jiǎng)項(xiàng)。團(tuán)隊(duì)開發(fā)的自動(dòng)駕駛軟件排在600個(gè)參賽團(tuán)隊(duì)第二名。

他還曾在2019年,拿過美式數(shù)學(xué)競賽的冠軍。

圖片圖片

另一位創(chuàng)始人Chris Zhu,也是在哈佛就讀時(shí)就在校外瘋狂實(shí)習(xí),甚至還沒有從哈佛畢業(yè),就已經(jīng)成為兼職教員。

圖片圖片

他個(gè)人的工作經(jīng)歷更為豐富些,不僅在高校MIT擔(dān)任研究員、哈佛兼職教學(xué)研究員,還曾在亞馬遜等公司做過實(shí)習(xí)。

圖片圖片

最后一位聯(lián)創(chuàng)兼COO Robert Wachen是一個(gè)多領(lǐng)域的創(chuàng)業(yè)者,曾創(chuàng)辦了4家公司。

圖片圖片

圖片圖片

接下來,就看看他們會(huì)如何去締造一個(gè)新的硅谷神話。

參考資料:https://www.etched.com/announcing-etched

責(zé)任編輯:武曉燕 來源: 新智元
相關(guān)推薦

2023-12-19 13:32:00

模型數(shù)據(jù)

2024-06-26 12:13:05

2023-09-10 12:37:38

模型英偉達(dá)

2025-04-22 09:47:07

2025-03-19 10:10:43

2024-08-29 12:58:35

2024-08-28 13:34:13

2019-09-25 14:34:15

AI 數(shù)據(jù)人工智能

2024-04-10 09:28:23

2023-11-14 08:59:25

英偉達(dá)AI

2025-11-04 16:01:03

英偉達(dá)AI服務(wù)器

2023-10-18 13:17:12

AI芯片英偉達(dá)美國

2025-11-05 15:36:54

AI算力英偉達(dá)谷歌TPU

2024-04-10 09:10:27

Gaudi 3芯片英特爾

2023-08-28 13:35:00

芯片英偉達(dá)

2021-09-17 12:54:05

AI 數(shù)據(jù)人工智能

2023-11-21 09:14:33

微軟Azure AI

2024-08-05 08:20:00

馬斯克AI

2023-09-14 13:23:00

AI芯片

2024-08-14 13:50:00

模型訓(xùn)練
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

亚洲欧美日韩一区在线| 亚洲女人小视频在线观看| 欧美激情aaaa| 一级特黄a大片免费| 在线观看的黄色| 国产欧美日韩亚州综合| 95av在线视频| 亚洲国产成人精品激情在线| 免费欧美一区| 欧美日韩不卡视频| www.av91| 成人在线视频成人| 国产精品资源在线看| 91精品国产精品| 九九热久久免费视频| a级日韩大片| 在线一区二区三区做爰视频网站| 欧美99久久| 国产精品美女www爽爽爽| 成人国产在线视频| 久久久精品视频免费| 国产伦一区二区三区| 欧美一区二区三区免费| 亚洲午夜无码av毛片久久| 伊人免费在线| 91网上在线视频| 91亚洲国产成人精品性色| 亚洲 欧美 成人| 午夜欧美精品久久久久久久| 色一区av在线| 中文字幕国产专区| 免费成人三级| 精品少妇一区二区三区视频免付费| 国产又黄又猛又粗| 在线观看v片| 香蕉av福利精品导航| 7777在线视频| av资源在线观看免费高清| 99精品偷自拍| 国产精品xxxx| 亚洲va欧美va| 国产一区二区免费看| 国产成人精品日本亚洲专区61| www.youjizz.com亚洲| 亚洲影视一区二区三区| 亚洲香蕉成视频在线观看| 国产一卡二卡三卡四卡| 警花av一区二区三区 | 国产在线视频在线观看| 婷婷亚洲五月| 在线中文字幕日韩| 国产精品毛片一区二区| 日韩激情毛片| 精品一区二区三区电影| 伊人av在线播放| www.成人在线.com| 欧美乱妇23p| 羞羞的视频在线| 国产在线天堂www网在线观看| 一区二区三区国产精品| 伊人久久在线观看| 日本电影在线观看| 亚洲精品v日韩精品| 五月天激情图片| www免费视频观看在线| 中文字幕在线播放不卡一区| 亚洲v欧美v另类v综合v日韩v| 亚洲人妻一区二区| 91女神在线视频| 久久伊人一区| 大乳在线免费观看| 亚洲国产精品ⅴa在线观看| 亚洲精品中文字幕在线| 欧美成人精品一区二区男人看| 亚洲欧洲免费| 亚洲国产精品人人爽夜夜爽| 亚洲av无码一区二区三区网址| 欧美理伦片在线播放| 亚洲精品美女网站| 一区二区伦理片| 日韩片欧美片| 色综合久久88色综合天天看泰| 亚洲一区二区91| 久久久精品日韩| 国产美女高潮久久白浆| 国产av无码专区亚洲av| 99久久夜色精品国产网站| 美女视频久久| 欧美a在线看| 性做久久久久久免费观看| 成年人视频在线免费| 日本免费一区二区三区等视频| 日韩一级欧美一级| 法国伦理少妇愉情| 97人人精品| 国语自产在线不卡| 伊人网免费视频| 懂色av一区二区三区免费观看| 免费av在线一区二区| 天天综合视频在线观看| 亚洲国产另类av| 玩弄japan白嫩少妇hd| 日本一区二区三区视频在线看| 亚洲精品福利资源站| 5566中文字幕| 日韩视频一区| 91网在线免费观看| 免费成人av电影| 一区二区不卡在线播放 | 日韩精品成人一区二区三区| 亚洲www永久成人夜色| 欧美挠脚心网站| 夜夜揉揉日日人人青青一国产精品 | 亚洲国产乱码最新视频| 国产欧美一区二| 国产一区网站| 97精品视频在线| 99视频免费看| 中文一区二区在线观看| 大j8黑人w巨大888a片| 欧美三级一区| 日韩在线观看免费| 乱子伦一区二区三区| 99视频在线精品| 免费看黄色a级片| 91成人福利社区| 在线播放日韩欧美| 一级一片免费看| 99re这里只有精品首页| 99er在线视频| 狂野欧美xxxx韩国少妇| 日韩在线免费视频观看| 国产主播第一页| 99re66热这里只有精品3直播 | 91高清在线观看视频| 欧美日韩一区成人| 久久久久久久久福利| 久久国产日韩| 免费不卡亚洲欧美| 欧美freesex| 亚洲毛茸茸少妇高潮呻吟| 日韩黄色精品视频| 99麻豆久久久国产精品免费| 国内自拍中文字幕| 日本超碰一区二区| 免费不卡欧美自拍视频| 99在线观看精品视频| 亚洲日本在线视频观看| www.亚洲自拍| 午夜精品网站| 国产精品一区而去| 国产福利电影在线播放| 亚洲国产精品成人精品| www.国产成人| 26uuuu精品一区二区| 东京热加勒比无码少妇| 欧美精美视频| 国产精品第七十二页| 国产福利在线视频| 欧美色图在线观看| 婷婷激情四射网| 国产精品 欧美精品| 国产一区二区三区小说| av综合网页| 欧美影院在线播放| 国产69精品久久app免费版| 欧美天堂一区二区三区| 色哟哟一一国产精品| 国产成人综合自拍| 欧美亚洲一二三区| 不卡中文字幕| 亚洲va码欧洲m码| 多野结衣av一区| 亚洲色在线视频| 国产又粗又长又黄| 亚洲一区二区三区四区在线免费观看 | 亚洲图片都市激情| 网站一区二区| 2019av中文字幕| 91在线看黄| 欧美一卡二卡在线观看| 国产一级精品视频| 中文字幕在线视频一区| 中国特级黄色大片| 日韩精品乱码免费| 妺妺窝人体色www看人体| 日韩精品免费一区二区夜夜嗨| 国产精品免费网站| 操喷在线视频| 中文字幕欧美国内| 成人久久久精品国产乱码一区二区| 欧美性高潮在线| 国产精品嫩草影院俄罗斯| 99视频精品免费视频| 久热精品在线播放| 亚洲作爱视频| 婷婷视频在线播放| 无码少妇一区二区三区| 成人情趣片在线观看免费| 欧美日韩在线观看首页| 久久九九全国免费精品观看| 五月激情丁香婷婷| 91精品午夜视频| 中文人妻av久久人妻18| 一区二区三区四区在线播放| 丰满少妇一区二区| 国产v日产∨综合v精品视频| 国产 porn| 国产精品丝袜xxxxxxx| 国产日韩欧美大片| 成人毛片免费看| 久久精品99久久| 清纯唯美激情亚洲| 国产在线观看一区二区三区| 在线一区av| 久久全球大尺度高清视频| 日本三级视频在线观看| 亚洲人成电影网站色| 风流少妇一区二区三区91| 欧美精品日韩一区| 中文字幕 人妻熟女| 偷拍与自拍一区| 久久久久久久蜜桃| 亚洲欧美成人一区二区三区| 国产在线免费av| 久久久精品影视| 五级黄高潮片90分钟视频| 丁香啪啪综合成人亚洲小说| 免费黄频在线观看| 韩日av一区二区| 福利片一区二区三区| 日本最新不卡在线| 91av俱乐部| 久久久精品网| 黑森林福利视频导航| 亚洲精品影视| 欧美激情 国产精品| 亚洲黄色一区| 久久久久99精品成人片| 欧美三级网页| www.18av.com| 午夜精品久久99蜜桃的功能介绍| dy888午夜| 欧美日本一区| 免费看日本黄色| 黄色日韩在线| 无码av天堂一区二区三区| 狠狠综合久久| 国产婷婷一区二区三区| 99国产精品久久久久久久成人热| 搞av.com| 夜夜嗨网站十八久久| 免费在线激情视频| 久久尤物视频| 五月婷婷深爱五月| 久久99最新地址| 小早川怜子一区二区三区| 国产在线国偷精品免费看| 天天久久综合网| 成人免费福利片| 在线精品一区二区三区| 久久久亚洲精品石原莉奈| 亚洲av综合一区二区| 国产亚洲欧美在线| 美国一级黄色录像| 亚洲品质自拍视频| 国产一级二级三级视频| 天天影视涩香欲综合网 | 污网站在线免费看| 国内精品久久久| 欧美第一视频| 国产日韩在线一区| 成人性生交大片免费看96| 欧美动漫一区二区| 98精品久久久久久久| 久久亚洲a v| 久久青草久久| 免费在线观看污网站| 成人午夜伦理影院| 播金莲一级淫片aaaaaaa| 国产精品久久777777| 欧美日韩激情在线观看| 午夜精品视频一区| 亚洲视屏在线观看| 精品少妇一区二区三区日产乱码| 青青青草原在线| 久久精品视频亚洲| av不卡高清| 国产精品专区h在线观看| 9l亚洲国产成人精品一区二三| 欧洲av一区| 欧美日韩一区二区高清| 久久婷婷五月综合色国产香蕉| 七七婷婷婷婷精品国产| 国产女主播在线播放| 国产日韩欧美精品在线| 麻豆changesxxx国产| 色综合 综合色| www.99视频| 中文字幕av一区二区三区谷原希美| 日韩另类在线| 国产精品亚发布| 日本福利一区| 黄色污污在线观看| 日本中文一区二区三区| 中文字幕天堂网| 综合久久久久综合| 无码人妻丰满熟妇区bbbbxxxx | 亚洲第一福利视频在线| 伊人成年综合网| 亚洲娇小xxxx欧美娇小| 国产cdts系列另类在线观看| 日韩美女视频免费看| 粉嫩久久久久久久极品| 懂色av粉嫩av蜜臀av| 日本在线播放一区二区三区| 无码任你躁久久久久久老妇| 亚洲激情一二三区| 在线免费观看中文字幕| 亚洲欧洲美洲在线综合| 黄网站在线观| 亚洲自拍欧美另类| 91中文字幕精品永久在线| 国产精品少妇在线视频| 99综合电影在线视频| 九九热国产精品视频| 欧美久久高跟鞋激| 91精品专区| 国产成人免费91av在线| 亚洲精品国产setv| 国产视频一视频二| 成人精品视频一区二区三区| 欧美黄色免费观看| 91精品国产黑色紧身裤美女| 素人av在线| 国产日韩精品入口| 日韩精品永久网址| 亚洲第一中文av| 欧美高清在线一区| 亚洲黄网在线观看| 亚洲天堂av在线免费| 成人性生交大片免费观看网站| 国内精品一区二区| 亚洲综合日韩| 91网站免费视频| 色综合中文字幕国产| 九色网友自拍视频手机在线| 日韩av手机在线看| 成人一区而且| 精品亚洲一区二区三区四区| 国产精品免费av| 亚洲一级片免费看| 久久影院免费观看| 日韩第一区第二区| 麻豆tv在线播放| 久久综合色婷婷| 午夜久久久久久久久久影院| 伊人精品在线观看| 亚洲伦理久久| 久久av高潮av| 91香蕉视频mp4| 国产主播第一页| 美乳少妇欧美精品| 北条麻妃在线一区二区免费播放 | 精品国产亚洲一区二区三区在线观看 | 国产劲爆久久| 日韩亚洲在线视频| 中文字幕一区二区三区在线观看 | 岛国精品在线| 欧洲金发美女大战黑人| 成人免费看视频| 69国产精品视频免费观看| 在线日韩精品视频| 麻豆一区在线| 日本福利视频在线| 欧美国产日韩在线观看| av加勒比在线| 81精品国产乱码久久久久久| 日本欧美肥老太交大片| 一级黄色片在线免费观看| 激情久久av一区av二区av三区| 国产尤物视频在线| 97超碰最新| 久久国产一二区| 五月天丁香激情| 亚洲欧美福利视频| 欧美欧美在线| 国产视频一区二区三区在线播放 | 99久久久无码国产精品性色戒| 成人小视频在线| 亚洲一区二区影视| 97免费视频在线播放| 日韩欧美一区免费| 在线天堂www在线国语对白| 欧美系列日韩一区| 不卡av免费观看| 艳母动漫在线免费观看| 91毛片在线观看| 国产女18毛片多18精品| 日韩免费在线视频|