精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Transformer七子重聚GTC,老黃親自贈送簽名版DGX-1!7年奠基之作背后佚事揭秘

人工智能 新聞
Transformer奠基之作拯救了現在的AI。就在GTC大會上,老黃聚齊了其中的七位作者,開啟了一場深度訪談。

GTC大會上,老黃與Transformer八位作者一場最新訪談,簡直火爆了!

演講前一個半小時,現場門外就擠滿了人。許多人早早排起了長隊,期待著這場別致的訪談。

圖片

就連老黃也提前到場,在人群中合影。

圖片

老黃主旨演講當天,現場虛無坐席,網友戲稱他為AI屆的「霉霉」

在場的7位作者現在的身份分別是:

  • Noam Shazeer:Character AI聯合創始人兼首席執行官
  • Aidan Gomez:Cohery聯合創始人兼首席執行官
  • Ashish Vaswani:Essential AI聯合創始人兼首席執行官
  • Llion Jones:Sakana AI聯合創始人兼首席技術官
  • Illia Polosukhin:Near Protocol聯合創始人
  • Jakob Uskhoreit:Inceptive聯合創始人兼首席執行官
  • Lukasz Kaiser:OpenAI技術員

八位作者中,只有Niki Parmar(Essential AI的聯合創始人)沒有親臨現場。

訪談中的亮點滿滿,他們紛紛認為現在急需一個能夠替代Trasformer的架構出現。

  • Llion Jones想出了「Attention is All You Need」論文名。當時,他們在架構中添加了如「卷積」一些東西,但性能反而變差了,因此得名。
  • Jakob Uszkoreit想出了「Transformer」一名。
  • Noam Shazeer的另一個名字是「CargoNet」。
  • 推理是下一件大事。推理和從小數據中學習是密切相關的。

值得一提的是,采訪結束后,老黃親自為Transformer作者頒發了,一臺親筆簽名的DGX-1。

圖片

Transformerer八子背后秘密

同在今天,Wired的一篇獨家專訪,報道了Transformerer八子背后那些不為人知的故事。

顛覆式論文署名

2017年春,Transformer奠基之作「Attention Is All You Need」橫空出世。

當時,資歷最深的Noam Shazeer看到提交的版本時,對自己名列首位滿臉震驚。這也暗示了他對這項工作做出的巨大貢獻。

Noam表示,「自己當時并沒有想太多」。

圖片

論文地址:https://arxiv.org/pdf/1706.03762.pdf

決定論文作者署名順序——誰位列榜首,誰被放在最后,總是需要精心衡量的。

特別是在,每個參與者都在這項集體工作中,貢獻了自己獨一份努力的情況下。

在緊張完成論文的過程中,他們最終選擇了「顛覆」傳統貢獻者排名方式。

8位作者決定在每個名字旁加上了一個星號?,并在首頁做了腳注:

每位作者貢獻相等,名單排列順序隨機。

在截止日期之前,他們將論文提交給第31屆國際神經信息處理系統大會NIPS,由此引發的一場AI革命正式開啟。

「Attention Is All You Need」這篇傳奇論文,即將迎來第七個誕生日。現在,全網被引數已超11萬,前前后后提交了87個版本。

圖片

8位作者從神級網絡出發,提出了全新的Transformer架構——成為了ChatGPT、DALL-E、Midjourney等令人矚目AI產品背后的核心技術。

Noam開玩笑表示,「如果自己當時早知道這篇論文會如此出名,可能會更加關心作者排序」。

現在,這八位作者已然成為了人們熟知的AI網紅。

Llion Jones稱,「有人因為我參與了那篇論文而向我索要合影」!

就連AI教父Geoffrey Hinton對這篇開山之作贊不絕口,「如果沒有Transformer,我認為我們現在不會走到今天」。

圖片

沒有Jakob,沒有Transformer

說來,Transformer技術的故事起源于八位重要人物之一:Jakob Uszkoreit。

Jakob的父親計算語言學領域知名學者Hans Uszkoreit。

上世紀60年代末,正讀高中的Hans逃亡至西德,在柏林開始學習計算機科學和語言學。當Hans在加州門洛帕克的SRI人工智能研究所工作時,Jakob出生了。

Jakob在德國接受了大學教育。

雖然他最初沒有打算深入研究語言學,但在開始研究生學習的過程中,他在谷歌的Mountain View辦公室實習,偶然加入了公司的翻譯團隊。

顯然,他又回到了父親專注的領域,沿著父親的道路繼續向前。

Jakob他放棄了攻讀博士的計劃,并于2012年決定加入谷歌的一個項目團隊——致力于開發一個能夠在搜索頁面直接回答用戶問題的系統,避免用戶跳轉到其他網站。

當時,蘋果剛推出了Siri——一個承諾能夠在日常對話中提供即時答案的虛擬助手,這讓谷歌高層感到了極大的競爭壓力:Siri有可能搶走他們的搜索流量。

因此,谷歌更加重視Jakob領導的新團隊。Jakob回憶道,「其實那只是虛驚一場,Siri并沒有對谷歌構成真正的威脅」。

但這次經歷,讓他有機會深入研究那些能夠與人類進行交互對話的計算機系統。

當時,曾經是學術界冷門的循環神經網絡(RNN),突然開始超越其他人工智能工程方法。

這種網絡由許多層組成,信息在各層之間反復傳遞,以找到最佳的回應方式。與此同時,神經網絡在圖像識別等領域大獲全勝,AI復興突然開始了。

谷歌瘋狂地調整人力資源配置,以采納最新技術,并希望開發出能夠生成類人回應的系統。

然而,這個領域遇到了一些挑戰——RNN難以處理較長文本。

比如,對于「Joe是一個棒球運動員,吃過一頓豐盛的早餐后,他去了公園接住兩次擊球」這樣的句子。

模型為了理解「兩個擊球」,語言模型必須記得之前提到的棒球相關內容。

換句話說,它需要保持「注意力」。

當時的解決方案是引入了「長短期記憶」(Long Short-Term Memory, LSTM),這種創新讓語言模型能夠處理更大、更復雜的文本序列。

但計算機仍然是按照字面意思,一個接一個token處理文本,這樣就錯過了可能在文本后面出現的上下文線索。

Jakob認為,「我們當時采用的方法基本上是臨時應對措施,沒能在大參數模型上有效運作」。

大約在2014年,Jakob開始探索一種名為自注意力(self-attention)的全新方法。

這種方法使得網絡能夠通過參考文段中的其他部分,來翻譯某個詞,這些參考部分可以幫助闡明詞語的意圖,從而幫助系統生成準確的翻譯。

Jakob當時認為,自注意力機制在某種程度上與人類處理語言的方式相似。

他相信,與RNN相比,自注意力模型可能更快、更有效。它處理信息的方式非常適合當時,大量生產的用于支持ML熱潮的強大并行處理芯片。

與其線性地逐字檢查(查看每個詞),不如采用一種更為并行的方法(同時查看多個詞)。

對此,他懷疑,如果操作得當,完全可以只用自注意力模型來獲得更好的效果。

然而,當時,包括Jakob的父親在內,不是每個人都看好這個想法:

人們對此表示深度懷疑,因為這意味著將放棄所有現有的神經網絡架構。放棄RNN?這在當時幾乎等同于異端!

隨后,Jakob說服了幾位同事,對自注意力進行了實驗。

最初的研究成果,給出了一些希望,作者們并在2016年發表了相關的論文。并在當時,這項研究在個谷歌搜索和廣告中,得到了應用。

接下來,Jakob希望進一步推動研究,但其合著者沒有人對此感興趣。

Jakob深信,自注意力的能力遠不僅于此。他向那些不論是愿意,還是不愿意傾聽的人闡述自己的觀點。

他還在經常在谷歌辦公樓北側的Charleston Road 1945號樓內的白板上,勾勒自己的想法。

2016年某天,在谷歌的一家咖啡廳里,Jakob和一位供職谷歌3年的科學家Illia Polosukhin(Transformer最后一位作者)一起吃午飯。

聊天中,Illia談到了自己負責「回答搜索欄直接提出的問題」的項目進展不是很順利,因為若在谷歌搜索上快速回答用戶問題,需要的解決方案必須既經濟又高效。

Jakob當時提出了一種解決方案,「為何不考慮使用自注意力技術呢」?

圖片

Illia偶爾會和一位名叫Ashish Vaswani的同事打交道。

圖片

Vaswani出生在印度,在中東長大,后來他去南加州大學攻讀博士學位,加入了該校頂尖的機器翻譯小組。

完成學業后,他搬到Mountain View,加入了Google Brain。

他聽說了自注意力的概念就主動加入這個項目。

這三位研究者共同撰寫了一份名為「Transformers: Iterative Self-Attention and Processing for Various Tasks」的設計文檔。

Jakob表示,他們從項目一開始就確定了「Transformer」這一名稱。這個機制的構想是,它能夠轉換處理的信息,讓系統能夠像人類一樣提取盡可能多的理解,或者至少給人一種這樣的感覺。

此外,Jakob還懷念他童年時期玩耍的Hasbro變形金剛玩具。所以這份文檔以一張描繪六個變形金剛在山地中互射激光的卡通圖片作為結尾。

2017年初,Polosukhin離開Google,開始了自己的創業之旅。與此同時,新的合作伙伴也陸續加入。

Niki Parmar是其中之一,這位印度工程師曾在印度為一家美國軟件公司工作,后來移民美國。

圖片

2015年,她從南加州大學獲得了碩士學位,并受到了所有大型科技公司的青睞,最終她選擇了Google。

加入Google后,她與Uszkoreit合作,專注于開發新的模型變體以提升Google搜索的性能。

Llion Jones也是新成員之一,他在威爾士出生并長大。

在伯明翰大學,他選修了一門AI課程,對被介紹為歷史趣事的神經網絡產生了濃厚興趣。2009年7月,他獲得了碩士學位,但由于經濟衰退難以找到工作,幾個月都靠救濟金生活。

后來,他在一家當地公司找到了工作,并抱著試一試的心態申請了Google。成功進入Google后,他最終加入了Google Research團隊,其時的經理正是Polosukhin。

有一天,Jones從同事Mat Kelcey那里了解到了自注意力的概念,之后他加入了Transformer項目團隊。

(之后,當Jones向Kelcey介紹Transformer項目時,Kelcey并不看好。「我告訴他,‘我不確定這能成功’,這恐怕是我一生中最大的誤判。」Kelcey現在回憶道。)

Transformer項目吸引了其他試圖改進大型語言模型的Google Brain研究者。第三波成員中有來自波蘭的理論計算機科學家?ukasz Kaiser和他的實習生Aidan Gomez。

Gomez在加拿大安大略的一個小農村長大,每年春天,他的家人都會采集楓樹汁制作糖漿。

圖片

在多倫多大學讀大三時,他對AI產生了濃厚興趣,并加入了Geoffrey Hinton領導的機器學習小組。

他開始聯系Google發表論文的作者,希望能繼續他們的研究。

Kaiser對他的提議感興趣,邀請他來實習。直到幾個月后,Gomez才意識到這些實習機會原本是為博士生準備的,而他只是一名本科生。

Kaiser和Gomez很快意識到,自注意力似乎是一個充滿希望且更為激進的解決方案。「我們經過深思熟慮地討論了是否要合并這兩個項目,」Gomez說。他們決定合并。

Transformer團隊著手構建一個自注意力模型,用于文本翻譯。

他們采用一個名為BLEU的標準來評估模型性能,該標準將機器翻譯的結果與人類翻譯者的工作進行對比。

他們的新模型從一開始就表現出色。「我們從零開始,很快就達到了與當時最佳替代方案LSTMs相當的水平,」

Uszkoreit說。但與長短期記憶相比,它并沒有顯示出更優的性能。

一直到2017年某天,Noam Shazeer偶然間了解到了他們的項目,情況才發生了轉變。

圖片

Shazeer是谷歌的資深員工,自2000年加入以來,因其在公司早期廣告系統上的工作而成為傳奇人物。

他已經在深度學習領域工作了五年,最近對大語言模型產生了興趣。但他認為,這些模型還遠未能實現流暢對話的可能性。

Transformer論文在NeuraIPS截止日期5分鐘前才完成

Shazeer回憶說,他正走在1965號樓的走廊上,經過Kaiser的工作區時,聽到了一場激烈的討論。

「我聽到Ashish在討論使用自注意力的想法,Niki對此非常興奮。我想,哇,這聽起來是個好主意。這是一群正在做有前途工作的聰明人。」

Shazeer對現有的循環神經網絡感到「不滿」,他想:「讓我們來替換它們吧」!

Shazeer的加入對項目至關重要。「像自注意力這樣的理論或直觀機制,往往需要經驗豐富的‘魔術師’的精心實現,才能顯示出任何成效,」Uszkoreit說。

Shazeer立即開始施展他的「魔法」。他決定重寫Transformer團隊的代碼。「我更具第一性原理,自己動手實現了,」他說。雖然偶爾會向Kaiser請教問題,但大多數時間他都是獨立工作,最后他回來說:「看,它真的有效了。」

通過使用被團隊成員后來形容為「魔法」、「煉金術」和「花里胡哨的東西」的方法,他將系統提升到了新的高度。

「這之后我們就開始了一場全力沖刺,」Gomez說。

他們被激勵了,也想趕在5月19日——NeuraIPS提交論文的截止日期前完成論文。

當來到第二年春天時,實驗的進度加快了。他們測試了兩種Transformer模型:一個是經過12小時訓練的基礎模型,另一個是經過三天半訓練的更強大版本,名為Big。他們將這兩個模型用于英德翻譯。

基礎模型超越了所有競爭對手——而Big版本則以一項決定性的高BLEU分數打破了之前的記錄,同時在計算效率上也更勝一籌。

「我們用比其他任何人都少的時間做到了這一點,」Parmar說。「這只是開始,因為分數還在不斷提高。」當Uszkoreit聽到這個消息時,他從他的山地探險車里拿出了一瓶舊香檳慶祝。

截止日期前的最后兩周異常忙碌。盡管有些團隊成員在1945號樓有自己的工位,但他們更多時候選擇在1965號樓工作,因為那里有更好的濃縮咖啡機。

Gomez回憶道:「大家幾乎沒怎么休息。」作為實習生,他不僅要不停地調試代碼,還要為論文制作圖表和可視化內容。

在此類項目中,通過移除某些部分來觀察剩余部分是否能夠獨立完成任務(即進行消融實驗)是很常見的做法。

Gomez說:「我們嘗試了各種技巧和模塊的組合,看看哪些有效,哪些無效。我們問自己,為什么模型的表現出乎意料?哦,是因為我們忘記正確實現遮掩了。現在能正常工作了嗎?可以的,那就繼續下一步。所有這些,現在我們稱之為Transformer的組件,都是這場高強度迭代試錯過程的產物。」

在Shazeer的幫助下進行的消融實驗最終呈現了「一種極簡主義的成果」,正如Jones所說,「Noam就像個魔術師。」

Vaswani有一次在寫論文的夜晚,在辦公室的沙發上睡著了。他被沙發旁的窗簾圖案吸引,那圖案在他看來像是神經元和突觸。

Gomez也在場,Vaswani對他說,他們的工作將超越機器翻譯的范疇。

「最終,就像人腦一樣,你需要將語音、音頻、視覺等多種模態融合到一個統一的架構中,」他說。「我強烈感覺到,我們正在接觸到某種更廣泛適用的東西。」

然而,在谷歌的高層看來,這項工作不過是又一個有趣的AI項目。當被問及他們的上司是否曾經召集他們了解項目進展時,回答并不多。

但Uszkoreit表示:「我們意識到這可能是件大事。這也是為什么我們在論文末尾特別強調了一句話,討論未來的工作。」

那句話預示著接下來可能發生的事情——Transformer模型將應用于幾乎所有形式的人類表達。

「我們對基于注意力的模型的未來感到興奮,」他們寫道。「我們計劃將Transformer擴展到文本之外的輸入和輸出模態,包括圖像、音頻和視頻。」

在截止日期前的幾個晚上,Uszkoreit意識到他們需要一個標題。Jones指出,團隊已經決定放棄了長短期記憶(LSTMs)等公認的最佳實踐,轉而采用一種技術:注意力。他回憶起披頭士樂隊的一首歌《All You Need Is Love》,于是提議將論文命名為《Attention Is All You Need》。

「我是英國人,」Jones解釋說。「這個主意只是一時興起。我沒想到他們真的會采納。」

他們一直在收集實驗結果,直到最后一刻。「英法翻譯的數據在我們提交論文前五分鐘才到手,」Parmar說。「我當時正坐在1965號樓的微廚房里,拼命整理最后一組數據。」最終,在截止時間前不到兩分鐘,他們提交了論文。

谷歌和許多科技公司一樣,迅速對這項工作申請了臨時專利。這主要是為了建立專利庫進行防御,并非阻止他人使用這些創新。(谷歌堅信,只要技術進步,自己就能從中受益。)

Transformer團隊從會議的同行評審中得到了混合反饋。「有的評審持積極態度,還有一個評審覺得很棒,另外一個覺得只是還行」,Parmar回憶道。最終,論文被接受在一個晚間的海報展示環節中展出。

到了12月,這篇論文引起了廣泛關注。12月6日,他們的四小時展示吸引了眾多科學家前來了解具體內容。

幾個作者們講到聲音沙啞。會議在晚上10:30結束時,仍有許多人圍觀不散。

「最后是安保讓我們離開的,」Uszkoreit說。

對他來說,最驕傲的一刻是計算機科學家Sepp Hochreiter的贊賞——考慮到Hochreiter是LSTMs的共同發明者,這份贊賞意義非凡,因為Transformer正是取代了LSTMs,成為了AI領域的新寵。

Transformer并沒有一夜之間改變世界,甚至引起谷歌立即的重視

Kaiser回憶,當時Shazeer向谷歌高層提議,應該放棄現有的搜索索引,轉而使用Transformer訓練一個龐大的網絡,徹底改變谷歌的信息組織方式。

即便是Kaiser也曾認為這個想法不切實際。但現在,人們普遍認為這只是時間問題。

OpenAI對此反應更為迅速。

論文發表后不久,曾在谷歌與Transformer團隊共事的OpenAI首席研究員Ilya Sutskever便建議其科學家Alex Radford探索這一想法,隨后誕生了首批GPT產品。

OpenAI的CEO Sam Altman去年對我說:「Transformer論文發布時,我認為谷歌內部沒有人真正理解它的意義。」

但實際情況更加復雜。「我們很清楚Transformer能做很多神奇的事情,」

Uszkoreit說。「你可能會問,為什么谷歌在2018年沒有推出像ChatGPT這樣的產品?實際上,我們在2019年或2020年就完全有可能推出GPT-3甚至3.5。真正的問題不是我們是否看到了它的潛力,而是為什么我們沒有利用這一點做出成果?這個問題的答案很復雜。」

很多技術評論家認為,谷歌已經從一個注重創新的樂土變成了一個只看重盈利的官僚機構。

正如Gomez向《金融時報》所述:「他們停止了現代化改革,也沒有接受這項技術。」

但對于一個長期引領行業并且獲得巨額利潤的巨頭公司來說,采取這樣大膽的舉措確實需要勇氣。

從2018年開始,谷歌確實將Transformer技術融入到了其產品中,首先是翻譯工具。同年,谷歌還推出了一款基于Transformer的新語言模型BERT,并在隔年開始用于搜索功能。

然而,與OpenAI的突破性進展和微軟將基于Transformer的系統大膽整合進產品線的舉措相比,谷歌的這些內部改進顯得較為保守。

去年我詢問谷歌CEO Sundar Pichai為何谷歌沒有成為首個推出類似ChatGPT這樣的大型語言模型的公司時,他認為在這種情況下觀望他人先行是有益的。

「我不完全確定如果是我們先行會不會同樣成功。事實上,人們在看到它的工作方式后,我們能做得更多,」他表示。

圖片

這八位作者之后都已離開谷歌。像成千上萬的其他人一樣,他們現在正以某種方式與他們在2017年創造的、由系統驅動的系統共事。我采訪了這八位Transformer的創造者,試圖拼湊出這一突破性成就的全貌,這是一次人類智慧的集結,創造了一臺可能最終會自行發聲的機器。

責任編輯:張燕妮 來源: 新智元
相關推薦

2009-06-17 08:45:23

Firefox

2024-04-25 13:09:10

AI模型

2009-09-22 10:21:09

微軟活動Windows 7 P

2025-11-20 08:40:00

2024-03-04 07:00:00

芯片AI英偉達

2025-03-21 09:22:37

2024-01-26 12:48:49

AI數據

2025-10-30 16:11:29

AI智能體英偉達

2018-04-08 14:37:40

DGX-2SXM3

2025-11-20 10:28:48

2015-12-23 17:15:54

2024-04-26 00:00:00

OpenAIGPT-5超算

2024-04-02 11:39:17

數據訓練

2018-04-25 14:47:28

WOT2018WOT技術峰會

2011-04-06 11:21:25

PHPPython

2022-12-29 08:00:00

Transforme架構深度學習

2024-02-02 14:15:07

GPTsAgentC端

2015-03-04 10:33:24

3D小熊七牛AR

2009-08-16 09:30:00

Windows 7系統發布優惠信息

2024-10-11 19:17:11

點贊
收藏

51CTO技術棧公眾號

91丝袜国产在线播放| 欧美三区不卡| 欧美一级二级三级蜜桃| 亚洲成人动漫在线| 香蕉国产在线视频| 免费精品视频最新在线| 欧美日韩国产va另类| 国产高清自拍视频| 日本在线一区二区| 午夜视频一区二区| 亚洲精品视频一二三| av官网在线观看| 香蕉久久夜色精品| 久久久91精品| 丝袜美腿中文字幕| 高清精品久久| 欧美日韩一二三四五区| 一区二区av| 午夜av免费观看| 精品无人码麻豆乱码1区2区 | 天天综合一区| 亚洲黄色av女优在线观看 | 亚洲精品国产综合久久| 中文字幕国产免费| 三级在线观看视频| 亚洲毛片av在线| 四虎永久国产精品| 日本激情一区二区| 国产呦萝稀缺另类资源| 国产精国产精品| 久久久久久久久艹| 欧美韩日高清| 亚洲色图在线观看| 国产伦精品一区二区三区妓女| 亚洲香蕉久久| 欧美无砖砖区免费| 国产aaa一级片| 成人在线高清免费| 亚洲女女做受ⅹxx高潮| 水蜜桃亚洲一二三四在线| 日本视频在线观看一区二区三区| 国产精品影视天天线| 国产精品久久久久久网站| 日韩黄色在线视频| 国产字幕视频一区二区| 麻豆成人在线看| 网站永久看片免费| 日韩成人a**站| 亚洲精品视频网上网址在线观看 | 久久精品无码中文字幕| av中文字幕在线观看| 1000精品久久久久久久久| 色视频一区二区三区| 久久久久久久久亚洲精品| 99久久免费精品高清特色大片| 91国产丝袜在线放| 99久久精品国产一区二区成人| 久久精品国产色蜜蜜麻豆| 国产精品激情av电影在线观看| 亚洲另类在线观看| 六月婷婷一区| 国产ts一区二区| 久久久久久少妇| 久久国产88| 国产不卡一区二区在线播放| 一级黄色在线观看| 免费高清在线一区| 国产日韩精品视频| 91亚洲精品国偷拍自产在线观看 | 久久aaaa片一区二区| www一区二区三区| 91精品国产综合久久婷婷香蕉 | 波多野结衣视频一区| 国产精品xxxx| 五月婷婷丁香六月| www.在线成人| 欧美日韩国产高清视频| 成人网视频在线观看| 成人免费小视频| 大陆av在线播放| 午夜欧美激情| 欧美色男人天堂| 国产精品久久久久久久av福利| 激情视频亚洲| 亚洲第一视频在线观看| 强伦人妻一区二区三区| 日本一区二区免费高清| 欧美成人精品不卡视频在线观看| 精品在线视频观看| 久久亚洲精选| 91久久精品美女| 日韩在线观看视频网站| 日本一区二区综合亚洲| 国产免费xxx| 日韩激情电影免费看| 精品视频在线视频| 波多野结衣办公室双飞| 奇米狠狠一区二区三区| 中文字幕在线看视频国产欧美| 九九热国产在线| 久久久青草婷婷精品综合日韩| 成人xxxxx| 天堂av在线免费| 国产精品午夜电影| 大荫蒂性生交片| 色猫猫成人app| 精品国产伦一区二区三区免费| 四虎永久免费在线观看| 欧美国产高清| 国产九九精品视频| 四虎在线免费观看| 一区二区三区色| 国产主播中文字幕| 久久a爱视频| 精品国内产的精品视频在线观看| 五月婷婷开心网| 国产精品亚洲专一区二区三区 | 欧美最近摘花xxxx摘花| 国产在成人精品线拍偷自揄拍| av色综合久久天堂av综合| 一区二区三区四区五区精品| 欧美aa一级| 日韩欧美第一区| 国产真人真事毛片视频| 99精品免费| 亚洲自拍偷拍在线| 第一页在线观看| 午夜精品视频一区| 制服下的诱惑暮生| 第一社区sis001原创亚洲| 欧美性受xxxx白人性爽| 亚洲第一免费视频| 亚洲三级在线免费观看| av五月天在线| 免费短视频成人日韩| 久久久中精品2020中文| 99视频国产精品免费观看a| 欧美韩国日本不卡| 任你操这里只有精品| 伦理一区二区三区| 欧美二区在线播放| 超碰在线人人干| 亚洲精品美腿丝袜| 91香蕉国产线在线观看| 99久久.com| 成人天堂噜噜噜| 日本在线视频站| 欧美日韩一二区| 中国特黄一级片| 久久精品国产99| 一本久久a久久精品vr综合| 欧美国产日韩电影| 中文国产成人精品久久一| 国产一区免费看| 国产亚洲精品精华液| 亚洲精品怡红院| 精品久久影院| 国产欧美一区二区三区久久| 一级毛片视频在线| 在线不卡中文字幕播放| 青花影视在线观看免费高清| 国产一区二区三区蝌蚪| 99亚洲国产精品| 亚洲综合网狠久久| 午夜精品99久久免费| 视频国产在线观看| 欧美影片第一页| 三级黄色片在线观看| 韩国午夜理伦三级不卡影院| 路边理发店露脸熟妇泻火| 日本少妇精品亚洲第一区| 久久久久久久久国产| 婷婷视频在线观看| 91久久精品一区二区三| 欧美精品日韩在线| 国产精品综合久久| 水蜜桃色314在线观看| 亚洲宅男网av| 成人精品在线观看| 91jq激情在线观看| 亚洲欧美第一页| 一本色道久久综合精品婷婷| 亚洲丝袜另类动漫二区| 91人人澡人人爽| 免费在线成人| 一区二区三区四区国产| 8x国产一区二区三区精品推荐| 9.1国产丝袜在线观看| av电影在线观看网址| 日韩欧美综合一区| 国产农村妇女aaaaa视频| 国产精品麻豆一区二区| 最新中文字幕日本| 日韩av一级片| 99在线免费视频观看| 欧美精品乱码| 国产精品综合久久久久久| 性高爱久久久久久久久| 美女av一区二区三区| 三区在线观看| 欧美一区二视频| 日本熟女毛茸茸| 亚洲精品视频在线观看网站| 强伦人妻一区二区三区| 国产精品123区| 999在线免费视频| 好吊视频一区二区三区四区| 日韩精品另类天天更新| 日韩精品视频一区二区三区| 国产精品久久久久一区二区| 国产www视频在线观看| 中文字幕亚洲字幕| 色播色播色播色播色播在线| 欧美一级在线视频| 中国精品一区二区| 精品国产91久久久| 久久中文免费视频| 国产精品午夜免费| 偷拍女澡堂一区二区三区| 国产精品一区二区三区四区 | 欧美又粗又大又长| 国产日产欧美精品一区二区三区| 高清中文字幕mv的电影| 九九热在线视频观看这里只有精品| 99精品视频在线看| 在线不卡欧美| www国产免费| 欧美gayvideo| 日韩av一级大片| 婷婷亚洲成人| 精品一区二区三区日本| 在线日韩成人| 92看片淫黄大片欧美看国产片| 天天综合网站| 秋霞av国产精品一区| 国产乱码精品一区二三赶尸艳谈| 欧美成人免费全部| 福利在线视频网站| 久久精品久久久久电影| 日日夜夜精品一区| 国产亚洲一级高清| 二区三区在线播放| 国产亚洲精品久久久久动| 欧美理论在线观看| 亚洲精品视频二区| 久青草国产在线| 国产亚洲精品美女久久久久| 久草在线青青草| 国产午夜精品全部视频在线播放 | 91丨porny丨在线| 影音先锋人妻啪啪av资源网站| 高清成人在线观看| 四虎成人免费视频| 97久久精品人人做人人爽| 插我舔内射18免费视频| 99久久综合色| 91成年人网站| 国产三级欧美三级日产三级99 | 国产精品免费大片| 日韩国产欧美精品| 日韩国产综合| 中文字幕中文字幕一区三区| 色婷婷综合网| 欧美亚洲视频一区| 91精品国产成人观看| 在线观看17c| 亚洲精品美女91| 免费无码av片在线观看| 日本不卡一区二区| 国产乱女淫av麻豆国产| 国产精品99久久久| 星空大象在线观看免费播放| 91色九色蝌蚪| 中国特黄一级片| 亚洲婷婷国产精品电影人久久| 国产极品国产极品| 亚洲3atv精品一区二区三区| 久久久精品免费看| 欧美日韩免费在线视频| 亚洲成人一级片| 亚洲免费av电影| 欧美精品videos另类| 欧美寡妇偷汉性猛交| 免费高潮视频95在线观看网站| 国产精品激情自拍| 999久久久精品一区二区| 日本不卡高清视频一区| 天天射—综合中文网| 中文字幕无码精品亚洲资源网久久| 国产欧美91| 日本国产一级片| 成人免费视频视频| 欧美一区二区三区观看| 亚洲国产精品久久久男人的天堂 | 久久午夜av| 亚洲欧美天堂在线| 久久蜜桃av一区精品变态类天堂 | 国产精品无码自拍| 国产日韩精品一区二区三区 | 尤物在线精品| 精品999在线| 99国产精品久久久久久久久久 | 色综合天天综合网中文字幕| 国产免费一区二区视频| 美女一区二区三区在线观看| 无码人妻一区二区三区一| 国产清纯美女被跳蛋高潮一区二区久久w| 无码黑人精品一区二区| 91久久精品一区二区三区| 蜜臀久久精品久久久久| 丝袜亚洲另类欧美重口| 僵尸再翻生在线观看免费国语| 成人免费在线视频网站| 亚洲高清极品| www.好吊操| 国产一区二区电影| 黄色av片三级三级三级免费看| 亚洲成国产人片在线观看| 91国内精品久久久| 亚洲视频欧美视频| f2c人成在线观看免费视频| 国产日韩换脸av一区在线观看| 国产精品嫩模av在线| 日韩欧美一区三区| 国产98色在线|日韩| 小向美奈子av| 欧美色视频在线| av网在线观看| 国产精品com| 久久91麻豆精品一区| 国产精品999视频| 国产精品一二三在| 国产67194| 在线成人高清不卡| 麻豆网站在线观看| 成人淫片在线看| 99久久激情| 天天影视色综合| 国产精品传媒入口麻豆| 中文字幕第315页| 亚洲香蕉伊综合在人在线视看| 中文日产幕无线码一区二区| 久久久久久国产精品一区| 亚洲精品资源| 这里只有精品在线观看视频| 亚洲亚洲人成综合网络| 精品国产无码AV| 欧美激情精品久久久久久免费印度| 精品中文字幕一区二区三区四区| 亚洲午夜在线观看| 久久99国内精品| 国产97免费视频| 这里只有精品99re| aa在线视频| 成人免费视频观看视频| 激情欧美一区| 91av在线免费| 日本道色综合久久| 1024视频在线| 91精品啪aⅴ在线观看国产| 自拍偷拍欧美| jjzzjjzz欧美69巨大| 午夜久久福利影院| 男人av在线| 国产精品免费视频xxxx| 欧美韩国日本在线观看 | 97久久人人超碰| 精品黑人一区二区三区| 日韩有码视频在线| 91欧美日韩在线| 久久免费视频3| 国产欧美日韩另类视频免费观看| 这里只有久久精品视频| 久久夜色精品国产欧美乱| 大桥未久女教师av一区二区| 黄色免费视频大全| 国产精品久久久久一区二区三区共| 国产免费无遮挡| 国内精品久久久久久久| 米奇777超碰欧美日韩亚洲| 成 人 黄 色 小说网站 s色| 一区二区欧美国产| 精品av中文字幕在线毛片| 91精品国产综合久久香蕉最新版 | 国产精品qvod| 男人亚洲天堂网| 中文字幕一区三区| 成人免费视频国产| 国产精品国模在线| 黄色另类av| 黄色av免费播放| 精品国产一区二区三区av性色| 成人性教育av免费网址| www亚洲国产| 91老司机福利 在线| 一本色道久久综合熟妇| 2024亚洲男人天堂| 国产精品久久占久久| 黄色性生活一级片| 69精品人人人人|