精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

我們研究了特斯拉、毫末智行「自動駕駛算法」的秘密

人工智能 無人駕駛
隨著自動駕駛技術(shù)的快速發(fā)展和落地,越來越多的量產(chǎn)車型上開始搭載支持不同級別自動駕駛系統(tǒng)的軟件和硬件。

目前,自動駕駛技術(shù)已經(jīng)走出實驗室,進入量產(chǎn)落地的階段,也成為了各大車企,零部件供應(yīng)商,高科技公司爭相進入的領(lǐng)域,競爭空前激烈。

自動駕駛駕駛技術(shù)這一輪的爆發(fā),很大程度上取決于兩點:

  • 大算力計算平臺在消費端取得的突破,為人工智能領(lǐng)域提供了基礎(chǔ)算力。
  • 深度學(xué)習(xí)在計算機視覺領(lǐng)域取得的突破,這也是自動駕駛視覺感知的基礎(chǔ)。

目前,基于英偉達、高通、Mobileye、地平線、華為的自動駕駛芯片,做多芯片集成開發(fā)出來的計算平臺整體算力最高已經(jīng)達到上千 Tops,這為高階自動駕駛提供了算力保障。

但在算法和算力之間,技術(shù)既深度耦合又相互促進,安霸半導(dǎo)體中國區(qū)總經(jīng)理馮羽濤說過:

「自動駕駛所需要的算力不會無限擴展下去,算力要隨著算法和數(shù)據(jù)的能力增長而增長,以目前各家算法技術(shù)來說,市面上主流的大算力芯片已經(jīng)足夠,而算法才是接下來競爭的重點,除非算法和數(shù)據(jù)與算力之間的耦合達到一個瓶頸點,那再去做更大算力的平臺才有意義。

在 1 月 27 日,中金發(fā)布了一份名為《人工智能十年展望(三):AI 視角下的自動駕駛行業(yè)全解析》的研究報告。報告指出,「深度學(xué)習(xí)是自動駕駛技術(shù)發(fā)展的分水嶺及底層推動力,算法是各廠商接下來應(yīng)該重點布局的核心能力,同時,數(shù)據(jù)是決定自動駕駛量產(chǎn)能力的勝負手」。

也就是說,算力性能已經(jīng)到了階段性的平穩(wěn)發(fā)展期,「算法能力 + 數(shù)據(jù)能力」會成為自動駕駛領(lǐng)域里的各個公司之間競爭誰能勝出的關(guān)鍵。

01 多層神經(jīng)網(wǎng)絡(luò)的技術(shù)趨勢

視覺感知的技術(shù)突破,進一步推動了其他傳感器(比如激光雷達和毫米波雷達)的感知算法以及多傳感器融合算法的進步。另一方面,深度學(xué)習(xí)中的強化學(xué)習(xí)算法也在決策系統(tǒng)中起到了非常重要的作用。

對于深度學(xué)習(xí)算法來說,除了算法本身的能力以外,高質(zhì)量,大規(guī)模的訓(xùn)練數(shù)據(jù)也是算法取得成功的關(guān)鍵因素。因此,如何高效地采集和標注數(shù)據(jù)對于每一家自動駕駛公司來說都是非?,F(xiàn)實的課題。

在數(shù)據(jù)采集方面,面向量產(chǎn)的公司有著先天的優(yōu)勢。路面上行駛的數(shù)十萬,甚至上百萬的車輛,每一輛都可以源源不斷地提供豐富的路況數(shù)據(jù),加在一起就是一個海量的自動駕駛數(shù)據(jù)庫。

相比之下,面向 L4 級別的公司只能依靠有限的測試車輛來采集數(shù)據(jù)。目前路測規(guī)模最大的 Waymo 也只有幾百輛測試車,數(shù)據(jù)采集的規(guī)模自然不可同日而語。

有了海量數(shù)據(jù)是不是問題就解決了呢?

顯然沒有那么簡單。

雖然說深度神經(jīng)網(wǎng)絡(luò)依賴于大數(shù)據(jù),但是不同網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)海量數(shù)據(jù)的能力還是有很大差別的。最早出現(xiàn)的多層感知機結(jié)構(gòu)網(wǎng)絡(luò)只有幾層,只需要很少的數(shù)據(jù)就可以使網(wǎng)絡(luò)的學(xué)習(xí)能力達到飽和。

近些年來提出的卷積神經(jīng)網(wǎng)絡(luò)(CNN),深度從十幾層增加到上百層,甚至上千層,這時就需要大規(guī)模的訓(xùn)練數(shù)據(jù)來保證網(wǎng)絡(luò)訓(xùn)練的質(zhì)量。

但是簡單的堆積層數(shù)也是行不通的,這時深度學(xué)習(xí)領(lǐng)域一個非常關(guān)鍵的技術(shù) ResNet(深度殘差網(wǎng)絡(luò))出現(xiàn)了,它提出通過增加額外的連接,使得信息可以從淺層直接傳輸?shù)缴顚?,減少信息在網(wǎng)絡(luò)層之間傳輸時的損失。通過這個技術(shù),卷積神經(jīng)網(wǎng)絡(luò)才能擁有更深的結(jié)構(gòu),從而更好地利用大規(guī)模數(shù)據(jù)。

雖然有了 ResNet 技術(shù),深度卷積神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)規(guī)模增加到一定程度之后,其性能的提升也變得非常有限,也就是說存在飽和的趨勢,這說明神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力還是存在著一定的瓶頸。

大約從 2017 年開始,一種新型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)開始引起研究人員的廣泛關(guān)注,那就是大名鼎鼎的基于注意力機制的 Transformer 網(wǎng)絡(luò)。

Transformer 首先被應(yīng)用在自然語言處理領(lǐng)域(NLP),用來處理序列文本數(shù)據(jù)。

谷歌團隊提出的用于生成詞向量的 BERT 算法在 NLP 的 11 項任務(wù)中均取得了大幅的效果提升,而 BERT 算法中最重要的部分便是 Transformer。

在自然語言處理領(lǐng)域取得廣泛應(yīng)用后,Transformer 也被成功移植到了很多視覺任務(wù)上,比如「圖像分類,物體檢測」等,并同樣取得了不錯的效果。Transformer 在海量數(shù)據(jù)上可以獲得更大的性能提升,也就是說學(xué)習(xí)能力的飽和區(qū)間更大。

有研究表明,當訓(xùn)練數(shù)據(jù)集增大到包含 1 億張圖像時,Transformer 的性能開始超過 CNN。而當圖像數(shù)量增加到 10 億張時,兩者的性能差距變得更大。

上面是 ResNet(CNN)和 ViT(Transformer)在不同大小訓(xùn)練集上達到的圖像分類正確率。數(shù)據(jù)量為 1000 萬時,Transformer 的正確率遠低于 CNN,但是當數(shù)據(jù)量增加到 1 億時,Transformer 就開始超過 CNN。

此外,CNN 網(wǎng)絡(luò)在數(shù)據(jù)量超過 1 億以后呈現(xiàn)飽和趨勢,而 Transformer 的準確率還在繼續(xù)增加。

簡單理解就是,Transformer 在海量數(shù)據(jù)的處理能力上具有巨大冗余優(yōu)勢

正是因為看到了這一點,面向量產(chǎn)的自動駕駛公司在擁有數(shù)據(jù)收集優(yōu)勢的情況下,自然就會傾向于選擇 Transformer 作為其感知算法的主體

2021 年夏天,特斯拉的自動駕駛技術(shù)負責(zé)人 Andrej Karpathy 博士在 AI Day 上,公開了 FSD 自動駕駛系統(tǒng)中采用的算法,而 Transformer 則是其中最核心的模塊之一。在國內(nèi)方面,毫末智行也同樣提出將 Transformer 神經(jīng)網(wǎng)絡(luò)與海量數(shù)據(jù)進行有效的融合。

在 2021 年底,毫末智行 CEO 顧維灝在毫末 AI Day 上介紹了 MANA(雪湖)數(shù)據(jù)智能體系。除了視覺數(shù)據(jù)以外,MANA 系統(tǒng)還包含了激光雷達數(shù)據(jù)

并基于 Transformer 神經(jīng)網(wǎng)絡(luò)模型來進行空間、時間、傳感器三個維度的融合,從而去提升感知算法的準確率。

了解了目前自動駕駛技術(shù)發(fā)展的趨勢以后,文章接下來的部分會首先簡單介紹一下 Transformer 的設(shè)計動機和工作機制,然后詳細解讀特斯拉和毫末智行的技術(shù)方案。

02 Transformer 神經(jīng)網(wǎng)絡(luò)

在說 Transformer 之前,要先理解一個概念:「機器翻譯、注意力機制」。

機器翻譯

機器翻譯可以粗暴理解成 「由現(xiàn)代化計算機模擬人類的智能活動,自動進行語言之間的翻譯」。

說起翻譯,不得不提自然語言處理(NLP)領(lǐng)域的機器翻譯應(yīng)用,簡單說就是「輸入一句話,輸出另一句話」,后者可以是前者的其他語種表達,如「自行車翻譯為 Bicycle」;也可以是前者的同語種關(guān)鍵詞表達,如「騎行的兩輪車」。

而工程師把「翻譯」的過程,用數(shù)學(xué)函數(shù)設(shè)計了一套模型,這個模型就是大家通常意義上理解的「神經(jīng)網(wǎng)絡(luò)」

在 Transformer 到來之前,大家一般都是使用基于循環(huán)神經(jīng)網(wǎng)絡(luò) RNN 的「編碼器-解碼器」結(jié)構(gòu)來完成序列翻譯。

所謂序列翻譯,「就是輸入一個序列,輸出另一個序列」。例如,漢英翻譯即輸入的序列是漢語表示的一句話,而輸出的序列即為對應(yīng)的英語表達。

基于 RNN 的架構(gòu)有一個明顯弊端就是,RNN 屬于序列模型,需要以一個接一個的序列化方式進行信息處理,注意力權(quán)重需要等待序列全部輸入模型之后才能確定,簡單理解就是,需要 RNN 對序列「從頭看到尾」。

例如:

面對翻譯問題「A magazine is stuck in the gun」,其中的「Magazine」到底應(yīng)該翻譯為「雜志」還是「彈匣」?

當看到「gun」一詞時,將「Magazine」翻譯為「彈匣」才確認無疑。在基于RNN的機器翻譯模型中,需要一步步的順序處理從 Magazine 到 gun 的所有詞語,而當它們相距較遠時 RNN 中存儲的信息將不斷被稀釋,翻譯效果常常難以盡人意,而且效率非常很低。

這種架構(gòu)無論是在訓(xùn)練環(huán)節(jié)還是推理環(huán)節(jié),都具有大量的時間開銷,并且難以實現(xiàn)并行處理。而這個時候,工程師又想到了一個方案,就是在標準的 RNN 模型中加入一個「注意力機制」。

什么是注意力機制?

「深度學(xué)習(xí)中的注意力機制,源自于人腦的注意力機制,當人的大腦接受外部信息時,如視覺信息,聽覺信息時,往往不會對全部信息處理和理解,而只會將注意力集中在部分顯著或者感興趣的信息上,這樣有利于濾除不重要的信息,而提升的信息處理效率?!?/span>

加入注意力機制的模型會一次性的「看見」所有輸入的詞匯,利用注意力機制將距離不同的單詞進行結(jié)合,為序列中每個元素提供全局的上下文。

谷歌團隊賦予新模型一個大名鼎鼎的名字:「Transformer」。

Transformer 與處理序列數(shù)據(jù)常用的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer 中的注意力機制并不會按照順序來處理數(shù)據(jù),也就是說,每個元素和序列中的所有元素都會產(chǎn)生聯(lián)系,這樣就保證了不管在時序上相距多遠,元素之間的相關(guān)性都可以被很好地保留。

而這種長時相關(guān)性對于自然語言處理的任務(wù)來說通常都是非常重要。比如下圖中,句子中的「it」所指的是「The animal」,但是這兩個元素之間相距較遠,如果用 RNN 來順序處理的話很難建立起兩者之間的聯(lián)系。

一個句子中各個單詞之間的相關(guān)性

Transformer 并不關(guān)心順序,在計算相關(guān)性時,每個元素的重要性是根據(jù)數(shù)據(jù)本身的語義信息計算出來的。因此,可以輕松地提取任意距離元素之間的相關(guān)性。

為什么要說這些?

因為在視覺任務(wù)圖像分類和物體檢測上,通過帶有注意力機制的 Transformer 模型其結(jié)果出乎意料的好。

為什么源自自然語言領(lǐng)域的算法,在視覺上同樣適用呢?

原因主要有兩點:

  • 雖然圖像本身不是時間序列數(shù)據(jù),但可以看作空間上的序列,視覺任務(wù)一個關(guān)鍵的步驟就是要提取像素之間的相關(guān)性,普通的 CNN 是通過卷積核來提取局部的相關(guān)性(也稱為:局部感受野)。與 CNN 的局部感受野不同,Transformer 可以提供全局的感受野。因此,特征學(xué)習(xí)能力相比 CNN 要高很多。
  • 如果進一步考慮視頻輸入數(shù)據(jù)的話,那么這本身就是時序數(shù)據(jù),因此,更加適合Transformer 的處理。

Transformer 在圖像分類中的應(yīng)用

在圖 3 的例子中,Transformer 被用來進行圖像分類的任務(wù)。圖像被均勻地分成若干小塊,按照空間排列的順序組成了一個圖像塊的序列。每個圖像塊的像素值(或者其他特征)組成了該圖像塊的特征向量,經(jīng)過 Transformer 編碼在進行拼接后就得到整幅圖像的特征。

上圖的右側(cè),給出了編碼器的具體結(jié)構(gòu),其關(guān)鍵部分是一個 「多頭注意力模塊」。

簡單來說,多頭注意力其實就是多個注意力機制模塊的集成,這些模塊各自獨立的進行編碼,提取不同方面的特征,在增加編碼能力的同時,也可以非常高效的在計算芯片上實現(xiàn)并行處理。

綜上所述,這也就是中金《人工智能十年展望(三):AI 視角下的自動駕駛行業(yè)全解析》這份報告里說的:

由于 Transformer 可以很好地在 「空間-時序」 維度上進行建模,目前特斯拉和毫末智行等行業(yè)龍頭通過 Transformer 在感知端提升模型效果。

特斯拉從安裝在汽車周圍的八個攝像頭的視頻中用傳統(tǒng)的 ResNet 提取圖像特征,并使用 Transformer CNN、3D 卷積中的一種或者多種組合完成跨時間的圖像融合,實現(xiàn)基于 2D 圖像形成具有 3D 信息輸出。

毫末智行的 AI 團隊正在逐步將基于 Transformer 的感知算法應(yīng)用到實際的道路感知問題,如車道線檢測、障礙物檢測、可行駛區(qū)域分割、紅綠燈檢測&識別、道路交通標志檢測、點云檢測&分割等。

03 特斯拉的 FSD 系統(tǒng)解讀

Andrej 博士在特斯拉 AI Day 上首先提到,五年前 Tesla 的視覺系統(tǒng)是先獲得單張圖像上的檢測結(jié)果,然后將其映射到向量空間(Vector Space)。

這個「向量空間」則是 AI Day 中的核心概念之一。其實,它就是環(huán)境中的各種目標,在世界坐標系中的表示空間。

比如,「對于物體檢測任務(wù),目標在 3D 空間中的位置、大小、朝向、速度等描述特性組成了一個向量,所有目標的描述向量組成的空間就是向量空間?!?/p>

視覺感知系統(tǒng)的任務(wù)就是,將圖像空間中的信息轉(zhuǎn)化為向量空間中的信息。

一般可以通過兩種方法來實現(xiàn):

  • 先在圖像空間中完成所有的感知任務(wù),然后將結(jié)果映射到向量空間,最后融合多攝像頭的結(jié)果;
  • 先將圖像特征轉(zhuǎn)換到向量空間,然后融合來自多個攝像頭的特征,最后在向量空間中完成所有的感知任務(wù)。

Andrej 舉了兩個例子,說明為什么第一種方法是不合適的。

一,由于透視投影,圖像中看起來不錯的感知結(jié)果在向量空間中精度很差,尤其是遠距離的區(qū)域。如下圖所示,車道線(藍色)和道路邊緣(紅色)在投影到向量空間后位置非常不準,無法用支持自動駕駛的應(yīng)用。

圖像空間的感知結(jié)果(上)及其在向量空間中的投影(下)

二,在多目系統(tǒng)中,由于視野的限制,單個攝像頭可能無法看到完整的目標。比如,在下圖的例子中,一輛大貨車出現(xiàn)在了一些攝像頭的視野中,但是很多攝像頭都只看到了目標的一部分,因此無法根據(jù)殘缺的信息做出正確的檢測,后續(xù)的融合效果也就無法保證。這其實是多傳感器決策層融合的一個一般性問題。

單攝像頭受限的視野 

綜合以上分析,圖像空間感知 + 決策層融合并不是一個很好的方案。

進而直接在向量空間中完成融合和感知可以有效地解決以上問題,這也是 FSD 感知系統(tǒng)的核心思路。

為了實現(xiàn)這個思路,需要解決兩個重要的問題:一,如何將特征從圖像空間變換到向量空間;二,如何得到向量空間中的標注數(shù)據(jù)。

特征的空間變換

對于特征的空間變換問題,一般性的做法就是:「利用攝像頭的標定信息將圖像像素映射到世界坐標系」。

但這有一些條件上的問題,需要有一定的約束,自動駕駛應(yīng)用中通常采用的是地平面約束,也就是目標位于地面,而且地面是水平的,這個約束太強了,在很多場景下無法滿足。

Tesla 的解決方案,核心有三點:

一,通過 Transformer 和自注意力的方式建立圖像空間到向量空間的對應(yīng)關(guān)系。簡單說就是,向量空間中每一個位置的特征都可以看作圖像所有位置特征的加權(quán)組合。

當然對應(yīng)位置的權(quán)重肯定大一些,但這個加權(quán)組合的過程通過自注意力和空間編碼來自動的實現(xiàn),不需要手工設(shè)計,完全根據(jù)需要完成的任務(wù)來進行端對端的學(xué)習(xí)。

二,在量產(chǎn)車中,每一輛車上攝像頭的標定信息都不盡相同,導(dǎo)致輸入數(shù)據(jù)與預(yù)訓(xùn)練的模型不一致。因此,這些標定信息需要作為額外的輸入提供給神經(jīng)網(wǎng)絡(luò)。

簡單的做法是,將每個攝像頭的標定信息拼接起來,通過神經(jīng)網(wǎng)絡(luò)編碼后再輸入給神經(jīng)網(wǎng)絡(luò);但更好的做法是將來自不同攝像頭的圖像通過標定信息進行校正,使不同車輛上對應(yīng)的攝像頭都輸出一致的圖像。

三,視頻(多幀)輸入被用來提取時序信息,以增加輸出結(jié)果的穩(wěn)定性,更好地處理遮擋場景,并且預(yù)測目標的運動。

這部分還有一個額外的輸入就是車輛自身的運動信息(可以通過 IMU 獲得),以支持神經(jīng)網(wǎng)絡(luò)對齊不同時間點的特征圖,時序信息的處理可以采用 3D 卷積,Transformer 或者 RNN。

圖像空間感知(左下) vs. 向量空間感知(右下) 

通過以上這些算法上的改進,F(xiàn)SD 在向量空間中的輸出質(zhì)量有了很大的提升。在下面的對比圖中,下方左側(cè)是來自圖像空間感知+決策層融合方案的輸出,而下方右側(cè)上述特征空間變換 + 向量空間感知融合的方案。

向量空間中的標注

既然是深度學(xué)習(xí)算法,那么數(shù)據(jù)和標注自然就是關(guān)鍵環(huán)節(jié),圖像空間中的標注非常直觀,但是系統(tǒng)最終需要的是在向量空間中的標注。

Tesla 的做法是利用來自多個攝像頭的圖像重建 3D 場景,并在 3D 場景下進行標注,標注者只需要在 3D 場景中進行一次標注,就可以實時地看到標注結(jié)果在各個圖像中的映射,從而進行相應(yīng)的調(diào)整。

3D 空間中的標注

人工標注只是整個標注系統(tǒng)的一部分,為了更快更好地獲得標注,還需要借助自動標注和模擬器。

自動標注系統(tǒng)首先基于單攝像頭的圖像生成標注結(jié)果,然后通過各種空間和時間的線索將這些結(jié)果整合起來。形象點說就是 「各個攝像頭湊在一起討論出一個一致的標注結(jié)果」

除了多個攝像頭的配合,在路上行駛的多臺 Tesla 車輛也可以對同一個場景的標注進行融合改進。當然這里還需要 GPS 和 IMU 傳感器來獲得車輛的位置和姿態(tài),從而將不同車輛的輸出結(jié)果進行空間對齊。

自動標注可以解決標注的效率問題,但是對于一些罕見的場景,比如,中金《人工智能十年展望(三):AI 視角下的自動駕駛行業(yè)全解析》報告中所演示的在高速公路上奔跑的行人,還需要借助模擬器來生成虛擬數(shù)據(jù)。

以上所有這些技術(shù)組合起來,才構(gòu)成了 Tesla 完整的深度學(xué)習(xí)網(wǎng)絡(luò)、數(shù)據(jù)收集和標注系統(tǒng)。

04 毫末智行的 MANA 系統(tǒng)解讀

依托長城汽車,毫末智行可以獲得海量的真實路測數(shù)據(jù),對于數(shù)據(jù)的處理問題,毫末智行也提出將 Transformer 引入到其數(shù)據(jù)智能體系 MANA 中,并逐步應(yīng)用到實際的道路感知問題,比如障礙物檢測、車道線檢測、可行駛區(qū)域分割、交通標志檢測等等。

從這一點上就可以看出,量產(chǎn)車企在有了超大數(shù)據(jù)集作為支撐以后,其技術(shù)路線正在走向趨同。

在自動駕駛技術(shù)百花齊放的時代,選擇一條正確的賽道,確立自身技術(shù)的優(yōu)勢,無論對于特斯拉還是毫末智行來說,都是極其重要的。

在自動駕駛技術(shù)的發(fā)展中,一直就對采用何種傳感器存在爭論。目前爭論的焦點在于是走純視覺路線還是激光雷達路線。

特斯拉采用純視覺方案,這也是基于其百萬量級的車隊和百億公里級別的真實路況數(shù)據(jù)做出的選擇。

而采用激光雷達,主要有兩方面的考慮:

  • 數(shù)據(jù)規(guī)模方面的差距其他自動駕駛公司很難填補,要獲得競爭優(yōu)勢就必須增加傳感器的感知能力。目前,半固態(tài)的激光雷達成本已經(jīng)降低到幾百美元的級別,基本可以滿足量產(chǎn)車型的需求。
  • 從目前的技術(shù)發(fā)展來看,基于純視覺的技術(shù)可以滿足 L2/L2+ 級別的應(yīng)用,但是對L3/4級的應(yīng)用(比如RoboTaxi)來說,激光雷達還是必不可少的。

在這種背景下,誰能夠既擁有海量數(shù)據(jù),又能同時支持視覺和激光雷達兩種傳感器,那么無疑會在競爭中占據(jù)先發(fā)的優(yōu)勢。顯然,毫末智行在這個方向上已經(jīng)占據(jù)了先機。

根據(jù)毫末智行 CEO 顧維灝的在 AI Day 上的介紹,MANA 系統(tǒng)采用 Transformer 在底層融合視覺和激光雷達數(shù)據(jù),進而實現(xiàn)空間、時間、傳感器三位一體的深層次感知。

下面我就來詳細解讀一下 MANA 系統(tǒng),尤其是與特斯拉 FSD 的差異之處。

視覺感知模塊

相機獲取原始數(shù)據(jù)之后,要經(jīng)過 ISP(Image Signal Process)數(shù)字處理過程后,才能提供給后端的神經(jīng)網(wǎng)絡(luò)使用。

ISP 的功能一般來說是為了獲得更好的視覺效果,但是神經(jīng)網(wǎng)絡(luò)其實并不需要真正的「看到」數(shù)據(jù),視覺效果只是為人類設(shè)計的。

因此,將 ISP 作為神經(jīng)網(wǎng)絡(luò)的一層,讓神經(jīng)網(wǎng)絡(luò)根據(jù)后端的任務(wù)來決定 ISP 的參數(shù)并對相機進行校準,這有利于最大程度上保留原始的圖像信息,也保證采集到的圖像與神經(jīng)網(wǎng)絡(luò)的訓(xùn)練圖像在參數(shù)上盡可能的一致。

處理過后的圖像數(shù)據(jù)被送入主干網(wǎng)絡(luò) Backbone,毫末采用的 DarkNet 類似于多層的卷積殘差網(wǎng)絡(luò)(ResNet),這也是業(yè)界最常用的主干網(wǎng)絡(luò)結(jié)構(gòu)。

主干網(wǎng)絡(luò)輸出的特征再送到不同的頭(Head)來完成不同的任務(wù)。

這里的任務(wù)分為三大類:全局任務(wù)(Global Task)、道路任務(wù)(Road Tasks)和目標任務(wù)(Object Tasks)

不同的任務(wù)共用主干網(wǎng)絡(luò)的特征,每個任務(wù)自己擁有獨立的 Neck 網(wǎng)絡(luò),用來提取針對不同任務(wù)的特征。這與特斯拉 HydraNet 的思路是基本一致的。

但是 MANA 感知系統(tǒng)的特點在于 「為全局任務(wù)設(shè)計了一個提取全局信息的 Neck 網(wǎng)絡(luò)」。

這一點其實是非常重要的,因為全局任務(wù)(比如可行駛道路的檢測)非常依賴于對場景的理解,而對場景的理解又依賴于全局信息的提取。

MANA 系統(tǒng)的視覺和激光雷達感知模塊 

激光雷達感知模塊

激光雷達感知采用的是 PointPillar 算法,這也是業(yè)界常用的一個基于點云的三維物體檢測算法。這個算法的特點在于:「將三維信息投影到二維(俯視視圖),在二維數(shù)據(jù)上進行類似于視覺任務(wù)中的特征提取和物體檢測」。

這種做法的優(yōu)點在于避免了計算量非常大的三維卷積操作,因此,算法的整體速度非??臁ointPillar 也是在點云物體檢測領(lǐng)域第一個能夠達到實時處理要求的算法。

在 MANA 之前的版本中,視覺數(shù)據(jù)和激光雷達數(shù)據(jù)是分別處理的,融合過程在各自輸出結(jié)果的層面上完成,也就是自動駕駛領(lǐng)域常說的 「后融合」。

這樣做可以盡可能地保證兩個系統(tǒng)之間的獨立性,并為彼此提供安全冗余。但后融合也導(dǎo)致神經(jīng)網(wǎng)絡(luò)無法充分利用兩個異構(gòu)傳感器之間數(shù)據(jù)的互補性,來學(xué)習(xí)最有價值的特征。

融合感知模塊

前面提到了一個三位一體融合的概念,這也是 MANA 感知系統(tǒng)區(qū)別于其他感知系統(tǒng)的關(guān)鍵之處。正如毫末智行 CEO 顧維灝在 AI Day 上所說:目前大部分的感知系統(tǒng)都存在「時間上的感知不連續(xù)、空間上的感知碎片化」的問題。

MANA 系統(tǒng)的融合感知模塊

時間上的不連續(xù):是由于系統(tǒng)按照幀為單位進行處理,而兩幀之間的時間間隔可能會有幾十毫秒,系統(tǒng)更多地關(guān)注單幀的處理結(jié)果,將時間上的融合作為后處理的步驟。

比如,采用單獨的物體跟蹤模塊將單幀的物體檢測結(jié)果串聯(lián)起來,這也是一種后融合策略,因此無法充分利用時序上的有用信息。

空間上的碎片化:是由多個同構(gòu)或異構(gòu)傳感器所在的不同空間坐標系導(dǎo)致的

對于同構(gòu)傳感器(比如多個攝像頭)來說,由于安裝位置和角度不同,導(dǎo)致其可視范圍(FOV)也不盡相同。每個傳感器的 FOV 都是有限的,需要把多個傳感器的數(shù)據(jù)融合在一起,才可以得到車身周圍 360 度的感知能力,這對于 L2 以上級別的自動駕駛系統(tǒng)來說是非常重要的。

對于異構(gòu)傳感器(比如攝像頭和激光雷達)來說,由于數(shù)據(jù)采集的方式不同,不同傳感器得到的數(shù)據(jù)信息和形式都有很大差別。

攝像頭采集到的是圖像數(shù)據(jù),具有豐富的紋理和語義信息,適合用于物體分類和場景理解;而激光雷達采集到的是點云數(shù)據(jù),其空間位置信息非常精確,適合用于感知物體的三維信息和檢測障礙物。

如果系統(tǒng)對每個傳感器進行單獨處理,并在處理結(jié)果上進行后融合,那么就無法利用多個傳感器的數(shù)據(jù)中包含的互補信息。

如何解決這兩個問題呢?

答案是:用 Transformer 做空間和時間上的前融合

先說空間的前融合

與 Transformer 在一般的視覺任務(wù)(比如圖像分類和物體檢測)中扮演的角色不同,Transformer 在空間前融合中的主要作用并不是提取特征,而是進行坐標系的變換。

這與特斯拉所采用的技術(shù)有異曲同工之處,但是毫末進一步增加了激光雷達,進行多傳感器(跨模態(tài))的前融合,也就是圖 8 中的 Cross-Domain Association 模塊。

上面介紹了 Transformer 的基本工作原理,簡單來說就是 「計算輸入數(shù)據(jù)各個元素之間的相關(guān)性,利用該相關(guān)性進行特征提取」。

坐標系轉(zhuǎn)換也可以形式化為類似的流程。

比如,將來自多個攝像頭的圖像轉(zhuǎn)換到與激光雷達點云一致的三維空間坐標系,那么系統(tǒng)需要做的是找到三維坐標系中每個點與圖像像素的對應(yīng)關(guān)系。傳統(tǒng)的基于幾何變換的方法會將三維坐標系中的一個點映射到圖像坐標系中的一個點,并利用該圖像點周圍一個小的鄰域(比如 3x3 像素)來計算三維點的像素值。

而 Transformer 則會建立三維點到每個圖像點的聯(lián)系,并通過自注意力機制,也就是相關(guān)性計算來決定哪些圖像點會被用來進行三維點的像素值。

如圖 9 所示,Transformer 首先編碼圖像特征,然后將其解碼到三維空間,而坐標系變換已經(jīng)被嵌入到了自注意力的計算過程中。

這種思路打破的傳統(tǒng)方法中對鄰域的約束,算法可以看到場景中更大的范圍,通過對場景的理解來進行坐標變換。同時,坐標變換的過程在神經(jīng)網(wǎng)絡(luò)中進行,可以由后端所接的具體任務(wù)來自動調(diào)整變換的參數(shù)

采用 Transformer 進行圖像坐標系到三維空間坐標系的轉(zhuǎn)換 

因此,這個變換過程是完全由數(shù)據(jù)驅(qū)動的,也是任務(wù)相關(guān)的。在擁有超大數(shù)據(jù)集的前提下,基于 Transformer 來進行空間坐標系變換是完全可行的。

再說時間上的前融合

這個比空間上的前融合更容易理解一些,因為 Transformer 在設(shè)計之初就是為了處理時序數(shù)據(jù)的。

圖 8 中的 Feature Queue 就是空間融合模塊在時序上的輸出,可以理解為一個句子中的多個單詞,這樣就可以自然的采用 Transformer 來提取時序特征。相比特斯拉采用 RNN 來進行時序融合的方案,Transformer 的方案特征提取能力更強,但是在運行效率上會低一些。

毫末的方案中也提到了 RNN,相信目前也在進行兩種方案的對比,甚至是進行某種程度的結(jié)合,以充分利用兩者的優(yōu)勢。

除此之外,由于激光雷達的加持,毫末采用了 SLAM 跟蹤以及光流算法,可以快速的完成自身定位和場景感知,更好的保證時序上的連貫性。

認知模塊

除了感知模塊以外,毫末在認知模塊,也就是路徑規(guī)劃部分也有一些特別的設(shè)計。

顧維灝在 AI Day 上介紹到,認知模塊與感知模塊最大的不同在于,認知模塊沒有確定的「尺子」來衡量其性能的優(yōu)劣,而且認知模塊需要考慮的因素比較多,比如安全,舒適和高效,這無疑也增加了認知模塊設(shè)計的難度。

針對這些問題,毫末的解決方案是場景數(shù)字化和大規(guī)模強化學(xué)習(xí)。

場景數(shù)字化,就是將行駛道路上的不同場景進行參數(shù)化的表示。參數(shù)化的好處在于可以對場景進行有效地分類,從而進行差異化的處理。

按照不同的粒度,場景參數(shù)分為宏觀和微觀兩種:宏觀的場景參數(shù)包括天氣,光照,路況等;微觀的場景參數(shù)則刻畫了自車的行駛速度,與周圍障礙物的關(guān)系等。

MANA 系統(tǒng)中的宏觀場景聚類 


MANA 系統(tǒng)中的微觀場景(例子是跟車場景) 

在將各種場景數(shù)字化了以后,就可以采用人工智能的算法來進行學(xué)習(xí)。一般情況下,強化學(xué)習(xí)是完成這個任務(wù)的一個比較好的選擇。

強化學(xué)習(xí)就是著名的 AlphaGo 中采用的方法,但是與圍棋不同,自動駕駛?cè)蝿?wù)的評價標準不是輸和贏,而是駕駛的合理性和安全性。

如何對每一次的駕駛行為進行正確地評價,是認知系統(tǒng)中強化學(xué)習(xí)算法設(shè)計的關(guān)鍵。毫末采取的策略是模擬人類司機的行為,這也是最快速有效的方法。

當然,只有幾個司機的數(shù)據(jù)是遠遠不夠的,采用這種策略的基礎(chǔ)也是海量的人工駕駛數(shù)據(jù),而這恰恰又是毫末的優(yōu)勢所在,這就是基于長城汽車,毫末在智能駕駛系統(tǒng)上的交付能力會遠遠領(lǐng)先其他對手,而這背后的核心則是數(shù)據(jù)的收集能力,基于海量的數(shù)據(jù),毫末可以快速迭代算法交付覆蓋更多場景的自動駕駛系統(tǒng)。

寫在最后

隨著自動駕駛技術(shù)的快速發(fā)展和落地,越來越多的量產(chǎn)車型上開始搭載支持不同級別自動駕駛系統(tǒng)的軟件和硬件。在逐漸向商業(yè)化邁進的同時,量產(chǎn)車型的規(guī)模效應(yīng)也可以為自動駕駛系統(tǒng)的迭代提供海量的數(shù)據(jù)支持。這也是業(yè)界普遍認可的通向高階自動駕駛的必經(jīng)之路。

在這種背景下,擁有潛在數(shù)據(jù)優(yōu)勢的量產(chǎn)車的企業(yè)該如何切入,特斯拉和依托長城汽車的毫末智行率先給出了方案。兩者的方案既有宏觀的神似之處,也有很多具體策略上的差異,既體現(xiàn)了共識,也展現(xiàn)了個性。

共識之處在于,兩家公司都采用了 Transformer 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來提升在超大數(shù)據(jù)集上的學(xué)習(xí)能力,同時兩家公司也都認為數(shù)據(jù)的采集和自動標注是整個算法迭代的重要環(huán)節(jié),并為此進行了巨大的投入。

個性方面,特斯拉采用純視覺的方案,而毫末采用視覺加激光雷達的方案。在激光雷達量產(chǎn)成本不斷降低的背景下,毫末的方案是具有發(fā)展?jié)摿Φ摹4送?,毫末?Transformer 的應(yīng)用上更加深入。

除了融合空間信息以外,Transformer 在 MANA 系統(tǒng)中還被用來融合時序和多模態(tài)信息,將系統(tǒng)采集的各種離散數(shù)據(jù)統(tǒng)一起來,形成連貫的數(shù)據(jù)流,以更好地支持后端的不同應(yīng)用。

不管采用何種實現(xiàn)方案,特斯拉和毫末智行在海量數(shù)據(jù)上進行的嘗試對于自動駕駛技術(shù)的發(fā)展和最終落地實現(xiàn)都是意義重大的。

也希望未來會有更多的企業(yè)加入進來,嘗試更多不同的可能性,互通有無,互相學(xué)習(xí),甚至共享技術(shù)和數(shù)據(jù),讓自動駕駛能夠更好更快地為大眾服務(wù)。

責(zé)任編輯:張燕妮 來源: 焉知新能源汽車
相關(guān)推薦

2023-02-17 08:54:57

2021-12-24 10:33:35

毫末智行RNN自動駕駛

2023-02-13 12:15:41

自動駕駛算法

2022-01-04 12:11:42

自動駕駛數(shù)據(jù)人工智能

2022-01-13 09:53:04

自動駕駛語義分割

2022-04-02 10:53:13

大算力芯片自動駕駛

2024-01-03 15:07:10

2023-02-09 15:30:35

特斯拉AI

2021-12-09 09:41:09

小馬智行自動駕駛深圳

2022-02-25 15:27:22

特斯拉自動駕駛硬件

2024-03-20 10:42:38

毫末AI

2023-07-24 09:41:08

自動駕駛技術(shù)交通

2021-07-22 16:01:14

自動駕駛汽車行業(yè)智能

2023-03-11 22:44:04

人工智能特斯拉

2021-12-02 10:08:48

自動駕駛數(shù)據(jù)汽車

2022-04-06 11:05:25

自動駕駛商業(yè)化馬斯克

2021-01-26 21:26:10

自動駕駛AI人工智能
點贊
收藏

51CTO技術(shù)棧公眾號

亚洲综合激情五月| 国模视频一区二区| 亚洲激情免费观看| 日本一区二区三区精品视频| 9i看片成人免费看片| 在线播放一区二区精品视频| 一区二区三区丝袜| 粉嫩高清一区二区三区精品视频| 日本在线小视频| 妖精一区二区三区精品视频| 色香蕉成人二区免费| 亚洲国产精品123| 国产精品主播一区二区| 亚洲性感美女99在线| 亚洲黄色免费三级| 日本成人黄色网| 黄av在线免费观看| 不卡av电影在线播放| 国产精品www色诱视频| 极品久久久久久| 九九亚洲视频| 91麻豆精品国产91久久久久久久久 | 久草网站在线观看| 牛牛精品成人免费视频| 欧美色图第一页| 全黄性性激高免费视频| yiren22综合网成人| 久久国产尿小便嘘嘘| 久久久久久国产精品三级玉女聊斋| 欧美老熟妇乱大交xxxxx| 台湾佬成人网| 亚洲精品国产无套在线观| 欧美久久久久久一卡四| 99热这里只有精品3| 激情视频一区| 日韩视频第一页| 欧美激情 亚洲| 日韩欧乱色一区二区三区在线| 亚洲影视在线播放| 一本一生久久a久久精品综合蜜| 国产激情久久久久久熟女老人av| 久久综合网络一区二区| 欧美激情国产高清| 国产精品1区2区3区4区| 久久成人av| 精品国产乱码久久久久久夜甘婷婷 | 这里只有精品视频在线| 免费看毛片的网站| 免费看一区二区三区| 在线影院国内精品| 精品国产一区二区三区在线| 国产三级在线看| 99久久777色| 国产伦精品一区二区三区高清版| 国产伦一区二区| 日韩av一二三| 欧美中文在线观看| 日韩av在线天堂| 亚洲无线一线二线三线区别av| 色哟哟入口国产精品| 精品无码人妻一区| 看全色黄大色大片免费久久久| 69久久夜色精品国产69蝌蚪网| 无人在线观看的免费高清视频 | 色一情一乱一伦一区二区三区日本| 成人在线播放| 国产精品国产三级国产| 四虎永久国产精品| 久久视频www| 久久人人爽爽爽人久久久| 国产日韩二区| 亚洲乱码在线观看| 国产成人精品免费网站| 91传媒视频免费| av观看在线免费| 国产精品亚洲а∨天堂免在线| 成人h视频在线| 国产精品欧美亚洲| 国产精品一区三区| www.成人三级视频| 免费的黄色av| 97久久精品人人爽人人爽蜜臀 | 免费成人av| 亚洲人成在线观看网站高清| 亚洲永久精品ww.7491进入| 欧美丝袜美腿| 亚洲а∨天堂久久精品9966| 亚洲高清无码久久| 亚洲精品456| 尤物九九久久国产精品的特点| 微拍福利一区二区| 人人狠狠综合久久亚洲婷婷| 久久久av网站| 久久综合久久鬼| 午夜亚洲影视| 国产精品久久久久久av下载红粉 | 亚洲日韩视频| 91精品国产91久久久久| 好吊色在线视频| 精品一区二区成人精品| 操人视频欧美| 欧美挠脚心网站| 国产精品久久久久久久久免费樱桃 | 国产一区二区三区中文字幕| 国产精品99久久久久久久女警| 国产精品视频免费一区| 免费在线黄色影片| 亚洲精品国产视频| 亚洲自偷自拍熟女另类| 亚洲欧美在线成人| 日韩视频一区在线观看| 成人免费无码大片a毛片| 不卡视频在线| 欧美极品少妇全裸体| 三级视频在线观看| 国产一区二区三区在线观看免费| 91久久极品少妇xxxxⅹ软件| 日韩资源在线| 亚洲免费在线观看| 97视频在线免费播放| va天堂va亚洲va影视| 日韩福利视频在线观看| 午夜精品一区二区三级视频| 国内视频精品| 国产精品情侣自拍| 日本xxxxxwwwww| 欧美韩国日本不卡| 免费超爽大片黄| 精品美女一区| 欧美成人三级电影在线| 超薄肉色丝袜一二三| 国内精品久久久久国产盗摄免费观看完整版 | 插我舔内射18免费视频| 日韩国产在线| 九九热视频这里只有精品| 在线免费观看av网址| 成人黄色国产精品网站大全在线免费观看 | 亚洲欧美丝袜中文综合| 亚洲精品伦理在线| 无需播放器的av| 欧美**字幕| 九九精品视频在线观看| 你懂的国产在线| 粉嫩av一区二区三区| 亚洲美女网站18| 色8久久影院午夜场| 亚洲成av人乱码色午夜| 三级黄色录像视频| 天堂av在线一区| 国产日本一区二区三区| 任你弄在线视频免费观看| 欧美午夜不卡在线观看免费| www.88av| 一区在线观看| 岛国一区二区三区高清视频| 国产在线观看a视频| 欧美日韩二区三区| 天堂在线中文视频| 久久一二三区| 日本成人三级| 深夜成人影院| 亚洲最新视频在线| 日本一区二区不卡在线| 国产成人av电影| 国产一区二区三区在线免费| 国产一区二区三区| 久久不射热爱视频精品| 亚洲永久精品视频| 国产精品免费视频网站| 国产精品乱码久久久久| 精品国产91| 国产精品久久久久av免费| 国产对白叫床清晰在线播放| 日本韩国一区二区三区| 欧美图片一区二区| 久久一区二区三区超碰国产精品| 欧美日韩在线播放一区二区| 欧美91看片特黄aaaa| 日韩精品免费在线视频观看| 国产视频91在线| 久久色在线观看| 波多野结衣综合网| 亚洲小说图片视频| 国产高清在线不卡| 国内在线免费高清视频| 欧美性受极品xxxx喷水| 911国产在线| 国产福利一区二区三区视频| 欧美亚洲黄色片| 欧美男人操女人视频| 国产精品福利小视频| 日本中文在线观看| 日韩精品一区二区在线观看| 伊人365影院| 91老司机福利 在线| 久久久免费视频网站| 你懂的视频欧美| 国产在线a不卡| 四虎亚洲成人| 亚洲欧美日韩区| 久久永久免费视频| 亚洲丝袜自拍清纯另类| 男人女人拔萝卜视频| 亚洲一区二区免费看| 亚洲一区二区高清视频| 精品三级久久久| 欧美亚洲另类在线| 在线国产91| 亚洲第一福利在线观看| 天堂av免费在线观看| 亚洲精品亚洲人成人网| 91精品国产自产| 紧缚奴在线一区二区三区| www.激情网| 北条麻妃国产九九九精品小说| 91在线播放视频| 欧美影视资讯| 另类美女黄大片| 手机av免费在线观看| 欧美日韩成人高清| 日韩污视频在线观看| 国产精品入口麻豆原神| 精品一区二区三区四区五区六区| 欧美a级理论片| 日韩av三级在线| 五月开心六月丁香综合色啪 | 欧美一区二区.| 在线heyzo| 久久精品小视频| 成人影视在线播放| 亚洲欧美国产制服动漫| 婷婷在线免费视频| 精品精品欲导航| jizz中国少妇| 欧美一级二级在线观看| 一级黄色大毛片| 欧美日韩在线直播| 国产精品午夜一区二区| 色婷婷av一区二区三区大白胸 | 欧美日韩一区二区三区在线看| 欧美a视频在线观看| 欧美视频在线观看 亚洲欧| 国产午夜视频在线| 亚洲福利一二三区| 久久久久久久久久91| 亚洲激情图片qvod| 久久亚洲AV无码| 亚洲成人精品一区二区| 国产无精乱码一区二区三区| 亚洲午夜久久久久久久久电影网| 妺妺窝人体色www在线下载| 亚洲综合在线免费观看| 免费在线一级片| 亚洲大片在线观看| 免费黄色网址在线| 色噜噜久久综合| 亚洲精品无码久久久久| 欧美丰满一区二区免费视频| 国产人妖一区二区三区| 欧美一级艳片视频免费观看| www.日本xxxx| 三级久久三级久久| av视屏在线播放| 人人精品人人爱| 亚洲 国产 图片| 国产一区免费电影| 无码国产精品久久一区免费| 成人午夜精品一区二区三区| 性囗交免费视频观看| 久久久久久久网| 妖精视频在线观看免费 | 亚洲精品久久区二区三区蜜桃臀| 在线免费看黄| 久久久久久免费| 韩国无码一区二区三区精品| 久久久久久一二三区| 国产日产在线观看| 亚洲精品网站在线观看| 国产一级淫片a| 欧美在线视频不卡| 国产免费av观看| 日韩精品极品毛片系列视频| 国产福利片在线| 欧美福利小视频| 日韩电影免费观看高清完整版| 成人福利网站在线观看| jizzjizzjizz欧美| 日日夜夜精品网站| 综合精品一区| 日韩免费高清在线| 国产一区二区三区四区五区美女| 国产又粗又猛又色| 国产精品的网站| av大片免费观看| 91.com在线观看| 三级在线电影| 欧美老少配视频| 亚洲www啪成人一区二区| 51精品国产人成在线观看 | 鲁丝片一区二区三区| 97久久视频| 欧美二区在线视频| 久久91精品久久久久久秒播| 日韩av无码一区二区三区不卡| 欧美激情一区二区在线| 久久这里只有精品免费| 欧美性一二三区| 视频污在线观看| 欧美老少配视频| 欧美成人三级| 久久综合狠狠综合久久综青草 | 成人444kkkk在线观看| 9i看片成人免费高清| 9a蜜桃久久久久久免费| 日韩在线理论| 日本久久久精品视频| 高清国产一区二区三区| 日本美女黄色一级片| 91国在线观看| 三级毛片在线免费看| 欧美激情图片区| 国产成年精品| 亚洲精品一区二区三区蜜桃久| 国产日韩视频| 国产高清成人久久| 亚洲国产精品欧美一二99| 国产伦一区二区| 日韩网站免费观看| www.成人在线视频| 欧美日韩国产不卡在线看| 一本综合精品| 亚洲激情 欧美| 亚洲成人精品在线观看| 亚洲AV无码国产精品午夜字幕 | 亚洲 欧美 变态 另类 综合| 日本乱码高清不卡字幕| 日本五码在线| 91精品国产高清| 欧美亚洲色图校园春色| 亚洲人精品午夜射精日韩 | 国产精华一区| 欧美极品一区二区三区| 三级黄色片免费观看| 国产精品乱子久久久久| 中国老头性行为xxxx| 伊人久久久久久久久久| 姬川优奈av一区二区在线电影| 明星裸体视频一区二区| 久久亚洲图片| a天堂中文字幕| 在线观看av一区二区| 成年人在线观看| 国产精品人人做人人爽| 日韩电影免费网站| 国产探花在线看| 亚洲日本在线观看| 亚洲xxx在线| 97精品久久久中文字幕免费| 黑人久久a级毛片免费观看| 国产人妻777人伦精品hd| jizz一区二区| 黑人精品无码一区二区三区AV| 亚洲免费视频一区二区| 婷婷午夜社区一区| 亚洲精品中文字幕在线| 激情综合色播激情啊| 久草网站在线观看| 亚洲电影免费观看高清| 久久青青视频| 亚洲伊人婷婷| 国产成人综合亚洲91猫咪| 国产一级在线免费观看| 精品无人区太爽高潮在线播放| 桃色一区二区| 视色,视色影院,视色影库,视色网| 国产99精品国产| 青青草免费观看视频| 色噜噜狠狠色综合网图区| 国产999精品在线观看| 蜜桃传媒一区二区三区| 国产欧美日韩精品一区| 国产丰满果冻videossex| 2019精品视频| 97视频精品| 性色av蜜臀av色欲av| 欧美日韩国产大片| freexxx性亚洲精品| 视频一区三区| 懂色一区二区三区免费观看| 成人午夜视频在线播放| 久久久精品999| 香蕉视频一区| 日韩高清在线一区二区| 天天爽夜夜爽夜夜爽精品视频| 成人在线免费公开观看视频| 91成人免费看| 免费成人在线观看| 日韩字幕在线观看| 精品国内自产拍在线观看| 先锋影音国产精品|