精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

針對深度學(xué)習(xí)的“失憶癥”,科學(xué)家提出基于相似性加權(quán)交錯學(xué)習(xí),登上PNAS

人工智能 深度學(xué)習(xí)
本文擴展了SWIL算法,并基于不同的數(shù)據(jù)集(Fashion-MNIST、CIFAR10 和 CIFAR100)和神經(jīng)網(wǎng)絡(luò)模型(深度線性網(wǎng)絡(luò)和CNN)對其進行了測試。

?與人類不同,人工神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)新事物時會迅速遺忘先前學(xué)到的信息,必須通過新舊信息的交錯來重新訓(xùn)練;但是,交錯全部舊信息非常耗時,并且可能沒有必要。只交錯與新信息有實質(zhì)相似性的舊信息可能就足夠了。

近日,美國科學(xué)院院報(PNAS)刊登了一篇論文,“Learning in deep neural networks and brains with similarity-weighted interleaved learning”,由加拿大皇家學(xué)會會士、知名神經(jīng)科學(xué)家 Bruce McNaughton 的團隊發(fā)表。他們的工作發(fā)現(xiàn),通過將舊信息與新信息進行相似性加權(quán)交錯訓(xùn)練,深度網(wǎng)絡(luò)可以快速學(xué)習(xí)新事物,不僅降低了遺忘率,而且使用的數(shù)據(jù)量大幅減少。

論文作者還作出一個假設(shè):通過跟蹤最近活躍的神經(jīng)元和神經(jīng)動力學(xué)吸引子(attractor dynamics)的持續(xù)興奮性軌跡,可以在大腦中實現(xiàn)相似性加權(quán)交錯。這些發(fā)現(xiàn)可能會促進神經(jīng)科學(xué)和機器學(xué)習(xí)的進一步發(fā)展。

研究背景

了解大腦如何終身學(xué)習(xí)仍然是一項長期挑戰(zhàn)。

在人工神經(jīng)網(wǎng)絡(luò)(ANN)中,過快地整合新信息會產(chǎn)生災(zāi)難性干擾,即先前獲得的知識突然丟失。互補學(xué)習(xí)系統(tǒng)理論 (Complementary Learning Systems Theory,CLST) 表明,通過將新記憶與現(xiàn)有知識交錯,新記憶可以逐漸融入新皮質(zhì)。

CLST指出,大腦依賴于互補的學(xué)習(xí)系統(tǒng):海馬體 (HC) 用于快速獲取新記憶,新皮層 (NC) 用于將新數(shù)據(jù)逐漸整合到與上下文無關(guān)的結(jié)構(gòu)化知識中。在“離線期間”,例如睡眠和安靜的清醒休息期間,HC觸發(fā)回放最近在NC中的經(jīng)歷,而NC自發(fā)地檢索和交錯現(xiàn)有類別的表征。交錯回放允許以梯度下降的方式逐步調(diào)整NC突觸權(quán)重,以創(chuàng)建與上下文無關(guān)的類別表征,從而優(yōu)雅地整合新記憶并克服災(zāi)難性干擾。許多研究已經(jīng)成功地使用交錯回放實現(xiàn)了神經(jīng)網(wǎng)絡(luò)的終身學(xué)習(xí)。

然而,在實踐中應(yīng)用CLST時,有兩個重要問題亟待解決。首先,當大腦無法訪問所有舊數(shù)據(jù)時,如何進行全面的信息交錯呢?一種可能的解決方案是“偽排練”,其中隨機輸入可以引發(fā)內(nèi)部表征的生成式回放,而無需顯式訪問先前學(xué)習(xí)的示例。類吸引子動力學(xué)可能使大腦完成“偽排練”,但“偽排練”的內(nèi)容尚未明確。因此,第二個問題是,每進行新的學(xué)習(xí)活動之后,大腦是否有充足的時間交織所有先前學(xué)習(xí)的信息。

相似性加權(quán)交錯學(xué)習(xí)(Similarity-Weighted Interleaved Learning,SWIL)算法被認為是第二個問題的解決方案,這表明僅交錯與新信息具有實質(zhì)表征相似性的舊信息可能就足夠了。實證行為研究表明,高度一致的新信息可以快速整合到NC結(jié)構(gòu)化知識中,幾乎沒有干擾。這表明整合新信息的速度取決于其與先驗知識的一致性。受此行為結(jié)果的啟發(fā),并通過重新檢查先前獲得的類別之間的災(zāi)難性干擾分布,McClelland等人證明SWIL可以在具有兩個上義詞類別(例如,“水果”是“蘋果”和“香蕉”的上義詞)的簡單數(shù)據(jù)集中,每個epoch使用少于2.5倍的數(shù)據(jù)量學(xué)習(xí)新信息,實現(xiàn)了與在全部數(shù)據(jù)上訓(xùn)練網(wǎng)絡(luò)相同的性能。然而,研究人員在使用更復(fù)雜的數(shù)據(jù)集時并沒有發(fā)現(xiàn)類似的效果,這引發(fā)了對該算法可擴展性的擔(dān)憂。

實驗表明,深度非線性人工神經(jīng)網(wǎng)絡(luò)可以通過僅交錯與新信息共享大量表征相似性的舊信息子集來學(xué)習(xí)新信息。通過使用SWIL算法,ANN能夠以相似的精度水平和最小的干擾快速學(xué)習(xí)新信息,同時使用的每個時期呈現(xiàn)的舊信息量少之又少,這意味著數(shù)據(jù)利用率高且可以快速學(xué)習(xí)。

同時,SWIL也可應(yīng)用于序列學(xué)習(xí)框架。此外,學(xué)習(xí)一種新類別可以極大地提高數(shù)據(jù)利用率 。如果舊信息與之前學(xué)習(xí)過的類別有著非常少的相似性,那么呈現(xiàn)的舊信息數(shù)量就會少得多,這很可能是人類學(xué)習(xí)的實際情況。

最后,作者提出了一個關(guān)于SWIL如何在大腦中實現(xiàn)的理論模型,其興奮性偏差與新信息的重疊成正比。

應(yīng)用于圖像分類數(shù)據(jù)集的DNN動力學(xué)模型

McClelland等人的實驗表明,在具有一個隱藏層的深度線性網(wǎng)絡(luò)中,SWIL可以學(xué)習(xí)一個新類別,類似于完全交錯學(xué)習(xí) (Fully Interleaved Learning,F(xiàn)IL),即將整個舊類別與新類別交錯,但使用的數(shù)據(jù)量減少了40%。

然而,網(wǎng)絡(luò)是在一個非常簡單的數(shù)據(jù)集上訓(xùn)練的,只有兩個上義詞類別,這就對算法的可擴展性提出了疑問。

首先針對更復(fù)雜的數(shù)據(jù)集(如Fashion-MNIST),探索不同類別的學(xué)習(xí)在具有一個隱藏層的深度線性神經(jīng)網(wǎng)絡(luò)中如何演變。移出了“boot”(“靴子”)和“bag”(“紙袋”)類別后,該模型在剩余的8個類別上的測試準確率達到了87%。然后作者團隊重新訓(xùn)練模型,在兩種不同的條件下學(xué)習(xí)(新的)“boot”類,每個條件重復(fù)10次:

  • 集中學(xué)習(xí)(Focused Learning ,F(xiàn)oL),即僅呈現(xiàn)新的“boot”類;
  • 完全交錯學(xué)習(xí) (FIL),即所有類別(新類別+以前學(xué)過的類別)以相等的概率呈現(xiàn)。在這兩種情況下,每個epoch總共呈現(xiàn)180張圖像,每個epoch中的圖像相同。

該網(wǎng)絡(luò)在總共9000張從未見過的圖像上進行了測試,其中測試數(shù)據(jù)集由每類1000張圖像組成,不包括“bag”類別。當網(wǎng)絡(luò)的性能達到漸近線時,訓(xùn)練停止。

不出所料,F(xiàn)oL對舊類別造成了干擾,而FIL克服了這一點(圖1第2列)。如上所述,F(xiàn)oL對舊數(shù)據(jù)的干擾因類別而異,這是SWIL最初靈感的一部分,并表明新“boot”類別和舊類別之間存在分級相似關(guān)系。例如,“sneaker”(“運動鞋”)和“sandals”(“涼鞋”)的召回率比“trouser”(“褲子”)下降得更快(圖1第2列),可能是因為整合新的“boot”類會選擇性地改變代表“sneaker”和“sandals”類的突觸權(quán)重,從而造成更多的干擾。

圖片

圖1:預(yù)訓(xùn)練網(wǎng)絡(luò)在兩種情況下學(xué)習(xí)新“boot”類的性能對比分析:FoL(上)和 FIL(下)。從左到右依次為預(yù)測新“boot”類別的召回率(橄欖色)、現(xiàn)有類別的召回率(用不同顏色繪制)、總準確度(高分意味著低誤差)和交叉熵損失(總誤差的度量)曲線,是保留的測試數(shù)據(jù)集上與epoch數(shù)有關(guān)的函數(shù)。

計算不同類別之間的相似度

FoL在學(xué)習(xí)新類別的時候,在相似的舊類別上的分類性能會大幅下降。

之前已經(jīng)探討了多類別屬性相似度和學(xué)習(xí)之間的關(guān)系,并且表明深度線性網(wǎng)絡(luò)可以快速獲取已知的一致屬性。相比之下,在現(xiàn)有類別層次結(jié)構(gòu)中添加新分支的不一致屬性,需要緩慢、漸進、交錯的學(xué)習(xí)。

在當前的工作中,作者團隊使用已提出的方法在特征級別計算相似度。簡言之,計算目標隱藏層(通常是倒數(shù)第二層)現(xiàn)有類別和新類別的平均每類激活向量之間的余弦相似度。圖2A顯示了基于Fashion MNIST數(shù)據(jù)集的新“boot”類別和舊類別,作者團隊根據(jù)預(yù)訓(xùn)練網(wǎng)絡(luò)的倒數(shù)第二層激活函數(shù)計算的相似度矩陣。

類別之間的相似性與我們對物體的視覺感知一致。例如,在層次聚類圖(圖2B)中,我們可以觀察到“boot”類與“sneaker”和“sandal”類之間、以及“shirt”(“襯衫”)和“t-shirt”(“T恤”)類之間具有較高的相似性。相似度矩陣(圖2A)與混淆矩陣(圖2C)完全對應(yīng)。相似度越高,越容易混淆,例如,“襯衫”類與“T恤”、“套頭衫”和“外套”類圖像容易混淆,這表明相似性度量預(yù)測了神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)動態(tài)。

在上一節(jié)的FoL結(jié)果圖(圖1)中,舊類別的召回率曲線中存在相近的類相似度曲線。與不同的舊類別(“trouser”等)相比,F(xiàn)oL學(xué)習(xí)新“boot”類的時候會快速遺忘相似的舊類別(“sneaker” 和 “sandal”)。

圖片

圖2:( A ) 作者團隊根據(jù)預(yù)訓(xùn)練網(wǎng)絡(luò)的倒數(shù)第二層激活函數(shù),計算的現(xiàn)有類別和新“boot”類的相似度矩陣,其中對角線值(同一類別的相似性繪制為白色)被刪除。( B ) 對A中的相似矩陣進行層次聚類。( C ) FIL算法在訓(xùn)練學(xué)習(xí)“boot”類后生成的混淆矩陣。為了縮放清晰,刪除了對角線值。

深度線性神經(jīng)網(wǎng)絡(luò)實現(xiàn)快速和高效學(xué)習(xí)新事物

接下來在前兩個條件基礎(chǔ)上增加了3種新條件,研究了新的分類學(xué)習(xí)動態(tài),其中每個條件重復(fù)10次:

  • FoL(共計n=6000張圖像/epoch);
  • FIL(共計n=54000張圖像/epoch,6000張圖像/類);
  • 部分交錯學(xué)習(xí) (Partial Interleaved Learning,PIL)使用了很小的圖像子集(共計n=350張圖像/epoch,大約39張圖像/類),每一類別(新類別+現(xiàn)有類別)的圖像以相等的概率呈現(xiàn);
  • SWIL,每個epoch使用與PIL 相同的圖像總數(shù)進行重新訓(xùn)練,但根據(jù)與(新)“boot”類別的相似性對現(xiàn)有類別圖像進行加權(quán);
  • 等權(quán)交錯學(xué)習(xí)(Equally Weighted Interleaved Learning,EqWIL),使用與SWIL相同數(shù)量的“boot”類圖像重新訓(xùn)練,但現(xiàn)有類別圖像的權(quán)重相同(圖3A)。

作者團隊使用了上述相同的測試數(shù)據(jù)集(共有n=9000張圖像)。當在每種條件下神經(jīng)網(wǎng)絡(luò)的性能都達到漸近線時,停止訓(xùn)練。盡管每個epoch使用的訓(xùn)練數(shù)據(jù)較少,預(yù)測新“boot”類的準確率需要更長的時間達到漸近線,與FIL(H=7.27,P<0.05)相比,PIL的召回率更低(圖3B第1列和表1“New class”列)。

對于SWIL,相似度計算用于確定要交錯的現(xiàn)有舊類別圖像的比例。在此基礎(chǔ)上,作者團隊從每個舊類別中隨機抽取具有加權(quán)概率的輸入圖像。與其他類別相比,“sneaker”和“sandal”類最相似,從而導(dǎo)致被交錯的比例更高(圖3A)。

根據(jù)樹狀圖(圖2B),作者團隊將“sneaker”和“sandal”類稱為相似的舊類,其余則稱為不同的舊類。與PIL(H=5.44,P<0.05)相比,使用SWIL時,模型學(xué)習(xí)新“boot”類的速度更快,對現(xiàn)有類別的干擾也相近。此外,SWIL(H=0.056,P>0.05)的新類別召回率(圖3B第1列和表1“New class”列)、總準確率和損失與FIL相當。EqWIL(H=10.99,P<0.05)中新“boot”類的學(xué)習(xí)與SWIL相同,但對相近的舊類別有更大程度的干擾(圖3B第2列和表1“Similar old class”列)。

作者團隊使用以下兩種方法比較SWIL和FIL:

  • 內(nèi)存比,即FIL和SWIL中存儲的圖像數(shù)量之比,表示存儲的數(shù)據(jù)量減少;
  • 加速比,即在FIL和SWIL中呈現(xiàn)的內(nèi)容總數(shù)的比率,以達到新類別回憶的飽和精度,表明學(xué)習(xí)新類別所需的時間減少。

SWIL可以在數(shù)據(jù)需求減少的情況下學(xué)習(xí)新內(nèi)容,內(nèi)存比=154.3x (54000/350),并且速度更快,加速比=77.1x (54000/(350×2))。即使和新內(nèi)容有關(guān)的圖像數(shù)量較少,該模型也可以通過使用SWIL,利用模型先驗知識的層次結(jié)構(gòu)實現(xiàn)相同的性能。SWIL在PIL和EqWIL之間提供了一個中間緩沖區(qū),允許集成一個新類別,并將對現(xiàn)有類別的干擾降到最低。

圖片

圖3 ( A ) 作者團隊在五種不同的學(xué)習(xí)條件下預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)新的“boot”類(橄欖綠),直到性能平穩(wěn):1)FoL(共計n=6000張圖像/epoch);2)FIL(共計n=54000張圖像/epoch);3) PIL(共計n=350張圖像/epoch);4) SWIL(共計n=350張圖像/epoch)和 5) EqWIL(共計n=350張圖像/epoch)。(B)FoL(黑色)、FIL(藍色)、PIL(棕色)、SWIL(洋紅色)和 EqWIL(金色)預(yù)測新類別、相似舊類別(“sneaker”和“sandals”)和不同舊類別的召回率,預(yù)測所有類別的總準確率,以及在測試數(shù)據(jù)集上的交叉熵損失,其中橫坐標都是epoch數(shù)。

基于CIFAR10使用SWIL在CNN中學(xué)習(xí)新類別

接下來,為了測試SWIL是否可以在更復(fù)雜的環(huán)境中工作,作者團隊訓(xùn)練了一個具有全連接輸出層的6層非線性CNN(圖4A),以識別CIFAR10數(shù)據(jù)集中剩余8個不同類別(“cat”和“car”除外)的圖像。他們還對模型進行了重新訓(xùn)練,在之前定義的5種不同訓(xùn)練條件(FoL、FIL、PIL、SWIL和EqWIL)下學(xué)習(xí)“cat”(“貓”)類。圖4C顯示了5種情況下每類圖像的分布。對于SWIL、PIL和EqWIL條件,每個epoch的總圖像數(shù)為2400,而對于FIL和FoL,每個epoch的總圖像數(shù)分別為45000和5000。作者團隊針對每種情況對網(wǎng)絡(luò)分別進行訓(xùn)練,直到性能趨于穩(wěn)定。

他們在之前未見過的總共9000張圖像(1000張圖像/類,不包括“car”(“轎車”)類)上對該模型進行了測試。圖4B是作者團隊基于CIFAR10數(shù)據(jù)集計算的相似性矩陣。“cat”類和“dog”(“狗”)類更類似,而其他動物類屬于同一分支(圖4B左)。

根據(jù)樹狀圖(圖4B),將“truck” (“貨車”)、“ship”(“輪船”) 和 “plane”(“飛機”) 類別稱為不同的舊類別,除“cat”類外其余的動物類別稱為相似的舊類別。對于FoL,模型學(xué)習(xí)了新的“cat”類,但遺忘了舊類別。與Fashion-MNIST數(shù)據(jù)集結(jié)果類似,“dog”類(與“cat”類相似性最大)和“truck”類(與“cat”類相似性最小)均存在干擾梯度,其中“dog”類的遺忘率最高,而“truck”類遺忘率最低。

如圖4D所示,F(xiàn)IL算法學(xué)習(xí)新的“cat”類時克服了災(zāi)難性的干擾。對于PIL算法,模型在每個epoch使用18.75倍的數(shù)據(jù)量學(xué)習(xí)新的“cat”類,但“cat”類的召回率比FIL(H=5.72,P<0.05)低。對于SWIL,在新類別、相似和不同舊類別上的召回率、總準確率和損失與FIL相當(H=0.42,P>0.05;見表2和圖4D)。SWIL對新“cat”類的召回率高于PIL(H=7.89,P<0.05)。使用EqWIL算法時,新“cat”類的學(xué)習(xí)情況與SWIL和FIL相似,但對相似舊類別的干擾較大(H=24.77,P<0.05;見表2)。

FIL、PIL、SWIL和EqWIL這4種算法預(yù)測不同舊類別的性能相當(H=0.6,P>0.05)。SWI比PIL更好地融合了新的“cat”類,并有助于克服EqWIL中的觀測干擾。與FIL相比,使用SWIL學(xué)習(xí)新類別速度更快,加速比=31.25x (45000×10/(2400×6)),同時使用更少的數(shù)據(jù)量 (內(nèi)存比=18.75x)。這些結(jié)果證明,即使在非線性CNN和更真實的數(shù)據(jù)集上,SWIL也可以有效學(xué)習(xí)新類別事物。

圖片

圖4:( A ) 作者團隊使用具有全連接輸出層的6層非線性CNN學(xué)習(xí)CIFAR10數(shù)據(jù)集中的8類事物。( B ) 相似度矩陣 (右)是在呈現(xiàn)新的“cat”類之后,作者團隊根據(jù)最后一個卷積層的激活函數(shù)計算獲得。對相似矩陣應(yīng)用層次聚類(左),在樹狀圖中顯示動物(橄欖綠)和交通工具(藍色)兩個上義詞類別的分組情況。( C ) 作者團隊在5種不同的條件下預(yù)訓(xùn)練CNN學(xué)習(xí)新的“cat”類(橄欖綠),直到性能平穩(wěn):1)FoL(共計n=5000張圖像/epoch);2)FIL(共計n=45000張圖像/epoch);3) PIL(共計n=2400張圖像/epoch);4) SWIL(共計n=2400張圖像/epoch);5) EqWIL(共計n=2400張圖像/epoch)。每個條件重復(fù)10次。(D)FoL(黑色)、FIL(藍色)、PIL(棕色)、SWIL(洋紅色)和 EqWIL(金色)預(yù)測新類別、相似舊類別(CIFAR10數(shù)據(jù)集中的其他動物類)和不同舊類別(“plane” 、“ship” 和 “truck”)的召回率,預(yù)測所有類別的總準確率,以及在測試數(shù)據(jù)集上的交叉熵損失,其中橫坐標都是epoch數(shù)。

新內(nèi)容與舊類別的一致性對學(xué)習(xí)時間和所需數(shù)據(jù)的影響

如果一項新內(nèi)容可以添加到先前學(xué)習(xí)過的類別中,而不需要對網(wǎng)絡(luò)進行較大更改,則稱二者具有一致性。基于此框架,與干擾多個現(xiàn)有類別(低一致性)的新類別相比,學(xué)習(xí)干擾更少現(xiàn)有類別(高一致性)的新類別可以更容易地集成到網(wǎng)絡(luò)中。

為了測試上述推斷,作者團隊使用上一節(jié)中經(jīng)過預(yù)訓(xùn)練的CNN,在前面描述的所有5種學(xué)習(xí)條件下,學(xué)習(xí)了一個新的“car”類別。圖5A顯示了“car”類別的相似性矩陣,與其他現(xiàn)有類別相比,“car”和“truck”、“ship”和“plane”在同一層次節(jié)點下,說明它們更相似。為了進一步確認,作者團隊在用于相似性計算的激活層上進行了t-SNE降維可視化分析(圖5B)。研究發(fā)現(xiàn)“car”類與其他交通工具類(“truck”、“ship”和“plane”)有顯著重疊,而“cat”類與其他動物類(“dog”、 “frog”(“青蛙”)、“horse”(“馬”)、“bird”(“鳥”)和“deer”(“鹿”))有重疊。

和作者團隊預(yù)期相符,F(xiàn)oL學(xué)習(xí)“car”類別時會產(chǎn)生災(zāi)難性干擾,對相近的舊類別干擾性更強,而使用FIL克服了這一點(圖5D)。對于PIL、SWIL和EqWIL,每個epoch總共有n=2000張圖像(圖5C)。使用SWIL算法,模型學(xué)習(xí)新的“car”類別可以達到和FIL(H=0.79,P>0.05)相近的精度,而對現(xiàn)有類別(包括相似和不同類別)的干擾最小。如圖5D第2列所示,使用EqWIL,模型學(xué)習(xí)新“car”類的方式與SWIL相同,但對其他相似類別(例如“truck”)的干擾程度更高(H=53.81,P<0.05)。

與FIL相比,SWIL可以更快地學(xué)習(xí)新內(nèi)容,加速比=48.75x(45000×12/(2000×6)),內(nèi)存需求減少,內(nèi)存比=22.5x。與“cat”(48.75x vs.31.25x)相比,“car”可以通過交錯更少的類(如“truck”、“ship”和“plane”)更快地學(xué)習(xí),而“cat”與更多的類別(如“dog” 、“frog” 、“horse” 、“frog” 和“deer”)重疊。這些仿真實驗表明,交叉和加速學(xué)習(xí)新類別所需的舊類別數(shù)據(jù)量,取決于新信息與先驗知識的一致性。

圖片

圖 5:( A ) 作者團隊根據(jù)倒數(shù)第二層激活函數(shù)計算獲得相似度矩陣(左),以及呈現(xiàn)新的“car”類別后對相似度矩陣進行層次聚類后的結(jié)果圖(右)。( B ) 模型分別學(xué)習(xí)新的“car”類別和“cat”類別,經(jīng)過最后一個卷積層過激活函數(shù)后,作者團隊進行t-SNE降維可視化的結(jié)果圖。( C ) 作者團隊在5種不同的條件下預(yù)訓(xùn)練CNN學(xué)習(xí)新的“car”類(橄欖綠),直到性能平穩(wěn):1)FoL(共計n=5000張圖像/epoch);2)FIL(共計n=45000張圖像/epoch);3) PIL(共計n=2000張圖像/epoch);4) SWIL(共計n=2000張圖像/epoch);5) EqWIL(共計n=2000張圖像/epoch)。(D)FoL(黑色)、FIL(藍色)、PIL(棕色)、SWIL(洋紅色)和 EqWIL(金色)預(yù)測新類別、相似舊類別(“plane” 、“ship” 和 “truck”)和不同舊類別(CIFAR10數(shù)據(jù)集中的其他動物類)的召回率,預(yù)測所有類別的總準確率,以及在測試數(shù)據(jù)集上的交叉熵損失,其中橫坐標都是epoch數(shù)。每張圖顯示的是重復(fù)10次后的平均值,陰影區(qū)域為±1 SEM。

利用SWIL進行序列學(xué)習(xí)

接下來,作者團隊測試是否可以使用SWIL學(xué)習(xí)序列化形式呈現(xiàn)的新內(nèi)容(序列學(xué)習(xí)框架)。為此他們采用了圖4中經(jīng)過訓(xùn)練的CNN模型,在FIL和SWIL條件下學(xué)習(xí)CIFAR10數(shù)據(jù)集中的“cat”類(任務(wù)1),只在CIFAR10的剩余9個類別上訓(xùn)練,然后在每個條件下訓(xùn)練模型學(xué)習(xí)新的“car”類(任務(wù)2)。圖6第1列顯示了SWIL條件下學(xué)習(xí)“car”類別時,其他各項類別的圖像數(shù)量分布情況(共計n=2500張圖像/epoch)。需要注意的是,預(yù)測“cat”類時也交叉學(xué)習(xí)新的“car”類。由于在FIL條件下模型性能最佳,SWIL僅與FIL進行了結(jié)果比較。

如圖6所示,SWIL預(yù)測新、舊類別的能力與FIL相當(H=14.3,P>0.05)。模型使用SWIL算法可以更快地學(xué)習(xí)新的“car”類別,加速比為45x(50000×20/(2500×8)),每個epoch的內(nèi)存占用比FIL少20倍。模型學(xué)習(xí)“cat”和“car”類別時,在SWIL條件下每個epoch使用的圖像數(shù)量(內(nèi)存比和加速比分別為18.75x 和 20x),少于在FIL條件下每個epoch使用的整個數(shù)據(jù)集(內(nèi)存比和加速比分別為31.25x 和45x),并且仍然可以快速學(xué)習(xí)新類別。擴展這一思想,隨著學(xué)過的類別數(shù)目不斷增加,作者團隊預(yù)期模型的學(xué)習(xí)時間和數(shù)據(jù)存儲會成倍減少,從而更高效地學(xué)習(xí)新類別,這或許反映了人類大腦實際學(xué)習(xí)時的情況。

實驗結(jié)果表明,SWIL可在序列學(xué)習(xí)框架中集成多個新類,使神經(jīng)網(wǎng)絡(luò)能夠在不受干擾的情況下持續(xù)學(xué)習(xí)。

圖片

圖6:作者團隊訓(xùn)練6層CNN學(xué)習(xí)新的“cat”類(任務(wù)1),然后學(xué)習(xí)“car”類(任務(wù)2),直到性能在以下兩種情況下趨于穩(wěn)定:1)FIL:包含所有舊類別(以不同顏色繪制)和以相同概率呈現(xiàn)的新類別(“cat”/“car”)圖像;2) SWIL:根據(jù)與新類別(“cat”/“car”)的相似性進行加權(quán)并按比例使用舊類別示例。同時將任務(wù)1中學(xué)習(xí)的“cat”類包括在內(nèi),并根據(jù)任務(wù)2中學(xué)習(xí)“car”類的相似性進行加權(quán)。第1張子圖表示每個epoch使用的圖像數(shù)量分布情況,其余各子圖分別表示FIL(藍色)和SWIL(洋紅色)預(yù)測新類別、相似舊類別和不同舊類別的召回率,預(yù)測所有類別的總準確率,以及在測試數(shù)據(jù)集上的交叉熵損失,其中橫坐標都是epoch數(shù)。

利用SWIL擴大類別間的距離,減少學(xué)習(xí)時間和數(shù)據(jù)量

作者團隊最后測試了SWIL算法的泛化性,驗證其是否可以學(xué)習(xí)包括更多類別的數(shù)據(jù)集,以及是否適用于更復(fù)雜的網(wǎng)絡(luò)架構(gòu)。

他們在CIFAR100數(shù)據(jù)集(訓(xùn)練集500張圖像/類,測試集100張圖像/類)上訓(xùn)練了一個復(fù)雜的CNN模型-VGG19(共有19層),學(xué)習(xí)了其中的90個類別。然后對網(wǎng)絡(luò)進行再訓(xùn)練,學(xué)習(xí)新類別。圖7A顯示了基于CIFAR100數(shù)據(jù)集,作者團隊根據(jù)倒數(shù)第二層的激活函數(shù)計算的相似性矩陣。如圖7B所示,新“train”(“火車”)類與許多現(xiàn)有的交通工具類別(如“bus” (“公共汽車”)、“streetcar” (“有軌電車”)和“tractor”(“拖拉機”)等)很相似。

與FIL相比,SWIL可以更快地學(xué)習(xí)新事物(加速比=95.45x (45500×6/(1430×2)))并且使用的數(shù)據(jù)量 (內(nèi)存比=31.8x) 顯著減少,而性能基本相同(H=8.21, P>0.05) 。如圖7C所示,在PIL(H=10.34,P<0.05)和EqWIL(H=24.77,P<0.05)條件下,模型預(yù)測新類別的召回率較低并且產(chǎn)生的干擾較大,而SWIL克服了上述不足。

同時,為了探索不同類別表征之間的較大距離是否構(gòu)成了加速模型學(xué)習(xí)的基本條件,作者團隊另外訓(xùn)練了兩種神經(jīng)網(wǎng)絡(luò)模型:

  • 6層CNN(與基于CIFAR10的圖4和圖5相同);
  • VGG11(11層)學(xué)習(xí)CIFAR100數(shù)據(jù)集中的90個類別,僅在FIL和SWIL兩個條件下對新的“train”類進行訓(xùn)練。

如圖7B所示,對于上述兩種網(wǎng)絡(luò)模型,新的“train”類和交通工具類別之間的重疊度更高,但與VGG19模型相比,各類別的分離度較低。與FIL相比,SWIL學(xué)習(xí)新事物的速度與層數(shù)的增加大致呈線性關(guān)系(斜率=0.84)。該結(jié)果表明,類別間表征距離的增加可以加速學(xué)習(xí)并減少內(nèi)存負載。

圖片

圖7:( A ) VGG19學(xué)習(xí)新的“train”類后,作者團隊根據(jù)倒數(shù)第二層激活函數(shù)計算的相似性矩陣。“truck” 、“streetcar” 、“bus” 、“house” 和 “tractor”5種類別與“train”的相似性最大。從相似度矩陣中排除對角元素(相似度 =1)。(B,左)作者團隊針對6層CNN、VGG11和VGG19網(wǎng)絡(luò),經(jīng)過倒數(shù)第二層激活函數(shù)后,進行t-SNE降維可視化的結(jié)果圖。(B,右)縱軸表示加速比(FIL/SWIL),橫軸表示3個不同網(wǎng)絡(luò)的層數(shù)相對于6層CNN的比率。黑色虛線、紅色虛線和藍色實線分別代表斜率 =1的標準線、最佳擬合線和仿真結(jié)果。( C ) VGG19模型的學(xué)習(xí)情況:FoL(黑色)、FIL(藍色)、PIL(棕色)、SWIL(洋紅色)和 EqWIL(金色)預(yù)測新“train”類、相似舊類別(交通工具類別)和不同舊類別(除了交通工具類別)的召回率,預(yù)測所有類別的總準確率,以及在測試數(shù)據(jù)集上的交叉熵損失,其中橫坐標都是epoch數(shù)。每張圖顯示的是重復(fù)10次后的平均值,陰影區(qū)域為±1 SEM。( D ) 從左到右依次表示模型預(yù)測Fashion-MNIST“boot”類(圖3)、CIFAR10“cat”類(圖4)、CIFAR10“car”類(圖5)和CIFAR100“train”類的召回率,是SWIL(洋紅色)和FIL(藍色)使用的圖像總數(shù)(對數(shù)比例)的函數(shù)。“N”表示每種學(xué)習(xí)條件下每個epoch使用的圖像總數(shù)(包括新、舊類別)。

如果在更多非重疊類上訓(xùn)練網(wǎng)絡(luò),并且各表征之間的距離更大,速度是否會進一步提升?

為此,作者團隊采用了一個深度線性網(wǎng)絡(luò)(用于圖1-3中的Fashion-MNIST示例),并對其進行訓(xùn)練,以學(xué)習(xí)由8個Fashion-MNIST類別(不包括“bags”和“boot”類)和10個Digit-MNIST類別形成的組合數(shù)據(jù)集,然后訓(xùn)練網(wǎng)絡(luò)學(xué)習(xí)新的“boot”類別。

和作者團隊的預(yù)期相符,“boot”與舊類別“sandals”和“sneaker”相似度更高,其次是其余的Fashion-MNIST類(主要包括服飾類圖像),最后Digit-MNIST類(主要包括數(shù)字類圖像)。

基于此,作者團隊首先交織了更多相似的舊類別樣本,再交織Fashion-MNIST和Digit-MNIST類樣本(共計n=350張圖像/epoch)。實驗結(jié)果表明,與FIL類似,SWIL可以快速學(xué)習(xí)新類別內(nèi)容而不受干擾,但使用的數(shù)據(jù)子集要小得多,內(nèi)存比為325.7x (114000/350) ,加速比為162.85x (228000/1400)。作者團隊在當前結(jié)果中觀察到的加速比為2.1x (162.85/77.1),與Fashion-MNIST數(shù)據(jù)集相比,類別數(shù)目增加了 2.25倍 (18/8)。

本節(jié)的實驗結(jié)果有助于確定SWIL可以適用于更復(fù)雜的數(shù)據(jù)集 (CIFAR100) 和神經(jīng)網(wǎng)絡(luò)模型(VGG19),證明了該算法的泛化性。同時證明了擴大類別之間的內(nèi)部距離或增加非重疊類別的數(shù)量,可能會進一步提高學(xué)習(xí)速度并降低內(nèi)存負載。

總結(jié)

人工神經(jīng)網(wǎng)絡(luò)在持續(xù)學(xué)習(xí)方面面臨重大挑戰(zhàn),通常表現(xiàn)出災(zāi)難性干擾。為了克服此問題,許多研究都使用了完全交錯學(xué)習(xí)(FIL),即新舊內(nèi)容交叉學(xué)習(xí),聯(lián)合訓(xùn)練網(wǎng)絡(luò)。FIL需要在每次學(xué)新信息時交織所有現(xiàn)有信息,使其成為一個生物學(xué)意義上不可信且耗時的過程。最近,有研究表明FIL可能并非必需,僅交錯與新內(nèi)容具有實質(zhì)表征相似性的舊內(nèi)容,即采用相似性加權(quán)交錯學(xué)習(xí)(SWIL)的方法可以達到相同的學(xué)習(xí)效果。然而,有人對SWIL的可擴展性表示了擔(dān)憂。

本文擴展了SWIL算法,并基于不同的數(shù)據(jù)集(Fashion-MNIST、CIFAR10 和 CIFAR100)和神經(jīng)網(wǎng)絡(luò)模型(深度線性網(wǎng)絡(luò)和CNN)對其進行了測試。在所有條件下,與部分交錯學(xué)習(xí)(PIL)相比,相似性加權(quán)交錯學(xué)習(xí)(SWIL)和等權(quán)交錯學(xué)習(xí)(EqWIL)在學(xué)習(xí)新類別方面的表現(xiàn)更好。這和作者團隊的預(yù)期相符,因為與舊類別相比,SWIL和EqWIL增加了新類別的相對頻率。

本文同時還證明,與同等子抽樣現(xiàn)有類別(即EqWIL方法)相比,仔細選擇和交織相似內(nèi)容減少了對相近舊類別的災(zāi)難性干擾。在預(yù)測新類別和現(xiàn)有類別方面,SWIL的性能與FIL類似,卻顯著加快了學(xué)習(xí)新內(nèi)容的速度(圖7D),同時大大減少了所需的訓(xùn)練數(shù)據(jù)。SWIL可以在序列學(xué)習(xí)框架中學(xué)習(xí)新類別,進一步證明了其泛化能力。

最后,與許多舊類別具有相似性的新類別相比,如果其與之前學(xué)過的類別重疊更少(距離更大),可以縮短集成時間,并且數(shù)據(jù)效率更高。總體來說,實驗結(jié)果提供了一種可能的見解,即大腦事實上通過減少不切實際的訓(xùn)練時間,克服了原始CLST模型的一項主要弱點。?

責(zé)任編輯:未麗燕 來源: 大數(shù)據(jù)文摘
相關(guān)推薦

2022-07-04 18:33:40

深度學(xué)習(xí)人工智能科學(xué)

2020-03-20 14:40:48

數(shù)據(jù)科學(xué)Python學(xué)習(xí)

2022-04-24 14:05:02

人工智能深度學(xué)習(xí)量化

2017-08-21 17:25:57

數(shù)據(jù)科學(xué)家深度學(xué)習(xí)計算機視覺

2022-06-17 10:55:47

AI考古

2012-12-06 15:36:55

CIO

2022-08-24 10:57:38

深度學(xué)習(xí)人工智能

2017-08-04 15:53:10

大數(shù)據(jù)真?zhèn)螖?shù)據(jù)科學(xué)家

2018-10-18 09:00:00

機器學(xué)習(xí)機器學(xué)習(xí)算法數(shù)據(jù)科學(xué)家

2018-03-27 11:02:55

2018-01-25 14:19:32

深度學(xué)習(xí)數(shù)據(jù)科學(xué)遷移學(xué)習(xí)

2024-04-25 16:01:17

機器學(xué)習(xí)人工智能

2022-06-09 11:01:25

計算機機器學(xué)習(xí)模型

2019-11-17 22:40:35

AI 數(shù)據(jù)人工智能

2020-07-19 15:17:41

機器學(xué)習(xí)技術(shù)工程師

2020-03-13 14:13:48

機器學(xué)習(xí)數(shù)據(jù)科學(xué)編程

2021-03-29 11:52:08

人工智能深度學(xué)習(xí)

2018-12-24 08:37:44

數(shù)據(jù)科學(xué)家數(shù)據(jù)模型

2022-11-03 14:13:24

騰訊科學(xué)家

2020-07-06 09:57:57

編程語言數(shù)據(jù)Python
點贊
收藏

51CTO技術(shù)棧公眾號

中文字幕中文字幕中文字幕亚洲无线| 日韩av大片| 精品久久久在线观看| 欧美日韩一区在线观看视频| 波多野结衣绝顶大高潮| 成人网18免费网站| 精品久久免费看| 浮妇高潮喷白浆视频| 国产午夜在线观看| 国产伦精品一区二区三区免费迷| 久久久久久香蕉网| 国产又粗又黄又猛| 99亚洲乱人伦aⅴ精品| 色哟哟在线观看一区二区三区| 先锋影音一区二区三区| 国产黄色片免费观看| 久久av一区| 久久影视电视剧免费网站清宫辞电视 | 午夜精品久久久久久久久久久| 欧美一区二区影视| 亚洲春色一区二区三区| 免费观看在线综合色| 欧美激情在线一区| 五月天免费网站| 婷婷精品在线观看| 日韩视频一区二区三区在线播放| 久久精品99国产| 丁香花在线电影| 最新欧美精品一区二区三区| 欧美18视频| 人人妻人人澡人人爽人人欧美一区 | 国产精品你懂的在线| 精品一区二区视频| www.精品久久| 精品在线一区二区三区| 国产精品大片wwwwww| 久久丫精品久久丫| 99久久亚洲精品| 在线观看国产精品日韩av| 中文字幕一区二区人妻电影丶| 在线视频成人| 欧美麻豆精品久久久久久| 国内外免费激情视频| 欧洲一区精品| 婷婷六月综合网| 成人免费性视频| 怡红院在线观看| 亚洲另类在线视频| 色乱码一区二区三区熟女| lutube成人福利在线观看| 91影院在线免费观看| 国产精品日韩一区二区三区| 亚洲性生活大片| 免费观看30秒视频久久| 国产精品伦子伦免费视频| 老熟妇一区二区三区| 免费欧美日韩| 国产精品com| 日韩欧美国产另类| 男男视频亚洲欧美| 国产一区二区丝袜高跟鞋图片| 中文在线资源天堂| 美女性感视频久久| 成人欧美一区二区三区在线| 国产精品久久久久久免费播放| 免费高清成人在线| 成人欧美在线观看| 国产区精品在线| 国产精品18久久久久久vr| 97人人模人人爽人人少妇| 亚洲欧美激情另类| 99久久99久久久精品齐齐| 精品久久精品久久| 精品欧美不卡一区二区在线观看 | 日本一区二区三区在线视频| eeuss影院www在线观看| 中文字幕一区二区三区精华液| 中文字幕乱码免费| 国产一线二线在线观看| 午夜电影一区二区| 精品少妇无遮挡毛片| 亚洲色图综合| 亚洲国产99精品国自产| 国产夫妻性爱视频| 欧美残忍xxxx极端| 欧美黑人一级爽快片淫片高清| 欧美一级视频免费观看| 免费在线观看一区二区三区| 成人激情免费在线| 天堂在线视频免费观看| 国产午夜久久久久| 免费在线观看污污视频| 第一中文字幕在线| 欧洲色大大久久| 不卡的一区二区| 男男gay无套免费视频欧美| 中文字幕在线看视频国产欧美| 日韩视频中文字幕在线观看| 亚洲深夜影院| 91精品久久久久久久久中文字幕| 刘亦菲毛片一区二区三区| 国产亚洲欧美日韩在线一区| 99精品一区二区三区的区别| 中文字幕一区久| 欧美一级视频精品观看| 蜜桃av免费看| 国精品一区二区三区| 国产精品久久久久久久电影| 免费看国产片在线观看| 国产精品久久毛片| jizzjizzxxxx| 日韩中文在线| 日韩亚洲精品电影| 国产一级片毛片| 国产成人午夜精品5599| 亚洲高清视频一区二区| 色是在线视频| 欧美sm美女调教| 日韩激情小视频| 视频在线在亚洲| 国产精品久久久久久久免费大片| 99中文字幕一区| 色婷婷综合五月| 艳妇乳肉豪妇荡乳xxx| 99久久久久国产精品| 国产精品h片在线播放| 五月婷婷六月丁香| 一级做a爱片久久| 九一精品久久久| 精品美女视频| 欧美一级在线亚洲天堂| 好吊色一区二区| 亚洲最大的成人av| 亚洲一级片av| 婷婷亚洲综合| 成人h猎奇视频网站| 高清福利在线观看| 色素色在线综合| 毛茸茸多毛bbb毛多视频| 尹人成人综合网| 99三级在线| 午夜av在线播放| 91精品欧美福利在线观看| 麻豆一区在线观看| 青青草国产精品97视觉盛宴| 欧美三日本三级少妇三99| 在线观看涩涩| 亚洲成人xxx| 亚洲精品在线观看av| 国产成人在线免费观看| 先锋影音男人资源| 视频一区日韩| 久久久久久久久久国产精品| 国产高清视频免费| 一卡二卡三卡日韩欧美| 这里只有精品在线观看视频| 在线亚洲精品| 欧美日韩在线精品一区二区三区| 欧美片第一页| 中日韩美女免费视频网址在线观看| 久久国产乱子伦精品| 国产精品丝袜一区| 污污的视频免费| 亚洲一区二区| 国产亚洲二区| 日韩福利一区| 在线看片第一页欧美| 亚洲一区二区三区网站| 亚洲伦在线观看| 白嫩情侣偷拍呻吟刺激| 先锋影音国产一区| 日韩欧美精品在线不卡 | 亚洲毛片av| 欧美人与物videos另类| 男女啪啪999亚洲精品| 毛片精品免费在线观看| 成人免费视频国产| 色综合久久精品| 网爆门在线观看| 国产精品乡下勾搭老头1| 国产女主播自拍| 欧美精品羞羞答答| 91视频九色网站| ririsao久久精品一区| 亚洲片在线资源| 国产乱淫a∨片免费视频| 一区2区3区在线看| 无码人妻丰满熟妇啪啪欧美| 国产精品18久久久久久久久| 成人午夜视频免费在线观看| 亚洲电影影音先锋| 久久亚裔精品欧美| 亚洲成人精品综合在线| 97色在线观看免费视频| 18视频免费网址在线观看| 日韩欧美电影一二三| 伊人久久久久久久久久久久 | 亚洲免费一区三区| 欧美综合一区第一页| 操你啦视频在线| 精品网站999www| 国产精品系列视频| 色综合天天综合在线视频| 中日韩一级黄色片| 久久新电视剧免费观看| 日日夜夜精品视频免费观看| 亚洲日本久久| 中文字幕一区二区三区四区五区人 | 久久久久香蕉视频| 国产精品污污网站在线观看 | 久久1电影院| 成人黄色中文字幕| 国产成人免费9x9x人网站视频 | 亚洲天堂影视av| 亚洲爱爱综合网| 欧美人狂配大交3d怪物一区| 中文字幕超碰在线| 亚洲制服丝袜av| 秋霞欧美一区二区三区视频免费| 久久夜色精品国产噜噜av| 在线观看你懂的视频| 激情综合网av| 亚洲 欧美 另类人妖| 欧美一级网站| 国产一区二区网| 黄色一区二区三区四区| 日本一级淫片演员| 久久久综合色| 亚洲精品一区二区三区蜜桃久| 亚洲人成网站77777在线观看| 国产高清不卡av| 91在线一区| 亚洲在线观看视频网站| 日日夜夜综合| 国产精品美女www| 99久久er| 国产精品露脸自拍| 久久影视精品| 国产在线高清精品| 国产成人精品一区二区三区免费| 国产成人精品一区二区在线| 成人免费看视频网站| 欧美又大粗又爽又黄大片视频| www成人免费观看| 亚州精品天堂中文字幕| 91禁在线看| 91精品国产自产91精品| 中文字幕 在线观看| 青草青草久热精品视频在线观看| 免费毛片b在线观看| 456国产精品| 二区三区不卡| 国产精品电影在线观看| 成人免费在线观看视频| 国产日产亚洲精品| japansex久久高清精品| 亚洲va男人天堂| 99精品在免费线中文字幕网站一区| 成人免费在线看片| 欧美人妖在线观看| 欧美极品视频一区二区三区| 国产伦精品一区二区三区千人斩 | 中文字幕一区二区三区在线视频| 黄色一级片av| 亚洲久久成人| 妓院一钑片免看黄大片| 美女在线视频一区| 天天操夜夜操很很操| 不卡区在线中文字幕| 一级特级黄色片| 中文字幕欧美激情| 男人操女人的视频网站| 午夜激情久久久| 中文字幕第三页| 日韩欧美国产综合在线一区二区三区| 日韩一级片免费| 国产一区二区三区直播精品电影| 一级毛片视频在线| 欧美黑人巨大精品一区二区| 亚洲精品中文字幕| 成人免费在线视频网站| 白嫩白嫩国产精品| 日韩欧美99| 欧美三级不卡| 中文字幕第36页| 国产不卡高清在线观看视频| 国产色视频一区二区三区qq号| 国产精品久久久久久一区二区三区| 欧美日韩大片在线观看| 色老综合老女人久久久| 国产aⅴ爽av久久久久成人| 日韩成人在线电影网| 黄色网页在线免费看| 91国产精品91| 国产一区二区三区精品在线观看| 久久精品国产99精品国产亚洲性色| 成人精品天堂一区二区三区| 国产自产在线视频| 紧缚奴在线一区二区三区| 漂亮人妻被黑人久久精品| 国产精品国产三级国产专播品爱网| 久久精品免费av| 欧美二区三区的天堂| 欧美成人免费| 性欧美xxxx视频在线观看| 亚洲国产精选| 欧美亚洲免费在线| 亚洲小说欧美另类社区| 热久久久久久久久| 国产性天天综合网| 国产精品久久久久久99| 日韩欧美一二三四区| 91青青在线视频| 国产91精品久久久久久| 日日夜夜精品视频| 亚洲一区3d动漫同人无遮挡| 亚洲欧美日韩国产| 日本性生活一级片| 亚洲欧美另类小说视频| 国产91av在线播放| 亚洲欧美国产日韩天堂区| av资源网在线播放| 99国产高清| 91精品国产91久久综合| 中文字幕第100页| 国产校园另类小说区| 黄色片网站在线免费观看| 欧美精品一区二区三区很污很色的| 男人和女人做事情在线视频网站免费观看| 欧美一级淫片aaaaaaa视频| 麻豆视频一区| av免费观看大全| 不卡大黄网站免费看| 久久精品国产亚洲AV无码男同 | 成人在线视频网| 成人3d精品动漫精品一二三| 国产精品少妇在线视频| 久久综合精品国产一区二区三区| 欧美一二三区视频| 亚洲精品久久久久久下一站 | 欧美日韩mv| 国产成人av免费观看| 亚洲精品久久久久久国产精华液| 97在线公开视频| 久久国产精品久久国产精品| 精品国模一区二区三区欧美| 蜜臀av.com| 国产99久久久国产精品免费看 | 国产原创在线观看| 成人在线观看视频网站| 午夜精品免费| 99热超碰在线| 福利视频导航一区| 日本私人网站在线观看| 国产精品第3页| 91欧美在线| 日韩av成人网| 午夜a成v人精品| 日韩欧美电影在线观看| 国产成人在线一区二区| 成人在线免费观看网站| 国产传媒免费观看| 亚洲伊人伊色伊影伊综合网| 天堂中文在线官网| 国产精品扒开腿爽爽爽视频| 99久久精品网站| 国模私拍在线观看| 色噜噜久久综合| 黄色在线播放网站| 国产经典一区二区三区 | 中文国产在线观看| 亚洲自拍偷拍九九九| 日本又骚又刺激的视频在线观看| 国产脚交av在线一区二区| 欧美gayvideo| 91精品又粗又猛又爽| 99久久精品国产亚洲| 日韩成人在线播放| 色猫猫成人app| 国产精品一二三在线观看| 成人aa视频在线观看| 精人妻无码一区二区三区| 久久偷看各类女兵18女厕嘘嘘| 韩国精品福利一区二区三区| 久久精品视频91| 亚洲综合久久久久| 九九在线视频| 97人人做人人人难人人做| 久久精品麻豆| 亚洲最大的黄色网址| 日韩精品免费综合视频在线播放| www.26天天久久天堂| 天堂v在线视频| www国产亚洲精品久久麻豆| 中文永久免费观看| 成人444kkkk在线观看| 国产精品宾馆| 手机av在线免费| 精品久久久久久亚洲精品| 成视频免费观看在线看|