精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

如何一步一步提高圖像分類準(zhǔn)確率?

人工智能 深度學(xué)習(xí)
本文介紹的調(diào)參歷程,希望能幫助到大家,聽說過這么一句話,“讀研期間學(xué)習(xí)人工智能,什么都不用學(xué),學(xué)好調(diào)參就行了”,而“調(diào)參”二字卻包含著無數(shù)的知識,希望大家能多分享神經(jīng)網(wǎng)絡(luò)相關(guān)的干貨。

 [[205151]]

一、問題描述

當(dāng)我們在處理圖像識別或者圖像分類或者其他機(jī)器學(xué)習(xí)任務(wù)的時(shí)候,我們總是迷茫于做出哪些改進(jìn)能夠提升模型的性能(識別率、分類準(zhǔn)確率)。。。或者說我們在漫長而苦惱的調(diào)參過程中到底調(diào)的是哪些參數(shù)。。。所以,我花了一部分時(shí)間在公開數(shù)據(jù)集CIFAR-10 [1] 上進(jìn)行探索,來總結(jié)出一套方法能夠快速高效并且有目的性地進(jìn)行網(wǎng)絡(luò)訓(xùn)練和參數(shù)調(diào)整。

CIFAR-10數(shù)據(jù)集有60000張圖片,每張圖片均為分辨率為32*32的彩色圖片(分為RGB3個(gè)信道)。CIFAR-10的分類任務(wù)是將每張圖片分成青蛙、卡車、飛機(jī)等10個(gè)類別中的一個(gè)類別。本文主要使用基于卷積神經(jīng)網(wǎng)絡(luò)的方法(CNN)來設(shè)計(jì)模型,完成分類任務(wù)。

首先,為了能夠在訓(xùn)練網(wǎng)絡(luò)的同時(shí)能夠檢測網(wǎng)絡(luò)的性能,我對數(shù)據(jù)集進(jìn)行了訓(xùn)練集/驗(yàn)證集/測試集的劃分。訓(xùn)練集主要用戶進(jìn)行模型訓(xùn)練,驗(yàn)證集主要進(jìn)行參數(shù)調(diào)整,測試集主要進(jìn)行模型性能的評估。因此,我將60000個(gè)樣本的數(shù)據(jù)集分成了,45000個(gè)樣本作為訓(xùn)練集,5000個(gè)樣本作為驗(yàn)證集,10000個(gè)樣本作為測試集。接下來,我們一步步來分析,如果進(jìn)行模型設(shè)計(jì)和改進(jìn)。

二、搭建最簡單版本的CNN

對于任何的機(jī)器學(xué)習(xí)問題,我們一上來肯定是采用最簡單的模型,一方面能夠快速地run一個(gè)模型,以了解這個(gè)任務(wù)的難度,另一方面能夠有一個(gè)baseline版本的模型,利于進(jìn)行對比實(shí)驗(yàn)。所以,我按照以往經(jīng)驗(yàn)和網(wǎng)友的推薦,設(shè)計(jì)了以下的模型。

模型的輸入數(shù)據(jù)是網(wǎng)絡(luò)的輸入是一個(gè)4維tensor,尺寸為(128, 32, 32, 3),分別表示一批圖片的個(gè)數(shù)128、圖片的寬的像素點(diǎn)個(gè)數(shù)32、高的像素點(diǎn)個(gè)數(shù)32和信道個(gè)數(shù)3。首先使用多個(gè)卷積神經(jīng)網(wǎng)絡(luò)層進(jìn)行圖像的特征提取,卷積神經(jīng)網(wǎng)絡(luò)層的計(jì)算過程如下步驟:

  1. 卷積層1:卷積核大小3*3,卷積核移動(dòng)步長1,卷積核個(gè)數(shù)64,池化大小2*2,池化步長2,池化類型為最大池化,激活函數(shù)ReLU。
  2. 卷積層2:卷積核大小3*3,卷積核移動(dòng)步長1,卷積核個(gè)數(shù)128,池化大小2*2,池化步長2,池化類型為最大池化,激活函數(shù)ReLU。
  3. 卷積層3:卷積核大小3*3,卷積核移動(dòng)步長1,卷積核個(gè)數(shù)256,池化大小2*2,池化步長2,池化類型為最大池化,激活函數(shù)ReLU。
  4. 全連接層:隱藏層單元數(shù)1024,激活函數(shù)ReLU。
  5. 分類層:隱藏層單元數(shù)10,激活函數(shù)softmax。

參數(shù)初始化,所有權(quán)重矩陣使用random_normal(0.0, 0.001),所有偏置向量使用constant(0.0)。使用cross entropy作為目標(biāo)函數(shù),使用Adam梯度下降法進(jìn)行參數(shù)更新,學(xué)習(xí)率設(shè)為固定值0.001。

該網(wǎng)絡(luò)是一個(gè)有三層卷積層的神經(jīng)網(wǎng)絡(luò),能夠快速地完成圖像地特征提取。全連接層用于將圖像特征整合成分類特征,分類層用于分類。cross entropy也是最常用的目標(biāo)函數(shù)之一,分類任務(wù)使用cross entropy作為目標(biāo)函數(shù)非常適合。Adam梯度下降法也是現(xiàn)在非常流行的梯度下降法的改進(jìn)方法之一,學(xué)習(xí)率過大會(huì)導(dǎo)致模型難以找到較優(yōu)解,設(shè)置過小則會(huì)降低模型訓(xùn)練效率,因此選擇適中的0.001。這樣,我們最基礎(chǔ)版本的CNN模型就已經(jīng)搭建好了,接下來進(jìn)行訓(xùn)練和測試以觀察結(jié)果。

訓(xùn)練5000輪,觀察到loss變化曲線、訓(xùn)練集準(zhǔn)確率變化曲線和驗(yàn)證集準(zhǔn)確率變化曲線如下圖。測試集準(zhǔn)確率為69.36%。

結(jié)果分析:首先我們觀察訓(xùn)練loss(目標(biāo)函數(shù)值)變化,剛開始loss從200不斷減小到接近0,但是在100輪左右開始出現(xiàn)震蕩,并且隨著訓(xùn)練幅度越來越大,說明模型不穩(wěn)定。然后觀察訓(xùn)練集和驗(yàn)證集的準(zhǔn)確率,發(fā)現(xiàn)訓(xùn)練集準(zhǔn)確率接近于1,驗(yàn)證集準(zhǔn)確率穩(wěn)定在70%左右,說明模型的泛化能力不強(qiáng)并且出現(xiàn)了過擬合情況。最后評估測試集,發(fā)現(xiàn)準(zhǔn)確率為69.36%,也沒有達(dá)到很滿意的程度,說明我們對模型需要進(jìn)行很大的改進(jìn),接下來進(jìn)行漫長的調(diào)參之旅吧!

三、數(shù)據(jù)增強(qiáng)有很大的作用

使用數(shù)據(jù)增強(qiáng)技術(shù)(data augmentation),主要是在訓(xùn)練數(shù)據(jù)上增加微小的擾動(dòng)或者變化,一方面可以增加訓(xùn)練數(shù)據(jù),從而提升模型的泛化能力,另一方面可以增加噪聲數(shù)據(jù),從而增強(qiáng)模型的魯棒性。主要的數(shù)據(jù)增強(qiáng)方法有:翻轉(zhuǎn)變換 flip、隨機(jī)修剪(random crop)、色彩抖動(dòng)(color jittering)、平移變換(shift)、尺度變換(scale)、對比度變換(contrast)、噪聲擾動(dòng)(noise)、旋轉(zhuǎn)變換/反射變換 (rotation/reflection)等,可以參考Keras的官方文檔 [2] 。獲取一個(gè)batch的訓(xùn)練數(shù)據(jù),進(jìn)行數(shù)據(jù)增強(qiáng)步驟之后再送入網(wǎng)絡(luò)進(jìn)行訓(xùn)練。

我主要做的數(shù)據(jù)增強(qiáng)操作有如下方面:

  1. 圖像切割:生成比圖像尺寸小一些的矩形框,對圖像進(jìn)行隨機(jī)的切割,最終以矩形框內(nèi)的圖像作為訓(xùn)練數(shù)據(jù)。
  2. 圖像翻轉(zhuǎn):對圖像進(jìn)行左右翻轉(zhuǎn)。
  3. 圖像白化:對圖像進(jìn)行白化操作,即將圖像本身歸一化成Gaussian(0,1)分布。

為了進(jìn)行對比實(shí)驗(yàn),觀測不同數(shù)據(jù)增強(qiáng)方法的性能,實(shí)驗(yàn)1只進(jìn)行圖像切割,實(shí)驗(yàn)2只進(jìn)行圖像翻轉(zhuǎn),實(shí)驗(yàn)3只進(jìn)行圖像白化,實(shí)驗(yàn)4同時(shí)進(jìn)行這三種數(shù)據(jù)增強(qiáng)方法,同樣訓(xùn)練5000輪,觀察到loss變化曲線、訓(xùn)練集準(zhǔn)確率變化曲線和驗(yàn)證集準(zhǔn)確率變化曲線對比如下圖。

結(jié)果分析:我們觀察訓(xùn)練曲線和驗(yàn)證曲線,很明顯地發(fā)現(xiàn)圖像白化的效果好,其次是圖像切割,再次是圖像翻轉(zhuǎn),而如果同時(shí)使用這三種數(shù)據(jù)增強(qiáng)技術(shù),不僅能使訓(xùn)練過程的loss更穩(wěn)定,而且能使驗(yàn)證集的準(zhǔn)確率提升至82%左右,提升效果十分明顯。而對于測試集,準(zhǔn)確率也提升至80.42%。說明圖像增強(qiáng)確實(shí)通過增加訓(xùn)練集數(shù)據(jù)量達(dá)到了提升模型泛化能力以及魯棒性的效果,從準(zhǔn)確率上看也帶來了將近10%左右的提升,因此,數(shù)據(jù)增強(qiáng)確實(shí)有很大的作用。但是對于80%左右的識別準(zhǔn)確率我們還是不夠滿意,接下來繼續(xù)調(diào)參。

四、從模型入手,使用一些改進(jìn)方法

接下來的步驟是從模型角度進(jìn)行一些改進(jìn),這方面的改進(jìn)是誕生論文的重要區(qū)域,由于某一個(gè)特定問題對某一個(gè)模型的改進(jìn)千變?nèi)f化,沒有辦法全部去嘗試,因此一般會(huì)實(shí)驗(yàn)一些general的方法,比如批正則化(batch normalization)、權(quán)重衰減(weight decay)。我這里實(shí)驗(yàn)了4種改進(jìn)方法,接下來依次介紹。

  1. 權(quán)重衰減(weight decay):對于目標(biāo)函數(shù)加入正則化項(xiàng),限制權(quán)重參數(shù)的個(gè)數(shù),這是一種防止過擬合的方法,這個(gè)方法其實(shí)就是機(jī)器學(xué)習(xí)中的l2正則化方法,只不過在神經(jīng)網(wǎng)絡(luò)中舊瓶裝新酒改名為weight decay [3]。
  2. dropout:在每次訓(xùn)練的時(shí)候,讓某些的特征檢測器停過工作,即讓神經(jīng)元以一定的概率不被激活,這樣可以防止過擬合,提高泛化能力 [4]。
  3. 批正則化(batch normalization):batch normalization對神經(jīng)網(wǎng)絡(luò)的每一層的輸入數(shù)據(jù)都進(jìn)行正則化處理,這樣有利于讓數(shù)據(jù)的分布更加均勻,不會(huì)出現(xiàn)所有數(shù)據(jù)都會(huì)導(dǎo)致神經(jīng)元的激活,或者所有數(shù)據(jù)都不會(huì)導(dǎo)致神經(jīng)元的激活,這是一種數(shù)據(jù)標(biāo)準(zhǔn)化方法,能夠提升模型的擬合能力 [5]。
  4. LRN:LRN層模仿生物神經(jīng)系統(tǒng)的側(cè)抑制機(jī)制,對局部神經(jīng)元的活動(dòng)創(chuàng)建競爭機(jī)制,使得響應(yīng)比較大的值相對更大,提高模型泛化能力。

為了進(jìn)行對比實(shí)驗(yàn),實(shí)驗(yàn)1只使用權(quán)重衰減,實(shí)驗(yàn)2使用權(quán)重衰減+dropout,實(shí)驗(yàn)3使用權(quán)重衰減+dropout+批正則化,實(shí)驗(yàn)4使用權(quán)重衰減+dropout+批正則化+LRN,同樣都訓(xùn)練5000輪,觀察到loss變化曲線、訓(xùn)練集準(zhǔn)確率變化曲線和驗(yàn)證集準(zhǔn)確率變化曲線對比如下圖。

結(jié)果分析:我們觀察訓(xùn)練曲線和驗(yàn)證曲線,隨著每一個(gè)模型提升的方法,都會(huì)使訓(xùn)練集誤差和驗(yàn)證集準(zhǔn)確率有所提升,其中,批正則化技術(shù)和dropout技術(shù)帶來的提升非常明顯,而如果同時(shí)使用這些模型提升技術(shù),會(huì)使驗(yàn)證集的準(zhǔn)確率從82%左右提升至88%左右,提升效果十分明顯。而對于測試集,準(zhǔn)確率也提升至85.72%。我們再注意看左圖,使用batch normalization之后,loss曲線不再像之前會(huì)出現(xiàn)先下降后上升的情況,而是一直下降,這說明batch normalization技術(shù)可以加強(qiáng)模型訓(xùn)練的穩(wěn)定性,并且能夠很大程度地提升模型泛化能力。所以,如果能提出一種模型改進(jìn)技術(shù)并且從原理上解釋同時(shí)也使其適用于各種模型,那么就是非常好的創(chuàng)新點(diǎn),也是我想挑戰(zhàn)的方向。現(xiàn)在測試集準(zhǔn)確率提升至85%左右,接下來我們從其他的角度進(jìn)行調(diào)參。

五、變化的學(xué)習(xí)率,進(jìn)一步提升模型性能

在很多關(guān)于神經(jīng)網(wǎng)絡(luò)的論文中,都采用了變化學(xué)習(xí)率的技術(shù)來提升模型性能,大致的想法是這樣的:

  1. 首先使用較大的學(xué)習(xí)率進(jìn)行訓(xùn)練,觀察目標(biāo)函數(shù)值和驗(yàn)證集準(zhǔn)確率的收斂曲線。
  2. 如果目標(biāo)函數(shù)值下降速度和驗(yàn)證集準(zhǔn)確率上升速度出現(xiàn)減緩時(shí),減小學(xué)習(xí)率。
  3. 循環(huán)步驟2,直到減小學(xué)習(xí)率也不會(huì)影響目標(biāo)函數(shù)下降或驗(yàn)證集準(zhǔn)確率上升為止。

為了進(jìn)行對比實(shí)驗(yàn),實(shí)驗(yàn)1只使用0.01的學(xué)習(xí)率訓(xùn)練,實(shí)驗(yàn)2前10000個(gè)batch使用0.01的學(xué)習(xí)率,10000個(gè)batch之后學(xué)習(xí)率降到0.001,實(shí)驗(yàn)3前10000個(gè)batch使用0.01的學(xué)習(xí)率,10000~20000個(gè)batch使用0.001的學(xué)習(xí)率,20000個(gè)batch之后學(xué)習(xí)率降到0.0005。同樣都訓(xùn)練5000輪,觀察到loss變化曲線、訓(xùn)練集準(zhǔn)確率變化曲線和驗(yàn)證集準(zhǔn)確率變化曲線對比如下圖。

結(jié)果分析:我們觀察到,當(dāng)10000個(gè)batch時(shí),學(xué)習(xí)率從0.01降到0.001時(shí),目標(biāo)函數(shù)值有明顯的下降,驗(yàn)證集準(zhǔn)確率有明顯的提升,而當(dāng)20000個(gè)batch時(shí),學(xué)習(xí)率從0.001降到0.0005時(shí),目標(biāo)函數(shù)值沒有明顯的下降,但是驗(yàn)證集準(zhǔn)確率有一定的提升,而對于測試集,準(zhǔn)確率也提升至86.24%。這說明,學(xué)習(xí)率的變化確實(shí)能夠提升模型的擬合能力,從而提升準(zhǔn)確率。學(xué)習(xí)率在什么時(shí)候進(jìn)行衰減、率減多少也需要進(jìn)行多次嘗試。一般在模型基本成型之后,使用這種變化的學(xué)習(xí)率的方法,以獲取一定的改進(jìn),精益求精。

六、加深網(wǎng)絡(luò)層數(shù),會(huì)發(fā)生什么事情?

現(xiàn)在深度學(xué)習(xí)大熱,所以,在計(jì)算資源足夠的情況下,想要獲得模型性能的提升,大家最常見打的想法就是增加網(wǎng)絡(luò)的深度,讓深度神經(jīng)網(wǎng)絡(luò)來解決問題,但是簡單的網(wǎng)絡(luò)堆疊不一定就能達(dá)到很好地效果,抱著深度學(xué)習(xí)的想法,我按照plain-cnn模型 [6],我做了接下來的實(shí)驗(yàn)。

  1. 卷積層1:卷積核大小3*3,卷積核移動(dòng)步長1,卷積核個(gè)數(shù)16,激活函數(shù)ReLU,使用batch_normal和weight_decay,接下來的n層,卷積核大小3*3,卷積核移動(dòng)步長1,卷積核個(gè)數(shù)16,激活函數(shù)ReLU,使用batch_normal和weight_decay。
  2. 卷積層2:卷積核大小3*3,卷積核移動(dòng)步長2,卷積核個(gè)數(shù)32,激活函數(shù)ReLU,使用batch_normal和weight_decay,接下來的n層,卷積核大小3*3,卷積核移動(dòng)步長1,卷積核個(gè)數(shù)32,激活函數(shù)ReLU,使用batch_normal和weight_decay。
  3. 卷積層3:卷積核大小3*3,卷積核移動(dòng)步長2,卷積核個(gè)數(shù)64,激活函數(shù)ReLU,使用batch_normal和weight_decay,接下來的n層,卷積核大小3*3,卷積核移動(dòng)步長1,卷積核個(gè)數(shù)64,激活函數(shù)ReLU,使用batch_normal和weight_decay。
  4. 池化層:使用全局池化,對64個(gè)隱藏單元分別進(jìn)行全局池化。
  5. 全連接層:隱藏層單元數(shù)10,激活函數(shù)softmax,使用batch_normal和weight_decay。

為了進(jìn)行對比實(shí)驗(yàn),進(jìn)行4組實(shí)驗(yàn),每組的網(wǎng)絡(luò)層數(shù)分別設(shè)置8,14,20和32。同樣都訓(xùn)練5000輪,觀察到loss變化曲線、訓(xùn)練集準(zhǔn)確率變化曲線和驗(yàn)證集準(zhǔn)確率變化曲線對比如下圖。

結(jié)果分析:我們驚訝的發(fā)現(xiàn),加深了網(wǎng)絡(luò)層數(shù)之后,性能反而下降了,達(dá)不到原來的驗(yàn)證集準(zhǔn)確率,網(wǎng)絡(luò)層數(shù)從8層增加到14層,準(zhǔn)確率有所上升,但從14層增加到20層再增加到32層,準(zhǔn)確率不升反降,這說明如果網(wǎng)絡(luò)層數(shù)過大,由于梯度衰減的原因,導(dǎo)致網(wǎng)絡(luò)性能下降,因此,需要使用其他方法解決梯度衰減問題,使得深度神經(jīng)網(wǎng)絡(luò)能夠正常work。

七、終極武器,殘差網(wǎng)絡(luò)

2015年,Microsoft用殘差網(wǎng)絡(luò) [7] 拿下了當(dāng)年的ImageNet,這個(gè)殘差網(wǎng)絡(luò)就很好地解決了梯度衰減的問題,使得深度神經(jīng)網(wǎng)絡(luò)能夠正常work。由于網(wǎng)絡(luò)層數(shù)加深,誤差反傳的過程中會(huì)使梯度不斷地衰減,而通過跨層的直連邊,可以使誤差在反傳的過程中減少衰減,使得深層次的網(wǎng)絡(luò)可以成功訓(xùn)練,具體的過程可以參見其論文[7]。

通過設(shè)置對比實(shí)驗(yàn),觀察殘差網(wǎng)絡(luò)的性能,進(jìn)行4組實(shí)驗(yàn),每組的網(wǎng)絡(luò)層數(shù)分別設(shè)置20,32,44和56。觀察到loss變化曲線和驗(yàn)證集準(zhǔn)確率變化曲線對比如下圖。


 

結(jié)果分析:我們觀察到,網(wǎng)絡(luò)從20層增加到56層,訓(xùn)練loss在穩(wěn)步降低,驗(yàn)證集準(zhǔn)確率在穩(wěn)步提升,并且當(dāng)網(wǎng)絡(luò)層數(shù)是56層時(shí)能夠在驗(yàn)證集上達(dá)到91.55%的準(zhǔn)確率。這說明,使用了殘差網(wǎng)絡(luò)的技術(shù),可以解決梯度衰減問題,發(fā)揮深層網(wǎng)絡(luò)的特征提取能力,使模型獲得很強(qiáng)的擬合能力和泛化能力。當(dāng)我們訓(xùn)練深度網(wǎng)絡(luò)的時(shí)候,殘差網(wǎng)絡(luò)很有可能作為終極武器發(fā)揮至關(guān)重要的作用。

八、總結(jié)

對于CIFAR-10圖像分類問題,我們從最簡單的卷積神經(jīng)網(wǎng)絡(luò)開始,分類準(zhǔn)確率只能達(dá)到70%左右,通過不斷地增加提升模型性能的方法,最終將分類準(zhǔn)確里提升到了90%左右,這20%的準(zhǔn)確率的提升來自于對數(shù)據(jù)的改進(jìn)、對模型的改進(jìn)、對訓(xùn)練過程的改進(jìn)等,具體每一項(xiàng)提升如下表所示。

  • 改進(jìn)方法 獲得準(zhǔn)確率 提升
  • 基本神經(jīng)網(wǎng)絡(luò) 69.36% –
  • +數(shù)據(jù)增強(qiáng) 80.42% 11.06%
  • +模型改進(jìn) 85.72% 16.36%
  • +變化學(xué)習(xí)率 86.24% 16.88%
  • +深度殘差網(wǎng)絡(luò) 91.55% 22.19%

其中,數(shù)據(jù)增強(qiáng)技術(shù)使用翻轉(zhuǎn)圖像、切割圖像、白化圖像等方法增加數(shù)據(jù)量,增加模型的擬合能力。模型改進(jìn)技術(shù)包括batch normalization、weight decay、dropout等防止過擬合,增加模型的泛化能力。變化學(xué)習(xí)率通過在訓(xùn)練過程中遞減學(xué)習(xí)率,使得模型能夠更好的收斂,增加模型的擬合能力。加深網(wǎng)絡(luò)層數(shù)和殘差網(wǎng)絡(luò)技術(shù)通過加深模型層數(shù)和解決梯度衰減問題,增加模型的擬合能力。這些改進(jìn)方法的一步步堆疊,一步步遞進(jìn),使得網(wǎng)絡(luò)的擬合能力和泛化能力越來越強(qiáng),最終獲得更高的分類準(zhǔn)確率。

本文的所有代碼見我的github,persistforever/cifar10-tensorflow

本文介紹的調(diào)參歷程,希望能幫助到大家,聽說過這么一句話,“讀研期間學(xué)習(xí)人工智能,什么都不用學(xué),學(xué)好調(diào)參就行了”,而“調(diào)參”二字卻包含著無數(shù)的知識,希望大家能多分享神經(jīng)網(wǎng)絡(luò)相關(guān)的干貨。

責(zé)任編輯:武曉燕 來源: 36大數(shù)據(jù)
相關(guān)推薦

2018-03-07 15:24:41

PythonMySQL

2022-08-29 15:19:09

CSS煙花動(dòng)畫

2009-07-06 19:29:37

云計(jì)算私有云服務(wù)器虛擬化

2012-03-22 10:33:33

思杰XenDesktop

2024-07-22 11:43:28

LVMPnetLab網(wǎng)絡(luò)

2017-08-24 08:31:41

2017-11-29 11:14:52

離線緩存URL協(xié)議緩存

2011-06-07 16:03:48

匿名SQL Server

2013-03-18 16:09:27

JavaEEOpenfire

2020-10-28 15:03:25

C+代碼開發(fā)

2017-07-15 21:10:58

CTOCEO技術(shù)

2020-02-26 08:00:02

14點(diǎn)遭遇真兇

2009-12-18 16:27:43

Cisco路由器配置

2022-09-30 15:37:19

Web網(wǎng)站服務(wù)器

2021-03-17 07:07:21

系統(tǒng)程序員SDI

2009-12-01 19:23:56

2009-11-27 14:23:33

2023-12-01 10:20:00

谷歌技術(shù)

2009-12-17 08:57:28

Windows 7磁盤分區(qū)

2010-07-12 17:10:23

Android應(yīng)用程序
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

99免费视频观看| 日韩久久不卡| 日本一级一片免费视频| 国产传媒欧美日韩成人精品大片| 精品视频一区二区不卡| 久久亚洲国产成人精品无码区| 午夜av免费在线观看| 日韩电影在线免费| 欧美日韩xxxxx| 蜜桃av免费看| 91精品国产乱码久久久竹菊| 色婷婷综合久久久中文一区二区 | 欧美激情免费看| 成人h动漫精品一区| 亚洲网站三级| 欧美午夜性色大片在线观看| 亚洲区成人777777精品| 青青国产在线| 国产高清不卡一区二区| 国产国产精品人在线视| 好吊色视频在线观看| 精品日本12videosex| 精品伦理精品一区| 亚洲免费999| 在线手机中文字幕| 一区二区三区在线观看国产| 日韩亚洲不卡在线| 亚洲欧洲视频在线观看| 国产一区二区三区黄视频| 日韩av电影中文字幕| 国产精品成人网站| 91精品国产福利在线观看麻豆| 国产视频久久久久| 最新版天堂资源在线| 国产一区二区高清在线| 欧美在线综合视频| 无码aⅴ精品一区二区三区浪潮| 色网在线观看| 亚洲欧洲日产国产综合网| 欧美婷婷久久| 色欲av永久无码精品无码蜜桃 | 美女久久久久久久久久| 国产毛片久久久| 日韩午夜av一区| 在线视频观看一区二区| 色噜噜成人av在线| 欧美日韩成人综合在线一区二区 | 极品尤物av久久免费看| 国产精品久久不能| 亚洲第一网站在线观看| 国产日韩亚洲欧美精品| 国内精品美女av在线播放| 男女做暖暖视频| 久久久久久免费视频| 在线播放精品一区二区三区 | 国产精品999| 国产精品久久久久久人| 久久福利一区| 国产97人人超碰caoprom| 中文字幕在线天堂| 日韩精品1区2区3区| 国产精品国语对白| 中文字幕在线观看视频一区| 久久国产日韩欧美精品| 成人激情免费在线| 99热这里只有精品在线观看| 国产乱人伦偷精品视频不卡| 亚洲专区国产精品| 国产小视频免费观看| 成人av免费在线播放| 久久五月天婷婷| 国产三级电影在线观看| 中文字幕欧美国产| 好色先生视频污| 欧美24videosex性欧美| 天天色图综合网| 国产第一页视频| 久久久久伊人| 日韩免费在线观看| free性中国hd国语露脸| 精品视频免费| 蜜月aⅴ免费一区二区三区| 欧美日韩国产精品综合 | 一区在线中文字幕| 国产成人亚洲综合无码| 白浆在线视频| 欧美中文一区二区三区| 亚洲一区二区中文字幕在线观看| 国产精品高潮粉嫩av| 欧美一级片中文字幕| 日韩精品一区二区三区av| 欧美日韩大陆一区二区| 欧美久久久久久久久久久| 欧美18免费视频| 亚洲最新在线视频| 久热这里有精品| 久久综合狠狠| 91在线免费看网站| 香蕉视频免费看| 国产精品狼人久久影院观看方式| 美女av免费观看| 日韩高清成人| 亚洲精品一线二线三线无人区| 国产精品无码一区二区三区| 91精品国产91久久久久久黑人| 97超碰色婷婷| 国产男女猛烈无遮挡| 91在线观看免费视频| 中文字幕一区二区三区在线乱码 | 日韩免费特黄一二三区| 欧美黑人xxx| 真实新婚偷拍xxxxx| 成人性生交大片免费看视频在线| 日本一区二区三区免费看| 成人影院在线看| 91福利在线看| av2014天堂网| 欧美精品啪啪| 国产精品一区二区久久久久| 天堂在线视频网站| 亚洲欧美视频在线观看| 国产自偷自偷免费一区| 精品淫伦v久久水蜜桃| 久久精品中文字幕一区| 亚洲 国产 日韩 欧美| 成人一级视频在线观看| 日韩视频在线免费播放| 少妇精品视频一区二区免费看| 精品久久国产字幕高潮| 日本高清一二三区| 美国十次了思思久久精品导航| 久久一区二区三区欧美亚洲| 成人手机在线播放| av中文字幕播放| 中文乱码免费一区二区| 激情婷婷综合网| 人体久久天天| 91精品国产色综合久久不卡98口 | 自拍一区在线观看| 亚洲第一偷拍网| 久久久久久久极品内射| 国内成+人亚洲+欧美+综合在线| 日韩精品国内| 3d欧美精品动漫xxxx无尽| 亚洲女人初尝黑人巨大| xxxx.国产| 91蜜桃网址入口| 国产91在线视频观看| 久久狠狠久久| 91精品国产91久久久久福利| 日韩在线观看视频一区| 亚洲国产一区二区视频| 丰满岳乱妇一区二区 | 激情内射人妻1区2区3区| 日韩成人午夜| 日本高清视频一区| 欧美捆绑视频| 欧美性感一类影片在线播放| 日本猛少妇色xxxxx免费网站| 青青国产91久久久久久| 亚洲国产婷婷香蕉久久久久久99 | 俄罗斯精品一区二区三区| 人妖欧美1区| 亚洲精品一线二线三线| 伊人手机在线视频| 中文字幕精品一区二区精品绿巨人| 国产一级特黄a大片免费| 菠萝蜜一区二区| 91精品视频在线| 国精一区二区三区| 精品视频在线播放色网色视频| 91精品国产综合久久久蜜臀九色| 国产欧美一区二区在线观看| 国产乱女淫av麻豆国产| 最新精品国产| 精品人伦一区二区三区| 日韩高清中文字幕一区二区| 综合欧美国产视频二区| 国产高潮在线观看| 婷婷综合在线观看| 天天干天天舔天天操| 国产原创一区二区三区| 全黄性性激高免费视频| 欧美大黑帍在线播放| 精品无人乱码一区二区三区| www.99久久热国产日韩欧美.com| 不卡视频在线播放| 色综合色狠狠综合色| 午夜国产小视频| 99久久精品免费| 天天干天天草天天| 黄色日韩在线| 亚洲二区三区四区| 2020国产精品极品色在线观看| 欧美一区二区三区免费视| 中文日本在线观看| 亚洲国产精品电影| 一区二区三区亚洲视频| 午夜精品福利一区二区三区av| 夜夜春很很躁夜夜躁| 国产高清不卡一区二区| 日本熟妇人妻中出| 激情综合电影网| 亚洲精品视频一区二区三区| 伊人精品综合| 国产欧美婷婷中文| 国产网红女主播精品视频| 亚洲视频视频在线| 国精产品乱码一区一区三区四区| 欧美在线三级电影| 91九色丨porny丨肉丝| 亚洲视频中文字幕| 精品国产aaa| 91在线视频18| 9.1在线观看免费| 久久机这里只有精品| 国产精品亚洲a| 99日韩精品| 日本黄色片一级片| 我不卡手机影院| 亚洲国产日韩综合一区| 中文字幕av一区二区三区人| 国产福利久久精品| 国产精品国产亚洲精品| 国产精品美女网站| 成人爽a毛片免费啪啪| 欧美激情一二区| 成人免费观看视频大全| 色噜噜久久综合伊人一本| 免费黄色在线视频网站| 日韩精品视频在线播放| 懂色av蜜臀av粉嫩av分享吧| 91精品国产91综合久久蜜臀| 中文天堂在线播放| 精品视频在线看| 特级西西444www高清大视频| 欧美性猛交xxxx乱大交| 国产网址在线观看| 亚洲午夜精品网| 久久久精品视频在线| 亚洲精品视频在线观看免费| 91老司机在线| 高潮一区二区三区乱码| 日韩手机在线导航| 精品国产九九九| 精品欧美乱码久久久久久1区2区| 国产同性人妖ts口直男| 91精品国产综合久久婷婷香蕉 | 日本不卡二区高清三区| 亚洲精品亚洲人成在线| 免费久久99精品国产自| 免费久久精品| 日韩尤物视频| 99久久久久国产精品| 波多野结衣三级在线| 亚洲欧洲中文字幕| 999久久欧美人妻一区二区| 国产精品chinese| 阿v天堂2018| 国产精品毛片一区二区三区| 欧美黄网站在线观看| 丝袜诱惑亚洲看片 | 国产福利一区在线| 美女流白浆视频| 本田岬高潮一区二区三区| 色婷婷精品久久二区二区密| 99精品久久久久久| 亚洲人成人无码网www国产| 亚洲国产精品av| fc2ppv在线播放| 亚洲风情在线资源站| 在线视频一区二区三区四区| 欧美性极品少妇| 午夜精品久久久久久久99热黄桃 | 在线观看精品一区| 亚洲一区二区视频在线播放| 欧美一区二区三区不卡| 内射后入在线观看一区| 亚洲人午夜色婷婷| 欧美日韩视频在线播放| 欧美美女操人视频| 亚洲黄色免费看| 国产一区二区丝袜| 精品亚洲自拍| 亚洲一区三区| 在线国产精品一区| 国产福利影院在线观看| 国产成人在线视频网站| 国产美女喷水视频| 亚洲视频网在线直播| 日本中文字幕网| 欧美日韩三级一区二区| 国产 日韩 欧美 综合| 夜夜躁日日躁狠狠久久88av| 亚洲奶水xxxx哺乳期| 国产成人综合精品在线| 亚洲开心激情| 亚洲春色在线视频| 亚洲电影成人| 日韩欧美亚洲另类| 91免费精品国自产拍在线不卡 | 欧美 日韩 国产 精品| 亚洲夜晚福利在线观看| 日韩专区av| 国产精品日韩一区| 日韩黄色网络| 高清无码一区二区在线观看吞精| 日韩在线一二三区| 午夜视频在线观看国产| 亚洲三级视频在线观看| 精品国产乱子伦| 亚洲白拍色综合图区| 蜜芽在线免费观看| 国产不卡视频在线| 97se亚洲| 宅男一区二区三区| 热久久免费视频| 91精品国产自产| 亚洲最快最全在线视频| 91在线视频国产| 伊人久久久久久久久久久久久| 成年男女免费视频网站不卡| 亚洲free性xxxx护士hd| 日韩精品1区| av免费网站观看| 337p粉嫩大胆色噜噜噜噜亚洲| 精品爆乳一区二区三区无码av| 欧美三片在线视频观看 | 99re8这里有精品热视频8在线| 亚洲精品中字| 日本欧美在线看| 黄色片网站免费| 日本国产一区二区| 日韩有码电影| 26uuu另类亚洲欧美日本老年| 成人午夜大片| youjizz.com在线观看| 国产一区二区三区视频在线播放| 日本一级免费视频| 91黄色小视频| www 日韩| 国产日韩av高清| 成人羞羞在线观看网站| 亚洲人成无码www久久久| 26uuu国产在线精品一区二区| 精品成人免费视频| 亚洲国产一区二区三区四区| 免费电影视频在线看| 国产精品一区二区欧美黑人喷潮水| 欧美久久成人| av天堂一区二区| 午夜亚洲国产au精品一区二区| 日本人妻丰满熟妇久久久久久| 久久久久久国产精品| 操欧美女人视频| 欧美日韩性生活片| 久久亚区不卡日本| 男操女视频网站| 色婷婷av一区二区三区在线观看| 国产日本久久| 51xx午夜影福利| 成人激情文学综合网| 麻豆久久久久久久久久| 亚洲久久久久久久久久久| 日韩av免费| 国产精品99久久久久久大便| 国产福利一区在线| 国产手机在线视频| 一区二区三区四区精品| 四虎视频在线精品免费网址| 干日本少妇视频| 日本成人一区| 精品国产区一区| 2022成人影院| 亚洲啪啪av| 国产麻豆精品久久一二三| 国产网友自拍视频| 国产香蕉精品视频一区二区三区| 亚洲色图图片| 久草热视频在线观看| 中文字幕国产一区二区| 精品国产18久久久久久| 欧美亚洲在线观看| 久久网站免费观看| 91超薄肉色丝袜交足高跟凉鞋| 色综合久久久久久久| 国产精品剧情| 欧美激情视频一区二区三区| 久久福利资源站| 日韩精品在线免费看| 这里只有精品视频在线| 99ri日韩精品视频| a在线观看免费视频| 亚洲高清免费观看高清完整版在线观看| 天天av综合网| 91免费在线视频网站| 免费日韩一区二区| 欧美精品一区二区成人| 中文字幕不卡av| 国产精品x8x8一区二区|