arXiv 2025新突破!樹狀結(jié)構(gòu)+余弦卷積,輕量級(jí)SR網(wǎng)絡(luò)TSRNet超越主流方法!
1. 一眼概覽
TSRNet提出一種樹結(jié)構(gòu)引導(dǎo)的卷積神經(jīng)網(wǎng)絡(luò),通過融合分支層次信息、引入余弦變換和Adan優(yōu)化器,實(shí)現(xiàn)對(duì)低分辨率圖像的高質(zhì)量超分辨率重建。
2. 核心問題
當(dāng)前圖像超分辨率方法在提取關(guān)鍵層次信息和優(yōu)化訓(xùn)練過程中仍面臨冗余信息干擾與梯度爆炸問題,導(dǎo)致圖像恢復(fù)質(zhì)量受限。如何構(gòu)建高效結(jié)構(gòu)并穩(wěn)健訓(xùn)練模型,是提升超分辨率性能的關(guān)鍵挑戰(zhàn)。
3. 技術(shù)亮點(diǎn)
1)樹結(jié)構(gòu)網(wǎng)絡(luò)(TSRNet):通過4個(gè)分支和3個(gè)融合模塊,以二叉樹形式組織網(wǎng)絡(luò),強(qiáng)化層次信息的表達(dá)與融合。
2)余弦卷積模塊(CTMB):利用Sharpened Cosine Similarity提取方向性顯著特征,增強(qiáng)局部結(jié)構(gòu)表達(dá)能力。
3)Adan優(yōu)化器:基于Nesterov動(dòng)量的優(yōu)化策略,有效抑制梯度爆炸,加快訓(xùn)練收斂,提升模型泛化性。
4. 方法框架
圖片
TSRNet整體流程如下:
? 4個(gè)樹狀分支模塊:每個(gè)分支堆疊9個(gè)卷積+ReLU單元,前兩分支含CTMB模塊;
? 3個(gè)融合模塊:逐級(jí)將分支輸出通過殘差和卷積融合,提煉有效結(jié)構(gòu)特征;
? 重建模塊:通過卷積和PixelShuffle操作生成高分辨率圖像;
? 訓(xùn)練優(yōu)化:采用MSE損失函數(shù),結(jié)合Adan優(yōu)化器加速訓(xùn)練。
5. 實(shí)驗(yàn)結(jié)果速覽
? 在Set5數(shù)據(jù)集上 ×4 放大:TSRNet達(dá)到31.94dB/0.8915 SSIM,優(yōu)于AFAN-S等主流方法。
? 在U100數(shù)據(jù)集上 ×4 放大:PSNR提升至26.00dB,相較無CTMB結(jié)構(gòu)提升明顯。
? 運(yùn)行效率:在512×512圖像上,TSRNet推理時(shí)間為35.68ms,優(yōu)于EDSR(57.53ms)和ACNet(75.79ms)。
6. 實(shí)用價(jià)值與應(yīng)用
TSRNet適用于安防監(jiān)控、衛(wèi)星遙感、醫(yī)學(xué)圖像等高保真重建場景,尤其在邊緣計(jì)算或?qū)崟r(shí)處理場景中展現(xiàn)出較高實(shí)用性和部署價(jià)值。
7. 開放問題
? 樹結(jié)構(gòu)深度與分支數(shù)量是否存在最優(yōu)配置?能否自適應(yīng)調(diào)整結(jié)構(gòu)?
? 余弦變換模塊能否替代全部卷積操作,構(gòu)建純方向感知網(wǎng)絡(luò)?
? Adan優(yōu)化策略能否泛化到其他視覺任務(wù)如去噪、壓縮感知等?




























