典型文献
用于单幅模糊图像超分辨的Transformer融合网络
文献摘要:
目的 以卷积神经网络为代表的深度学习方法已经在单帧图像超分辨领域取得了丰硕成果,这些方法大多假设低分辨图像不存在模糊效应.然而,由于相机抖动、物体运动等原因,真实场景下的低分辨率图像通常会伴随着模糊现象.因此,为了解决模糊图像的超分辨问题,提出了一种新颖的Transformer融合网络.方法 首先使用去模糊模块和细节纹理特征提取模块分别提取清晰边缘轮廓特征和细节纹理特征.然后,通过多头自注意力机制计算特征图任一局部信息对于全局信息的响应,从而使Transformer融合模块对边缘特征和纹理特征进行全局语义级的特征融合.最后,通过一个高清图像重建模块将融合特征恢复成高分辨率图像.结果 实验在2个公开数据集上与最新的9种方法进行了比较,在GOPRO数据集上进行2倍、4倍、8倍超分辨重建,相比于性能第2的模型GFN(gated fusion network),峰值信噪比(peak signal-to-noive ratio,PSNR)分别提高了0.12 dB、0.18 dB、0.07 dB;在Kohler数据集上进行2倍、4倍、8倍超分辨重建,相比于性能第2的模型GFN,PSNR值分别提高了0.17 dB、0.28 dB、0.16 dB.同时也在GOPRO数据集上进行了对比实验以验证Transformer融合网络的有效性.对比实验结果表明,提出的网络明显提升了对模糊图像超分辨重建的效果.结论 本文所提出的用于模糊图像超分辨的Transformer融合网络,具有优异的长程依赖关系和全局信息捕捉能力,其通过多头自注意力层计算特征图任一局部信息在全局信息上的响应,实现了对去模糊特征和细节纹理特征在全局语义层次的深度融合,从而提升了对模糊图像进行超分辨重建的效果.
文献关键词:
超分辨;单帧图像超分辨;模糊图像;融合网络;Transformer
中图分类号:
作者姓名:
刘花成;任文琦;王蕊;操晓春
作者机构:
中山大学网络空间安全学院,深圳 518107;中国科学技术大学软件学院,苏州 215123;中国科学院信息工程研究所信息安全国家重点实验室,北京 100093
文献出处:
引用格式:
[1]刘花成;任文琦;王蕊;操晓春-.用于单幅模糊图像超分辨的Transformer融合网络)[J].中国图象图形学报,2022(05):1616-1631
A类:
超分辨领域,noive
B类:
单幅,模糊图像,Transformer,融合网络,深度学习方法,单帧图像超分辨,丰硕成果,多假设,抖动,物体运动,真实场景,低分辨率图像,模糊现象,用去,去模糊,细节纹理,纹理特征提取,取模,边缘轮廓,轮廓特征,多头自注意力机制,特征图,任一,一局,局部信息,全局信息,边缘特征,全局语义,特征融合,高清图像,图像重建,融合特征,高分辨率图像,公开数据集,GOPRO,GFN,gated,fusion,network,峰值信噪比,peak,signal,ratio,PSNR,dB,Kohler,图像超分辨重建,长程,依赖关系,捕捉能力,注意力层,模糊特征,语义层次
AB值:
0.327293
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。