首站-论文投稿智能助手
典型文献
多源特征自适应融合网络的高分遥感影像语义分割
文献摘要:
目的 在高分辨率遥感影像语义分割任务中,仅利用可见光图像很难区分光谱特征相似的区域(如草坪和树、道路和建筑物),高程信息的引入可以显著改善分类结果.然而,可见光图像与高程数据的特征分布差异较大,简单的级联或相加的融合方式不能有效处理两种模态融合时的噪声,使得融合效果不佳.因此如何有效地融合多模态特征成为遥感语义分割的关键问题.针对这一问题,本文提出了一个多源特征自适应融合模型.方法 通过像素的目标类别以及上下文信息动态融合模态特征,减弱融合噪声影响,有效利用多模态数据的互补信息.该模型主要包含3个部分:双编码器负责提取光谱和高程模态的特征;模态自适应融合模块协同处理多模态特征,依据像素的目标类别以及上下文信息动态地利用高程信息强化光谱特征,使得网络可以针对特定的对象类别或者特定的空间位置来选择特定模态网络的特征信息;全局上下文聚合模块,从空间和通道角度进行全局上下文建模以获得更丰富的特征表示.结果 对实验结果进行定性、定量相结合的评价.定性结果中,本文算法获取的分割结果更加精细化.定量结果中,在ISPRS(International Society for Photogrammetry and Remote Sensing)Vaihingen和GID(Gaofen Image Dataset)数据集上对本文模型进行评估,分别达到了90.77%、82.1%的总体精度.与DeepLab V3+、PSPNet(pyramid scene parsing network)等算法相比,本文算法明显更优.结论 实验结果表明,本文提出的多源特征自适应融合网络可以有效地进行模态特征融合,更加高效地建模全局上下文关系,可以广泛应用于遥感领域.
文献关键词:
语义分割;遥感影像;多模态;模态自适应融合;全局上下文聚合
作者姓名:
张文凯;刘文杰;孙显;许光銮;付琨
作者机构:
中国科学院空天信息创新研究院,北京 100190;中国科学院网络信息体系重点实验室, 北京 100190;中国科学院大学,北京 100190;中国科学院大学电子电气与通信工程学院,北京 100190
引用格式:
[1]张文凯;刘文杰;孙显;许光銮;付琨-.多源特征自适应融合网络的高分遥感影像语义分割)[J].中国图象图形学报,2022(08):2516-2526
A类:
模态自适应融合,全局上下文聚合
B类:
多源特征,特征自适应融合,自适应融合网络,高分遥感影像,语义分割,高分辨率遥感影像,可见光图像,光谱特征,草坪,高程信息,高程数据,特征分布,分布差异,相加,融合方式,模态融合,融合效果,多模态特征,一个多,融合模型,像素,上下文信息,信息动态融合,融合噪声,噪声影响,多模态数据,编码器,协同处理,信息强化,空间位置,定模,特征信息,特征表示,ISPRS,International,Society,Photogrammetry,Remote,Sensing,Vaihingen,GID,Gaofen,Image,Dataset,总体精度,DeepLab,V3+,PSPNet,pyramid,scene,parsing,network,特征融合
AB值:
0.334674
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。