FAILED
首站-论文投稿智能助手
典型文献
面向小目标和遮挡目标检测的脑启发CIRA-DETR全推理方法
文献摘要:
Facebook AI研究者2020年提出的Detection Transformer(DETR)目标检测方法采用简单的编码器-解码器结构,利用集合预测来解决物体检测问题,算法简单、通用、避免了很多手工设计和调参问题,吸引了学术界和产业界的广泛关注.然而,DETR方法对于输入特征的分辨率大小有限制,同时在检测推理过程中缺失相对位置信息,从而导致对小目标和被遮挡目标的检测性能较差.为解决这一问题,受脑认知启发,本文提出基于胶囊推理和残差增强的全推理目标检测网络(Capsule-Inferenced and Residual-Augmented Detection Transformers,CIRA_DETR).首先,建立层间残差信息增强模块,利用大小尺度的差异性对小尺度特征图进行信息增强,在小目标的检测效果上提升了 1.8%.接着,为了更贴近人脑的思维方式,更好的建模神经网络中内部知识表示的分层关系,在Transformer的结果进行推理的过程中,引入胶囊推理模块挖掘实体信息,并利用双向注意力路由进行前向信息传递和后向信息的反馈,以此预测图像中目标的类别和位置信息,有效降低了遮挡下的目标检测问题的难度.最后,在目标信息的映射处理中,引入非线性超香肠映射函数,实现了灵活的超曲面构建,有效表达特征和目标类别以及位置之间的映射关系.在COCO数据集上的测试结果验证了 CIRA_DETR模型的有效性,其在小目标、中目标和大目标的检测上,平均预测准确率分别达到了 25.8%、48.7%和62.7%.本文小目标的检测性能可以和Faster-RCNN相媲美,同时可视化的结果以及性能指标也反映了,相比传统的DETR模型,本文CIRA_DETR模型在被遮挡目标检测上的优势.
文献关键词:
目标检测;DETR;Transformer;胶囊网络;脑神经科学;残差网络
作者姓名:
宁欣;田伟娟;于丽娜;李卫军
作者机构:
中国科学院半导体研究所高速电路与神经网络实验室 北京 100083;威富集团形象认知计算联合实验室 北京 100083;中国科学院大学集成电路学院 北京 100049
文献出处:
引用格式:
[1]宁欣;田伟娟;于丽娜;李卫军-.面向小目标和遮挡目标检测的脑启发CIRA-DETR全推理方法)[J].计算机学报,2022(10):2080-2092
A类:
CIRA,Inferenced
B类:
小目标,遮挡目标检测,脑启发,DETR,全推,推理方法,Facebook,Detection,目标检测方法,编码器,解码器,集合预测,物体检测,检测问题,产业界,输入特征,推理过程,相对位置,位置信息,检测性能,脑认知,目标检测网络,Capsule,Residual,Augmented,Transformers,信息增强,小尺度,尺度特征,特征图,检测效果,人脑,内部知识,知识表示,实体信息,路由,信息传递,挡下,目标信息,映射处理,香肠,映射函数,超曲面,曲面构建,有效表达,表达特征,映射关系,COCO,大目标,预测准确率,Faster,RCNN,相媲美,胶囊网络,脑神经科学,残差网络
AB值:
0.394031
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。