典型文献
基于预过滤注意力的Transformer物体检测
文献摘要:
近几年提出的基于Transformer的目标检测器简化了模型结构,展现出具有竞争力的性能.然而,由于Transformer注意力模块处理特征图的方式,大部分模型存在收敛速度慢和小物体检测效果差的问题.为了解决这些问题,本研究提出了基于预过滤注意力模块的Transformer检测模型,该模块以目标点为参照,提取目标点附近部分特征点进行交互,节省训练时长并提高检测精度.同时在该模块中融入新提出的一种有向相对位置编码,弥补因模块权重计算导致的相对位置信息缺失,提供精确的位置信息,更有利于模型对小物体的检测.在COCO 2017数据集上的实验表明我们的模型可以将训练时长缩短近10倍,并获得更好的性能,特别是在小物体检测上精度达到了26.8 APs.
文献关键词:
目标检测;Transformer;位置编码;注意力机制
中图分类号:
作者姓名:
王琪;赵文仓
作者机构:
青岛科技大学自动化与电子工程学院 青岛266061
文献出处:
引用格式:
[1]王琪;赵文仓-.基于预过滤注意力的Transformer物体检测)[J].电子测量技术,2022(24):145-152
A类:
B类:
预过滤,Transformer,物体检测,目标检测器,模型结构,注意力模块,块处理,特征图,部分模型,收敛速度,速度慢,检测效果,检测模型,标点,分特征,特征点,高检,检测精度,相对位置编码,权重计算,位置信息,信息缺失,供精,COCO,APs,注意力机制
AB值:
0.39535
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。