首站-论文投稿智能助手
典型文献
基于关键点特征融合的六自由度位姿估计方法
文献摘要:
针对单张RGB-D图像进行六自由度目标位姿估计难以充分利用颜色信息与深度信息的问题,提出了一种基于多种网络(金字塔池化网络和PointNet++网络结合特征融合网络)构成的深度学习网络框架.方法用于估计在高度杂乱场景下一组已知对象的六自由度位姿.首先对RGB图像进行语义识别,将每一个已知类别的对象掩膜应用到深度图中,按照掩膜的边界框完成对彩色图与深度图进行语义分割;其次,在获取到的点云数据中采用FPS算法获取关键点,映射到彩色图像与深度图像中进行关键点特征提取,将RGB-D图像中的颜色信息与深度信息视为异构数据,考虑关键点需要充分融合局部信息与全局信息,分别采用了金子塔池化网络(pyramid scene parsing network,PSPNet)和PointNet++网络提取颜色信息与深度信息;采用一种新型的关键点特征融合方法,深度融合提取到颜色信息与几何信息的局部及全局特征,并嵌入到选定的特征点中;使用多层感知机(multilayer perceptron,MLP)输出每一个像素点的六自由度位姿和置信度,利用每一个像素点的置信度,让网络自主选择最优的估计结果;最后,利用一种端到端的迭代位姿求精网络,进一步提高六自由度位姿估计的准确度.网络在公开的数据集LineMOD和YCB-Video上进行测试,实验结果表明和现有同类型的六自由度位姿估计方法相比,本文所提出的模型预测的六自由度准确度优于现有的同类型方法,在采用相同的评价标准下,平均准确度分别达到了97.2%和95.1%,分别提升了2.9%和3.9%.网络同时满足实时性要求,完成每一帧图像的六自由度位姿预测仅需0.06 s.
文献关键词:
六自由度位姿估计;深度学习;特征融合;机器视觉
作者姓名:
王太勇;孙浩文
作者机构:
天津大学机械工程学院,天津 300350;天津仁爱学院,天津 301636
引用格式:
[1]王太勇;孙浩文-.基于关键点特征融合的六自由度位姿估计方法)[J].天津大学学报(自然科学与工程技术版),2022(05):543-551
A类:
六自由度位姿估计,LineMOD,YCB
B类:
估计方法,单张,RGB,目标位,颜色信息,深度信息,金字塔池化,PointNet++,特征融合网络,深度学习网络,网络框架,杂乱,语义识别,知类,掩膜,膜应用,边界框,语义分割,取到,点云数据,FPS,射到,彩色图像,深度图像,点特征提取,异构数据,充分融合,局部信息,全局信息,金子,pyramid,scene,parsing,network,PSPNet,融合方法,几何信息,全局特征,特征点,点中,多层感知机,multilayer,perceptron,MLP,像素点,置信度,自主选择,端到端,代位,Video,类型方法,一帧,位姿预测,机器视觉
AB值:
0.354743
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。