首站-论文投稿智能助手
典型文献
基于全卷积编解码网络的视觉定位方法
文献摘要:
针对目前视觉定位方法中使用人工特征的限制,提出了一种基于全卷积编解码网络的视觉定位方法.该方法将场景点3D坐标映射到图像的BGR(blue-green-red)通道,建立了图像到场景的直接联系,并通过全卷积编解码网络学习图像与场景结构的关系.给出一张图像,网络可以预测其每个像素点对应的3D点在当前场景世界坐标系的坐标;然后结合 RANSAC(random sample consensus)和 PnP(per-spective-n-point)算法求解位姿并优化,得到最终的相对位姿.在7-Scenes数据集上的实验结果表明本文方法可实现厘米级的高精度定位,并且相比其他基于深度学习的方法,该方法在保证精度的同时,模型尺寸更小.
文献关键词:
视觉定位;场景构建;姿态估计;深度学习
作者姓名:
李晨旻;姚剑;龚烨;刘欣怡
作者机构:
武汉大学遥感信息工程学院,湖北武汉,430079
文献出处:
引用格式:
[1]李晨旻;姚剑;龚烨;刘欣怡-.基于全卷积编解码网络的视觉定位方法)[J].测绘地理信息,2022(06):46-49
A类:
B类:
全卷积,卷积编解码网络,视觉定位,定位方法,景点,坐标映射,射到,BGR,blue,green,red,到场,网络学习,场景结构,一张图,像素点,前场,世界坐标,坐标系,RANSAC,random,sample,consensus,PnP,per,spective,point,相对位姿,Scenes,厘米,高精度定位,模型尺寸,场景构建,姿态估计
AB值:
0.485445
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。