典型文献
基于RGB-D相机的脐橙实时识别定位与分级方法
文献摘要:
为实现脐橙采摘机器人对脐橙果实进行实时识别、定位和分级采摘的需求,该研究提出了一种基于RGB-D相机数据的脐橙果实实时识别、定位及分级的OrangePointSeg算法.首先利用微软最新消费级深度相机(Azure Kinect DK)采集脐橙果实的RGB-D数据,建立脐橙果实实例分割数据集及增强数据集.然后通过改进YOLACT算法对脐橙果实进行实时分割并生成实例掩膜,与配准后的深度图裁剪得到果实深度点云,再利用最小二乘法进行脐橙果实外形拟合,得到其相机坐标系下质心坐标及半径.试验结果表明,在果实识别阶段,改进YOLACT算法在该数据集上的检测速度为44.63帧/s,平均精度为31.15%.在果实定位阶段,1400~2000点云数量时的拟合时间为1.99 ms,定位误差为0.49 cm,拟合出的半径均方根误差为0.43 cm,体积均方根误差为52.6 mL,在大于800点云数量和拍摄距离1 m以内时,定位误差均在0.46 cm以内.最后通过引入并行化计算,OrangePointSeg的总体处理速度为29.4帧/s,能够较好地实现精度与速度的平衡,利于实际应用和工程部署.该研究成果可推广至其他类似形态学特征的果实识别中,为果园的智能化管理提供行之有效的技术支撑.
文献关键词:
图像识别;机器人;RGB-D;实例分割;深度点云;YOLACT;RANSAC;最小二乘拟合
中图分类号:
作者姓名:
刘德儿;朱磊;冀炜臻;廉悦
作者机构:
江西理工大学土木与测绘工程学院,赣州 341000;北京师范大学遥感科学国家重点实验室,北京 100875
文献出处:
引用格式:
[1]刘德儿;朱磊;冀炜臻;廉悦-.基于RGB-D相机的脐橙实时识别定位与分级方法)[J].农业工程学报,2022(14):154-165
A类:
OrangePointSeg
B类:
RGB,实时识别,识别定位,分级方法,采摘机器人,脐橙果实,实实,利用微,微软,新消费,深度相机,Azure,Kinect,DK,实例分割,YOLACT,掩膜,配准,深度图,裁剪,深度点云,果实外形,坐标系,质心,心坐标,果实识别,检测速度,实定,位阶,ms,定位误差,合出,并行化计算,处理速度,工程部署,形态学特征,果园,智能化管理,图像识别,RANSAC,最小二乘拟合
AB值:
0.360275
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。