首站-论文投稿智能助手
典型文献
基于多任务辅助推理的近眼视线估计方法
文献摘要:
眼动交互是头戴式虚拟现实(VR)/增强现实(AR)设备的关键操控方式,如何进行高精度、高鲁棒性的非标定视线估计是当前VR/AR眼动交互的核心问题之一,高效、鲁棒的非标定视线估计需要大量的眼图训练数据和高效的算法结构做支撑.在现有基于深度学习的近眼视线估计方法的基础上,通过添加多任务辅助推理模块,增加网络结构的多阶段输出,进行多任务联合训练,在不增加视线估计测试耗时的前提下,有效提升视线估计精度.在模型训练时,从视线估计网络结构的多个中间阶段引出多个眼部特征的辅助推理并行网络头,包括眼动图像的语义分割、虹膜边界框及眼部轮廓信息,为原始视线估计网络提供多阶段中继监控,在不增加训练数据的基础上,有效提升视线估计网络的测试精度.在国际公开数据集Acomo-14与OpenEDS2020上的验证实验表明,与无辅助推理的网络相比,所提方法精度分别得到了21.74%与18.91%的效果提升,平均角度误差分别减少到1.38°与2.01°.
文献关键词:
视线估计;增强现实(AR);人机交互;多任务学习;辅助推理
作者姓名:
王小东;谢良;闫慧炯;闫野;印二威;李卫国
作者机构:
北京航空航天大学 软件学院,北京100083;天津(滨海)人工智能创新中心,天津300450;军事科学院 国防科技创新研究院, 北京100071
引用格式:
[1]王小东;谢良;闫慧炯;闫野;印二威;李卫国-.基于多任务辅助推理的近眼视线估计方法)[J].北京航空航天大学学报,2022(06):1030-1037
A类:
眼动交互,Acomo,OpenEDS2020
B类:
辅助推理,视线估计,估计方法,头戴式,VR,增强现实,操控,高鲁棒性,非标,眼图,训练数据,算法结构,多阶段,联合训练,计测,估计精度,模型训练,引出,眼部,并行网络,络头,动图,语义分割,虹膜,边界框,中继,加训,测试精度,公开数据集,验证实验,效果提升,均角,角度误差,人机交互,多任务学习
AB值:
0.300229
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。