FAILED
首站-论文投稿智能助手
典型文献
基于强化学习的六足机器人动态避障研究
文献摘要:
针对局部可观测的非线性动态地震环境下,六足机器人采用传统算法进行动态避障时易出现算法不稳定的情况.运用了基于双重深度Q网络(DDQN)的决策方式,通过传感器数据输入卷积神经网络(CNN)并结合强化学习的策略,下达命令到六足机器人,控制输出决策动作,实现机器人动态避障.将系统的环境反馈与决策控制直接形成闭环,通过最大化机器人与避障环境交互产生的累计奖励回报,更新神经网络权重,形成最优决策策略.通过六足机器人平台实验结果证明:此方法能较好地减少传统深度强化学习算法容易导致过度估计状态动作值和损失函数难以收敛的风险;并且提高了六足机器人进行动态避障的效率和稳定性.
文献关键词:
双重深度Q网络;六足机器人;动态避障;传感器输入
作者姓名:
董星宇;唐开强;傅汇乔;留沧海;蒋刚
作者机构:
西南科技大学制造科学与工程学院,四川绵阳621000;制造过程测试技术省部共建教育部重点实验室,四川绵阳621000;南京大学工程管理学院控制与系统工程系,江苏南京210093;成都理工大学核技术与自动化工程学院,四川成都610059
引用格式:
[1]董星宇;唐开强;傅汇乔;留沧海;蒋刚-.基于强化学习的六足机器人动态避障研究)[J].传感器与微系统,2022(01):19-23
A类:
B类:
六足机器人,机器人动态避障,对局,非线性动态,地震环境,传统算法,DDQN,传感器数据,下达,命令,策动,决策控制,计奖,最优决策,决策策略,机器人平台,深度强化学习算法,动作值,损失函数,传感器输入
AB值:
0.322942
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。