典型文献
基于改进DQN算法的NPC行进路线规划研究
文献摘要:
在军事游戏或仿真训练系统中,非玩家角色(No-player Character,NPC)的行进路线规划是物理行为建模的重要组成部分.深度Q网络(Deep Q-Network,DQN)算法作为深度强化学习(Deep Reinforcement Learning,DEL)的经典算法,非常适合于路线规划这类策略选择的应用研究.针对该算法在收敛性和最优路线规划上存在的问题进行了优化,提出了改进算法PRDQN.基于TD-error和SumTree对经验回放机制进行了改进,实现了优先级经验回放;根据距离优先的原则,对奖励函数进行了重新设计,提高了对距离最近坐标点的奖励值.通过对比实验证明,该算法在收敛性和最优路线选择方面都优于传统的DQN算法.
文献关键词:
深度Q网络;路线规划;优先级经验回放;最优路线
中图分类号:
作者姓名:
刘森;李玺;黄运
作者机构:
河北远东通信系统工程有限公司, 河北 石家庄 050200;陆军工程大学石家庄校区, 河北 石家庄 050000;中国人民解放军32620部队, 青海 西宁 810007
文献出处:
引用格式:
[1]刘森;李玺;黄运-.基于改进DQN算法的NPC行进路线规划研究)[J].无线电工程,2022(08):1441-1446
A类:
PRDQN,SumTree
B类:
NPC,行进路线,路线规划,规划研究,仿真训练系统,玩家,No,player,Character,行为建模,Deep,Network,深度强化学习,Reinforcement,Learning,DEL,非常适合,策略选择,收敛性,最优路线,划上,改进算法,TD,error,经验回放机制,优先级经验回放,奖励函数,重新设计,坐标点,奖励值,路线选择
AB值:
0.380772
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。