首站-论文投稿智能助手
典型文献
PPO强化学习的多智能体对话策略学习方法
文献摘要:
对话策略是面向任务的对话系统中的关键组件,给定当前对话状态输出下一个系统动作.近年来,对话策略学习已被广泛地描述为强化学习问题.一种常见的方法是让对话智能体与用户模拟器互动学习.然而,构建一个可靠的用户模拟器并不是一件容易的事,通常与构建一个好的对话代理一样困难.为了避免显式地构建一个用户模拟器,提出了一种PPO强化学习的多智能体对话策略学习方法,将系统端和用户端都构建为智能体.该方法主要通过两个阶段进行策略学习:1)阶段1是模仿学习,采用模仿学习中的行为克隆的方式,对系统策略和用户策略进行预训练;2)阶段2是多智能体强化学习,采用一种数据样本利用率更高以及鲁棒性更好的近端策略优化(PPO)算法,对系统端和用户端的对话策略进行学习.最后,在公开的多域多意图的面向任务的对话语料MultiWOZ上进行了实验,验证了方法的有效性,还分析了在复杂任务中的可伸缩性.此外,将学到的对话策略集成到ConvLab-2平台上进行整体效果评估.
文献关键词:
强化学习;多智能体;任务对话系统;对话策略学习;模仿学习;近端策略优化
作者姓名:
魏鹏飞;曾碧;廖文雄
作者机构:
广东工业大学 计算机学院,广州510006
引用格式:
[1]魏鹏飞;曾碧;廖文雄-.PPO强化学习的多智能体对话策略学习方法)[J].小型微型计算机系统,2022(07):1370-1377
A类:
对话策略学习,对话代理,ConvLab,任务对话系统
B类:
PPO,面向任务,关键组件,定当,出下,学习问题,模拟器,互动学习,显式,用户端,模仿学习,行为克隆,系统策略,预训练,多智能体强化学习,本利,近端策略优化,多域,语料,MultiWOZ,复杂任务,可伸缩性,学到,整体效果,效果评估
AB值:
0.239589
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。