FAILED
首站-论文投稿智能助手
典型文献
TransformerG:基于层级图结构与文本注意力机制的法律文本多跳阅读理解
文献摘要:
该文针对Cail2020法律多跳机器阅读理解数据集进行研究,提出了TransformerG,一个基于不同层级的实体图结构与文本信息的注意力机制融合的多跳阅读理解模型.该模型有效地结合了段落中问题节点、问题的实体节点、句子节点、句中的实体节点的特征与文本信息的特征,从而预测答案片段.此外,该文提出了一种句子级滑动窗口的方法,有效解决在预训练模型中文本过长导致的截断问题.利用TransformerG模型参加中国中文信息学会计算语言学专委会(CIPS-CL)和最高人民法院信息中心举办的"中国法研杯"司法人工智能挑战赛机器阅读理解赛道,取得了第2名的成绩.
文献关键词:
层级图结构;多跳机器阅读理解;法研杯
作者姓名:
朱斯琪;过弋;王业相;余军;汤奇峰;邵志清
作者机构:
华东理工大学 信息科学与工程学院,上海 200237;大数据流通与交易技术国家工程实验室 商业智能与可视化研究中心,上海 200237;上海大数据与互联网受众工程技术研究中心,上海 200072
文献出处:
引用格式:
[1]朱斯琪;过弋;王业相;余军;汤奇峰;邵志清-.TransformerG:基于层级图结构与文本注意力机制的法律文本多跳阅读理解)[J].中文信息学报,2022(11):148-155,168
A类:
TransformerG,层级图结构,Cail2020,多跳机器阅读理解
B类:
法律文本,多跳阅读理解,解数,实体图,文本信息,注意力机制融合,阅读理解模型,段落,体节,句子级,滑动窗口,预训练模型,中文信息,计算语言学,专委会,CIPS,CL,最高人民法院,信息中心,中国法,法研杯,司法人工智能,挑战赛,赛道
AB值:
0.276391
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。