首站-论文投稿智能助手
典型文献
PWFT-BERT:一种融合排序学习与预训练模型的检索排序方法
文献摘要:
信息检索是从文档集合或互联网中找出用户所需信息的过程,细化为召回和排序两个阶段.针对排序阶段中相关文档的重排序,提出一种称为融合排序学习与预训练模型的检索排序方法(Pair-Wise FineTuned Bidirectional Encoder Representation from Transformers,PWFT-BERT).通过对候选论文数据集使用BM25等算法召回出与查询相关的小范围文档后,可应用PWFT-BERT对召回得到的文档集合进行排序.为构造pair-wise形式的训练数据,提出一种伪负例生成算法生成训练数据,并使用排序学习方法微调预训练模型使其适配排序任务.对比IT-IDF和BM25基线方法,PWFT-BERT在WSDM-DiggSci 2020数据集上的检索结果提升了 240%和74%,证明了所提方法的有效性.
文献关键词:
自然语言处理;信息检索;排序学习;预训练模型;检索排序
作者姓名:
苏珂;黄瑞阳;张建朋;胡楠;余诗媛
作者机构:
郑州大学,河南郑州450001;信息工程大学,河南郑州450001
引用格式:
[1]苏珂;黄瑞阳;张建朋;胡楠;余诗媛-.PWFT-BERT:一种融合排序学习与预训练模型的检索排序方法)[J].信息工程大学学报,2022(04):460-466
A类:
PWFT,检索排序,FineTuned,WSDM,DiggSci
B类:
BERT,排序学习,预训练模型,排序方法,信息检索,文档,召回,重排序,Pair,Wise,Bidirectional,Encoder,Representation,from,Transformers,论文数,BM25,小范,回得,pair,wise,训练数据,生成算法,微调,IT,IDF,自然语言处理
AB值:
0.312267
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。