首站-论文投稿智能助手
典型文献
基于BERTCA的新闻实体与正文语义相关度计算模型
文献摘要:
目前的搜索引擎仍然存在"重形式,轻语义"的问题,无法做到对搜索关键词和文本的深层次语义理解,因此语义检索成为当前搜索引擎中亟需解决的问题.为了提高搜索引擎的语义理解能力,该文提出一种语义相关度的计算方法.首先,标注了金融类新闻标题实体与新闻正文语义相关度语料1万条,然后建立新闻实体与正文语义相关度计算的BERTCA(Bidirectional Encoder Representation from Transformers Co-Attention)模型,通过使用BERT预训练模型,综合考虑细粒度的实体和粗粒度的正文的语义信息,然后经过协同注意力,实现实体与正文的语义匹配,不仅能计算出金融新闻实体与新闻正文之间的相关度,还能根据相关度阈值来判定相关度类别,实验表明该模型在1万条标注语料上准确率超过95%,优于目前主流模型,最后通过具体搜索示例展示了该模型的优秀性能.
文献关键词:
语义相关度计算;BERT模型;协同注意力机制
作者姓名:
向军毅;胡慧君;刘茂福;毛瑞彬
作者机构:
武汉科技大学 计算机科学与技术学院,湖北 武汉 430065;智能信息处理与实时工业系统湖北省重点实验室,湖北 武汉 430065;武汉大学 信息资源研究中心,湖北 武汉 430072
文献出处:
引用格式:
[1]向军毅;胡慧君;刘茂福;毛瑞彬-.基于BERTCA的新闻实体与正文语义相关度计算模型)[J].中文信息学报,2022(03):109-119
A类:
BERTCA,语义相关度计算
B类:
正文,搜索引擎,语义理解,语义检索,理解能力,金融类,新闻标题,语料,万条,Bidirectional,Encoder,Representation,from,Transformers,Co,Attention,预训练模型,细粒度,粗粒度,语义信息,语义匹配,金融新闻,流模型,示例,协同注意力机制
AB值:
0.263723
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。