基于强化学习的多关系知识图谱推理

来源 :吉林大学 | 被引量 : 0次 | 上传用户:xphan
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着人工智能技术的不断发展,知识图谱逐渐成为自然语言处理(Natural Language Processing,NLP)领域的研究热点,相关方法在实体消岐、协同过滤、智能搜索等多种任务上取得了显著的优势。近年来,知识图谱本身的不完备性和三元组的准确性逐渐受到关注,研究人员利用符号规则、张量分解、深度学习模型等多种方式对知识图谱的补全和去噪进行了探索,进而推动了基于知识图谱的知识推理方法的研究和发展,并使之能够应用于推荐系统、智能问答等下游任务。然而,无论是传统的基于嵌入式表示的知识图谱推理方法,还是基于神经网络的推理模型都不能赋予推理过程良好的可解释性,研究人员开始关注基于路径和图结构的方法并试图解决传统推理方法可解释性差的问题。基于路径和图结构的方法多是引入Agent代理实现图谱上关系路径的多跳推理,使用代理模式的图谱推理在选择路径的决策和优化问题上存在实现难、解释差的问题。因此,如何建模推理任务,并使之具备一定的可解释性成为亟待解决的问题。同时,现有的知识图谱推理方法忽略了知识图谱中存在合理的多关系的可能,在多关系推理任务的研究上均有欠缺。针对以上问题,本文主要工作如下:(1)提出并定义了知识图谱多关系推理任务。本文聚焦于多关系的推理任务,旨在解决现有的推理方法无法推理实体间可能存在的多个不同关系的问题。现有的大型公开知识图谱不关注实体之间存在的关系数量的问题,大多都忽略了实体间可能存在多关系的情况。为此,本文定义了知识图谱多关系推理任务。本文是第一个探索多关系推理任务的工作。(2)提出了一个基于强化学习的多关系推理框架。本文以设计基于多跳的多关系推理框架为问题导向,将知识图谱的多关系推理任务建模为多个Agent代理之间的协同推理问题,通过不同的马尔可夫策略网络选择Agent各自支持的关系路径,并结合强化学习框架引导Agent的路径选择,旨在推理出不同的实体间关系。(3)针对多关系推理框架,本文设计了一个基于曼哈顿距离的路径相似性奖励。本文将多Agent代理选择路径的历史信息建模为曼哈顿距离,并将其强化学习模型的奖励函数引入知识图谱推理任务之中。该思路旨在使多Agent代理推理出语义不相近的不同关系,同时能够满足一般化的单关系推理任务,并能在推理的过程中有效利用知识图谱中丰富的多关系信息来确定终端条件和强化学习的奖励函数,确保多Agent代理能够选择有效的关系路径。本文是第一个将曼哈顿距离模型作为强化学习奖励函数,并引入知识图谱推理任务的工作。(4)提出并构建了一个多关系知识图谱。现有的大型公开知识图谱虽然在三元组的设计上考虑了极少量实体之间存在多个不同关系的可能,然而,相对于庞大的实体对和关系数量而言,依旧不能满足于多关系推理任务的训练。为此,本文贡献了一个在实体间关系数量方面更贴合于现实情况的多关系数据集。
其他文献
学位
学位
学位
学位
学位
学位
学位
学位
学位
学位