计算机科学 > 人工智能
[提交于 2024年6月11日
]
标题: 基于上下文感知查询表示学习的知识图谱多跳逻辑推理改进
标题: Improving Multi-hop Logical Reasoning in Knowledge Graphs with Context-Aware Query Representation Learning
摘要: 多跳逻辑推理在知识图谱上是自然语言处理中的关键任务,许多方法旨在回答一阶逻辑(FOL)查询。 最近基于几何(例如,盒子、圆锥)和概率(例如,贝塔分布)的方法已有效解决了复杂的FOL查询。 然而,这些方法面临的一个共同挑战在于确定这些查询的精确几何边界或概率参数。 这一挑战出现的原因是现有方法在其计算图中依赖于线性顺序操作,忽视了查询的逻辑结构以及可以从查询的关系中获得的关系诱导信息,我们称之为查询的上下文。 为了解决这个问题,我们提出了一种模型无关的方法,通过完全整合FOL查询图的上下文,提高现有多跳逻辑推理方法的有效性。 我们的方法独特地区分了(1)查询结构固有的结构上下文,以及(2)查询图中每个节点特有的关系诱导上下文,如相应知识图谱中所界定的。 这种双上下文范式有助于查询图中的节点在多跳推理步骤中获得更精细的内部表示。 通过在两个数据集上的实验,我们的方法持续提升了三种多跳推理基础模型,性能提升最高达19.5%。 我们的代码可在 https://github.com/kjh9503/caqr 获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.