Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.12367

帮助 | 高级搜索

计算机科学 > 计算与语言

arXiv:2506.12367 (cs)
[提交于 2025年6月14日 ]

标题: 理解知识图谱提取错误对下游图分析的影响:以隶属关系图为例

标题: Understanding the Effect of Knowledge Graph Extraction Error on Downstream Graph Analyses: A Case Study on Affiliation Graphs

Authors:Erica Cai, Brendan O'Connor
摘要: 知识图谱(KGs)对于分析从社会学到公共卫生等多个领域的社会结构、社区动态、机构成员资格以及其他复杂关系非常有用。 尽管大型语言模型(LLMs)的最新进展提高了从大规模文本语料库中自动提取知识图谱的可扩展性和易用性,但人们对提取错误对下游分析的影响了解甚少,尤其是对依赖准确知识图谱以获取现实世界洞见的应用科学家而言。 为了解决这一差距,我们进行了首次针对两个层面的知识图谱提取性能评估:(1) 微观层面的边准确性,这与标准自然语言处理(NLP)评估一致,并手动识别常见错误来源;(2) 宏观层面的图指标,这些指标评估社区检测和连通性等结构属性,这些属性与实际应用相关。 专注于从社交登记簿中提取的个人在组织中的隶属关系图,我们的研究发现了一种提取性能范围,在此范围内大多数下游图分析指标的偏差接近于零。 然而,随着提取性能下降,我们发现许多指标表现出越来越明显的偏差,每个指标倾向于一致地过度估计或低估。 通过模拟,我们进一步表明文献中常用的错误模型未能捕捉到这些偏差模式,这表明需要更现实的错误模型来用于知识图谱提取。 我们的研究结果为从业人员提供了可行的见解,并强调了改进提取方法和错误建模的重要性,以确保可靠且有意义的下游分析。
摘要: Knowledge graphs (KGs) are useful for analyzing social structures, community dynamics, institutional memberships, and other complex relationships across domains from sociology to public health. While recent advances in large language models (LLMs) have improved the scalability and accessibility of automated KG extraction from large text corpora, the impacts of extraction errors on downstream analyses are poorly understood, especially for applied scientists who depend on accurate KGs for real-world insights. To address this gap, we conducted the first evaluation of KG extraction performance at two levels: (1) micro-level edge accuracy, which is consistent with standard NLP evaluations, and manual identification of common error sources; (2) macro-level graph metrics that assess structural properties such as community detection and connectivity, which are relevant to real-world applications. Focusing on affiliation graphs of person membership in organizations extracted from social register books, our study identifies a range of extraction performance where biases across most downstream graph analysis metrics are near zero. However, as extraction performance declines, we find that many metrics exhibit increasingly pronounced biases, with each metric tending toward a consistent direction of either over- or under-estimation. Through simulations, we further show that error models commonly used in the literature do not capture these bias patterns, indicating the need for more realistic error models for KG extraction. Our findings provide actionable insights for practitioners and underscores the importance of advancing extraction methods and error modeling to ensure reliable and meaningful downstream analyses.
评论: 30页
主题: 计算与语言 (cs.CL) ; 社会与信息网络 (cs.SI)
引用方式: arXiv:2506.12367 [cs.CL]
  (或者 arXiv:2506.12367v1 [cs.CL] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.12367
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Erica Cai [查看电子邮件]
[v1] 星期六, 2025 年 6 月 14 日 06:14:06 UTC (3,256 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.SI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.CL

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号