Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.14197

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2501.14197 (cs)
[提交于 2025年1月24日 ]

标题: 图异常检测中的双向课程学习:同质性和异质性的双重关注

标题: Bi-directional Curriculum Learning for Graph Anomaly Detection: Dual Focus on Homogeneity and Heterogeneity

Authors:Yitong Hao, Enbo He, Yue Zhang, Guisheng Yin
摘要: 图异常检测(GAD)旨在识别图中显著不同于正常模式的节点。大多数先前的研究是基于模型驱动的,重点在于通过改进模型结构来增强检测效果。然而,这些方法通常对所有节点一视同仁,忽略了不同节点对训练的不同贡献。因此,我们引入了图课程学习作为一种简单有效的即插即用模块来优化GAD方法。现有的图课程学习主要关注图的同质性,并将具有高同质性的节点视为简单节点。实际上,GAD模型不仅可以处理图的同质性,还可以处理异质性,这导致现有方法的不适配。为了解决这个问题,我们提出了一种创新的双向课程学习策略(BCL),该策略分别将与邻近节点具有较高和较低相似度的节点视为关注同质性和关注异质性方向上的简单节点,并优先对其进行训练。广泛的实验表明,BCL可以快速集成到现有的检测过程中,并显著提升十种GAD异常检测模型在七个常用数据集上的性能。
摘要: Graph anomaly detection (GAD) aims to identify nodes from a graph that are significantly different from normal patterns. Most previous studies are model-driven, focusing on enhancing the detection effect by improving the model structure. However, these approaches often treat all nodes equally, neglecting the different contributions of various nodes to the training. Therefore, we introduce graph curriculum learning as a simple and effective plug-and-play module to optimize GAD methods. The existing graph curriculum learning mainly focuses on the homogeneity of graphs and treats nodes with high homogeneity as easy nodes. In fact, GAD models can handle not only graph homogeneity but also heterogeneity, which leads to the unsuitability of these existing methods. To address this problem, we propose an innovative Bi-directional Curriculum Learning strategy (BCL), which considers nodes with higher and lower similarity to neighbor nodes as simple nodes in the direction of focusing on homogeneity and focusing on heterogeneity, respectively, and prioritizes their training. Extensive experiments show that BCL can be quickly integrated into existing detection processes and significantly improves the performance of ten GAD anomaly detection models on seven commonly used datasets.
评论: 8页,5个图
主题: 机器学习 (cs.LG) ; 社会与信息网络 (cs.SI); 机器学习 (stat.ML)
引用方式: arXiv:2501.14197 [cs.LG]
  (或者 arXiv:2501.14197v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.14197
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yitong Hao [查看电子邮件]
[v1] 星期五, 2025 年 1 月 24 日 03:01:16 UTC (863 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.SI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.LG
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号