Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.01924

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.01924 (cs)
[提交于 2025年7月2日 ]

标题: 探索一种混合深度学习方法用于心理健康保健提供者的异常检测:通过半监督异常检测解决标签稀缺问题

标题: Exploring a Hybrid Deep Learning Approach for Anomaly Detection in Mental Healthcare Provider Billing: Addressing Label Scarcity through Semi-Supervised Anomaly Detection

Authors:Samirah Bakker, Yao Ma, Seyed Sahand Mohammadi Ziabari
摘要: 心理健康医疗账单的复杂性导致了异常情况,包括欺诈行为。 虽然已经应用了机器学习方法来进行异常检测,但它们在处理类别不平衡、标签稀缺和复杂的序列模式方面常常遇到困难。 本研究探讨了一种混合深度学习方法,结合长短期记忆(LSTM)网络和Transformer,通过孤立森林(iForest)和自编码器(AE)进行伪标记。 以前的工作尚未在医疗账单背景下评估过在伪标记数据上训练的此类混合模型。 该方法在两个与心理健康医疗相关的实际账单数据集上进行了评估。 iForest LSTM基线在声明级数据上达到了最高的召回率(0.963)。 在操作级数据上,基于混合iForest的模型达到了最高的召回率(0.744),尽管是以较低的精确率为代价。 这些发现突显了在复杂且不平衡的异常检测环境中,将伪标记与混合深度学习相结合的潜力。
摘要: The complexity of mental healthcare billing enables anomalies, including fraud. While machine learning methods have been applied to anomaly detection, they often struggle with class imbalance, label scarcity, and complex sequential patterns. This study explores a hybrid deep learning approach combining Long Short-Term Memory (LSTM) networks and Transformers, with pseudo-labeling via Isolation Forests (iForest) and Autoencoders (AE). Prior work has not evaluated such hybrid models trained on pseudo-labeled data in the context of healthcare billing. The approach is evaluated on two real-world billing datasets related to mental healthcare. The iForest LSTM baseline achieves the highest recall (0.963) on declaration-level data. On the operation-level data, the hybrid iForest-based model achieves the highest recall (0.744), though at the cost of lower precision. These findings highlight the potential of combining pseudo-labeling with hybrid deep learning in complex, imbalanced anomaly detection settings.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI)
引用方式: arXiv:2507.01924 [cs.LG]
  (或者 arXiv:2507.01924v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.01924
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Seyed Sahand Mohammadi Ziabari [查看电子邮件]
[v1] 星期三, 2025 年 7 月 2 日 17:33:47 UTC (4,368 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号