Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.14542

帮助 | 高级搜索

计算机科学 > 计算工程、金融与科学

arXiv:2507.14542 (cs)
[提交于 2025年7月19日 ]

标题: 基于自监督蒸馏的遗留规则方法在增强基于EEG的决策中的应用

标题: Self-Supervised Distillation of Legacy Rule-Based Methods for Enhanced EEG-Based Decision-Making

Authors:Yipeng Zhang, Yuanyi Ding, Chenda Duan, Atsuro Daida, Hiroki Nariai, Vwani Roychowdhury
摘要: 高频振荡(HFOs)在颅内脑电图(iEEG)中是定位癫痫治疗中致痫区的关键生物标志物。然而,传统的基于规则的HFO检测器精度不令人满意,会产生需要耗时人工审查的假阳性结果。监督机器学习方法已被用于分类检测结果,但它们通常依赖于标记的数据集,由于需要专业技能,获取这些数据集很困难。此外,由于不同机构之间评分者间可靠性低和注释实践不一致,准确标记HFOs具有挑战性。对什么是病理HFO缺乏明确共识进一步挑战了监督精炼方法。为了解决这个问题,我们利用了一个见解,即尽管传统检测器的假阳性率相对较高,但它们能够可靠地捕捉临床相关的信号。因此,我们提出了自监督到标签发现(SS2LD)框架,将传统检测器生成的大量候选事件精炼为精确的病理HFOs集合。SS2LD使用变分自动编码器(VAE)进行形态预训练,以学习检测事件的有意义潜在表示。这些表示被聚类以推导出病理事件的弱监督。然后,分类器使用这种监督来精炼检测边界,训练数据包括真实数据和VAE增强数据。在大型多机构间期iEEG数据集上评估,SS2LD优于最先进的方法。SS2LD提供了一种可扩展、标签高效且临床上有效的策略,利用传统检测器识别病理HFOs。
摘要: High-frequency oscillations (HFOs) in intracranial Electroencephalography (iEEG) are critical biomarkers for localizing the epileptogenic zone in epilepsy treatment. However, traditional rule-based detectors for HFOs suffer from unsatisfactory precision, producing false positives that require time-consuming manual review. Supervised machine learning approaches have been used to classify the detection results, yet they typically depend on labeled datasets, which are difficult to acquire due to the need for specialized expertise. Moreover, accurate labeling of HFOs is challenging due to low inter-rater reliability and inconsistent annotation practices across institutions. The lack of a clear consensus on what constitutes a pathological HFO further challenges supervised refinement approaches. To address this, we leverage the insight that legacy detectors reliably capture clinically relevant signals despite their relatively high false positive rates. We thus propose the Self-Supervised to Label Discovery (SS2LD) framework to refine the large set of candidate events generated by legacy detectors into a precise set of pathological HFOs. SS2LD employs a variational autoencoder (VAE) for morphological pre-training to learn meaningful latent representation of the detected events. These representations are clustered to derive weak supervision for pathological events. A classifier then uses this supervision to refine detection boundaries, trained on real and VAE-augmented data. Evaluated on large multi-institutional interictal iEEG datasets, SS2LD outperforms state-of-the-art methods. SS2LD offers a scalable, label-efficient, and clinically effective strategy to identify pathological HFOs using legacy detectors.
主题: 计算工程、金融与科学 (cs.CE) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.14542 [cs.CE]
  (或者 arXiv:2507.14542v1 [cs.CE] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.14542
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Chenda Duan [查看电子邮件]
[v1] 星期六, 2025 年 7 月 19 日 09:01:13 UTC (1,921 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CE
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号