Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2501.00557v1

帮助 | 高级搜索

电气工程与系统科学 > 信号处理

arXiv:2501.00557v1 (eess)
[提交于 2024年12月31日 ]

标题: NeuroSleepNet:一种基于多头自注意力的自动睡眠评分方案,具有空间和多尺度时序表示学习

标题: NeuroSleepNet: A Multi-Head Self-Attention Based Automatic Sleep Scoring Scheme with Spatial and Multi-Scale Temporal Representation Learning

Authors:Muhammad Sudipto Siam Dip, Mohammod Abdul Motin, Chandan Karmakar, Thomas Penzel, Marimuthu Palaniswami
摘要: 目的:自动睡眠评分对于诊断睡眠障碍至关重要。 基于多导睡眠图的现有框架通常依赖于长序列的输入信号来预测睡眠阶段,这可能引入复杂性。 此外,在睡眠评分方法中简化表示学习的探索有限。 方法:在这项研究中,我们提出了NeuroSleepNet,这是一种自动睡眠评分方法,旨在仅使用当前输入信号中的微事件来分类当前的睡眠阶段,而无需过去的输入。 我们的模型采用监督空间和多尺度时间上下文学习,并结合了Transformer编码器以增强表示学习。 此外,为了在五个睡眠阶段之间实现平衡性能,NeuroSleepNet通过引入基于对数标度的加权技术作为损失函数进行了优化。 结果:NeuroSleepNet实现了与当前最先进的结果相似且可比的性能。 对于Sleep-EDF扩展数据集,最佳准确率、宏F1分数和Cohen's kappa分别为86.1%、80.8%和0.805;对于MESA数据集,分别为82.0%、76.3%和0.753;对于Physio2018数据集,分别为80.5%、76.8%和0.738;对于SHHS数据库,分别为86.7%、80.9%和0.804。 结论:NeuroSleepNet表明,即使专注于计算效率和纯粹的监督学习方法,也可以实现与最先进的方法相当的性能。 意义:我们的研究通过仅关注当前输入信号中的微事件来简化自动睡眠评分,同时保持卓越的性能。 这为睡眠诊断应用提供了一个简化的替代方案。
摘要: Objective: Automatic sleep scoring is crucial for diagnosing sleep disorders. Existing frameworks based on Polysomnography often rely on long sequences of input signals to predict sleep stages, which can introduce complexity. Moreover, there is limited exploration of simplifying representation learning in sleep scoring methods. Methods: In this study, we propose NeuroSleepNet, an automatic sleep scoring method designed to classify the current sleep stage using only the microevents in the current input signal, without the need for past inputs. Our model employs supervised spatial and multi-scale temporal context learning and incorporates a transformer encoder to enhance representation learning. Additionally, NeuroSleepNet is optimized for balanced performance across five sleep stages by introducing a logarithmic scale-based weighting technique as a loss function. Results: NeuroSleepNet achieved similar and comparable performance with current state-of-the-art results. The best accuracy, macro-F1 score, and Cohen's kappa were 86.1 percent, 80.8 percent, and 0.805 for Sleep-EDF expanded; 82.0 percent, 76.3 percent, and 0.753 for MESA; 80.5 percent, 76.8 percent, and 0.738 for Physio2018; and 86.7 percent, 80.9 percent, and 0.804 for the SHHS database. Conclusion: NeuroSleepNet demonstrates that even with a focus on computational efficiency and a purely supervised learning approach, it is possible to achieve performance that is comparable to state-of-the-art methods. Significance: Our study simplifies automatic sleep scoring by focusing solely on microevents in the current input signal while maintaining remarkable performance. This offers a streamlined alternative for sleep diagnosis applications.
主题: 信号处理 (eess.SP)
引用方式: arXiv:2501.00557 [eess.SP]
  (或者 arXiv:2501.00557v1 [eess.SP] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.00557
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Muhammad Sudipto Siam Dip [查看电子邮件]
[v1] 星期二, 2024 年 12 月 31 日 17:42:04 UTC (1,350 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
eess.SP
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号