Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2410.00010

帮助 | 高级搜索

电气工程与系统科学 > 信号处理

arXiv:2410.00010 (eess)
[提交于 2024年9月13日 ]

标题: PHemoNet:一种用于生理信号的多模态网络

标题: PHemoNet: A Multimodal Network for Physiological Signals

Authors:Eleonora Lopez, Aurelio Uncini, Danilo Comminiello
摘要: 情感识别在包括医疗应用和脑机接口(BCI)在内的众多领域中至关重要。情感反应包括行为反应,如语调和身体运动,以及生理信号的变化,如脑电图(EEG)。后者是无意识的,因此它们提供了可靠的情绪识别输入,而与之相反的是,前者可以由个体有意识地控制。这些信号揭示了真实的情感状态,而没有故意改变,从而提高了情感识别模型的准确性。然而,来自生理信号的多模态深度学习方法尚未得到显著研究。在本文中,我们介绍了PHemoNet,这是一种用于从生理信号中进行多模态情感识别的完全超复网络。具体来说,该架构包括模态特定编码器和融合模块。这两个编码器和融合模块通过参数化超复乘法(PHMs)定义在超复域中,能够捕捉每种模态的不同维度之间以及模态之间的潜在关系。所提出的方法在使用脑电图(EEG)和外周生理信号分类效价和唤醒度方面优于当前最先进的模型在MAHNOB-HCI数据集上的表现。这项工作的代码可以在https://github.com/ispamm/MHyEEG获得。
摘要: Emotion recognition is essential across numerous fields, including medical applications and brain-computer interface (BCI). Emotional responses include behavioral reactions, such as tone of voice and body movement, and changes in physiological signals, such as the electroencephalogram (EEG). The latter are involuntary, thus they provide a reliable input for identifying emotions, in contrast to the former which individuals can consciously control. These signals reveal true emotional states without intentional alteration, thus increasing the accuracy of emotion recognition models. However, multimodal deep learning methods from physiological signals have not been significantly investigated. In this paper, we introduce PHemoNet, a fully hypercomplex network for multimodal emotion recognition from physiological signals. In detail, the architecture comprises modality-specific encoders and a fusion module. Both encoders and fusion modules are defined in the hypercomplex domain through parameterized hypercomplex multiplications (PHMs) that can capture latent relations between the different dimensions of each modality and between the modalities themselves. The proposed method outperforms current state-of-the-art models on the MAHNOB-HCI dataset in classifying valence and arousal using electroencephalograms (EEGs) and peripheral physiological signals. The code for this work is available at https://github.com/ispamm/MHyEEG.
评论: 论文已被RTSI 2024接受
主题: 信号处理 (eess.SP) ; 机器学习 (cs.LG)
引用方式: arXiv:2410.00010 [eess.SP]
  (或者 arXiv:2410.00010v1 [eess.SP] 对于此版本)
  https://doi.org/10.48550/arXiv.2410.00010
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Eleonora Lopez [查看电子邮件]
[v1] 星期五, 2024 年 9 月 13 日 21:14:27 UTC (1,101 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
eess.SP
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-10
切换浏览方式为:
cs
cs.LG
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号