Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:2505.11538v2

帮助 | 高级搜索

定量生物学 > 神经与认知

arXiv:2505.11538v2 (q-bio)
[提交于 2025年5月14日 (v1) ,最后修订 2025年7月21日 (此版本, v2)]

标题: BrainNetMLP:一种用于功能脑网络分类的高效有效基线

标题: BrainNetMLP: An Efficient and Effective Baseline for Functional Brain Network Classification

Authors:Jiacheng Hou, Zhenjie Song, Ercan Engin Kuruoglu
摘要: 近年来,通过将大脑建模为感兴趣区域(ROIs)的网络,并利用它们的连接来理解大脑功能和诊断精神障碍,功能性脑网络分类取得了重大进展。 各种深度学习架构,包括卷积神经网络、图神经网络以及最近的Transformer,已被开发出来。 然而,尽管这些模型的复杂性不断增加,性能提升并不显著。 这引发了一个问题:增加模型复杂性是否必然导致更高的分类准确性? 在本文中,我们重新审视最简单的深度学习架构——多层感知机(MLP),并提出了一种纯MLP方法,称为BrainNetMLP,用于功能性脑网络分类,该方法充分利用了MLP的优势,包括高效的计算和更少的参数。 此外,BrainNetMLP结合了双分支结构,以联合捕捉空间连通性和频谱信息,实现精确的时空特征融合。 我们在两个公开且流行的脑网络分类数据集上评估了我们提出的BrainNetMLP,即人类连接组计划(HCP)和自闭症脑成像数据交换(ABIDE)。 实验结果表明,纯MLP方法可以达到最先进的性能,揭示了基于MLP的模型在功能性脑网络分类中作为更高效且有效的替代方案的潜力。 代码将在 https://github.com/JayceonHo/BrainNetMLP 上提供。
摘要: Recent studies have made great progress in functional brain network classification by modeling the brain as a network of Regions of Interest (ROIs) and leveraging their connections to understand brain functionality and diagnose mental disorders. Various deep learning architectures, including Convolutional Neural Networks, Graph Neural Networks, and the recent Transformer, have been developed. However, despite the increasing complexity of these models, the performance gain has not been as salient. This raises a question: Does increasing model complexity necessarily lead to higher classification accuracy? In this paper, we revisit the simplest deep learning architecture, the Multi-Layer Perceptron (MLP), and propose a pure MLP-based method, named BrainNetMLP, for functional brain network classification, which capitalizes on the advantages of MLP, including efficient computation and fewer parameters. Moreover, BrainNetMLP incorporates a dual-branch structure to jointly capture both spatial connectivity and spectral information, enabling precise spatiotemporal feature fusion. We evaluate our proposed BrainNetMLP on two public and popular brain network classification datasets, the Human Connectome Project (HCP) and the Autism Brain Imaging Data Exchange (ABIDE). Experimental results demonstrate pure MLP-based methods can achieve state-of-the-art performance, revealing the potential of MLP-based models as more efficient yet effective alternatives in functional brain network classification. The code will be available at https://github.com/JayceonHo/BrainNetMLP.
评论: 已被接受为第一届MICCAI高效医学AI研讨会的口头报告
主题: 神经与认知 (q-bio.NC) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2505.11538 [q-bio.NC]
  (或者 arXiv:2505.11538v2 [q-bio.NC] 对于此版本)
  https://doi.org/10.48550/arXiv.2505.11538
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jiacheng Hou [查看电子邮件]
[v1] 星期三, 2025 年 5 月 14 日 10:55:51 UTC (1,389 KB)
[v2] 星期一, 2025 年 7 月 21 日 11:38:17 UTC (887 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
q-bio.NC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-05
切换浏览方式为:
cs
cs.CV
q-bio

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号