Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:2501.19106

帮助 | 高级搜索

定量生物学 > 神经与认知

arXiv:2501.19106 (q-bio)
[提交于 2025年1月31日 (v1) ,最后修订 2025年4月27日 (此版本, v2)]

标题: 大脑网络刚性维度的细微变化导致了认知能力的个体差异

标题: Subtle variations in stiff dimensions of brain networks account for individual differences in cognitive ability

Authors:Sida Chen, Qianyuan Tang, Taro Toyoizumi, Werner Sommer, Lianchun Yu, Changsong Zhou
摘要: 解释认知能力的个体差异需要既识别出跨个体变化的大脑参数,又理解大脑网络如何被招募来完成特定任务。 通常,任务表现依赖于功能亚网络的整合与分离,这些常通过区域兴奋性和连接性等参数来捕捉。 然而,这些参数的高维特性阻碍了确定它们的功能相关性。 在这里,我们对人类大脑数据应用刚性-松弛分析,揭示某些微妙的参数组合(“刚性维度”)在任务处理过程中强有力地影响神经活动,而另一些(“松弛维度”)则变化更大但影响微乎其微。 利用基于任务fMRI的二元最大熵模型,我们表明即使通过Fisher信息矩阵分析得出的刚性维度的小偏差也支配默认模式网络(DMN)和工作记忆网络(WMN)之间分离与整合之间的动态相互作用。 至关重要的是,区分0-back任务(警觉注意力)和2-back任务(工作记忆更新)揭示了预测每种条件性能的部分不同的刚性维度,以及两项任务共享的整体DMN-WMN分离。 总之,刚性-松弛分析挑战了对大参数变异性的传统关注,强调了这些微妙却功能上决定性的参数组合。
摘要: Explaining individual differences in cognitive abilities requires both identifying brain parameters that vary across individuals and understanding how brain networks are recruited for specific tasks. Typically, task performance relies on the integration and segregation of functional subnetworks, often captured by parameters like regional excitability and connectivity. Yet, the high dimensionality of these parameters hinders pinpointing their functional relevance. Here, we apply stiff-sloppy analysis to human brain data, revealing that certain subtle parameter combinations ("stiff dimensions") powerfully influence neural activity during task processing, whereas others ("sloppy dimensions") vary more extensively but exert minimal impact. Using a pairwise maximum entropy model of task fMRI, we show that even small deviations in stiff dimensions-derived through Fisher Information Matrix analysis-govern the dynamic interplay of segregation and integration between the default mode network (DMN) and a working memory network (WMN). Crucially, separating a 0-back task (vigilant attention) from a 2-back task (working memory updating) uncovers partially distinct stiff dimensions predicting performance in each condition, along with a global DMN-WMN segregation shared across both tasks. Altogether, stiff-sloppy analysis challenges the conventional focus on large parameter variability by highlighting these subtle yet functionally decisive parameter combinations.
主题: 神经与认知 (q-bio.NC)
引用方式: arXiv:2501.19106 [q-bio.NC]
  (或者 arXiv:2501.19106v2 [q-bio.NC] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.19106
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Sida Chen [查看电子邮件]
[v1] 星期五, 2025 年 1 月 31 日 13:03:42 UTC (2,569 KB)
[v2] 星期日, 2025 年 4 月 27 日 06:31:37 UTC (3,417 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
q-bio
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
q-bio.NC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号