Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:2507.12858

帮助 | 高级搜索

定量生物学 > 神经与认知

arXiv:2507.12858 (q-bio)
[提交于 2025年7月17日 ]

标题: 通过循环神经网络中的互信息优化出现功能分化结构

标题: Emergence of Functionally Differentiated Structures via Mutual Information Optimization in Recurrent Neural Networks

Authors:Yuki Tomoda, Ichiro Tsuda, Yutaka Yamaguti
摘要: 大脑中的功能分化随着不同区域的专业化而出现,这对于理解大脑作为一个复杂系统的行为至关重要。 先前的研究使用具有特定约束的人工神经网络对这一过程进行了建模。 在此,我们提出了一种新方法,通过互信息神经估计最小化神经子群之间的互信息,从而在循环神经网络中诱导功能分化。 我们将该方法应用于一个2位工作记忆任务和一个涉及Lorenz和Rössler时间序列的混沌信号分离任务。 对网络性能、相关模式和权重矩阵的分析表明,互信息最小化在实现高任务性能的同时,也表现出清晰的功能模块性和适度的结构模块性。 重要的是,我们的结果表明,通过相关结构测量的功能分化比由突触权重定义的结构模块性更早出现。 这表明功能专业化先于并可能驱动发育中的神经网络内的结构重组。 我们的发现为信息论原则如何在人工和生物大脑发育过程中支配专门功能和模块化结构的出现提供了新的见解。
摘要: Functional differentiation in the brain emerges as distinct regions specialize and is key to understanding brain function as a complex system. Previous research has modeled this process using artificial neural networks with specific constraints. Here, we propose a novel approach that induces functional differentiation in recurrent neural networks by minimizing mutual information between neural subgroups via mutual information neural estimation. We apply our method to a 2-bit working memory task and a chaotic signal separation task involving Lorenz and R\"ossler time series. Analysis of network performance, correlation patterns, and weight matrices reveals that mutual information minimization yields high task performance alongside clear functional modularity and moderate structural modularity. Importantly, our results show that functional differentiation, which is measured through correlation structures, emerges earlier than structural modularity defined by synaptic weights. This suggests that functional specialization precedes and probably drives structural reorganization within developing neural networks. Our findings provide new insights into how information-theoretic principles may govern the emergence of specialized functions and modular structures during artificial and biological brain development.
主题: 神经与认知 (q-bio.NC) ; 适应性与自组织系统 (nlin.AO)
引用方式: arXiv:2507.12858 [q-bio.NC]
  (或者 arXiv:2507.12858v1 [q-bio.NC] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.12858
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yutaka Yamaguti [查看电子邮件]
[v1] 星期四, 2025 年 7 月 17 日 07:30:28 UTC (6,002 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
q-bio.NC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
nlin
nlin.AO
q-bio

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号