Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math-ph > arXiv:2412.17273

帮助 | 高级搜索

数学物理

arXiv:2412.17273 (math-ph)
[提交于 2024年12月23日 ]

标题: 平衡兴奋与抑制的神经网络的流体动力学极限

标题: The Hydrodynamic Limit of Neural Networks with Balanced Excitation and Inhibition

Authors:James MacLaurin, Pedro Vilanova
摘要: 平衡神经网络理论是对大脑活动高度变异性和随机性的非常流行的解释。 我们确定了2n个神经元的平衡全连接网络在渐近大n情况下的流体力学极限方程。神经元被分为两类(兴奋性和抑制性)。 每个兴奋性神经元刺激其他所有神经元,每个抑制性神经元抑制其他所有神经元。 该模型具有随机混合性质,使得每个神经元的突触响应由常微分方程控制。 神经元j对神经元k的影响由一个尖峰泊松过程决定,其强度由神经元j的突触增强的逻辑函数给出。 相互作用按n^{-1/2}进行缩放,这比经典相互作用粒子系统的n^{-1}缩放要强得多。 我们证明,在适当条件下,当n趋于无穷时系统不会爆炸,因为网络活动在兴奋性和抑制性输入之间是平衡的。 极限种群动力学被证明是高斯的:均值由兴奋和抑制之间的平衡决定,方差由非齐次泊松过程的中心极限定理决定。 因此,极限方程可以表示为均值和方差的自主常微分方程。
摘要: The theory of `Balanced Neural Networks' is a very popular explanation for the high degree of variability and stochasticity in the brain's activity. We determine equations for the hydrodynamic limit of a balanced all-to-all network of 2n neurons for asymptotically large n. The neurons are divided into two classes (excitatory and inhibitory). Each excitatory neuron excites every other neuron, and each inhibitory neuron inhibits all of the other neurons. The model is of a stochastic hybrid nature, such that the synaptic response of each neuron is governed by an ordinary differential equation. The effect of neuron j on neuron k is dictated by a spiking Poisson Process, with intensity given by a sigmoidal function of the synaptic potentiation of neuron j. The interactions are scaled by n^{-1/2} , which is much stronger than the n^{-1} scaling of classical interacting particle systems. We demonstrate that, under suitable conditions, the system does not blow up as n asymptotes to infinity because the network activity is balanced between excitatory and inhibitory inputs. The limiting population dynamics is proved to be Gaussian: with the mean determined by the balanced between excitation and inhibition, and the variance determined by the Central Limit Theorem for inhomogeneous Poisson Processes. The limiting equations can thus be expressed as autonomous Ordinary Differential Equations for the means and variances.
主题: 数学物理 (math-ph) ; 概率 (math.PR); 神经与认知 (q-bio.NC)
引用方式: arXiv:2412.17273 [math-ph]
  (或者 arXiv:2412.17273v1 [math-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2412.17273
通过 DataCite 发表的 arXiv DOI

提交历史

来自: James MacLaurin Dr [查看电子邮件]
[v1] 星期一, 2024 年 12 月 23 日 04:55:35 UTC (609 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-12
切换浏览方式为:
math-ph
math.MP
math.PR
q-bio
q-bio.NC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号