Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:1106.3616v1

帮助 | 高级搜索

定量生物学 > 神经与认知

arXiv:1106.3616v1 (q-bio)
[提交于 2011年6月18日 (此版本) , 最新版本 2015年7月31日 (v5) ]

标题: 拉姆齐理论揭示了在子采样数据上稀疏编码的唯一性条件

标题: Ramsey theory reveals the conditions when sparse coding on subsampled data is unique

Authors:Christopher J. Hillar, Friedrich T. Sommer
摘要: 稀疏编码或字典学习已被广泛用于揭示多种感觉数据中的稀疏底层结构。 信号处理中的一项相关进展是压缩感知,这是一种解释如何将稀疏数据以低于奈奎斯特-香农极限的速率进行采样,并从这些采样中高效恢复的理论。 在这里,我们研究压缩感知中的恢复条件是否足以使字典学习发现采样数据的原始稀疏原因。 利用组合Ramsey理论,我们完全表征了何时学习得到的字典矩阵和采样数据的稀疏表示是唯一的(在排列和缩放的自然等价性下)。 令人惊讶的是,无需对学习得到的字典或推断出的稀疏代码做出任何假设,唯一性就被证明成立。 我们的结果对于从采样数据中学习过完备字典具有重要意义,并在数据分析和神经科学中具有潜在应用。 例如,它将稀疏编码识别为通过严重瓶颈实现无损通信的一种可能学习机制,这可能解释不同脑区如何通过轴突纤维投射进行通信。
摘要: Sparse coding or dictionary learning has been widely used to reveal the sparse underlying structure of many kinds of sensory data. A related advance in signal processing is compressed sensing, a theory explaining how sparse data can be subsampled below the Nyquist-Shannon limit and then efficiently recovered from these subsamples. Here we study whether the conditions for recovery in compressed sensing are sufficient for dictionary learning to discover the original sparse causes of subsampled data. Using combinatorial Ramsey theory, we completely characterize when the learned dictionary matrix and sparse representations of subsampled data are unique (up to the natural equivalences of permutation and scaling). Surprisingly, uniqueness is shown to hold without any assumptions on the learned dictionaries or inferred sparse codes. Our result has implications for the learning of overcomplete dictionaries from subsampled data and has potential applications in data analysis and neuroscience. For instance, it identifies sparse coding as a possible learning mechanism for establishing lossless communication through severe bottlenecks, which might explain how different brain regions communicate through axonal fiber projections.
评论: 8页,2图
主题: 神经与认知 (q-bio.NC) ; 组合数学 (math.CO)
引用方式: arXiv:1106.3616 [q-bio.NC]
  (或者 arXiv:1106.3616v1 [q-bio.NC] 对于此版本)
  https://doi.org/10.48550/arXiv.1106.3616
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Christopher Hillar [查看电子邮件]
[v1] 星期六, 2011 年 6 月 18 日 05:06:20 UTC (2,048 KB)
[v2] 星期四, 2011 年 11 月 17 日 13:59:44 UTC (2,049 KB)
[v3] 星期五, 2013 年 5 月 24 日 03:17:09 UTC (1,348 KB)
[v4] 星期五, 2015 年 2 月 13 日 18:20:53 UTC (217 KB)
[v5] 星期五, 2015 年 7 月 31 日 16:34:45 UTC (217 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
q-bio.NC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2011-06
切换浏览方式为:
math
math.CO
q-bio

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号