Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:1904.00431v2

帮助 | 高级搜索

定量生物学 > 神经与认知

arXiv:1904.00431v2 (q-bio)
[提交于 2019年3月31日 (v1) ,最后修订 2019年11月6日 (此版本, v2)]

标题: 深度神经网络是否在人类-物体交互的神经表征中模拟非线性组合性?

标题: Do Deep Neural Networks Model Nonlinear Compositionality in the Neural Representation of Human-Object Interactions?

Authors:Aditi Jha, Sumeet Agarwal
摘要: 视觉场景理解通常需要处理人与物体的交互。 在这里,我们试图探讨深度神经网络(DNN)模型在多大程度上能够捕捉到类似于大脑对人类、物体及其交互的表示特征。 我们研究处理人类、物体或交互特定信息的脑区,并建立它们与DNN特征之间的对应关系。 我们的结果表明,我们可以利用DNN表示来推断这些区域对特定视觉刺激的选择性。 我们还将DNN的特征映射到这些脑区,从而将DNN表示与视觉皮层特定部分中发现的表示联系起来。 特别是,我们的结果表明,典型的DNN表示包含对人-物体交互的组合信息编码,这超出了两个组成部分编码的线性组合,因此表明DNN可能能够模拟生物视觉的这一重要特性。
摘要: Visual scene understanding often requires the processing of human-object interactions. Here we seek to explore if and how well Deep Neural Network (DNN) models capture features similar to the brain's representation of humans, objects, and their interactions. We investigate brain regions which process human-, object-, or interaction-specific information, and establish correspondences between them and DNN features. Our results suggest that we can infer the selectivity of these regions to particular visual stimuli using DNN representations. We also map features from the DNN to the regions, thus linking the DNN representations to those found in specific parts of the visual cortex. In particular, our results suggest that a typical DNN representation contains encoding of compositional information for human-object interactions which goes beyond a linear combination of the encodings for the two components, thus suggesting that DNNs may be able to model this important property of biological vision.
评论: 4页,2图;在CCN 2019上发表
主题: 神经与认知 (q-bio.NC)
引用方式: arXiv:1904.00431 [q-bio.NC]
  (或者 arXiv:1904.00431v2 [q-bio.NC] 对于此版本)
  https://doi.org/10.48550/arXiv.1904.00431
通过 DataCite 发表的 arXiv DOI
相关 DOI: https://doi.org/10.32470/CCN.2019.1269-0
链接到相关资源的 DOI

提交历史

来自: Sumeet Agarwal [查看电子邮件]
[v1] 星期日, 2019 年 3 月 31 日 15:07:48 UTC (266 KB)
[v2] 星期三, 2019 年 11 月 6 日 17:14:38 UTC (81 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
q-bio.NC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2019-04
切换浏览方式为:
q-bio

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号