Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:1809.01281

帮助 | 高级搜索

定量生物学 > 神经与认知

arXiv:1809.01281 (q-bio)
[提交于 2018年9月5日 ]

标题: BOLD5000:5000张图像的公开fMRI数据集

标题: BOLD5000: A public fMRI dataset of 5000 images

Authors:Nadine Chang, John A. Pyles, Abhinav Gupta, Michael J. Tarr, Elissa M. Aminoff
摘要: 视觉科学,特别是机器视觉,由于引入了大规模图像数据集和统计学习方法而发生了革命性的变化。 然而,人类神经成像研究的视觉感知仍然依赖于少量的图像(大约100张),这是由于时间受限的实验程序。 为了应用整合神经科学的统计学习方法,神经成像中使用的图像数量必须显著增加。 我们提出了BOLD5000,一项包含几乎5,000张不同图像的人类功能磁共振成像(fMRI)研究,这些图像描绘了现实世界场景。 除了相对于以前的fMRI研究大幅增加了图像数据集的规模,BOLD5000还考虑了图像的多样性,通过纳入来自场景理解(SUN)、上下文中的常见物体(COCO)和ImageNet数据集的图像,与标准计算机视觉数据集有所重叠。 这些图像数据集的规模和多样性,结合缓慢的事件相关fMRI设计,使得对广泛范围的视觉特征、类别和语义的神经表征进行细致探索成为可能。 同时,BOLD5000使我们更接近实现马尔关于单一视觉科学的梦想——生物视觉和计算机视觉的交织研究。
摘要: Vision science, particularly machine vision, has been revolutionized by introducing large-scale image datasets and statistical learning approaches. Yet, human neuroimaging studies of visual perception still rely on small numbers of images (around 100) due to time-constrained experimental procedures. To apply statistical learning approaches that integrate neuroscience, the number of images used in neuroimaging must be significantly increased. We present BOLD5000, a human functional MRI (fMRI) study that includes almost 5,000 distinct images depicting real-world scenes. Beyond dramatically increasing image dataset size relative to prior fMRI studies, BOLD5000 also accounts for image diversity, overlapping with standard computer vision datasets by incorporating images from the Scene UNderstanding (SUN), Common Objects in Context (COCO), and ImageNet datasets. The scale and diversity of these image datasets, combined with a slow event-related fMRI design, enable fine-grained exploration into the neural representation of a wide range of visual features, categories, and semantics. Concurrently, BOLD5000 brings us closer to realizing Marr's dream of a singular vision science - the intertwined study of biological and computer vision.
评论: 正在提交给《Scientific Data》
主题: 神经与认知 (q-bio.NC) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:1809.01281 [q-bio.NC]
  (或者 arXiv:1809.01281v1 [q-bio.NC] 对于此版本)
  https://doi.org/10.48550/arXiv.1809.01281
通过 DataCite 发表的 arXiv DOI
相关 DOI: https://doi.org/10.1038/s41597-019-0052-3
链接到相关资源的 DOI

提交历史

来自: Nadine Chang [查看电子邮件]
[v1] 星期三, 2018 年 9 月 5 日 00:50:34 UTC (5,259 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
q-bio.NC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2018-09
切换浏览方式为:
cs
cs.CV
q-bio

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号