Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:2507.09024

帮助 | 高级搜索

定量生物学 > 神经与认知

arXiv:2507.09024 (q-bio)
[提交于 2025年7月11日 (v1) ,最后修订 2025年7月18日 (此版本, v2)]

标题: CNeuroMod-THINGS,用于视觉神经科学的高采样fMRI数据集

标题: CNeuroMod-THINGS, a densely-sampled fMRI dataset for visual neuroscience

Authors:Marie St-Laurent, Basile Pinsard, Oliver Contier, Elizabeth DuPre, Katja Seeliger, Valentina Borghesani, Julie A. Boyle, Lune Bellec, Martin N. Hebart
摘要: 数据饥渴的神经人工智能建模需要越来越大的神经影像数据集。CNeuroMod-THINGS通过使用一个新的密集采样、大规模的fMRI数据集中的经过良好表征的图像,捕捉一系列语义概念的神经表征来满足这一需求。重要的是,CNeuroMod-THINGS利用了两个现有项目之间的协同效应:THINGS倡议(THINGS)和Courtois神经建模项目(CNeuroMod)。THINGS开发了一组共同的彻底标注的图像,广泛采样自然和人造物体,用于获取不断增长的大规模多模态神经反应集合。同时,CNeuroMod正在核心参与者群体中收集数百小时的fMRI数据,在受控和自然任务中进行,包括如电影观看和视频游戏播放等视觉任务。对于CNeuroMod-THINGS,四个CNeuroMod参与者各自完成了33至36次连续识别范式的会话,使用大约4000张来自THINGS刺激集的图像,涵盖720个类别。我们报告了展示数据质量的行为和神经影像指标。通过结合现有的大量资源,CNeuroMod-THINGS扩展了我们对建模人类视觉体验广泛部分的能力。
摘要: Data-hungry neuro-AI modelling requires ever larger neuroimaging datasets. CNeuroMod-THINGS meets this need by capturing neural representations for a wide set of semantic concepts using well-characterized images in a new densely-sampled, large-scale fMRI dataset. Importantly, CNeuroMod-THINGS exploits synergies between two existing projects: the THINGS initiative (THINGS) and the Courtois Project on Neural Modelling (CNeuroMod). THINGS has developed a common set of thoroughly annotated images broadly sampling natural and man-made objects which is used to acquire a growing collection of large-scale multimodal neural responses. Meanwhile, CNeuroMod is acquiring hundreds of hours of fMRI data from a core set of participants during controlled and naturalistic tasks, including visual tasks like movie watching and videogame playing. For CNeuroMod-THINGS, four CNeuroMod participants each completed 33-36 sessions of a continuous recognition paradigm using approximately 4000 images from the THINGS stimulus set spanning 720 categories. We report behavioural and neuroimaging metrics that showcase the quality of the data. By bridging together large existing resources, CNeuroMod-THINGS expands our capacity to model broad slices of the human visual experience.
评论: 16页的稿件,5张图表,9页的补充材料
主题: 神经与认知 (q-bio.NC) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.09024 [q-bio.NC]
  (或者 arXiv:2507.09024v2 [q-bio.NC] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.09024
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Marie St-Laurent [查看电子邮件]
[v1] 星期五, 2025 年 7 月 11 日 21:16:59 UTC (17,450 KB)
[v2] 星期五, 2025 年 7 月 18 日 21:09:28 UTC (23,061 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
许可图标 查看许可
当前浏览上下文:
q-bio.NC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.CV
q-bio

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号