Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2503.07104

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2503.07104 (eess)
[提交于 2025年3月10日 ]

标题: 全局上下文是并行高效纤维束成像分割所需的一切

标题: Global Context Is All You Need for Parallel Efficient Tractography Parcellation

Authors:Valentin von Bornhaupt, Johannes Gr端n, and Justus Bisten, Tobias Bauer, Theodor R端ber, Thomas Schultz
摘要: 弥散MRI中的全脑追踪通常会接着进行分割,其中每条轨迹线被分类为属于特定的白质束,或者被视为假阳性而被丢弃。高效的分割在大规模研究中非常重要,这些研究需要处理大量数据;同样,在临床环境中也非常重要,因为计算资源往往有限。 TractCloud 是一种最先进的方法,旨在通过局部-全局表示来最大化准确性。 我们证明了局部上下文对这种方法的准确性没有贡献,甚至在处理病理病例时是有害的。 基于这一观察,我们提出了 PETParc,这是一种新的并行高效轨迹分割方法。 PETParc 是一种基于 Transformer 的架构,其中全脑轨迹图被随机划分为子轨迹图,其轨迹线并行分类,同时作为彼此的全局上下文。 这使得相对于 TractCloud 的速度提高了两个数量级,并且即使在没有 GPU 的临床工作站上也可以进行推断。 PETParc 通过一种新颖的翻转不变嵌入,或者简单地将翻转用作数据增强的一部分,来考虑轨迹线方向的缺失。 尽管速度加快,但结果往往比以前的方法更好。 代码和预训练模型将在接受后公开。 ```
摘要: Whole-brain tractography in diffusion MRI is often followed by a parcellation in which each streamline is classified as belonging to a specific white matter bundle, or discarded as a false positive. Efficient parcellation is important both in large-scale studies, which have to process huge amounts of data, and in the clinic, where computational resources are often limited. TractCloud is a state-of-the-art approach that aims to maximize accuracy with a local-global representation. We demonstrate that the local context does not contribute to the accuracy of that approach, and is even detrimental when dealing with pathological cases. Based on this observation, we propose PETParc, a new method for Parallel Efficient Tractography Parcellation. PETParc is a transformer-based architecture in which the whole-brain tractogram is randomly partitioned into sub-tractograms whose streamlines are classified in parallel, while serving as global context for each other. This leads to a speedup of up to two orders of magnitude relative to TractCloud, and permits inference even on clinical workstations without a GPU. PETParc accounts for the lack of streamline orientation either via a novel flip-invariant embedding, or by simply using flips as part of data augmentation. Despite the speedup, results are often even better than those of prior methods. The code and pretrained model will be made public upon acceptance.
评论: 8页,2页参考文献,3个图,2个表格
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV); 机器学习 (cs.LG); 定量方法 (q-bio.QM)
MSC 类: 68T10, 92C55, 65Y05, 68U10
ACM 类: I.4.8; I.5.4; J.3; C.1.4; I.2.6
引用方式: arXiv:2503.07104 [eess.IV]
  (或者 arXiv:2503.07104v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2503.07104
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Justus Bisten [查看电子邮件]
[v1] 星期一, 2025 年 3 月 10 日 09:27:07 UTC (15,338 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
q-bio
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-03
切换浏览方式为:
cs
cs.CV
cs.LG
eess
eess.IV
q-bio.QM

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号