Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2507.02003

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2507.02003 (eess)
[提交于 2025年7月1日 (v1) ,最后修订 2025年7月5日 (此版本, v2)]

标题: 无监督心脏视频翻译通过运动特征引导的扩散模型

标题: Unsupervised Cardiac Video Translation Via Motion Feature Guided Diffusion Model

Authors:Swakshar Deb, Nian Wu, Frederick H. Epstein, Miaomiao Zhang
摘要: 本文提出了一种新颖的运动特征引导扩散模型用于无配对的视频到视频翻译(MFD-V2V),旨在从低对比度、易受伪影影响的刺激回波位移编码(DENSE)CMR序列中合成动态、高对比度的心脏磁共振电影(CMR)。 为了实现这一目标,我们首先引入了一个潜在时间多注意力(LTMA)配准网络,该网络能够有效地从心脏磁共振电影图像视频中学习更准确和一致的心脏运动。 随后,开发了一种多级运动特征引导扩散模型,配备了一个专门的时空运动编码器(STME)以提取精细的运动条件,从而提高合成质量和保真度。 我们在全面的心脏数据集上评估了我们的方法MFD-V2V,在定量指标和定性评估方面均优于最先进水平。 此外,我们展示了合成的心脏磁共振电影在下游临床和分析任务中的优势,突显了我们方法的更广泛影响。 我们的代码可在https://github.com/SwaksharDeb/MFD-V2V公开获取。
摘要: This paper presents a novel motion feature guided diffusion model for unpaired video-to-video translation (MFD-V2V), designed to synthesize dynamic, high-contrast cine cardiac magnetic resonance (CMR) from lower-contrast, artifact-prone displacement encoding with stimulated echoes (DENSE) CMR sequences. To achieve this, we first introduce a Latent Temporal Multi-Attention (LTMA) registration network that effectively learns more accurate and consistent cardiac motions from cine CMR image videos. A multi-level motion feature guided diffusion model, equipped with a specialized Spatio-Temporal Motion Encoder (STME) to extract fine-grained motion conditioning, is then developed to improve synthesis quality and fidelity. We evaluate our method, MFD-V2V, on a comprehensive cardiac dataset, demonstrating superior performance over the state-of-the-art in both quantitative metrics and qualitative assessments. Furthermore, we show the benefits of our synthesized cine CMRs improving downstream clinical and analytical tasks, underscoring the broader impact of our approach. Our code is publicly available at https://github.com/SwaksharDeb/MFD-V2V.
评论: 这项工作已被接受在第28届国际医学图像计算与计算机辅助干预会议(MICCAI 2025)上进行展示。
主题: 图像与视频处理 (eess.IV)
引用方式: arXiv:2507.02003 [eess.IV]
  (或者 arXiv:2507.02003v2 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.02003
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Swakshar Deb [查看电子邮件]
[v1] 星期二, 2025 年 7 月 1 日 20:28:28 UTC (1,977 KB)
[v2] 星期六, 2025 年 7 月 5 日 18:20:27 UTC (1,977 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号