Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2507.18012v1

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2507.18012v1 (eess)
[提交于 2025年7月24日 ]

标题: 基于模型的去噪扩散模型的直接双能CT材料分解

标题: Direct Dual-Energy CT Material Decomposition using Model-based Denoising Diffusion Model

Authors:Hang Xu, Alexandre Bousse, Alessandro Perelli
摘要: 双能X射线计算机断层扫描(DECT)是一种先进技术,它能够利用X射线线性衰减与能量的依赖关系,在无需手动分割的情况下自动分解临床图像中的材料。 然而,大多数方法在图像域中进行材料分解,作为重建后的后处理步骤,但此过程未考虑束硬化效应,导致结果不理想。 在本工作中,我们提出了一种称为基于双能分解模型的扩散(DEcomp-MoD)的深度学习方法,用于定量材料分解,该方法直接将DECT投影数据转换为材料图像。 该算法基于将光谱DECT模型的知识纳入深度学习训练损失,并在材料图像域中结合基于分数的去噪扩散先验。 重要的是,推理优化损失直接以sinogram作为输入,并通过基于模型的条件扩散模型转换为材料图像,从而保证结果的一致性。 我们通过定量和定性估计评估了所提出的DEcomp-MoD方法在低剂量AAPM数据集合成DECT sinogram上的性能。 最后,我们展示了DEcomp-MoD优于最先进的无监督分数模型和监督深度学习网络,具有部署用于临床诊断的潜力。
摘要: Dual-energy X-ray Computed Tomography (DECT) constitutes an advanced technology which enables automatic decomposition of materials in clinical images without manual segmentation using the dependency of the X-ray linear attenuation with energy. However, most methods perform material decomposition in the image domain as a post-processing step after reconstruction but this procedure does not account for the beam-hardening effect and it results in sub-optimal results. In this work, we propose a deep learning procedure called Dual-Energy Decomposition Model-based Diffusion (DEcomp-MoD) for quantitative material decomposition which directly converts the DECT projection data into material images. The algorithm is based on incorporating the knowledge of the spectral DECT model into the deep learning training loss and combining a score-based denoising diffusion learned prior in the material image domain. Importantly the inference optimization loss takes as inputs directly the sinogram and converts to material images through a model-based conditional diffusion model which guarantees consistency of the results. We evaluate the performance with both quantitative and qualitative estimation of the proposed DEcomp-MoD method on synthetic DECT sinograms from the low-dose AAPM dataset. Finally, we show that DEcomp-MoD outperform state-of-the-art unsupervised score-based model and supervised deep learning networks, with the potential to be deployed for clinical diagnosis.
评论: 13页,10图,2表
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV); 医学物理 (physics.med-ph)
MSC 类: 92C55, 94A08
ACM 类: I.4.5; J.3
引用方式: arXiv:2507.18012 [eess.IV]
  (或者 arXiv:2507.18012v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.18012
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Alessandro Perelli [查看电子邮件]
[v1] 星期四, 2025 年 7 月 24 日 01:00:06 UTC (5,513 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.CV
eess
physics
physics.med-ph

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号