Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.13071

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2501.13071 (cs)
[提交于 2025年1月22日 ]

标题: 基于有限二维切片生成三维CT体积的鲁棒人体成分分析

标题: Robust Body Composition Analysis by Generating 3D CT Volumes from Limited 2D Slices

Authors:Lianrui Zuo, Xin Yu, Dingjie Su, Kaiwen Xu, Aravind R. Krishnan, Yihao Liu, Shunxing Bao, Fabien Maldonado, Luigi Ferrucci, Bennett A. Landman
摘要: 身体成分分析为衰老、疾病进展和整体健康状况提供了有价值的见解。由于辐射暴露的担忧,二维(2D)单切片计算机断层扫描(CT)成像被反复用于身体成分分析。然而,这种方法引入了显著的空间变异性,可能会影响分析的准确性和稳健性。为了缓解这一问题并促进身体成分分析,本文提出了一种使用潜在扩散模型(LDM)从有限数量的2D切片生成3D CT体积的新方法。我们的方法首先使用变分自编码器将2D切片映射到潜在表示空间。然后训练LDM捕捉这些潜在表示堆栈的3D上下文。为了准确插补中间切片并构建完整的3D体积,我们利用身体部位回归来确定获得切片之间的空间位置和距离。在内部和公共的3D腹部CT数据集上的实验表明,与传统的基于2D的分析相比,所提出的方法显著提升了身体成分分析的效果,误差率从23.3%降低到了15.2%。
摘要: Body composition analysis provides valuable insights into aging, disease progression, and overall health conditions. Due to concerns of radiation exposure, two-dimensional (2D) single-slice computed tomography (CT) imaging has been used repeatedly for body composition analysis. However, this approach introduces significant spatial variability that can impact the accuracy and robustness of the analysis. To mitigate this issue and facilitate body composition analysis, this paper presents a novel method to generate 3D CT volumes from limited number of 2D slices using a latent diffusion model (LDM). Our approach first maps 2D slices into a latent representation space using a variational autoencoder. An LDM is then trained to capture the 3D context of a stack of these latent representations. To accurately interpolate intermediateslices and construct a full 3D volume, we utilize body part regression to determine the spatial location and distance between the acquired slices. Experiments on both in-house and public 3D abdominal CT datasets demonstrate that the proposed method significantly enhances body composition analysis compared to traditional 2D-based analysis, with a reduced error rate from 23.3% to 15.2%.
主题: 计算机视觉与模式识别 (cs.CV) ; 图像与视频处理 (eess.IV)
引用方式: arXiv:2501.13071 [cs.CV]
  (或者 arXiv:2501.13071v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.13071
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Lianrui Zuo [查看电子邮件]
[v1] 星期三, 2025 年 1 月 22 日 18:32:23 UTC (2,742 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs.CV
eess
eess.IV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号