Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2501.01456

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2501.01456 (eess)
[提交于 2024年12月31日 ]

标题: SS-CTML:用于CT图像重建的自监督跨任务互学习

标题: SS-CTML: Self-Supervised Cross-Task Mutual Learning for CT Image Reconstruction

Authors:Gaofeng Chen, Yaoduo Zhang, Li Huang, Pengfei Wang, Wenyu Zhang, Dong Zeng, Jianhua Ma, Ji He
摘要: 监督深度学习(SDL)技术在配对训练数据集上已被广泛研究用于X射线计算机断层扫描(CT)图像重建。 然而,由于在临床常规中获取配对训练数据集存在困难,SDL方法在临床实践中仍难以广泛应用。 近年来,自监督深度学习(SSDL)技术在CT图像重建研究中显示出巨大潜力。 在本工作中,我们提出了一种自监督跨任务互学习(SS-CTML)框架用于CT图像重建。 具体来说,首先从全视角扫描的sinogram数据中提取出稀疏视角扫描和有限视角扫描的sinogram数据,这导致了三个独立的重建任务,即全视角CT(FVCT)重建、稀疏视角CT(SVCT)重建和有限视角CT(LVCT)重建。 然后,为这三个重建任务构建了三个神经网络。 考虑到这三个任务的最终目标都是重建高质量的CT图像,因此我们为这三个任务构建了一组跨任务互学习目标,通过这种方式,三个神经网络可以通过相互学习进行自监督优化。 采用临床数据集来评估所提出框架的有效性。 实验结果表明,SS-CTML框架在定量和定性测量方面都能获得有前景的CT图像重建性能。
摘要: Supervised deep-learning (SDL) techniques with paired training datasets have been widely studied for X-ray computed tomography (CT) image reconstruction. However, due to the difficulties of obtaining paired training datasets in clinical routine, the SDL methods are still away from common uses in clinical practices. In recent years, self-supervised deep-learning (SSDL) techniques have shown great potential for the studies of CT image reconstruction. In this work, we propose a self-supervised cross-task mutual learning (SS-CTML) framework for CT image reconstruction. Specifically, a sparse-view scanned and a limited-view scanned sinogram data are first extracted from a full-view scanned sinogram data, which results in three individual reconstruction tasks, i.e., the full-view CT (FVCT) reconstruction, the sparse-view CT (SVCT) reconstruction, and limited-view CT (LVCT) reconstruction. Then, three neural networks are constructed for the three reconstruction tasks. Considering that the ultimate goals of the three tasks are all to reconstruct high-quality CT images, we therefore construct a set of cross-task mutual learning objectives for the three tasks, in which way, the three neural networks can be self-supervised optimized by learning from each other. Clinical datasets are adopted to evaluate the effectiveness of the proposed framework. Experimental results demonstrate that the SS-CTML framework can obtain promising CT image reconstruction performance in terms of both quantitative and qualitative measurements.
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV); 机器学习 (cs.LG)
引用方式: arXiv:2501.01456 [eess.IV]
  (或者 arXiv:2501.01456v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.01456
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Ji He [查看电子邮件]
[v1] 星期二, 2024 年 12 月 31 日 04:32:46 UTC (3,323 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.LG
eess
eess.IV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号