电气工程与系统科学 > 图像与视频处理
[提交于 2025年1月21日
]
标题: 基于通用预训练模型的双向脑图像翻译使用迁移学习
标题: Bidirectional Brain Image Translation using Transfer Learning from Generic Pre-trained Models
摘要: 脑成像在诊断和治疗各种神经疾病方面发挥着关键作用,提供了关于大脑结构和功能的有价值见解。 诸如磁共振成像(MRI)和计算机断层扫描(CT)等技术能够实现无创的大脑可视化,有助于理解大脑解剖结构、异常和功能连接。 然而,成本和辐射剂量可能会限制特定图像模式的获取,因此可以使用医学影像合成来生成所需的医学图像而无需实际添加。 在医学领域,获得标记的医学图像是劳动密集且昂贵的,解决数据稀缺是一个主要挑战。 近期研究提出使用迁移学习来克服这一问题。 这涉及调整预先训练的CycleGAN模型,这些模型最初是在非医学数据上训练的,以生成逼真的医学图像。 在这项工作中,迁移学习被应用于MR-CT图像转换任务以及相反方向的任务,并使用了18个预先训练的非医学模型,模型经过微调以获得最佳效果。 通过四个广泛使用的图像质量指标评估了模型的性能: 峰值信噪比、结构相似性指数、通用质量 指数和视觉信息保真度。 放射科医生的定量评价和定性感知分析证明了迁移学习在医学影像中的潜力以及通用预训练模型的有效性。 结果提供了令人信服的证据,表明该模型表现出色,这可以归因于训练图像与实际人脑图像的高度质量和相似性。 这些结果强调了仔细选择适当且具有代表性的训练图像以优化大脑图像分析任务性能的重要性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.