计算机科学 > 计算机视觉与模式识别
[提交于 2025年7月1日
]
标题: 迭代误分类误差训练(IMET):一种优化的神经网络图像分类训练技术
标题: Iterative Misclassification Error Training (IMET): An Optimized Neural Network Training Technique for Image Classification
摘要: 深度学习模型在医学数据集上已被证明对于从图像中进行准确的诊断预测是有效的。 然而,医学数据集通常包含噪声、错误标记或泛化能力差的图像,特别是在边缘案例和异常结果中。 此外,高质量的数据集样本量通常较小,可能导致过拟合,即模型记忆噪声而不是学习可泛化的模式。 这尤其可能在医学诊断中带来严重风险,因为分类错误的风险可能影响人类生命。 几种数据高效的训练策略已经出现以解决这些限制。 特别是,核心集选择识别最具代表性的样本子集,使训练能够近似全数据集性能,同时减少计算开销。 另一方面,课程学习依赖于逐步增加训练难度并加速收敛。 然而,开发一个能够在不同领域、数据集和模型中通用的难度排序机制,同时减少计算任务,仍然是一个挑战。 在本文中,我们引入了迭代误分类误差训练(IMET),这是一种受课程学习和核心集选择启发的新框架。 IMET方法旨在识别误分类样本,以优化训练过程,同时优先关注边缘案例场景和罕见结果。 本文将IMET在基准医学图像分类数据集上与最先进的ResNet架构进行了评估。 论文还展示了IMET在增强医学图像分析中模型鲁棒性和准确性方面的潜力。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.