计算机科学 > 计算机视觉与模式识别
[提交于 2024年10月31日
]
标题: 面向机载卫星地球观测图像分类的语义知识蒸馏
标题: Semantic Knowledge Distillation for Onboard Satellite Earth Observation Image Classification
摘要: 本研究提出了一种创新的动态加权知识蒸馏(KD)框架,专门针对资源受限环境下的高效地球观测(EO)图像分类(IC)。 利用EfficientViT和MobileViT作为教师模型,该框架使轻量级学生模型,特别是ResNet8和ResNet16,能够达到90%以上的准确率、精确率和召回率,符合可靠分类任务所需的严格置信度阈值。 与依赖静态权重分配的传统KD方法不同,我们的自适应加权机制会根据每个教师模型的置信度进行响应,使学生模型能够动态地优先考虑更可信的知识来源。 值得注意的是,ResNet8在效率方面表现出显著提升,相比MobileViT,参数减少了97.5%,FLOPs减少了96.7%,功耗降低了86.2%,推理速度提高了63.5%。 这种对复杂性和资源需求的重大优化,使ResNet8成为EO任务的理想候选模型,结合了强大的性能和部署可行性。 基于置信度的可适应KD方法突显了动态蒸馏策略在生成高性能、资源高效的模型方面的潜力,这些模型专为基于卫星的EO应用而设计。 可重复使用的代码可在我们的GitHub仓库中获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.