计算机科学 > 计算机视觉与模式识别
[提交于 2025年1月20日
]
标题: 在遥感中迁移学习的对抗脆弱性
标题: On the Adversarial Vulnerabilities of Transfer Learning in Remote Sensing
摘要: 在遥感中广泛使用来自通用计算机视觉任务的预训练模型,显著降低了训练成本并提高了性能。 然而,这种做法也会给下游任务带来漏洞,其中公开可用的预训练模型可以作为代理来破坏下游模型。 本文提出了一种新颖的对抗性神经元操控方法,通过选择性地操控预训练模型中的单个或多个神经元生成可迁移的扰动。 与现有攻击方法不同,该方法无需领域特定信息,使其更具广泛适用性和效率。 通过针对多个脆弱神经元,扰动实现了优越的攻击性能,揭示了深度学习模型中的关键漏洞。 在多种模型和遥感数据集上的实验验证了所提方法的有效性。 这种低访问量的对抗性神经元操控技术突显了迁移学习模型中的重大安全风险,强调了在处理安全关键的遥感任务时,设计更强大防御措施的紧迫性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.