计算机科学 > 计算机视觉与模式识别
[提交于 2025年6月24日
]
标题: 霍姆斯:通过解耦公共特征,实现个性化大型视觉模型的所有权验证的有效且无害方法
标题: Holmes: Towards Effective and Harmless Model Ownership Verification to Personalized Large Vision Models via Decoupling Common Features
摘要: 大型视觉模型在各种下游任务中表现出色,主要是通过使用私有且有价值的本地数据对预训练模型进行微调来实现的,这使得个性化模型成为其所有者的宝贵知识产权。 与传统深度神经网络的时代类似,模型窃取攻击也对这些个性化模型构成重大风险。 然而,在本文中,我们揭示了大多数现有的防御方法(为传统深度神经网络开发的),通常针对从头开始训练的模型设计,对于微调模型来说,要么引入额外的安全风险,要么容易误判,甚至无效。 为了缓解这些问题,本文提出了一种无害的个性化模型所有权验证方法,通过解耦相似的通用特征。 一般来说,我们的方法包括三个主要阶段。 在第一阶段,我们创建保留受害者模型通用特征的同时破坏数据集特定特征的影子模型。 我们通过影子模型和受害者模型输出差异来表示受害者模型的数据集特定特征。 之后,训练一个元分类器,通过确定可疑模型是否包含受害者的数据集特定特征来识别被盗模型。 在第三阶段,我们通过假设检验进行模型所有权验证,以减少随机性并增强鲁棒性。 在基准数据集上的大量实验验证了所提方法在同时检测不同类型的模型窃取方面的有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.