计算机科学 > 计算机视觉与模式识别
[提交于 2025年8月29日
]
标题: Safe-LLaVA:一种用于生物特征安全的隐私保护视觉语言数据集和基准测试
标题: Safe-LLaVA: A Privacy-Preserving Vision-Language Dataset and Benchmark for Biometric Safety
摘要: 多模态大语言模型(MLLMs)在视觉-语言任务中表现出色。 然而,这些模型常常推断并泄露敏感的生物特征属性——如种族、性别、年龄、体重和眼睛颜色——即使这些信息并未被明确请求。 这引发了关键的担忧,特别是在现实世界的应用和社会敏感领域。 尽管意识有所提高,但目前尚无公开可用的数据集或基准来全面评估或减轻MLLM中的生物特征泄露。 为解决这一差距,我们引入了PRISM(敏感模态响应的隐私意识评估),这是一个新的基准,旨在从两个方面评估MLLM:(1)拒绝与生物特征相关的查询,(2)在保持语义忠实性的前提下,隐式生物特征泄露的一般响应。 此外,我们对广泛使用的LLaVA数据集进行了详细审计,并发现了预训练和指令数据中的大量生物特征泄露。 为了解决这个问题,我们提出了Safe-LLaVA数据集,这是第一个通过系统地从LLaVA数据集中删除显性和隐性生物特征信息构建的隐私保护MLLM训练数据集。 我们在PRISM上的评估揭示了不同属性在MLLM中的生物特征泄露,突显了详细的隐私侵犯。 我们还在Safe-LLaVA数据集上微调了一个模型,并表明它显著减少了生物特征泄露。 总之,Safe-LLaVA和PRISM为MLLM的隐私对齐开发和评估设定了新标准。 Safe-LLaVA数据集和PRISM基准可在https://huggingface.co/datasets/kyh9191/Safe-LLaVA公开获取,源代码可在https://github.com/Kimyounggun99/Safe-LLaVA.git获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.