计算机科学 > 机器学习
[提交于 2025年6月29日
]
标题: 遗忘-MI:医疗环境中遗忘多模态信息的机器遗忘
标题: Forget-MI: Machine Unlearning for Forgetting Multimodal Information in Healthcare Settings
摘要: 隐私保护在人工智能中至关重要,尤其是在医疗保健领域,其中模型依赖于敏感的患者数据。 在机器遗忘这一新兴领域,现有方法难以从训练好的多模态架构中移除患者数据,这些架构在医疗保健中被广泛使用。 我们提出了Forget-MI,一种用于多模态医疗数据的新颖机器遗忘方法,通过建立损失函数和扰动技术。 我们的方法在保留剩余数据的知识并保持与原始模型相当的性能的同时,忘记了被要求遗忘的数据的单模态和联合表示。 我们使用遗忘数据集上的性能、测试数据集上的性能以及成员推理攻击(MIA)来评估我们的结果,MIA用于衡量攻击者区分遗忘数据集和训练数据集的能力。 我们的模型在减少MIA和遗忘数据集上的性能方面优于现有的方法,同时在测试集上保持相当的性能。 具体而言,我们的方法将MIA降低了0.202,并分别将遗忘集上的AUC和F1分数降低了0.221和0.305。 此外,我们的测试集性能与重新训练的模型相匹配,同时允许遗忘。 代码可在 https://github.com/BioMedIA-MBZUAI/Forget-MI.git 获得
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.