计算机科学 > 机器学习
[提交于 2025年6月28日
]
标题: 生成模型的黎曼几何指纹
标题: Riemannian-Geometric Fingerprints of Generative Models
摘要: 最近生成模型(GMs)的突破性进展和快速整合引发了对模型归因及其指纹问题的兴趣。 例如,服务提供商需要可靠的方法来验证其模型以保护其知识产权,而用户和执法部门则希望验证生成内容的来源以确保责任和信任。 此外,随着越来越多的模型生成数据被反馈到常用于训练的数据源(如YouTube)中(“反刍训练”),模型崩溃的威胁正在增加,这加剧了区分合成数据与人类数据的必要性。 然而,我们相信,对生成模型指纹的理解仍存在差距,这源于缺乏一种可以系统地定义、表示和分析指纹的正式框架。 为了解决这一差距,我们采用了几何方法,利用黎曼几何提出了生成模型的人工制品和指纹的新定义,这使我们能够利用微分几何的丰富理论。 我们的新定义通过从数据中学习黎曼度量,并用测地线距离和基于kNN的黎曼质心代替欧几里得距离和最近邻搜索,将先前的工作(Song等人,2024年)推广到非欧几里得流形。 我们将该理论应用于一种新的基于梯度的算法,以在实践中计算指纹。 结果表明,该方法在区分大量生成模型方面更为有效,这些模型跨越了2种不同分辨率(64乘64,256乘256)的4个不同数据集,27种模型架构以及2种模态(视觉、视觉-语言)。 使用我们提出的定义显著提高了模型归因的性能,以及对未见过的数据集、模型类型和模态的泛化能力,表明其实际有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.