计算机科学 > 密码学与安全
[提交于 2025年6月26日
]
标题: ZKPROV:一种用于大型语言模型数据集来源的零知识方法
标题: ZKPROV: A Zero-Knowledge Approach to Dataset Provenance for Large Language Models
摘要: 随着大型语言模型(LLMs)在敏感领域的部署不断增加,确保其计算来源的完整性成为一项关键挑战,特别是在医疗保健等受监管的行业,对数据集使用有严格的要求。我们引入了ZKPROV,一种新的密码学框架,能够对LLM来源进行零知识证明。它允许用户验证模型是在可靠数据集上训练的,而不会泄露有关数据集或其参数的敏感信息。与之前专注于完整验证训练过程的方法(导致显著的计算成本)或依赖可信执行环境的方法不同,ZKPROV提供了一种不同的平衡。我们的方法通过零知识证明将训练好的模型与授权训练数据集绑定,同时避免证明每个训练步骤。通过利用数据集签名的元数据和紧凑的模型参数承诺,ZKPROV提供了合理且保护隐私的保证,即LLM的结果来源于在声称的授权和相关数据集上训练的模型。实验结果展示了ZKPROV在生成和验证此证明方面的效率和可扩展性,实现了现实世界部署的实用解决方案。我们还提供了形式化的安全保证,证明我们的方法在确保可信数据集来源的同时,保持了数据集的机密性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.