统计学 > 机器学习
[提交于 2025年1月5日
]
标题: 用于大型语言模型中数据滥用检测的统计假设检验框架
标题: A Statistical Hypothesis Testing Framework for Data Misappropriation Detection in Large Language Models
摘要: 大型语言模型(LLMs)近年来迅速获得了巨大的流行度。 然而,LLMs的训练引发了重大的隐私和法律问题,特别是关于在未经适当署名或授权的情况下将受版权保护的材料包含在其训练数据中,这属于数据不当使用的更广泛问题。 在本文中,我们关注数据不当使用检测的一个具体问题,即确定给定的LLM是否包含了由另一个LLM生成的数据。 为了解决这个问题,我们提出在受版权保护的训练数据中嵌入水印,并将数据不当使用的检测形式化为假设检验问题。 我们开发了一个通用的统计检验框架,构建了一个关键统计量,确定了最优拒绝阈值,并明确控制了第一类和第二类错误。 此外,我们建立了所提出的检验的渐近最优性性质,并通过大量的数值实验证明了其经验有效性。
当前浏览上下文:
cs.LG
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.