计算机科学 > 密码学与安全
[提交于 2025年7月16日
]
标题: 扩展机器学习文档标准以提高安全性
标题: Expanding ML-Documentation Standards For Better Security
摘要: 本文基于对现有文献的广泛综述,介绍了当前机器学习安全性和机器学习系统、模型和数据集在研究和实践中的文档状况。 它表明机器学习实践者和组织普遍缺乏对安全方面的认识,并且在文档方面往往采用非标准化的方法,导致机器学习文档的整体质量较低。 现有的标准在实践中并未被定期采用,IT安全方面的问题也常常未包含在文档中。 由于这些因素,ML中需要改进安全文档,作为解决现有ML安全差距的一个步骤。 为了实现这一点,我们建议扩展现有的ML文档标准,以包括一个包含具体安全相关信息的安全部分。 实施这一点,提出了一种新的扩展方法来记录ML文档中的安全需求,该方法基于现有的Model Cards和Datasheets for Datasets标准,但建议在所有ML文档中采用这些成果。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.