计算机科学 > 计算机与社会
[提交于 2025年3月28日
]
标题: 当人工智能失败时,谁该负责? 映射人工智能隐私和伦理事件的原因、实体与后果
标题: Who is Responsible When AI Fails? Mapping Causes, Entities, and Consequences of AI Privacy and Ethical Incidents
摘要: 人工智能(AI)技术的快速发展改变了众多领域的决策方式,但同时也引发了重大隐私和伦理问题。然而,许多面向学术界、产业界和政府的AI事件分类法和指导原则缺乏基于真实世界事件的基础。我们分析了202起真实的AI隐私和伦理事件,从而产生了一个能够根据AI生命周期阶段对事件类型进行分类的分类法,并考虑了诸如原因、责任实体、披露来源以及影响等情境因素。我们的研究发现,AI开发者和使用者对于事件报告不足。许多事件是由组织决策不当和法律合规性缺失导致的。目前只有少数法律行动和纠正措施存在,而风险缓解工作也受到限制。我们的分类法为未来AI事件的报告提供了一种结构化的方法。我们的研究结果表明,现有的AI治理框架并不充分。我们需要针对儿童的专门保护以及社交媒体上的AI政策,这些政策必须对有害的AI生成内容加以控制和减少传播。我们的研究为政策制定者和从业者提供了洞见,使他们能够设计出符合伦理的AI系统。它还支持AI事件检测和风险管理,并指导AI政策的发展。改进的政策将保护人们免受有害的AI应用的影响,并支持AI系统的创新。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.