Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2504.01029

帮助 | 高级搜索

计算机科学 > 计算机与社会

arXiv:2504.01029 (cs)
[提交于 2025年3月28日 ]

标题: 当人工智能失败时,谁该负责? 映射人工智能隐私和伦理事件的原因、实体与后果

标题: Who is Responsible When AI Fails? Mapping Causes, Entities, and Consequences of AI Privacy and Ethical Incidents

Authors:Hilda Hadan, Reza Hadi Mogavi, Leah Zhang-Kennedy, Lennart E. Nacke
摘要: 人工智能(AI)技术的快速发展改变了众多领域的决策方式,但同时也引发了重大隐私和伦理问题。然而,许多面向学术界、产业界和政府的AI事件分类法和指导原则缺乏基于真实世界事件的基础。我们分析了202起真实的AI隐私和伦理事件,从而产生了一个能够根据AI生命周期阶段对事件类型进行分类的分类法,并考虑了诸如原因、责任实体、披露来源以及影响等情境因素。我们的研究发现,AI开发者和使用者对于事件报告不足。许多事件是由组织决策不当和法律合规性缺失导致的。目前只有少数法律行动和纠正措施存在,而风险缓解工作也受到限制。我们的分类法为未来AI事件的报告提供了一种结构化的方法。我们的研究结果表明,现有的AI治理框架并不充分。我们需要针对儿童的专门保护以及社交媒体上的AI政策,这些政策必须对有害的AI生成内容加以控制和减少传播。我们的研究为政策制定者和从业者提供了洞见,使他们能够设计出符合伦理的AI系统。它还支持AI事件检测和风险管理,并指导AI政策的发展。改进的政策将保护人们免受有害的AI应用的影响,并支持AI系统的创新。
摘要: The rapid growth of artificial intelligence (AI) technologies has changed decision-making in many fields. But, it has also raised major privacy and ethical concerns. However, many AI incidents taxonomies and guidelines for academia, industry, and government lack grounding in real-world incidents. We analyzed 202 real-world AI privacy and ethical incidents. This produced a taxonomy that classifies incident types across AI lifecycle stages. It accounts for contextual factors such as causes, responsible entities, disclosure sources, and impacts. Our findings show insufficient incident reporting from AI developers and users. Many incidents are caused by poor organizational decisions and legal non-compliance. Only a few legal actions and corrective measures exist, while risk-mitigation efforts are limited. Our taxonomy contributes a structured approach in reporting of future AI incidents. Our findings demonstrate that current AI governance frameworks are inadequate. We urgently need child-specific protections and AI policies on social media. They must moderate and reduce the spread of harmful AI-generated content. Our research provides insights for policymakers and practitioners, which lets them design ethical AI. It also support AI incident detection and risk management. Finally, it guides AI policy development. Improved policies will protect people from harmful AI applications and support innovation in AI systems.
评论: 63页,7张表格,7幅图表
主题: 计算机与社会 (cs.CY) ; 人工智能 (cs.AI); 数据库 (cs.DB); 人机交互 (cs.HC)
引用方式: arXiv:2504.01029 [cs.CY]
  (或者 arXiv:2504.01029v1 [cs.CY] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.01029
通过 DataCite 发表的 arXiv DOI
相关 DOI: https://doi.org/10.13140/RG.2.2.31076.90244
链接到相关资源的 DOI

提交历史

来自: Hilda Hadan [查看电子邮件]
[v1] 星期五, 2025 年 3 月 28 日 21:57:38 UTC (40,070 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.DB
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
cs
cs.AI
cs.CY
cs.HC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号