计算机科学 > 人机交互
[提交于 2025年7月23日
]
标题: “先思考,总验证”:训练人类应对AI风险
标题: "Think First, Verify Always": Training Humans to Face AI Risks
摘要: 人工智能使人类认知面临前所未有的攻击,但网络安全仍然主要以设备为中心。 本文介绍了“先思考,始终验证”(TFVA) 协议,该协议将人类重新定位为“防火墙零”,即对抗人工智能威胁的第一道防线。 该协议基于五个操作原则:意识、诚信、判断、伦理责任和透明度(AIJET)。 一项随机对照试验(n=151)表明,一个最小的3分钟干预措施显著提高了认知安全任务的表现,参与者相比对照组表现出绝对+7.87%的提升。 这些结果表明,简短的原则性培训可以迅速增强人类对人工智能驱动的认知操控的抵抗力。 我们建议GenAI平台将“先思考,始终验证”作为标准提示,用可操作的协议取代被动警告,以提高可信和道德的人工智能使用。 通过弥合技术网络安全与人为因素之间的差距,TFVA 协议确立了以人为本的安全性作为可信人工智能系统的重要组成部分。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.