计算机科学 > 密码学与安全
[提交于 2024年12月19日
]
标题: 通用人工智能模型当前部署中的基本风险:我们从网络安全中学到了什么(或未学到什么)?
标题: Fundamental Risks in the Current Deployment of General-Purpose AI Models: What Have We (Not) Learnt From Cybersecurity?
摘要: 通用人工智能 - 如大型语言模型(LLMs) - 在各种使用场景中得到了快速部署。 最令人惊讶的是,它们已经从普通的语言模型发展到聊天机器人,甚至达到了几乎像“操作系统”一样的状态,可以控制应用程序的决策和逻辑。 工具使用、微软协同程序/办公集成以及OpenAIs Altera只是自主性、数据访问和执行能力增强的几个例子。 这些方法带来了一系列网络安全挑战。 我们强调了我们在评估方面所做的工作,并概述了未来的机遇和挑战。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.