计算机科学 > 社会与信息网络
[提交于 2025年1月9日
(v1)
,最后修订 2025年5月21日 (此版本, v2)]
标题: 大型语言模型代理中类人类极化的出现
标题: Emergence of human-like polarization among large language model agents
摘要: 大型语言模型(LLMs)的迅速发展不仅使自主代理能够生成社交网络、进行交流并在政治问题上形成共享和分歧的观点,还开始在塑造人类政治讨论中发挥日益重要的作用。 然而,我们对其集体行为和潜在机制的理解仍然不完整,这给人类社会带来了意想不到的风险。 在本文中,我们模拟了一个涉及数千个大型语言模型代理的网络系统,发现它们通过LLM对话引导的社会互动导致了类似人类的极化现象。 我们发现这些代理自发地形成了具有类似人类特性的社交网络,包括同质性聚类,同时也通过现实世界中观察到的机制,如回音室效应,塑造了它们的集体观点。 人类与LLM代理之间的相似性——包括行为、机制和涌现现象——引发了关于它们放大社会极化的潜力的担忧,但也有可能作为识别缓解极化及其后果的可行策略的重要测试平台。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.