计算机科学 > 计算机与社会
[提交于 2025年8月4日
]
标题: 硅基理性人:人工智能能预测普通人群如何判断合理性吗?
标题: The Silicon Reasonable Person: Can AI Predict How Ordinary People Judge Reasonableness?
摘要: 在日常生活中,人们做出无数合理的判断,这些判断决定了在各种情境下的适当行为。 预测这些判断对法律体系构成挑战,因为法官的直觉可能与更广泛的社会观点不一致。 本文研究大型语言模型(LLMs)是否能够学习识别驱动人类合理判断的模式。 通过在多个法律情境中进行随机对照试验,比较人类和模型的判断,涉及超过10,000次模拟判断,我们证明某些模型不仅捕捉到表面反应,还可能捕捉到其潜在的决策结构。 值得注意的是,这些系统在过失认定中优先考虑社会线索而非经济效率,尽管与教科书中的处理方式相矛盾,但与人类行为相似。 这些发现表明有实际应用:法官可以将直觉与更广泛的趋势进行校准,立法者可以测试政策解释,资源有限的当事人可以预览其论点的接受度。 随着人工智能代理越来越多地自主做出现实世界的决策,了解它们是否已内化可识别的伦理框架,对于预测其行为变得至关重要。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.