计算机科学 > 计算与语言
[提交于 2025年7月28日
]
标题: 大型语言模型是否理解跨文化的道德观?
标题: Do Large Language Models Understand Morality Across Cultures?
摘要: 最近大型语言模型(LLMs)的进步使其成为众多领域中的强大工具。 然而,关于嵌入偏见的持续担忧,例如由于训练数据产生的性别、种族和文化偏见,引发了这些技术伦理使用和社会后果的重大问题。 本研究调查了LLMs在多大程度上能够捕捉道德观点中的跨文化差异和相似性。 具体而言,我们检查LLMs的输出是否与国际调查数据中观察到的道德态度模式一致。 为此,我们采用了三种互补的方法:(1) 比较模型生成的道德分数方差与调查中报告的方差,(2) 进行聚类对齐分析,以评估从LLMs输出和调查数据中得出的国家分组之间的对应关系,以及(3) 使用系统选择的标记对直接探测模型。 我们的结果表明,当前的LLMs往往无法再现跨文化道德变化的完整范围,倾向于压缩差异,并与实证调查模式对齐度较低。 这些发现突显了迫切需要更稳健的方法来减轻偏见并提高LLMs的文化代表性。 我们在最后讨论了LLMs负责任开发和全球部署的含义,强调公平性和伦理一致性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.