计算机科学 > 信息检索
[提交于 2024年12月31日
]
标题: 谁会被推荐? 研究大型语言模型在论文推荐中的性别、种族和国家差异
标题: Who Gets Recommended? Investigating Gender, Race, and Country Disparities in Paper Recommendations from Large Language Models
摘要: 本文研究了几种代表性大模型在文献推荐任务中的表现,并探讨了研究曝光中的潜在偏差。 结果表明,不仅大型语言模型的整体推荐准确性仍然有限,而且这些模型倾向于推荐引用次数较多、发表日期较晚和作者团队较大的文献。 然而,在学者推荐任务中,没有证据表明大型语言模型不成比例地推荐男性、白人或发达国家的作者,这与已知的人类偏见模式形成对比。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.