Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.02211

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2501.02211 (cs)
[提交于 2025年1月4日 ]

标题: 检查GPT-4中同质性偏差对超参数调整的鲁棒性

标题: Examining the Robustness of Homogeneity Bias to Hyperparameter Adjustments in GPT-4

Authors:Messi H.J. Lee
摘要: 视觉-语言模型在大量人类生成数据上进行训练,往往会复制并放大社会刻板印象。 这些模型复制的一种关键刻板印象是同质性偏差——将某些群体表现得比其他群体更加同质的倾向。 我们研究了这种偏差如何对GPT-4中的超参数调整做出反应,特别是检查采样温度和top p,它们控制模型输出的随机性。 通过生成关于不同种族和性别群体个体的故事,并使用向量表示比较它们的相似性,我们评估了偏差的鲁棒性及其与超参数值的关系。 我们发现,(1) 同质性偏差在大多数超参数配置中仍然存在,黑人美国人和女性比白人美国人和男性被表现得更加同质,(2) 超参数与群体表现之间的关系显示出意外的非线性模式,尤其是在极端值时,(3) 超参数调整对种族和性别同质性偏差的影响不同——增加温度或降低top p可以减少种族同质性偏差,但这些变化对性别同质性偏差的影响不同。 我们的研究结果表明,虽然超参数调整可能在一定程度上减轻某些偏差,但它不能作为解决不同社会群体维度上同质性偏差的通用解决方案。
摘要: Vision-Language Models trained on massive collections of human-generated data often reproduce and amplify societal stereotypes. One critical form of stereotyping reproduced by these models is homogeneity bias-the tendency to represent certain groups as more homogeneous than others. We investigate how this bias responds to hyperparameter adjustments in GPT-4, specifically examining sampling temperature and top p which control the randomness of model outputs. By generating stories about individuals from different racial and gender groups and comparing their similarities using vector representations, we assess both bias robustness and its relationship with hyperparameter values. We find that (1) homogeneity bias persists across most hyperparameter configurations, with Black Americans and women being represented more homogeneously than White Americans and men, (2) the relationship between hyperparameters and group representations shows unexpected non-linear patterns, particularly at extreme values, and (3) hyperparameter adjustments affect racial and gender homogeneity bias differently-while increasing temperature or decreasing top p can reduce racial homogeneity bias, these changes show different effects on gender homogeneity bias. Our findings suggest that while hyperparameter tuning may mitigate certain biases to some extent, it cannot serve as a universal solution for addressing homogeneity bias across different social group dimensions.
主题: 计算机视觉与模式识别 (cs.CV) ; 计算与语言 (cs.CL); 机器学习 (cs.LG)
引用方式: arXiv:2501.02211 [cs.CV]
  (或者 arXiv:2501.02211v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.02211
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Messi H.J. Lee [查看电子邮件]
[v1] 星期六, 2025 年 1 月 4 日 06:51:49 UTC (1,366 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs.CL
cs.CV
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号