计算机科学 > 机器学习
[提交于 2025年10月16日
]
标题: 基于身份链接的IRT用于无标签LLM评估:在TVD-MI分数中保持可加性
标题: Identity-Link IRT for Label-Free LLM Evaluation: Preserving Additivity in TVD-MI Scores
摘要: 使用总变差距离互信息(TVD-MI)对大型语言模型进行成对比较,每对产生二元评判决策。 我们证明,对TVD-MI的二元试验进行平均可得到具有适合项目反应理论(IRT)的加法结构的中心概率分数,而无需非线性链接函数。 IRT的最大似然方法使用逻辑链接,但我们发现经验上这些变换会引入破坏加性的曲率:在三个领域中,恒等链接在原始数据上的中位数弯曲为0.080-0.150(P95 = [0.474, 0.580]),而probit/logit引入了明显更高的违反情况(中位数[0.245, 0.588],P95 [0.825, 2.252])。 我们从吉尼熵最大化推导出这个截断线性模型,得到一个处理边界饱和的箱约束最小二乘公式。 在33%的覆盖率下,我们实现了保留代理排名(Spearman $\rho = 0.972 \pm 0.015$)的保留集RMSE $0.117 \pm 0.008$,所需的评估次数仅为完整密集评估的三分之一。 法官鲁棒性分析(GPT-4o-mini与Llama3-70b)显示代理排名有很强的一致性($\rho = 0.872$)和一致的恒等链接优势。 TVD-MI的几何结构通过恒等映射得到最佳保持,从而实现高效的LLM评估,适用于其他有限响应领域。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.