统计学 > 方法论
[提交于 2025年10月7日
]
标题: 语言模型能否在没有统计偏差的情况下增强随机实验的功效?
标题: Can language models boost the power of randomized experiments without statistical bias?
摘要: 随机实验或随机对照试验(RCTs)是因果推断的黄金标准,但成本和样本量限制了其效力。同时,现代RCTs通常收集丰富且非结构化的数据,这些数据对结果具有高度预测性,但在因果分析中很少被使用。我们引入了CALM(Causal Analysis leveraging Language Models),这是一种统计框架,将大型语言模型(LLMs)的预测与已建立的因果估计器相结合,以提高精度同时保持统计有效性。CALM将LLM输出视为辅助预后信息,并通过异质校准步骤纠正其潜在偏差,该步骤对预测进行残差化并最优加权。我们证明,即使LLM预测存在偏差,CALM仍然是一致的,并且在各种因果效应上比增强逆概率加权估计器具有效率优势。特别是,CALM开发了一个少样本变体,该变体聚合来自随机采样的演示集的预测。所产生的U统计量类似预测器恢复了独立同分布结构,并且也减轻了提示选择的变异性。实证研究表明,在校准到移动应用抑郁症RCT的模拟中,CALM相对于其他基准方法具有更低的方差,在零样本和少样本设置中有效,并且在不同提示设计下保持稳定。通过有原则地利用LLMs来利用非结构化数据和预训练期间学到的外部知识,CALM为RCT中的更精确因果分析提供了一条实用路径。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.