计算机科学 > 计算与语言
[提交于 2025年1月15日
]
标题: 在开放回答评估中使用大型语言模型生成和蒸馏来增强人工标注的训练数据
标题: Augmenting Human-Annotated Training Data with Large Language Model Generation and Distillation in Open-Response Assessment
摘要: 大型语言模型(LLMs)如GPT-4o可以帮助以低成本和规模自动化文本分类任务。 然而,人们对LLM输出的有效性和可靠性存在重大担忧。 相比之下,人工编码通常更可靠,但大规模获取成本较高。 在本研究中,我们提出了一种混合解决方案,以利用两者的优势。 我们将人工编码的数据和合成的LLM生成数据结合起来,微调一个经典的机器学习分类器,并将两者提炼到一个较小的BERT模型中。 我们在一个人工编码的测试集上评估我们的方法,作为衡量LLM输出质量的有效性指标。 在三个实验中,我们系统地改变LLM生成样本的数量、多样性和一致性,这些由LLM调优的最佳实践所指导。 我们的研究结果表明,用合成样本扩充数据集可以提高分类器的性能,最佳结果在80%合成数据与20%人工编码数据的比例下实现。 较低的温度设置0.3,对应于LLM生成中的较少变异性,产生了更稳定的改进,但也限制了模型从增强样本中学习的能力。 相反,较高的温度设置(0.7及以上)引入了性能估计中的更大变异性,并且有时导致性能下降。 因此, LLM可能会生成更一致的输出,使分类器过拟合到早期阶段,或者生成更多样化的输出,这可能会因为与预测任务无关的信息而损害模型性能。 过滤掉不一致的合成样本并没有提高性能。 我们得出结论,将人工数据和LLM生成的数据整合起来以改进评估中的文本分类模型,提供了一个可扩展的解决方案,该方案利用了人工编码的准确性和LLM输出的多样性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.