计算机科学 > 软件工程
[提交于 2025年7月11日
]
标题: 运行时通过元自我精炼竞争约束修复语言模型流水线
标题: Repairing Language Model Pipelines by Meta Self-Refining Competing Constraints at Runtime
摘要: 语言模型(LM)流水线可以针对程序约束动态优化其输出。 然而,当面对相互竞争的软约束时,它们的效果会崩溃,导致满足一个约束会违反另一个约束的低效回溯循环。 我们引入了元自修正,这是一种框架,为LM流水线配备了一个元校正层,在运行时/推理时修复这些竞争。 我们的方法监控流水线的执行历史以检测振荡性故障。 一旦检测到,它会调用一个分析后退尝试整体状态并合成平衡竞争需求的战略指令的元修复器LM。 这个自修复指令引导原始LM走出失败的优化循环,达到成功的输出。 我们的结果表明,元自修正可以成功修复这些循环,从而提高LM程序的效率。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.