计算机科学 > 计算与语言
[提交于 2025年4月20日
]
标题: 多任务学习中通过任务自适应低秩表示的知识高效迁移
标题: Efficient Knowledge Transfer in Multi-Task Learning through Task-Adaptive Low-Rank Representation
摘要: 预训练语言模型(PLMs)展示了显著的智能,但在实际应用中面对训练期间未见过的新任务时表现不佳。为每个新任务单独训练模型通常是不切实际的。多任务学习(MTL)通过从源任务向目标任务转移共享知识来解决这一挑战。作为一种主要的参数高效微调方法,提示调优(PT)通过引入一个可适应的向量来增强MTL,该向量捕获任务特定的知识,作为原始提示的前缀以保留共享知识,同时保持PLM参数冻结。然而,由于表示能力有限,PT难以有效捕捉任务特定知识的异质性。为了解决这一挑战,我们提出了基于PT的任务自适应低秩表示(TA-LoRA),这是一种构建在PT上的MTL方法,采用低秩表示来建模任务异质性,并使用快速-慢速权重机制,其中慢速权重编码共享知识,而快速权重捕捉任务特定的细微差别,避免了由从头开始训练低秩表示引起的共享和任务特定知识混合。此外,引入了一个零初始化注意力机制,在预热时期内最小化不成熟的低秩组件对原始提示的干扰。在16个任务上的实验表明,TA-LoRA在全数据和少量样本设置下达到了最先进的性能,同时保持了优越的参数效率。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.