Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2501.02227v2

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2501.02227v2 (eess)
[提交于 2025年1月4日 (v1) ,最后修订 2025年1月9日 (此版本, v2)]

标题: tCURLoRA:基于张量CUR分解的低秩参数自适应及其在医学图像分割中的应用

标题: tCURLoRA: Tensor CUR Decomposition Based Low-Rank Parameter Adaptation and Its Application in Medical Image Segmentation

Authors:Guanghua He, Wangang Cheng, Hancan Zhu, Xiaohao Cai, Gaohang Yu
摘要: 迁移学习通过利用预训练模型的知识,显著提升了目标任务的性能。 然而,随着深度神经网络的规模扩大,完整的微调在资源受限的环境中引入了大量的计算和存储挑战,限制了其广泛应用。 为了解决这个问题,参数高效的微调(PEFT)方法被开发出来,通过减少更新参数的数量来降低计算复杂度和存储需求。 尽管基于矩阵分解的PEFT方法,如LoRA,显示出潜力,但它们难以完全捕捉模型权重的高维结构特征。 相比之下,高维张量为神经网络权重提供了更自然的表示,能够更全面地捕捉高阶特征和多维交互。 在本文中,我们提出了tCURLoRA,一种基于张量CUR分解的新型微调方法。 通过将预训练的权重矩阵连接成一个三维张量并应用张量CUR分解,在微调过程中仅更新低阶张量组件,从而有效降低计算和存储开销。 实验结果表明,tCURLoRA在医学图像分割任务中优于现有的PEFT方法。
摘要: Transfer learning, by leveraging knowledge from pre-trained models, has significantly enhanced the performance of target tasks. However, as deep neural networks scale up, full fine-tuning introduces substantial computational and storage challenges in resource-constrained environments, limiting its widespread adoption. To address this, parameter-efficient fine-tuning (PEFT) methods have been developed to reduce computational complexity and storage requirements by minimizing the number of updated parameters. While matrix decomposition-based PEFT methods, such as LoRA, show promise, they struggle to fully capture the high-dimensional structural characteristics of model weights. In contrast, high-dimensional tensors offer a more natural representation of neural network weights, allowing for a more comprehensive capture of higher-order features and multi-dimensional interactions. In this paper, we propose tCURLoRA, a novel fine-tuning method based on tensor CUR decomposition. By concatenating pre-trained weight matrices into a three-dimensional tensor and applying tensor CUR decomposition, we update only the lower-order tensor components during fine-tuning, effectively reducing computational and storage overhead. Experimental results demonstrate that tCURLoRA outperforms existing PEFT methods in medical image segmentation tasks.
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2501.02227 [eess.IV]
  (或者 arXiv:2501.02227v2 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.02227
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Hancan Zhu [查看电子邮件]
[v1] 星期六, 2025 年 1 月 4 日 08:25:32 UTC (890 KB)
[v2] 星期四, 2025 年 1 月 9 日 08:59:41 UTC (894 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
许可图标 查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.CV
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号