Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2509.00508

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2509.00508 (cs)
[提交于 2025年8月30日 ]

标题: TRUST:面向跨设备适应的令牌驱动超声风格迁移

标题: TRUST: Token-dRiven Ultrasound Style Transfer for Cross-Device Adaptation

Authors:Nhat-Tuong Do-Tran, Ngoc-Hoang-Lam Le, Ian Chiu, Po-Tsun Paul Kuo, Ching-Chun Huang
摘要: 超声图像从不同设备获取时表现出多样的风格,导致下游任务性能下降。 为了缓解风格差异,无配对图像到图像(UI2I)翻译方法旨在将来自源域的图像(对应新设备采集的图像)转移到目标域,其中冻结的任务模型已针对下游应用进行训练。 然而,现有的UI2I方法并未明确考虑过滤最相关的风格特征,这可能导致翻译后的图像与下游任务的需求不匹配。 在本工作中,我们提出TRUST,一种基于标记的双流框架,在保留源内容的同时转移目标域的通用风格,确保内容和风格保持分离。 考虑到目标域中存在多种风格,我们引入了一个基于标记的(TR)模块,从两个角度操作:(1)数据视角——为每个源标记选择“合适”的目标标记,(2)模型视角——在行为镜像损失的指导下,为下游模型识别“最优”的目标标记。 此外,我们在源编码器中注入辅助提示,以使内容表示与下游行为相匹配。 在超声数据集上的实验结果表明,TRUST在视觉质量和下游任务性能方面均优于现有的UI2I方法。
摘要: Ultrasound images acquired from different devices exhibit diverse styles, resulting in decreased performance of downstream tasks. To mitigate the style gap, unpaired image-to-image (UI2I) translation methods aim to transfer images from a source domain, corresponding to new device acquisitions, to a target domain where a frozen task model has been trained for downstream applications. However, existing UI2I methods have not explicitly considered filtering the most relevant style features, which may result in translated images misaligned with the needs of downstream tasks. In this work, we propose TRUST, a token-driven dual-stream framework that preserves source content while transferring the common style of the target domain, ensuring that content and style remain unblended. Given multiple styles in the target domain, we introduce a Token-dRiven (TR) module that operates from two perspectives: (1) a data view--selecting "suitable" target tokens corresponding to each source token, and (2) a model view--identifying ``optimal" target tokens for the downstream model, guided by a behavior mirror loss. Additionally, we inject auxiliary prompts into the source encoder to match content representation with downstream behavior. Experimental results on ultrasound datasets demonstrate that TRUST outperforms existing UI2I methods in both visual quality and downstream task performance.
评论: 被APSIPA ASC 2025接受
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2509.00508 [cs.CV]
  (或者 arXiv:2509.00508v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2509.00508
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Nhat-Tuong Do-Tran [查看电子邮件]
[v1] 星期六, 2025 年 8 月 30 日 14:00:50 UTC (830 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-09
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号