Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2507.06264

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2507.06264 (eess)
[提交于 2025年7月7日 ]

标题: X射线可转移的多表示学习

标题: X-ray transferable polyrepresentation learning

Authors:Weronika Hryniewska-Guzik, Przemyslaw Biecek
摘要: 机器学习算法的成功本质上与有意义特征的提取有关,因为它们在这些算法的性能中起着关键作用。 这一挑战的核心是数据表示的质量。 然而,从未见过的数据集中有效泛化和提取这些特征的能力也同样至关重要。 鉴于此,我们引入了一个新概念:多表示法。 多表示法整合了从不同来源提取的同一模态的多种表示,例如来自孪生网络的向量嵌入、自监督模型和可解释的放射组学特征。 与依赖单一表示相比,这种方法能产生更好的性能指标。 此外,在X射线图像的背景下,我们展示了创建的多表示法在较小数据集上的可迁移性,强调了其作为各种图像相关解决方案中实用且资源高效方法的潜力。 值得注意的是,以医疗数据为例的多表示法概念也可以应用于其他领域,展示了其灵活性和广泛的应用潜力。
摘要: The success of machine learning algorithms is inherently related to the extraction of meaningful features, as they play a pivotal role in the performance of these algorithms. Central to this challenge is the quality of data representation. However, the ability to generalize and extract these features effectively from unseen datasets is also crucial. In light of this, we introduce a novel concept: the polyrepresentation. Polyrepresentation integrates multiple representations of the same modality extracted from distinct sources, for example, vector embeddings from the Siamese Network, self-supervised models, and interpretable radiomic features. This approach yields better performance metrics compared to relying on a single representation. Additionally, in the context of X-ray images, we demonstrate the transferability of the created polyrepresentation to a smaller dataset, underscoring its potential as a pragmatic and resource-efficient approach in various image-related solutions. It is worth noting that the concept of polyprepresentation on the example of medical data can also be applied to other domains, showcasing its versatility and broad potential impact.
评论: 沃伦妮卡的博士论文的一部分
主题: 图像与视频处理 (eess.IV) ; 人工智能 (cs.AI); 计算机视觉与模式识别 (cs.CV); 机器学习 (cs.LG)
引用方式: arXiv:2507.06264 [eess.IV]
  (或者 arXiv:2507.06264v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.06264
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Przemyslaw Biecek [查看电子邮件]
[v1] 星期一, 2025 年 7 月 7 日 22:05:50 UTC (1,398 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
cs.CV
cs.LG
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号