Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:2504.12305

帮助 | 高级搜索

物理学 > 仪器与探测器

arXiv:2504.12305 (physics)
[提交于 2025年4月1日 ]

标题: 迁移学习使μ子断层扫描能够对材料Z进行分类

标题: Transfer learning empowers material Z classification with muon tomography

Authors:Haochen Wang, Zhao Zhang, Pei Yu, Yuxin Bao, Jiajia Zhai, Yu Xu, Li Deng, Sa Xiao, Xueheng Zhang, Yuhong Yu, Weibo He, Liangwen Chen, Yu Zhang, Lei Yang, Zhiyu Sun
摘要: 宇宙射线缪子源在与不同原子序数(Z值)的材料相互作用时表现出不同的散射角分布,有助于识别各种Z类材料,特别是放射性高Z核元素。 大多数传统的识别方法都基于复杂的缪子事件重建和轨迹拟合过程。 监督式机器学习方法提供了一些改进,但严重依赖于目标材料的先验知识,显著限制了其在检测隐藏材料中的实际应用。 在本工作中,首次将迁移学习引入缪子断层扫描领域。 我们提出了两种轻量级神经网络模型,用于微调和对抗性迁移学习,利用裸材料的缪子断层扫描数据来预测涂层材料的Z类。 通过采用逆累积分布函数方法,可以从有限的数据中获得更准确的散射角分布,与基于传统随机采样的训练相比,预测准确率提高了近4%。 当应用于具有有限标记甚至无标记缪子断层扫描数据的涂层材料时,所提出的方法实现了超过96%的整体预测准确率,其中高Z材料接近99%。 模拟结果表明,与没有迁移的直接预测相比,迁移学习将预测准确率提高了约10%。 这项研究证明了迁移学习在克服与有限标记/无标记数据相关的物理挑战方面的有效性,突显了迁移学习在缪子断层扫描领域中的潜在前景。
摘要: Cosmic-ray muon sources exhibit distinct scattering angle distributions when interacting with materials of different atomic numbers (Z values), facilitating the identification of various Z-class materials, particularly those radioactive high-Z nuclear elements. Most of the traditional identification methods are based on complex muon event reconstruction and trajectory fitting processes. Supervised machine learning methods offer some improvement but rely heavily on prior knowledge of target materials, significantly limiting their practical applicability in detecting concealed materials. For the first time, transfer learning is introduced into the field of muon tomography in this work. We propose two lightweight neural network models for fine-tuning and adversarial transfer learning, utilizing muon tomography data of bare materials to predict the Z-class of coated materials. By employing the inverse cumulative distribution function method, more accurate scattering angle distributions could be obtained from limited data, leading to an improvement by nearly 4\% in prediction accuracy compared with the traditional random sampling based training. When applied to coated materials with limited labeled or even unlabeled muon tomography data, the proposed method achieves an overall prediction accuracy exceeding 96\%, with high-Z materials reaching nearly 99\%. Simulation results indicate that transfer learning improves prediction accuracy by approximately 10\% compared to direct prediction without transfer. This study demonstrates the effectiveness of transfer learning in overcoming the physical challenges associated with limited labeled/unlabeled data, highlights the promising potential of transfer learning in the field of muon tomography.
主题: 仪器与探测器 (physics.ins-det) ; 高能物理 - 实验 (hep-ex)
引用方式: arXiv:2504.12305 [physics.ins-det]
  (或者 arXiv:2504.12305v1 [physics.ins-det] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.12305
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Liangwen Chen [查看电子邮件]
[v1] 星期二, 2025 年 4 月 1 日 21:43:37 UTC (2,360 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
physics
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
hep-ex
physics.ins-det

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号