Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2511.04510

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2511.04510 (eess)
[提交于 2025年11月6日 ]

标题: $μ$NeuFMT:通过隐式神经表示的光学特性自适应荧光分子断层扫描

标题: $μ$NeuFMT: Optical-Property-Adaptive Fluorescence Molecular Tomography via Implicit Neural Representation

Authors:Shihan Zhao, Jianru Zhang, Yanan Wu, Linlin Li, Siyuan Shen, Xingjun Zhu, Guoyan Zheng, Jiahua Jiang, Wuwei Ren
摘要: 荧光分子断层成像(FMT)是一种用于非侵入性三维可视化荧光探针的有前途的技术,但由于其固有的不适定性和对不准确或通常未知的组织光学特性的依赖,其重建仍然具有挑战性。 虽然深度学习方法显示出前景,但其监督性质限制了其在训练数据之外的泛化能力。 为了解决这些问题,我们提出了$\mu$NeuFMT,这是一种自监督的FMT重建框架,它将基于隐式神经的场景表示与光子传播的显式物理建模相结合。 其关键创新在于在重建过程中同时优化荧光分布和光学特性($\mu$),消除了对组织光学精确先验知识或预处理训练数据的需求。 我们证明,即使初始值严重错误(0.5$\times$到2$\times$的真实值),$\mu$NeuFMT也能稳健地恢复准确的荧光团分布和光学系数。 大量的数值、幻象和活体验证表明,$\mu$NeuFMT在各种异质场景中优于传统方法和监督深度学习方法。 我们的工作建立了一种新的鲁棒且准确的FMT重建范式,为复杂临床相关场景中的更可靠分子成像铺平了道路,例如荧光引导手术。
摘要: Fluorescence Molecular Tomography (FMT) is a promising technique for non-invasive 3D visualization of fluorescent probes, but its reconstruction remains challenging due to the inherent ill-posedness and reliance on inaccurate or often-unknown tissue optical properties. While deep learning methods have shown promise, their supervised nature limits generalization beyond training data. To address these problems, we propose $\mu$NeuFMT, a self-supervised FMT reconstruction framework that integrates implicit neural-based scene representation with explicit physical modeling of photon propagation. Its key innovation lies in jointly optimize both the fluorescence distribution and the optical properties ($\mu$) during reconstruction, eliminating the need for precise prior knowledge of tissue optics or pre-conditioned training data. We demonstrate that $\mu$NeuFMT robustly recovers accurate fluorophore distributions and optical coefficients even with severely erroneous initial values (0.5$\times$ to 2$\times$ of ground truth). Extensive numerical, phantom, and in vivo validations show that $\mu$NeuFMT outperforms conventional and supervised deep learning approaches across diverse heterogeneous scenarios. Our work establishes a new paradigm for robust and accurate FMT reconstruction, paving the way for more reliable molecular imaging in complex clinically related scenarios, such as fluorescence guided surgery.
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV); 光学 (physics.optics)
MSC 类: 68T07, 78A46, 78A70, 92C55
ACM 类: I.2.10; I.4.5
引用方式: arXiv:2511.04510 [eess.IV]
  (或者 arXiv:2511.04510v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2511.04510
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Shihan Zhao [查看电子邮件]
[v1] 星期四, 2025 年 11 月 6 日 16:28:30 UTC (7,861 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-11
切换浏览方式为:
cs
cs.CV
eess
physics
physics.optics

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号