电气工程与系统科学 > 图像与视频处理
[提交于 2025年6月29日
(v1)
,最后修订 2025年7月1日 (此版本, v2)]
标题: SurgTPGS:具有文本提示的高斯点云语义3D外科场景理解
标题: SurgTPGS: Semantic 3D Surgical Scene Understanding with Text Promptable Gaussian Splatting
摘要: 在当代外科研究和实践中,具有文本提示能力的准确理解三维外科场景对于外科规划和实时术中导航尤其重要,在这里精确识别和交互外科工具和解剖结构是至关重要的。然而,现有工作分别关注外科视觉-语言模型(VLM)、三维重建和分割,缺乏对实时文本提示三维查询的支持。在本文中,我们提出了SurgTPGS,一种新颖的文本提示高斯点云方法来填补这一空白。我们引入了一种结合Segment Anything模型和最先进的视觉-语言模型的三维语义特征学习策略。我们提取了用于三维外科场景重建的分割语言特征,使对复杂外科环境的理解更加深入。我们还提出了语义感知变形跟踪,以捕捉语义特征的无缝变形,为纹理和语义特征提供更精确的重建。此外,我们提出了语义区域感知优化,利用基于区域的语义信息来监督训练,特别促进了重建质量和语义平滑性。我们在两个真实世界的外科数据集上进行了全面实验,以证明SurgTPGS优于最先进方法,突显了其革新外科实践的潜力。SurgTPGS通过提高外科精度和安全性,为开发下一代智能外科系统铺平了道路。我们的代码可在以下地址获取:https://github.com/lastbasket/SurgTPGS.
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.