Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.00298

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2508.00298 (cs)
[提交于 2025年8月1日 ]

标题: AniMer+:通过家族感知变压器在哺乳动物和鸟类中统一姿态和形状估计

标题: AniMer+: Unified Pose and Shape Estimation Across Mammalia and Aves via Family-Aware Transformer

Authors:Jin Lyu, Liang An, Li Lin, Pujin Cheng, Yebin Liu, Xiaoying Tang
摘要: 在基础模型的时代,通过单一网络实现对不同动态物体的统一理解,有可能增强更强的空间智能。 此外,在生物研究中,对不同物种的动物姿态和形状进行准确估计对于定量分析至关重要。 然而,由于之前方法的网络容量有限以及全面多物种数据集的稀缺,这一主题仍研究不足。 为解决这些限制,我们引入了AniMer+,这是我们可扩展的AniMer框架的扩展版本。 在本文中,我们专注于重建哺乳动物(哺乳纲)和鸟类(鸟纲)的统一方法。 AniMer+的一个关键创新是其高容量、家族感知的视觉变换器(ViT),结合了专家混合(MoE)设计。 其架构将网络层划分为分类群特定组件(针对哺乳动物和鸟类)和分类群共享组件,使单一模型中能够高效学习独特的和共同的解剖特征。 为克服3D训练数据的严重短缺,尤其是鸟类的数据,我们引入了一个基于扩散的条件图像生成流程。 该流程生成两个大规模的合成数据集:CtrlAni3D用于四足动物,CtrlAVES3D用于鸟类。 需要注意的是,CtrlAVES3D是第一个大规模的、3D标注的鸟类数据集,这对于解决单视角深度歧义至关重要。 在包含41.3k哺乳动物和12.4k鸟类图像(结合真实和合成数据)的聚合数据集上进行训练,我们的方法在广泛的基准测试中表现出优于现有方法的性能,包括具有挑战性的跨领域Animal Kingdom数据集。 消融研究表明,我们新颖的网络架构和生成的合成数据集在提高现实应用性能方面是有效的。
摘要: In the era of foundation models, achieving a unified understanding of different dynamic objects through a single network has the potential to empower stronger spatial intelligence. Moreover, accurate estimation of animal pose and shape across diverse species is essential for quantitative analysis in biological research. However, this topic remains underexplored due to the limited network capacity of previous methods and the scarcity of comprehensive multi-species datasets. To address these limitations, we introduce AniMer+, an extended version of our scalable AniMer framework. In this paper, we focus on a unified approach for reconstructing mammals (mammalia) and birds (aves). A key innovation of AniMer+ is its high-capacity, family-aware Vision Transformer (ViT) incorporating a Mixture-of-Experts (MoE) design. Its architecture partitions network layers into taxa-specific components (for mammalia and aves) and taxa-shared components, enabling efficient learning of both distinct and common anatomical features within a single model. To overcome the critical shortage of 3D training data, especially for birds, we introduce a diffusion-based conditional image generation pipeline. This pipeline produces two large-scale synthetic datasets: CtrlAni3D for quadrupeds and CtrlAVES3D for birds. To note, CtrlAVES3D is the first large-scale, 3D-annotated dataset for birds, which is crucial for resolving single-view depth ambiguities. Trained on an aggregated collection of 41.3k mammalian and 12.4k avian images (combining real and synthetic data), our method demonstrates superior performance over existing approaches across a wide range of benchmarks, including the challenging out-of-domain Animal Kingdom dataset. Ablation studies confirm the effectiveness of both our novel network architecture and the generated synthetic datasets in enhancing real-world application performance.
评论: arXiv管理员注释:与arXiv:2412.00837存在大量文本重叠
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2508.00298 [cs.CV]
  (或者 arXiv:2508.00298v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.00298
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Jin Lyu [查看电子邮件]
[v1] 星期五, 2025 年 8 月 1 日 03:53:03 UTC (9,250 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号