Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.11839

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.11839 (cs)
[提交于 2025年7月16日 ]

标题: Protenix-Mini:通过紧凑架构、少步扩散和可切换pLM的高效结构预测器

标题: Protenix-Mini: Efficient Structure Predictor via Compact Architecture, Few-Step Diffusion and Switchable pLM

Authors:Chengyue Gong, Xinshi Chen, Yuxuan Zhang, Yuxuan Song, Hao Zhou, Wenzhi Xiao
摘要: 轻量级推理对于生物分子结构预测和其他下游任务至关重要,它使得大规模应用的高效实际部署和推理时扩展成为可能。 在本工作中,我们通过做出几个关键修改来解决模型效率与预测准确性之间的平衡挑战,1) 将多步骤AF3采样器替换为几步的常微分方程(ODE)采样器,显著减少了推理过程中扩散模块部分的计算开销;2) 在开源Protenix框架中,一部分pairformer或扩散Transformer块对最终结构预测没有贡献,这为架构剪枝和轻量级重新设计提供了机会;3) 训练了一个包含ESM模块的模型以替代传统的MSA模块,从而减少了MSA预处理时间。 基于这些关键见解,我们提出了Protenix-Mini,这是一个紧凑且优化的模型,旨在实现高效的蛋白质结构预测。 这个简化版本采用了更高效的架构设计,结合了两步常微分方程(ODE)采样策略。 通过消除冗余的Transformer组件并优化采样过程,Protenix-Mini显著降低了模型复杂度,仅带来轻微的准确性下降。 在基准数据集上的评估表明,它实现了高保真预测,与全规模模型相比,在基准数据集上的性能仅略有1%到5%的下降。 这使得Protenix-Mini成为计算资源有限但准确结构预测仍至关重要的应用的理想选择。
摘要: Lightweight inference is critical for biomolecular structure prediction and other downstream tasks, enabling efficient real-world deployment and inference-time scaling for large-scale applications. In this work, we address the challenge of balancing model efficiency and prediction accuracy by making several key modifications, 1) Multi-step AF3 sampler is replaced by a few-step ODE sampler, significantly reducing computational overhead for the diffusion module part during inference; 2) In the open-source Protenix framework, a subset of pairformer or diffusion transformer blocks doesn't make contributions to the final structure prediction, presenting opportunities for architectural pruning and lightweight redesign; 3) A model incorporating an ESM module is trained to substitute the conventional MSA module, reducing MSA preprocessing time. Building on these key insights, we present Protenix-Mini, a compact and optimized model designed for efficient protein structure prediction. This streamlined version incorporates a more efficient architectural design with a two-step Ordinary Differential Equation (ODE) sampling strategy. By eliminating redundant Transformer components and refining the sampling process, Protenix-Mini significantly reduces model complexity with slight accuracy drop. Evaluations on benchmark datasets demonstrate that it achieves high-fidelity predictions, with only a negligible 1 to 5 percent decrease in performance on benchmark datasets compared to its full-scale counterpart. This makes Protenix-Mini an ideal choice for applications where computational resources are limited but accurate structure prediction remains crucial.
主题: 机器学习 (cs.LG) ; 定量方法 (q-bio.QM)
引用方式: arXiv:2507.11839 [cs.LG]
  (或者 arXiv:2507.11839v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.11839
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Chengyue Gong [查看电子邮件]
[v1] 星期三, 2025 年 7 月 16 日 02:08:25 UTC (1,319 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
q-bio
q-bio.QM

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号