计算机科学 > 机器学习
[提交于 2025年10月19日
]
标题: ProtoMol:通过原型引导的多模态学习增强分子属性预测
标题: ProtoMol: Enhancing Molecular Property Prediction via Prototype-Guided Multimodal Learning
摘要: 多模态分子表示学习,联合建模分子图及其文本描述,通过整合结构和语义信息,增强了药物毒性、生物活性和理化性质预测的准确性与可解释性。 然而,现有的多模态方法存在两个关键限制:(1) 它们通常仅在最终编码器层进行跨模态交互,从而忽略了层次化的语义依赖关系;(2) 缺乏一个统一的原型空间以实现模态之间的鲁棒对齐。 为了解决这些限制,我们提出了 ProtoMol,一种基于原型引导的多模态框架,能够实现分子图和文本描述之间的细粒度集成和一致的语义对齐。 ProtoMol结合了双分支分层编码器,利用图神经网络处理结构化的分子图,并利用 Transformer 对非结构化文本进行编码,从而生成全面的逐层表示。 然后,ProtoMol引入了一种逐层双向跨模态注意力机制,逐步对齐各层之间的语义特征。 此外,构建了一个具有可学习的、类特定锚点的共享原型空间,以引导两种模态走向连贯且具有区分性的表示。 在多个基准数据集上的广泛实验表明,ProtoMol在多种分子属性预测任务中始终优于最先进的基线方法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.