Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:2509.24262

帮助 | 高级搜索

定量生物学 > 定量方法

arXiv:2509.24262 (q-bio)
[提交于 2025年9月29日 (v1) ,最后修订 2025年10月21日 (此版本, v2)]

标题: LAMP-PRo:使用蛋白质语言模型进行DNA和RNA结合蛋白多标签预测的标签感知注意力

标题: LAMP-PRo: Label-aware Attention for Multi-label Prediction of DNA- and RNA-binding Proteins using Protein Language Models

Authors:Nimisha Ghosh, Dheeran Sankaran, Rahul Balakrishnan Adhi, Sharath S, Amrut Anand
摘要: 识别DNA结合蛋白(DBPs)和RNA结合蛋白(RBPs)对于理解细胞功能、分子相互作用以及调控功能至关重要。由于它们的高度相似性,现有的大多数方法在区分DBPs和RBPs时面临挑战,导致高交叉预测误差。此外,识别同时结合DNA和RNA的蛋白质(DRBPs)也是一个相当具有挑战性的任务。在这方面,我们提出了一种新的框架,即LAMP-PRo,该框架基于预训练的蛋白质语言模型(PLM)、注意力机制和多标签学习来缓解这些问题。首先,使用预训练的PLM如ESM-2对蛋白质序列进行嵌入,随后使用卷积神经网络(CNN)。接着,应用多头自注意力机制来获取上下文信息,而标签感知注意力用于通过以针对每个标签(DBP、RBP和非NABP)的方式关注序列来计算类别特定的表示,在多标签设置中。我们还引入了一种新颖的跨标签注意力机制,以显式捕捉DNA结合蛋白和RNA结合蛋白之间的依赖关系,从而更准确地预测DRBP。最后,使用一个线性层和一个sigmoid函数进行最终预测。进行了大量实验,将LAMP-PRo与现有方法进行比较,其中所提出的模型表现出一致的优异性能。此外,我们还提供了可视化结果,以展示模型的可解释性,突出显示序列中哪些部分对于预测标签最为相关。原始数据集可在http://bliulab.net/iDRBP\_MMC获取,代码可在https://github.com/NimishaGhosh/LAMP-PRo获取。
摘要: Identifying DNA- (DBPs) and RNA-binding proteins (RBPs) is crucial for the understanding of cell function, molecular interactions as well as regulatory functions. Owing to their high similarity, most of the existing approaches face challenges in differentiating between DBPs and RBPs leading to high cross-prediction errors. Moreover, identifying proteins which bind to both DNA and RNA (DRBPs) is also quite a challenging task. In this regard, we propose a novel framework viz. LAMP-PRo which is based on pre-trained protein language model (PLM), attention mechanisms and multi-label learning to mitigate these issues. First, pre-trained PLM such ESM-2 is used for embedding the protein sequences followed by convolutional neural network (CNN). Subsequently multi-head self-attention mechanism is applied for the contextual information while label-aware attention is used to compute class-specific representations by attending to the sequence in a way that is tailored to each label (DBP, RBP and non-NABP) in a multi-label setup. We have also included a novel cross-label attention mechanism to explicitly capture dependencies between DNA- and RNA-binding proteins, enabling more accurate prediction of DRBP. Finally, a linear layer followed by a sigmoid function are used for the final prediction. Extensive experiments are carried out to compare LAMP-PRo with the existing methods wherein the proposed model shows consistent competent performance. Furthermore, we also provide visualization to showcase model interpretability, highlighting which parts of the sequence are most relevant for a predicted label. The original datasets are available at http://bliulab.net/iDRBP\_MMC and the codes are available at https://github.com/NimishaGhosh/LAMP-PRo.
主题: 定量方法 (q-bio.QM) ; 人工智能 (cs.AI); 机器学习 (cs.LG)
引用方式: arXiv:2509.24262 [q-bio.QM]
  (或者 arXiv:2509.24262v2 [q-bio.QM] 对于此版本)
  https://doi.org/10.48550/arXiv.2509.24262
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Nimisha Ghosh [查看电子邮件]
[v1] 星期一, 2025 年 9 月 29 日 04:13:51 UTC (236 KB)
[v2] 星期二, 2025 年 10 月 21 日 13:08:07 UTC (236 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
q-bio.QM
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-09
切换浏览方式为:
cs
cs.AI
cs.LG
q-bio

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号