Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:2503.03503

帮助 | 高级搜索

定量生物学 > 生物大分子

arXiv:2503.03503 (q-bio)
[提交于 2025年3月5日 ]

标题: 协作专家大语言模型引导的多目标分子优化

标题: Collaborative Expert LLMs Guided Multi-Objective Molecular Optimization

Authors:Jiajun Yu, Yizhen Zheng, Huan Yee Koh, Shirui Pan, Tianyue Wang, Haishuai Wang
摘要: 分子优化是一个关键但复杂且耗时的过程,通常成为药物开发的瓶颈。 传统方法严重依赖试错法,使得多目标优化既耗时又耗费资源。 目前基于人工智能的方法在处理多目标优化任务方面表现出有限的成功,阻碍了其实际应用。 为了解决这一挑战,我们提出了MultiMol,一个协作式大型语言模型(LLM)系统,旨在指导多目标分子优化。 MultiMol包括两个代理,包括一个数据驱动的工作者代理和一个文献引导的研究代理。 数据驱动的工作者代理是一个经过微调的大型语言模型,旨在学习如何生成考虑多个目标的优化分子,而文献引导的研究代理负责搜索与任务相关的文献,以找到有助于识别最有希望的优化候选物的有用先验知识。 在六个多目标优化任务的评估中,MultiMol显著优于现有方法,成功率达到82.30%,这与当前最强方法的27.50%成功率形成鲜明对比。 为进一步验证其实际影响,我们在两个现实世界挑战中测试了MultiMol。 首先,我们提高了黄嘌呤胺共轭物(XAC)的选择性,这是一种能同时结合A1R和A2AR的多功能配体,成功地将其偏向于A1R。 其次,我们提高了沙奎那韦的生物利用度,这是一种已知生物利用度有限的HIV-1蛋白酶抑制剂。 总体而言,这些结果表明,MultiMol代表了一种高度有前景的多目标分子优化方法,具有加速药物开发过程和推动药物研究发展的巨大潜力。
摘要: Molecular optimization is a crucial yet complex and time-intensive process that often acts as a bottleneck for drug development. Traditional methods rely heavily on trial and error, making multi-objective optimization both time-consuming and resource-intensive. Current AI-based methods have shown limited success in handling multi-objective optimization tasks, hampering their practical utilization. To address this challenge, we present MultiMol, a collaborative large language model (LLM) system designed to guide multi-objective molecular optimization. MultiMol comprises two agents, including a data-driven worker agent and a literature-guided research agent. The data-driven worker agent is a large language model being fine-tuned to learn how to generate optimized molecules considering multiple objectives, while the literature-guided research agent is responsible for searching task-related literature to find useful prior knowledge that facilitates identifying the most promising optimized candidates. In evaluations across six multi-objective optimization tasks, MultiMol significantly outperforms existing methods, achieving a 82.30% success rate, in sharp contrast to the 27.50% success rate of current strongest methods. To further validate its practical impact, we tested MultiMol on two real-world challenges. First, we enhanced the selectivity of Xanthine Amine Congener (XAC), a promiscuous ligand that binds both A1R and A2AR, successfully biasing it towards A1R. Second, we improved the bioavailability of Saquinavir, an HIV-1 protease inhibitor with known bioavailability limitations. Overall, these results indicate that MultiMol represents a highly promising approach for multi-objective molecular optimization, holding great potential to accelerate the drug development process and contribute to the advancement of pharmaceutical research.
主题: 生物大分子 (q-bio.BM) ; 人工智能 (cs.AI); 机器学习 (cs.LG)
引用方式: arXiv:2503.03503 [q-bio.BM]
  (或者 arXiv:2503.03503v1 [q-bio.BM] 对于此版本)
  https://doi.org/10.48550/arXiv.2503.03503
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jiajun Yu [查看电子邮件]
[v1] 星期三, 2025 年 3 月 5 日 13:47:55 UTC (13,967 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
q-bio.BM
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-03
切换浏览方式为:
cs
cs.AI
cs.LG
q-bio

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号