首页  >  文章  >  科技周边  >  NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型

NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型

WBOY
WBOY转载
2024-01-14 20:00:05714浏览

NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型

作者 | 刘圣超

编辑 | 凯霞

从2021年开始,大语言和多模态的结合席卷了机器学习科研界。

随着大模型和多模态应用的发展,我们是否可以将这些技术应用于药物发现呢?而且,这些自然语言的文本描述是否可以为这个具有挑战性的问题带来新的视角呢?答案是肯定的,并且我们对此持乐观态度

近日,加拿大蒙特利尔学习算法研究院(Mila)、NVIDIA Research、伊利诺伊大学厄巴纳-香槟分校(UIUC)、普林斯顿大学和加州理工学院的研究团队,通过对比学习策略共同学习分子的化学结构和文本描述,提出了一种多模态分子结构-文本模型 MoleculeSTM。

该研究以为题《Multi-modal molecule structure–text model for text-based retrieval and editing》为题,于 2023 年 12 月 18 日发表在《Nature Machine Intelligence》上。

NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型

论文链接:https://www.nature.com/articles/s42256-023-00759-6需要进行重写

其中刘圣超博士是第一作者,NVIDIA Research 的 Anima Anandkumar 教授为通讯作者。聂维梨、王程鹏、卢家睿、乔卓然、刘玲、唐建和肖超玮为共同作者。

该项目是刘圣超博士在2022年3月加入 NVIDIA Research 之后,在聂维梨老师、唐建老师、肖超玮老师和 Anima Anandkumar 老师的指导下进行的。

刘圣超博士表示:「我们的动机就是对LLM和药物发现进行初步的探索,并最终提出了MoleculeSTM。」

NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型

用于对接的文本是为了引导分子编辑而设计的

MoleculeSTM的核心思路非常简单直接,即分子的描述可分为内部化学结构和外部功能描述两大类。而我们在这里采用了对比预训练的方法,将这两种类型的信息进行对齐和联系。具体示意如下图所示

NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型

图示:MoleculeSTM的流程图。

而MoleculeSTM的这个alignment有一个非常好的性质:当有一些任务在化学空间比较难以解决的时候,我们可以将其transfer到自然语言(natural language)空间。而且自然语言的任务会相对更容易解决,由于它的特性。并且基于此我们设计了种类丰富的下游任务来验证其有效性。下面我们围绕几个insight详细讨论。

自然语言和大语言模型的特性

在MoleculeSTM中,我们首次提出了一个问题。我们利用了自然语言的开放词汇和组合性特征

  • Open vocabulary的意思是我们可以把现在人类知识都用自然语言表示,所以对于将来新出现的知识,也能用现有的语言进行归纳和总结。比如出现某种新的蛋白质,我们希望可以对它的功能进行自然语言描述。
  • Compositionality的意思是在自然语言中,一个复杂的概念可以用几个简单的概念进行联合表述。这个对于类似多属性编辑的任务有很大的帮助:在化学空间要编辑分子同时符合多个特性非常困难,但是我们可以非常简单地用自然语言表达出来多种特性。

在我们最近的工作中ChatDrug (https://arxiv.org/abs/2305.18090),我们探索了自然语言和大型语言模型之间的对话特性,对此感兴趣的朋友可以去看看

特性引出的任务设计指的是根据产品或系统的特性来规划和安排任务的设计

对于现有的language-image任务来说,它们可以被视为与艺术相关的任务,比如生成图片或文字。也就是说,它们的结果是多样且不确定的。然而,科学发现是科学问题,通常具有比较明确的结果,例如生成具有特定功能的小分子。这在任务设计上带来了更大的挑战

在MoleculeSTM中 (Appendix B),我们提出了两个准则:

  • 首先我们考虑的任务是能够进行计算模拟得到结果。将来会考虑能够有wet-lab验证的结果,但这并不在目前这个工作的考量范畴内。
  • 其次我们只考虑有着模糊性结果的问题。具体例子比如让某个分子的水溶性或者穿透性变强。而有一些问题有明确结果,比如在分子的某一个位置加入某一个官能团,我们认为这类任务对于药物、化学专家来说更加简单直接。所以它可以将来当作某一个proof-of-concept任务,但是并不会成为主要的任务目标。

由此我们设计了三个大类任务:

  1. Zero-shot 结构文本检索;
  2. Zero-shot 基于文本的分子编辑;
  3. 分子性质预测。

我们会在接下来的部分重点介绍第二个任务

分子编辑的定性结果重新表述如下:

这个任务就是同时输入一个分子和自然语言描述(比如额外的属性),然后希望能够输出复合语言文本描述的新的分子。这就是文本编辑优化(text-guided lead optimization)。

具体的方法就是利用已经训练好的分子生成模型和我们预训练好的MoleculeSTM,通过学习二者的潜在空间(latent space)的alignment,从而进行 latent space interpolation,再经过解码生成目标分子。流程示意图如下。

NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型

需进行重写的内容是:零样本文本引导的分子编辑的两阶段流程示意图

这里我们展示了几组分子编辑的定性结果重新表述如下:(其余下游任务的结果细节可以参考原论文)。主要我们考虑四类分子编辑任务:

  • 单一属性编辑:对单一属性进行编辑,比如水溶性、穿透性、氢键施主与受主个数。
  • 复合属性编辑:同时对多个属性进行编辑,比如水溶性和氢键施主个数。
  • 药物相似性编辑:(Appendix D.5)是让输入分子与目标分子药物长得更加接近。
  • 专利药物的邻居搜索:对于已经申请到专利的药物,往往会把中间过程的药物一起报道。我们这里就是那中间药物配合自然语言描述,看是否能够生成最终的目标药物。
  • binding affinity编辑:我们选择几个ChEMBL assay作为靶点,目标是让输入分子和靶点有更高的结合亲和力。

NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型

结果展示:零样本文本引导的分子编辑。 (Note: This is a direct translation of the original sentence into Chinese.)

更有意思的是最后一类任务,我们发现MoleculeSTM的确能够在紧紧依靠对于靶蛋白的文字描述,而进行配体的配体 先导化合物优化。(注:这里的蛋白质结构信息都是在evaluation是才会知道。)

以上是NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:jiqizhixin.com。如有侵权,请联系admin@php.cn删除