作者 | 刘圣超
编辑 | 凯霞
从2021年开始,大语言和多模态的结合席卷了机器学习科研界。
随着大模型和多模态应用的发展,我们是否可以将这些技术应用于药物发现呢?而且,这些自然语言的文本描述是否可以为这个具有挑战性的问题带来新的视角呢?答案是肯定的,并且我们对此持乐观态度
近日,加拿大蒙特利尔学习算法研究院(Mila)、NVIDIA Research、伊利诺伊大学厄巴纳-香槟分校(UIUC)、普林斯顿大学和加州理工学院的研究团队,通过对比学习策略共同学习分子的化学结构和文本描述,提出了一种多模态分子结构-文本模型 MoleculeSTM。
该研究以为题《Multi-modal molecule structure–text model for text-based retrieval and editing》为题,于 2023 年 12 月 18 日发表在《Nature Machine Intelligence》上。
论文链接:https://www.nature.com/articles/s42256-023-00759-6需要进行重写
其中刘圣超博士是第一作者,NVIDIA Research 的 Anima Anandkumar 教授为通讯作者。聂维梨、王程鹏、卢家睿、乔卓然、刘玲、唐建和肖超玮为共同作者。
该项目是刘圣超博士在2022年3月加入 NVIDIA Research 之后,在聂维梨老师、唐建老师、肖超玮老师和 Anima Anandkumar 老师的指导下进行的。
刘圣超博士表示:「我们的动机就是对LLM和药物发现进行初步的探索,并最终提出了MoleculeSTM。」
用于对接的文本是为了引导分子编辑而设计的
MoleculeSTM的核心思路非常简单直接,即分子的描述可分为内部化学结构和外部功能描述两大类。而我们在这里采用了对比预训练的方法,将这两种类型的信息进行对齐和联系。具体示意如下图所示
图示:MoleculeSTM的流程图。
而MoleculeSTM的这个alignment有一个非常好的性质:当有一些任务在化学空间比较难以解决的时候,我们可以将其transfer到自然语言(natural language)空间。而且自然语言的任务会相对更容易解决,由于它的特性。并且基于此我们设计了种类丰富的下游任务来验证其有效性。下面我们围绕几个insight详细讨论。
自然语言和大语言模型的特性
在MoleculeSTM中,我们首次提出了一个问题。我们利用了自然语言的开放词汇和组合性特征
在我们最近的工作中ChatDrug (https://arxiv.org/abs/2305.18090),我们探索了自然语言和大型语言模型之间的对话特性,对此感兴趣的朋友可以去看看
特性引出的任务设计指的是根据产品或系统的特性来规划和安排任务的设计
对于现有的language-image任务来说,它们可以被视为与艺术相关的任务,比如生成图片或文字。也就是说,它们的结果是多样且不确定的。然而,科学发现是科学问题,通常具有比较明确的结果,例如生成具有特定功能的小分子。这在任务设计上带来了更大的挑战
在MoleculeSTM中 (Appendix B),我们提出了两个准则:
由此我们设计了三个大类任务:
我们会在接下来的部分重点介绍第二个任务
分子编辑的定性结果重新表述如下:
这个任务就是同时输入一个分子和自然语言描述(比如额外的属性),然后希望能够输出复合语言文本描述的新的分子。这就是文本编辑优化(text-guided lead optimization)。
具体的方法就是利用已经训练好的分子生成模型和我们预训练好的MoleculeSTM,通过学习二者的潜在空间(latent space)的alignment,从而进行 latent space interpolation,再经过解码生成目标分子。流程示意图如下。
需进行重写的内容是:零样本文本引导的分子编辑的两阶段流程示意图
这里我们展示了几组分子编辑的定性结果重新表述如下:(其余下游任务的结果细节可以参考原论文)。主要我们考虑四类分子编辑任务:
结果展示:零样本文本引导的分子编辑。 (Note: This is a direct translation of the original sentence into Chinese.)
更有意思的是最后一类任务,我们发现MoleculeSTM的确能够在紧紧依靠对于靶蛋白的文字描述,而进行配体的配体 先导化合物优化。(注:这里的蛋白质结构信息都是在evaluation是才会知道。)
以上是NVIDIA、Mila、Caltech联合发布LLM结合药物发现的多模态分子结构-文本模型的详细内容。更多信息请关注PHP中文网其他相关文章!