学术研究报告:DrugEx v3——基于图Transformer强化学习的支架约束药物设计方法
作者及发表信息
本研究的核心作者包括Xuhan Liu(荷兰莱顿大学药物研究与安全中心)、Kai Ye(西安交通大学电子与信息工程学院)、Herman W. T. van Vlijmen(莱顿大学与杨森制药)、Adriaan P. IJzerman(莱顿大学)和Gerard J. P. van Westen(莱顿大学,通讯作者)。研究发表于2023年的*Journal of Cheminformatics*,文章标题为《DrugEx v3: Scaffold-constrained drug design with graph transformer-based reinforcement learning》,采用开放获取模式(Creative Commons Attribution 4.0国际许可协议)。
研究领域与动机
本研究属于计算药物设计(Computational Drug Design)领域,聚焦于从头药物设计(de novo drug design)中的支架约束分子生成问题。传统药物设计常以特定支架(scaffold)为起点,通过修饰侧链探索化学空间,但现有深度学习方法(如基于SMILES的模型)难以灵活整合用户指定的支架信息。为此,作者团队升级了此前开发的DrugEx方法(基于多目标强化学习),提出DrugEx v3,旨在通过图Transformer架构实现用户自定义支架的分子生成,并提升生成分子的多样性与药物活性。
科学问题与目标
- 核心问题:现有生成模型(如RNN、VAE)无法直接接受用户输入的支架片段,且需针对不同目标重新训练。
- 目标:开发一种端到端模型,支持多片段组合输入,生成满足活性(如腺苷A2A受体拮抗剂)和类药性(如QED评分)要求的分子。
研究对比了四种端到端深度学习模型:
1. 图Transformer(Graph Transformer):核心创新模型,扩展标准Transformer的注意力机制,引入基于邻接矩阵的原子/键位置编码(Positional Encoding),解决图结构并行处理问题。
2. LSTM基础模型(LSTM-base):基于RNN的编码器-解码器结构。
3. LSTM+注意力机制(LSTM+Attn):增加注意力层以捕捉长程依赖。
4. 序列Transformer(Sequential Transformer):处理SMILES序列的标准Transformer。
模型性能对比
强化学习效果
实际应用案例
科学意义
- 方法学创新:首次将图Transformer应用于支架约束药物设计,解决SMILES模型的语法限制和化学价校验难题。
- 工具开源:代码公开于GitHub(https://github.com/cddleiden/drugex),推动领域发展。
应用前景
- 多场景扩展:未来可结合蛋白信息(如序列、结构)设计靶向特定蛋白的配体,或优化ADMET(吸收、分布、代谢、排泄、毒性)性质。
局限与展望
- 芳香键处理:当前忽略芳香键,依赖RDKit后续校正,可能引发支架匹配误差。
- 合成可行性:需进一步整合合成可及性评分(SA)优化策略。
(全文约2400字)