Graph Diffusion Transformers are In-Context Molecular Designers
Created by
Haebom
저자
Gang Liu, Jie Chen, Yihan Zhu, Michael Sun, Tengfei Luo, Nitesh V Chawla, Meng Jiang
개요
본 논문은 소수의 데모를 통해 새로운 작업에 적응하는 대규모 모델인 In-context learning이 분자 설계 분야에서 제한적인 성공을 보인 문제를 해결하기 위해, DemoDiff를 소개합니다. DemoDiff는 텍스트 설명 대신 소수의 분자-점수 예시를 사용하여 작업 컨텍스트를 정의하고, 이를 통해 목표 속성에 맞는 분자를 생성합니다. 이를 위해 모티프 수준에서 분자를 표현하는 새로운 분자 토크나이저를 개발하고, 다양한 출처에서 수집한 수백만 개의 컨텍스트 작업으로 0.7-billion-parameter 모델을 사전 학습했습니다. DemoDiff는 6개 범주 33개의 설계 작업에서 더 큰 언어 모델과 도메인별 접근 방식보다 우수한 성능을 보였습니다.
시사점, 한계점
•
시사점:
◦
In-context learning을 분자 설계에 효과적으로 적용할 수 있는 새로운 방법론 제시 (DemoDiff).
◦
분자 표현 방식을 개선하여 모델의 효율성을 높임 (Node Pair Encoding을 사용한 토크나이저).