Andrew Liu, Axel Elaldi, Nicholas T Franklin, Nathan Russell, Gurinder S Atwal, Yih-En A Ban, Olivia Viessmann
개요
Invariant Point Attention (IPA)는 구조 생물학에서 기하학 인식 모델링에 중요한 알고리즘으로, 많은 단백질 및 RNA 모델의 중심이 됩니다. 하지만 이차 복잡도로 인해 입력 시퀀스 길이에 제한이 있습니다. 본 논문에서는 하드웨어 효율적인 FlashAttention을 활용하여 GPU 메모리 및 실제 시간에서 시퀀스 길이에 대해 선형적 스케일링을 달성하는 IPA의 인수분해된 재구성인 FlashIPA를 소개합니다. FlashIPA는 계산 비용을 크게 줄이면서 표준 IPA 성능과 동등하거나 뛰어넘는 성능을 제공합니다. FlashIPA는 이전에는 달성할 수 없었던 길이로 학습을 확장하며, 길이 제한 없이 생성 모델을 재학습하고 수천 개의 잔기 구조를 생성함으로써 이를 입증합니다. FlashIPA는 https://github.com/flagshippioneering/flash_ipa 에서 이용 가능합니다.