Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Global-Lens Transformers: Adaptive Token Mixing for Dynamic Link Prediction

Created by
  • Haebom
Category
Empty

저자

Tao Zou, Chengfeng Wu, Tianxi Liao, Junchen Ye, Bowen Du

개요

GLFormer는 동적 그래프 모델링을 위한 새로운 어텐션 프리(attention-free) Transformer 스타일 프레임워크입니다. 시간 경과에 따라 변화하는 관계를 모델링하는 데 중점을 둡니다. 특히, 교통 시스템, 소셜 네트워크, 추천 플랫폼과 같은 도메인에서 시간적 링크 예측 작업에 적용됩니다. GLFormer는 자체 어텐션에 의존하지 않고, 상호 작용 순서와 시간 간격을 기반으로 문맥을 인식하는 로컬 집계를 수행하는 적응형 토큰 믹서를 도입합니다. 장기적인 의존성을 포착하기 위해 계층적 집계 모듈을 설계하여 레이어 전체에서 로컬 토큰 믹서를 스태킹하여 시간적 수용 필드를 확장합니다. 6개의 널리 사용되는 동적 그래프 벤치마크에서 SOTA 성능을 달성하여, 어텐션 프리 아키텍처가 동적 그래프 설정에서 Transformer 기반 모델과 동등하거나 뛰어난 성능을 보이며 효율성을 크게 향상시킬 수 있음을 보여줍니다.

시사점, 한계점

시사점:
어텐션 메커니즘 없이도 동적 그래프 모델링에서 SOTA 성능을 달성할 수 있음을 입증.
Transformer 기반 모델의 복잡성을 줄여, 고빈도 또는 대규모 그래프에 대한 확장성 향상.
어텐션이 아닌 Transformer 아키텍처 자체가 성능에 기여한다는 점을 시사.
한계점:
본 논문에서 구체적인 한계점은 명시되지 않음.
👍