Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Hilbert-Guided Block-Sparse Local Attention

Created by
  • Haebom
Category
Empty

저자

Yunge Li, Lanyu Xu

개요

본 논문은 고해상도 이미지 처리 시 발생하는 전역 self-attention의 계산 및 메모리 비용 문제를 해결하기 위해, Hilbert 곡선을 기반으로 2D local attention의 효율성을 향상시키는 새로운 방법을 제안한다. 이미지 토큰을 Hilbert 곡선을 따라 재정렬하고, 이를 통해 window 및 neighborhood를 구성하여 block-sparse 커널과의 결합을 통해 2D local attention의 효율성을 높인다. 제안된 Hilbert Window Attention과 Hilbert Slide Attention은 각각 window attention과 slide attention을 최대 4배 및 18배 가속화하며, Hilbert Window Transformer 및 Hilbert Neighborhood Transformer로 구현하여 실용성을 입증했다.

시사점, 한계점

시사점:
Hilbert 곡선을 활용하여 local attention의 효율성을 획기적으로 향상시킴.
block-sparse 커널과의 결합을 통해 2D local attention의 속도를 개선.
Hilbert Window Transformer 및 Hilbert Neighborhood Transformer를 통해 실용성을 입증.
최소한의 정확도 손실로 end-to-end 속도 향상 달성.
한계점:
구체적인 정확도 손실 정도에 대한 정량적 정보가 부족.
다른 종류의 attention mechanism과의 비교 결과가 제시되지 않음.
일반적인 이미지 데이터셋 외의 다른 데이터셋에서의 성능 검증 부족.
👍