본 논문은 트랜스포머 모델의 핵심 요소인 어텐션 메커니즘의 계산 복잡성 문제를 해결하기 위해, 선형 시간 복잡도를 가지면서 표현력을 유지하는 새로운 셀프 어텐션 메커니즘인 Random Batch Attention (RBA)을 제안합니다. RBA는 기존 어텐션 메커니즘을 대체하여 모델 성능을 향상시키고, 병렬 처리를 통해 메모리 사용량을 절감하며, 수학적 기반을 통해 수렴에 대한 이론적 설명을 제공합니다. 대규모 그래프 실험을 통해 제안된 방법의 유효성을 입증하고, 셀프 어텐션 메커니즘에 대한 새로운 분석 도구를 제시합니다.