Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Deep Recommender Models Inference: Automatic Asymmetric Data Flow Optimization

Created by
  • Haebom

저자

Giuseppe Ruggeri, Renzo Andri, Daniele Jahier Pagliari, Lukas Cavigelli

개요

본 논문은 메타 데이터 센터의 AI 워크로드 79% 이상을 차지하는 Deep Recommender Models (DLRMs) 추론의 성능 병목 현상을 해결하기 위한 연구이다. DLRMs의 성능 저하는 다양한 크기의 테이블에서 작은 임베딩 벡터를 가져오는 많은 임의 메모리 접근을 수행하는 임베딩 계층에 있다. 이를 해결하기 위해, 본 논문은 하나의 코어에서 효과적으로 임베딩 테이블을 조회하는 네 가지 전략과 SoC의 여러 코어에 비대칭적으로 테이블을 자동 매핑하는 프레임워크를 제안한다. Huawei Ascend AI 가속기와 Nvidia A100을 사용하여 실험을 진행했으며, 기본 Ascend 컴파일러와 비교하여 최대 6.5배의 속도 향상을 보였다. 특히, 불균형적인 분포에서는 20배 이상의 속도 향상을 달성했으며, 기존 방법보다 쿼리 분포에 훨씬 덜 의존적인 것을 확인했다.

시사점, 한계점

시사점:
DLRMs 추론 성능 향상을 위한 효과적인 임베딩 테이블 조회 전략 및 자동 매핑 프레임워크 제시.
실제 워크로드 및 불균형 분포 환경에서 상당한 속도 향상(최대 6.5x, 불균형 분포에서 20x 이상)을 달성.
쿼리 분포에 대한 의존성 감소.
한계점:
Huawei Ascend AI 가속기와 Nvidia A100에 대한 비교는 고수준 비교로 세부적인 비교 분석이 부족할 수 있음.
제안된 방법의 일반성 및 다른 하드웨어 플랫폼으로의 확장성에 대한 추가적인 연구가 필요함.
특정 하드웨어(Huawei Ascend AI 가속기)에 최적화되어 다른 아키텍처에서의 성능은 보장할 수 없음.
👍