Sable: a Performant, Efficient and Scalable Sequence Model for MARL
Created by
Haebom
Category
Empty
저자
Omayma Mahjoub, Sasha Abramowitz, Ruan de Kock, Wiem Khlifi, Simon du Toit, Jemma Daniel, Louay Ben Nessir, Louise Beyers, Claude Formanek, Liam Clark, Arnu Pretorius
개요
본 논문은 다중 에이전트 강화 학습(MARL)에서 성능, 메모리 효율성, 확장성을 모두 만족하는 새로운 시퀀스 모델링 기법인 Sable을 제안합니다. Sable은 Retentive Networks의 메모리 보존 메커니즘을 개선하여 계산 효율적으로 장기 기억을 활용한 시간적 추론을 가능하게 합니다. 6가지 다양한 환경에서의 광범위한 평가를 통해, Sable이 기존 최첨단 방법들을 45개 과제 중 34개에서 능가하는 우수한 성능을 보임을 보여줍니다. 또한, 에이전트 수 증가에도 성능을 유지하며, 1000개 이상의 에이전트를 처리하는 환경에서도 선형적인 메모리 사용량 증가만을 보입니다. 마지막으로, ablation study를 통해 Sable의 성능 향상 원인과 효율적인 메모리 사용을 확인합니다.
시사점, 한계점
•
시사점:
◦
다중 에이전트 강화 학습에서 성능, 메모리 효율성, 확장성을 동시에 달성하는 새로운 방법 제시