Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Learning to Inference Adaptively for Multimodal Large Language Models

Created by
  • Haebom
Category
Empty

저자

Zhuoyan Xu, Khoi Duc Nguyen, Preeti Mukherjee, Saurabh Bagchi, Somali Chaterji, Yingyu Liang, Yin Li

개요

본 논문은 다중 모달 대규모 언어 모델(MLLM)의 연산 비용이 많다는 점을 해결하기 위해, 실행 중에 MLLM의 연산을 동적으로 재구성하는 적응형 추론 프레임워크인 AdaLLaVA를 제시합니다. AdaLLaVA는 입력 데이터와 지연 시간 예산을 고려하여 추론 중에 연산을 동적으로 재구성하여, 변화하는 자원 가용성(예: 다른 프로그램 실행으로 인한 경합)에 대응합니다. 질의응답, 추론, 환각 등 다양한 벤치마크에 대한 실험을 통해 AdaLLaVA가 입력 지연 시간 예산을 효과적으로 준수하고, 실행 중에 정확도와 지연 시간 간의 다양한 절충안을 달성함을 보여줍니다. 또한, AdaLLaVA는 입력 지연 시간과 내용에 적응하고, 토큰 선택과 통합하여 효율성을 높이며, 다양한 MLLM에 일반화될 수 있음을 보여줍니다.

시사점, 한계점

시사점:
변화하는 자원 가용성에 적응하는 적응형 MLLM 추론 프레임워크를 제시합니다.
입력 지연 시간 예산을 효과적으로 준수하며 정확도와 지연 시간 간의 절충을 제공합니다.
입력 지연 시간 및 내용에 적응하고, 토큰 선택과 통합하여 효율성을 향상시킵니다.
다양한 MLLM에 일반화 가능합니다.
한계점:
본 논문에서 제시된 AdaLLaVA의 성능이 특정 벤치마크와 MLLM에 국한될 가능성이 있습니다. 더욱 다양한 환경에서의 실험이 필요합니다.
AdaLLaVA의 적응 메커니즘의 복잡성으로 인해, 실제 구현 및 배포에 대한 추가적인 연구가 필요할 수 있습니다.
에너지 소비량 등 다른 성능 지표에 대한 평가가 부족합니다.
👍