Sign In

When Continue Learning Meets Multimodal Large Language Model: A Survey

Created by
  • Haebom
Category
Empty

저자

Yukang Huo, Hao Tang

개요

본 논문은 다중 모달 대규모 언어 모델(MLLM)의 지속적 학습(Continual Learning, CL)에 관한 최초의 종합적 검토 논문이다. 440편의 연구 논문을 분석하여 MLLM의 최신 연구 동향, CL의 다양한 접근 방식(단일 모달 비-LLM CL, 다중 모달 비-LLM CL, LLM의 CL), MLLM CL의 현재 상태(벤치마크 평가, 구조적 혁신, 이론적 및 실증적 연구 요약)를 종합적으로 제시한다. 특히, 사전 학습된 MLLM을 동적인 데이터 분포와 다양한 작업에 효율적으로 적용하는 데 있어 발생하는 '파국적 망각' 문제를 해결하기 위한 연구들을 중점적으로 다루며, 향후 연구 방향을 제시한다.

시사점, 한계점

시사점:
MLLM 지속적 학습 분야에 대한 최초의 종합적 검토를 제공하여 연구 현황과 도전 과제에 대한 포괄적인 이해를 제공한다.
다양한 CL 방법론과 MLLM에의 적용 가능성을 체계적으로 분석한다.
MLLM CL 분야의 미래 연구 방향을 제시하여 후속 연구를 위한 기반을 마련한다.
한계점:
본 논문 자체가 검토 논문이므로, 새로운 실험적 결과나 방법론을 제시하지는 않는다.
440편의 논문을 분석하였지만, 모든 관련 연구를 포괄하지 못했을 가능성이 있다.
향후 연구 방향 제시는 추측적인 측면이 존재할 수 있다.
👍