Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Self-Controlled Dynamic Expansion Model for Continual Learning

Created by
  • Haebom

저자

Runqing Wu, Fei Ye, Rongyao Hu, Guoxi Huang

개요

본 논문은 지속적 학습(Continual Learning, CL)에서 사전 훈련된 Vision Transformer (ViT)의 효율성을 높이기 위해 기존의 단일 정적 백본의 한계를 극복하는 새로운 모델, 자기 제어 동적 확장 모델(Self-Controlled Dynamic Expansion Model, SCDEM)을 제안합니다. SCDEM은 다수의 사전 훈련된 ViT 백본을 활용하여 다양하고 의미적으로 풍부한 표현을 제공하며, 새로운 작업에 적응하기 위해 최소한의 매개변수로 새로운 전문가(expert)를 동적으로 생성합니다. 협력적 최적화 메커니즘(Collaborative Optimization Mechanism, COM)을 통해 기존 전문가의 예측 신호를 활용하여 여러 백본을 시너지 효과적으로 최적화하고, 특징 분포 일관성(Feature Distribution Consistency, FDC) 접근 방식을 통해 최적 수송 거리 기반 메커니즘으로 이전과 현재 학습된 표현 간의 의미적 유사성을 맞춰 부정적 지식 전이 효과를 완화합니다. 또한, 동적 계층별 특징 주의 메커니즘(Dynamic Layer-Wise Feature Attention Mechanism, DLWFAM)을 통해 과적합 문제를 해결합니다. 실험 결과, 제안된 방법론이 최첨단 성능을 달성함을 보여줍니다.

시사점, 한계점

시사점:
다중 백본 기반의 동적 모델을 통해 지속적 학습에서의 성능 향상을 달성.
새로운 작업에 대한 적응력 향상 및 부정적 지식 전이 효과 완화.
협력적 최적화 메커니즘과 특징 분포 일관성 접근 방식의 효과적인 활용.
동적 계층별 특징 주의 메커니즘을 통한 과적합 문제 해결.
최첨단 성능 달성.
한계점:
제안된 모델의 복잡성 및 계산 비용에 대한 분석 부족.
다양한 데이터 도메인 및 작업 유형에 대한 일반화 성능에 대한 추가적인 평가 필요.
실제 응용 분야에 적용 가능성 및 확장성에 대한 추가적인 연구 필요.
COM, FDC, DLWFAM의 하이퍼파라미터 튜닝에 대한 상세한 설명 부족.
👍