본 논문은 저자원 대상 과제의 성능 향상을 위해 풍부한 자원을 가진 소스 과제를 활용하는 메타 학습에 초점을 맞추고 있습니다. 기존 메타 학습 접근 방식이 소스 과제 간의 관련성을 무시하고 모든 소스 과제를 동등하게 취급하는 문제점을 해결하고자, 강화 학습 기반의 다중 소스 메타 전이 학습 프레임워크(Meta-RTL)를 제시합니다. Meta-RTL은 강화 학습 기반 접근 방식을 통해 메타 전이 학습에서 각 소스 과제의 기여도를 측정하는 소스 과제 가중치를 동적으로 추정합니다. 메타 모델의 일반 손실과 소스 특정 임시 메타 모델의 과제 특정 손실 간의 차이를 강화 학습 모듈의 정책 네트워크에 보상으로 제공하며, 장기 의존성을 포착하는 LSTM 기반의 정책 네트워크를 사용합니다. BERT와 ALBERT를 메타 모델의 백본으로 사용하여 세 가지 상식 추론 벤치마크 데이터셋에서 Meta-RTL을 평가한 결과, 기존의 과제 선택 전략과 강력한 기준 모델보다 뛰어난 성능을 보였으며, 특히 매우 저자원 환경에서 더 큰 성능 향상을 달성했습니다.