본 논문은 대규모 언어 모델(LLM)의 컨텍스트 학습(ICL)에서 많은 수의 예시(many-shot ICL)를 사용하는 방법의 효율성을 높이기 위한 새로운 프레임워크인 MAPLE(Many-Shot Adaptive Pseudo-LabEling)을 제안합니다. 기존 many-shot ICL은 많은 양의 라벨링된 데이터가 필요하다는 단점이 있는데, MAPLE은 영향력이 큰 비표지 데이터를 선택하여 LLM으로 의사 라벨링을 수행하고, 이를 테스트 쿼리에 적용하여 성능을 향상시킵니다. 실제 데이터셋을 이용한 실험을 통해 제한된 라벨링 데이터로도 LLM의 적응력과 성능을 향상시킬 수 있음을 보여줍니다.