본 논문은 대규모 언어 모델(LLM)의 컨텍스트 학습(ICL)에서 많은 수의 예시(many-shot ICL)를 사용하는 방법의 효율성을 높이기 위한 새로운 프레임워크인 MAPLE(Many-Shot Adaptive Pseudo-LabEling)을 제안한다. 기존 many-shot ICL은 많은 양의 라벨링된 데이터가 필요하다는 한계점을 가지는데, MAPLE은 영향력 있는 비표시 데이터를 선별하여 LLM을 이용해 의사 라벨링을 수행하고, 테스트 질의에 맞춰 적응적으로 선택된 의사 라벨링 데이터를 활용함으로써 라벨링 비용을 절감하면서 성능을 향상시킨다. 실제 데이터셋을 이용한 실험을 통해 제안된 프레임워크의 효과를 검증한다.