본 논문은 대규모 언어 모델(LLM)의 컨텍스트 학습(ICL)에서 예시 선택의 중요성, 특히 다양성의 영향을 체계적으로 연구한 결과를 제시합니다. 기존 연구들이 주로 질의와 가장 유사한 예시를 선택하는 데 집중한 것과 달리, 본 논문은 감정 분류부터 수학 및 코드 문제와 같은 복잡한 과제까지 다양한 작업에서 다양성을 고려한 예시 선택 방법의 효과를 실험적으로 검증합니다. Llama-3.1, Gemma-2, Mistral-v0.3 모델을 사용한 실험 결과, 다양성을 고려한 선택 방법은 특히 수학 및 코드와 같은 복잡한 작업에서 성능을 향상시키고 분포 외 질의에 대한 강건성을 높이는 것으로 나타났습니다. 또한, 이러한 결과를 뒷받침하는 이론적 프레임워크도 제시합니다.