본 논문은 대규모 언어 모델(LLM)의 윤리적이고 유용한 행동을 보장하기 위한 정렬 조정(alignment tuning)에 대해 다룹니다. 기존 방법들은 고품질 주석과 많은 훈련 자원을 필요로 하는 반면, 본 논문에서는 문맥 내 학습(ICL)을 이용한 저비용, 튜닝 없는 방법을 제안합니다. 고품질 ICL 데모 분석을 통해 스타일이 LLM 정렬 능력에 중요한 요소임을 밝히고, 이러한 스타일 프레임워크를 기반으로 ICL 예시를 재구성했습니다. 또한, 재구성된 예시들을 결합하여 사실성과 안전성이라는 상충되는 두 가지 측면 간의 균형을 맞추었습니다. 재구성된 예시들을 프롬프트로 패키징하여 몇 샷 학습을 유도함으로써 LLM 정렬을 개선했습니다. Alpaca 작업에서 최대 0.10 향상(4.50에서 4.60), Just-eval 벤치마크에서 0.22 향상(4.34에서 4.56), MT-Bench 데이터셋에서 최대 0.32 향상(3.53에서 3.85)을 달성했습니다. (최대 점수는 평균 5.00) 코드와 데이터는 https://github.com/AnonymousCode-ComputerScience/RIDE 에서 공개합니다.