본 논문은 대규모 언어 모델(LLM)의 개인 맞춤형 응답 능력 향상을 위한 새로운 접근 방식인 Fermi를 제안합니다. 기존 접근 방식의 한계점인 개인화된 학습 부재 또는 공유 개인 데이터 의존성을 극복하기 위해, 사용자 프로필과 소수의 이전 의견 예시를 기반으로 LLM을 사용하여 개인화된 프롬프트를 점진적으로 개선하는 방법을 제시합니다. 특히 LLM의 잘못 정렬된 응답 맥락을 통합하여 개인화 효율성을 높이고, 효과적인 추론 방법을 개발하여 테스트 쿼리 및 개인화된 프롬프트의 맥락을 활용합니다. 실험 결과, Fermi는 다양한 벤치마크에서 최고 성능의 기준 모델보다 성능을 크게 향상시키는 것으로 나타났습니다.