본 논문은 대규모 언어 모델(LLM)이 생산성 향상, 비용 절감 등의 이점을 제공하지만, 사용자의 민감한 정보 노출이라는 심각한 개인정보 침해 위험을 동시에 안고 있음을 지적합니다. LLM의 프롬프트를 통해 개인정보가 유출될 가능성을 최소화하기 위해 다양한 무작위화 기법이 제안되었지만, 이는 유용성 저하를 초래할 수 있습니다. 따라서 개인정보 보호와 유용성 간의 균형을 평가하는 것이 중요하며, 본 연구는 개인정보 보호된 LLM을 추론하기 위한 프레임워크를 개발하고, 개인정보 보호와 유용성 간의 상호작용을 이론적으로 분석합니다. 핵심적인 통찰력은 'No-Free-Lunch(NFL)' 정리로 요약됩니다.