본 논문은 LLM 사용 시 사용자 프롬프트 내 개인정보 보호의 중요성을 인식하고, 프롬프트 내 민감 정보를 난독화하는 새로운 방법인 PromptObfus를 제안한다. PromptObfus는 "anti-adversarial" 학습을 기반으로, 프롬프트 내 개인정보 관련 단어를 변경하여 민감 정보를 가리는 동시에 모델 예측의 안정성을 유지한다. 구체적으로, 프롬프트 난독화를 masked language modeling task로 구성하여 민감 단어를 [MASK] 토큰으로 대체하고, 대리 모델의 gradient feedback을 활용하여 최적의 대체 단어를 선택한다. 제안된 방법은 세 가지 NLP task에서 효과적으로 개인정보 유출을 방지하면서 task 성능을 유지함을 보인다.