본 논문은 대규모 언어 모델(LLM)을 사용하여 문장을 바꿔 쓰고 글쓰기 스타일을 변경함으로써 저자를 숨기는 효과를 조사합니다. 전체 데이터셋에 대한 성능 평가를 하는 전체적인 접근 방식 대신, 개별 저자 간의 숨김 효과의 차이를 분석하기 위해 사용자별 성능에 초점을 맞춥니다. LLM은 일반적으로 효과적이지만, 효과의 이중 모드 분포가 관찰되며 사용자 간 성능이 크게 달라집니다. 이를 해결하기 위해 표준 프롬프트 기법보다 성능이 우수하고 이중 모드 문제를 부분적으로 완화하는 개인화된 프롬프트 방법을 제안합니다.