본 논문은 대규모 언어 모델(LLM)의 파인튜닝 과정에서 발생하는 다양한 프라이버시 위협에 대한 종합적인 조사를 제공합니다. 파인튜닝은 특정 하위 작업에 LLM을 활용하는 데 중요한 과정이지만, 민감한 데이터셋을 사용하기 때문에 멤버십 추론, 데이터 추출, 백도어 공격 등의 프라이버시 공격에 취약합니다. 논문에서는 차등 프라이버시, 연합 학습, 지식 언러닝 등의 프라이버시 위험 완화 방어 메커니즘을 검토하고, 그 효과와 한계를 논의하며, LLM 파인튜닝을 위한 프라이버시 보호 방법 개발의 진전을 위한 과제와 방향을 제시합니다.