본 논문은 대규모 언어 모델(LLM)이 민감한 영역에 점점 더 많이 배포됨에 따라, 암시적, 문맥적 또는 추론 가능한 정보(본 논문에서는 의미적 프라이버시라고 정의)를 보호하는 데 기존의 데이터 프라이버시 측정이 부적절하다는 점을 다룹니다. 본 연구는 지식 체계화(SoK)를 통해 LLM의 입력 처리, 사전 훈련, 미세 조정 및 정렬 단계에서 의미적 프라이버시 위험이 어떻게 발생하는지 분석하는 라이프사이클 중심 프레임워크를 제시합니다. 주요 공격 벡터를 분류하고 차등 프라이버시, 임베딩 암호화, 에지 컴퓨팅 및 언러닝과 같은 현재의 방어 메커니즘이 이러한 위협에 어떻게 대처하는지 평가합니다. 분석 결과, 특히 문맥적 추론 및 잠재적 표현 유출에 대한 의미 수준의 보호에 심각한 결함이 있음을 보여줍니다. 의미적 유출 정량화, 다중 모달 입력 보호, 식별 제거와 생성 품질의 균형, 프라이버시 시행의 투명성 보장 등 미해결 과제를 제시하며, LLM을 위한 강력하고 의미론적으로 인식하는 프라이버시 보호 기술 설계에 대한 미래 연구를 위한 정보를 제공하고자 합니다.