본 논문은 자연어 처리(NLP) 분야의 급속한 발전과 생성형 인공지능(AI) 및 대규모 언어 모델(LLM)의 등장으로 인해 고객 서비스, 의료, 금융 등 다양한 분야에서 혁신이 일어났지만, 대규모 데이터셋으로 훈련된 LLM이 사용자 상호작용에서 개인 식별 정보(PII)를 의도치 않게 흡수하고 노출할 수 있다는 심각한 개인 정보 보호 문제를 제기한다는 점을 다룬다. 본 연구는 데이터 추출, 모델 역추정, 멤버십 추론과 같은 공격을 통해 생성형 AI의 취약점을 감지하고, 이러한 공격에 대한 저항력을 갖춘 개인 정보 보호 생성형 AI 애플리케이션을 개발한다. LLM 처리 전에 PII를 식별, 수정 또는 제거하는 방법을 사용하여 기능성을 희생하지 않고 개인 정보를 보호하며, 마이크로소프트 애저, 구글 클라우드, AWS와 같은 클라우드 플랫폼이 AI 애플리케이션 보호를 위해 얼마나 효과적으로 개인 정보 보호 도구를 제공하는지 조사한다. 최종적으로, 데이터 보안 및 윤리적인 AI 구현에 중점을 둔 생성형 AI 시스템을 위한 기본적인 개인 정보 보호 패러다임을 제시하며, 이러한 도구의 더 안전하고 책임감 있는 사용을 위한 길을 연다.