본 논문은 대규모 언어 모델(LLM)이 훈련 데이터를 기억하는 특성으로 인해 개인정보보호법 위반 가능성을 제기한다. LLM의 훈련 과정에서 개인 데이터가 포함될 경우, 모델이 해당 데이터를 기억하고 추론 시 출력할 수 있으며, 이는 개인 식별이 가능한 경우 EU GDPR 등의 규제 대상이 된다는 주장이다. 논문은 LLM 자체가 개인 데이터로 간주될 수 있으며, 따라서 데이터 주체의 접근권, 정정권, 삭제권 등의 권리가 적용되어야 함을 강조한다. 또한, 머신러닝 연구자들이 데이터 수집, 큐레이션부터 모델 배포까지 전 과정에서 LLM의 법적 함의를 인지하고 대처해야 할 필요성을 제시하며, 법률 및 머신러닝 분야 간의 협력을 강조한다.