본 논문은 대규모 언어 모델(LLM)이 훈련 데이터를 기억하는 특성으로 인해 개인정보보호법의 적용 대상이 될 수 있음을 주장합니다. 특히, LLM이 개인을 식별하거나 식별 가능한 정보를 출력할 경우 EU 일반 개인정보보호 규정(GDPR)과 같은 법률의 적용을 받는다고 논의합니다. LLM이 훈련 데이터를 그대로 또는 변형된 형태로 출력할 수 있다는 점, 그리고 일부 LLM 자체가 개인정보로 간주될 수 있다는 점을 근거로 제시하며, 데이터 주체의 권리(접근권, 정정권, 삭제권 등)가 LLM에 내재된 정보에도 적용되어야 함을 강조합니다. 따라서 머신러닝 연구자들은 데이터 수집 및 정리부터 모델 배포까지 전체 머신러닝 개발 라이프사이클 전반에 걸쳐 LLM의 법적 함의를 인지해야 하며, 법률 분야와 머신러닝 커뮤니티 간의 더 많은 상호작용이 필요하다고 주장합니다.