본 논문은 생성형 AI 시스템의 발전이 기존의 동의에 기반한 법적, 윤리적 틀에 어려움을 제기하는 문제를 다룬다. 데이터 보호 및 개인정보 보호 권리의 근간이 되는 기존의 동의 개념이 개인 데이터로부터 생성된 AI 생성 콘텐츠의 함의를 다루는 데 부족함을 보여준다. 법적, 윤리적 분석을 통해 개인이 AI 훈련을 위한 데이터의 초기 사용에는 동의할 수 있지만, 그 데이터가 가능하게 할 수 있는 수많은 잠재적 결과물이나 그 결과물의 사용 및 배포 범위에 대해서는 의미 있는 동의를 할 수 없음을 밝힌다. 범위 문제, 시간적 문제, 자율성 함정이라는 세 가지 근본적인 문제점을 확인하고, 이를 총칭하여 AI 시스템 및 그 주변 생태계에서 "동의 간극"이라고 명명한다. 특히 AI 생성 콘텐츠가 원래 동의의 범위를 넘어 새로운 형태의 개인적 표현을 만들어내는 경우, 현행 법적 틀이 개인 자율성, 신원 권리 및 사회적 책임과 관련된 이러한 새롭게 등장하는 문제점을 충분히 다루지 못한다고 주장한다. 이러한 동의 제한이 공정성, 투명성, 책임성 및 자율성을 포함한 더 넓은 책임 있는 AI 원칙과 어떻게 교차하는지 조사하여 동의에 대한 윤리적 및 법적 접근 방식을 발전시킬 필요성을 보여준다.