본 논문은 생성형 AI의 확장성 있는 자동화된 효과적인 조작 가능성에 주목하며, 생성형 AI를 둘러싼 윤리적 논의가 확대되고 있음에도 불구하고 특정 조작 위험에 대한 연구가 부족함을 지적합니다. 개념적, 경험적, 설계적 차원을 포함하는 필수적인 조작 관련 질문들을 제시하여 조작 위험을 이해하고 억제하기 위한 틀을 제공합니다. 이러한 질문들을 강조함으로써 생성형 AI 기술의 책임 있는 개발을 위해 조작에 대한 적절한 개념화가 필요함을 역설합니다.