본 연구는 인공지능(AI)이 디지털 생태계에 통합됨에 따라 특히 데이터 중심 환경을 탐색하는 젊은 디지털 시민들의 프라이버시 역학이 어떻게 변화했는지 탐구한다. 16세에서 19세 사이의 디지털 시민, 부모/교육자, AI 전문가 등 세 가지 주요 이해관계자 그룹의 진화하는 프라이버시 우려를 조사하고, 데이터 소유권, 신뢰, 투명성, 부모의 중재, 교육 및 위험-이익 인식의 차이를 평가한다. 근거 이론 방법론을 사용하여 구조화된 설문 조사, 질적 면접 및 포커스 그룹을 통해 482명의 참가자로부터 얻은 통찰력을 종합한다. 연구 결과는 젊은 사용자는 자율성과 디지털 자유를 강조하는 반면, 부모와 교육자는 규제 감독과 AI 리터러시 프로그램을 옹호하는 등 서로 다른 프라이버시 기대치를 보여준다. AI 전문가는 윤리적인 시스템 설계와 기술적 효율성 간의 균형을 우선시한다. 또한 AI 리터러시 및 투명성의 격차를 강조하며, 다양한 사용자의 요구를 수용하는 포괄적인 이해관계자 중심의 프라이버시 프레임워크의 필요성을 강조한다. 비교적 주제 분석을 사용하여 프라이버시 거버넌스의 핵심 긴장을 식별하고, 이해관계자 간의 동적 협상으로 프라이버시 의사 결정을 구조화하는 새로운 AI 프라이버시-윤리 정렬(PEA-AI) 모델을 개발한다. 투명성, 사용자 제어, 위험 인식 및 부모의 중재와 같은 주제를 체계적으로 분석함으로써, AI 거버넌스를 위한 확장 가능하고 적응력 있는 기반을 제공하여 프라이버시 보호가 새로운 AI 기술 및 청소년 중심의 디지털 상호 작용과 함께 발전하도록 한다.