본 연구는 디지털 생태계 내 인공지능(AI) 통합 증가가 특히 데이터 중심 환경을 탐색하는 젊은 디지털 시민의 프라이버시 역학을 어떻게 재편성하는지 탐구한다. 16-19세 디지털 시민, 부모, 교육자, AI 전문가 세 가지 주요 이해관계자 그룹의 진화하는 프라이버시 우려를 조사하고 데이터 소유권, 신뢰, 투명성, 부모 중재, 교육 및 위험-이익 인식의 차이를 평가한다. 근거 이론 방법론을 사용하여 구조화된 설문 조사, 질적 인터뷰 및 포커스 그룹을 통해 482명의 참가자로부터 통찰력을 종합한다. 연구 결과는 젊은 사용자는 자율성과 디지털 자유를 강조하는 반면, 부모와 교육자는 규제 감독 및 AI 리터러시 프로그램을 옹호하는 등, 각기 다른 프라이버시 기대치를 보여준다. AI 전문가는 윤리적인 시스템 설계와 기술적 효율성 간의 균형을 우선시한다. 또한 AI 리터러시와 투명성의 격차를 강조하며, 다양한 사용자 요구를 수용하는 포괄적이고 이해관계자 중심의 프라이버시 프레임워크의 필요성을 강조한다. 비교적 주제 분석을 사용하여 프라이버시 거버넌스의 핵심 긴장을 확인하고, 이해관계자 간의 역동적인 협상으로 프라이버시 의사결정을 구조화하는 새로운 AI 프라이버시-윤리 정렬(PEA-AI) 모델을 개발한다. 투명성, 사용자 제어, 위험 인식 및 부모 중재와 같은 주제를 체계적으로 분석하여 AI 거버넌스를 위한 확장 가능하고 적응력 있는 기반을 제공하여 프라이버시 보호가 새로운 AI 기술과 청소년 중심의 디지털 상호 작용과 함께 발전하도록 한다.