この研究は、人工知能(AI)がデジタルエコシステムに統合されるにつれて、特にデータ中心の環境を探索する若いデジタル市民のプライバシー力学がどのように変化したかを探ります。 16歳から19歳までのデジタル市民、親/教育者、AI専門家など、3つの主要な利害関係者グループの進化するプライバシーの懸念を調査し、データの所有権、信頼、透明性、親の仲裁、教育、およびリスク - 利益認識の違いを評価します。根拠理論方法論を使用して、構造化された調査、定性的面接、およびフォーカスグループを通じて482人の参加者から得られた洞察を総合する。研究の結果、若いユーザーは自律性とデジタル自由を強調し、親と教育者は規制監督とAIリテラシープログラムを擁護するなど、異なるプライバシー期待を示している。 AIの専門家は、倫理的なシステム設計と技術的効率のバランスを優先します。また、AIリテラシーと透明性のギャップを強調し、さまざまなユーザーのニーズに対応する包括的な利害関係者中心のプライバシーフレームワークの必要性を強調します。比較的トピック分析を使用して、プライバシーガバナンスの重要な緊張を特定し、利害関係者間の動的交渉でプライバシー意思決定を構造化する新しいAIプライバシー倫理アライメント(PEA-AI)モデルを開発します。透明性、ユーザー制御、リスク認識、および親の仲裁などのトピックを体系的に分析することで、AIガバナンスのためのスケーラブルで適応性のある基盤を提供し、プライバシー保護が新しいAI技術と青少年中心のデジタルインタラクションと共に発展することを可能にします。