Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Privacy Ethics Alignment in AI: A Stakeholder-Centric Framework for Ethical AI

Created by
  • Haebom

作者

Ankur Barthwal, Molly Campbell, Ajay Kumar Shrestha

概要

この研究は、人工知能(AI)がデジタルエコシステムに統合されるにつれて、特にデータ中心の環境を探索する若いデジタル市民のプライバシー力学がどのように変化したかを探ります。 16歳から19歳までのデジタル市民、親/教育者、AI専門家など、3つの主要な利害関係者グループの進化するプライバシーの懸念を調査し、データの所有権、信頼、透明性、親の仲裁、教育、およびリスク - 利益認識の違いを評価します。根拠理論方法論を使用して、構造化された調査、定性的面接、およびフォーカスグループを通じて482人の参加者から得られた洞察を総合する。研究の結果、若いユーザーは自律性とデジタル自由を強調し、親と教育者は規制監督とAIリテラシープログラムを擁護するなど、異なるプライバシー期待を示している。 AIの専門家は、倫理的なシステム設計と技術的効率のバランスを優先します。また、AIリテラシーと透明性のギャップを強調し、さまざまなユーザーのニーズに対応する包括的な利害関係者中心のプライバシーフレームワークの必要性を強調します。比較的トピック分析を使用して、プライバシーガバナンスの重要な緊張を特定し、利害関係者間の動的交渉でプライバシー意思決定を構造化する新しいAIプライバシー倫理アライメント(PEA-AI)モデルを開発します。透明性、ユーザー制御、リスク認識、および親の仲裁などのトピックを体系的に分析することで、AIガバナンスのためのスケーラブルで適応性のある基盤を提供し、プライバシー保護が新しいAI技術と青少年中心のデジタルインタラクションと共に発展することを可能にします。

Takeaways、Limitations

Takeaways:
若いデジタル市民、親/教育者、AI専門家間の異なるプライバシー期待を明らかにすることによって、さまざまな利害関係者のニーズを満たす包括的なプライバシーフレームワークの開発の必要性を提示します。
AIリテラシーと透明性の重要性を強調し、AIリテラシープログラムと規制監督の必要性を示唆。
PEA-AIモデルによる利害関係者間の動的交渉によるプライバシー意思決定構造を提示し、AIガバナンスのための拡張可能で適応的な基盤を提供します。
Limitations:
研究対象が特定年齢帯(16~19歳)のデジタル市民に限られ、一般化に対する制限。
特定の地域や文化的背景に局在する研究結果による一般化の難しさ。
PEA-AIモデルの実際の適用と効果に関するさらなる研究の必要性
👍