Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Incorporating AI Incident Reporting into Telecommunications Law and Policy: Insights from India

Created by
  • Haebom

作者

Avinash Agarwal, Manisha J. Nene

概要

本論文は、AI(AI)が通信インフラストラクチャに統合されているために発生するアルゴリズムの偏りや予測不可能なシステム動作などの新しいリスクを扱います。このリスクは、既存のサイバーセキュリティおよびデータ保護フレームワークの範囲外です。本論文は、通信AI事故の正確な定義と詳細なタイプを提示し、既存のサイバーセキュリティおよびデータ保護違反を超えた別々のリスクカテゴリに設定し、個別の規制上の関心として認識されるべきであると主張する。インドを水平方向のAI法律のない管轄権のケーススタディとして使用して、インドの主要なデジタル規制を分析します。分析の結果、2023年の通信法、CERT-Inの規則、および2023年のデジタル個人データ保護法を含むインドの既存の法律は、サイバーセキュリティとデータ違反に焦点を当てており、パフォーマンスの低下やアルゴリズムの偏りなど、AI特有の運営上の事故に対するかなりの規制空白をもたらすことを示している。また、情報開示の構造的障壁と既存AI事故リポジトリの限界を調査する。これらの調査結果に基づいて、インドの既存の通信ガバナンスにAI事故報告を統合することを中心とした標的政策勧告を提示します。主な提案には、高リスクAI障害の報告義務化、既存の政府機関を事故データ管理ノード機関に指定、標準化された報告フレームワークの開発などが含まれる。この勧告は、規制の明確性を高め、長期的な回復力を強化し、既存の部門別のフレームワーク内でAIリスクを管理しようとする他の国のための実用的で複製可能な青写真を提供します。

Takeaways、Limitations

Takeaways: AI通信事故を別々の規制領域として認識する必要性の提起、インドの通信AI思考管理のための具体的な方針勧告の提示、他国のAIリスク管理のための実用的な青写真の提供。
Limitations:インドのケーススタディに限定され、一般化の難しさの存在、既存のAI事故リポジトリの限界の詳細な分析の欠如、提案された政策勧告の実効性検証の欠如。
👍