本論文は、AI(AI)が通信インフラストラクチャに統合されているために発生するアルゴリズムの偏りや予測不可能なシステム動作などの新しいリスクを扱います。このリスクは、既存のサイバーセキュリティおよびデータ保護フレームワークの範囲外です。本論文は、通信AI事故の正確な定義と詳細なタイプを提示し、既存のサイバーセキュリティおよびデータ保護違反を超えた別々のリスクカテゴリに設定し、個別の規制上の関心として認識されるべきであると主張する。インドを水平方向のAI法律のない管轄権のケーススタディとして使用して、インドの主要なデジタル規制を分析します。分析の結果、2023年の通信法、CERT-Inの規則、および2023年のデジタル個人データ保護法を含むインドの既存の法律は、サイバーセキュリティとデータ違反に焦点を当てており、パフォーマンスの低下やアルゴリズムの偏りなど、AI特有の運営上の事故に対するかなりの規制空白をもたらすことを示している。また、情報開示の構造的障壁と既存AI事故リポジトリの限界を調査する。これらの調査結果に基づいて、インドの既存の通信ガバナンスにAI事故報告を統合することを中心とした標的政策勧告を提示します。主な提案には、高リスクAI障害の報告義務化、既存の政府機関を事故データ管理ノード機関に指定、標準化された報告フレームワークの開発などが含まれる。この勧告は、規制の明確性を高め、長期的な回復力を強化し、既存の部門別のフレームワーク内でAIリスクを管理しようとする他の国のための実用的で複製可能な青写真を提供します。