본 논문은 인공지능(AI) 기술의 급속한 발전으로 인해 발생하는 개인정보보호 및 윤리적 문제점을 다룬다. 202건의 실제 AI 관련 사고를 분석하여 AI 생애주기 전반에 걸친 사고 유형을 분류하는 분류 체계를 제시한다. 분석 결과, AI 개발자 및 사용자의 사고 보고 부족, 부적절한 조직적 의사결정 및 법적 준수 미흡, 법적 조치 및 시정 조치의 부족, 위험 완화 노력의 제한 등의 문제점을 발견하였다. 본 연구는 향후 AI 사고 보고를 위한 구조적 접근 방식을 제공하고, 현재 AI 거버넌스 프레임워크의 부적절성을 보여준다. 특히 아동 특화 보호 및 소셜 미디어 내 AI 정책의 필요성을 강조하며, 유해한 AI 생성 콘텐츠의 확산을 완화하기 위한 정책 마련을 촉구한다. 결론적으로, 본 연구는 정책 입안자와 실무자에게 윤리적인 AI 설계, AI 사고 탐지 및 위험 관리, AI 정책 개발을 위한 통찰력을 제공하여 유해한 AI 애플리케이션으로부터 사람들을 보호하고 AI 시스템의 혁신을 지원하는 데 기여한다.