본 논문은 공공 부문에서 생성형 AI의 빠른 도입과 그에 따른 다양한 응용 (자동화된 공공 지원, 복지 서비스, 이민 절차 등)이 가져올 잠재적 변혁과 함께 철저한 위험 평가의 필요성을 강조한다. 공공 부문에서 AI 기반 시스템과 관련된 위험 평가는 여전히 부족하다. 본 논문은 다양한 정부 정책과 기업 가이드라인에서 도출된 기존 AI 위험 분류 체계를 기반으로 공공 부문에서 생성형 AI가 제기하는 중요한 위험을 조사하고, 다중 모드 기능을 고려하여 범위를 확장한다. 또한, 생성형 AI의 위험을 평가하기 위한 체계적인 데이터 생성 프레임워크(SAIF)를 제안한다. SAIF는 위험 분해, 시나리오 설계, 탈옥 방법 적용, 프롬프트 유형 탐색의 네 가지 주요 단계를 포함하며, 위험 완화를 위한 견고한 기반을 제공하면서 포괄적인 평가를 위한 체계적이고 일관된 프롬프트 데이터 생성을 보장한다. SAIF는 새로운 탈옥 방법과 진화하는 프롬프트 유형을 수용하도록 설계되어 예측할 수 없는 위험 시나리오에 효과적으로 대응할 수 있다. 본 연구는 공공 부문에 생성형 AI를 안전하고 책임감 있게 통합하는 데 중요한 역할을 할 수 있을 것으로 기대된다.