본 논문은 생성형 AI의 위험을 평가하기 위한 원칙 기반의 프레임워크를 제시한다. IEEE P3396 권장 관행(AI 위험, 안전, 신뢰성 및 책임에 관한)의 기반이 되는 이 프레임워크는 AI 시스템 구축 또는 운영 방식에서 발생하는 프로세스 위험과 AI 시스템 출력 및 실제 세계 영향에 나타나는 결과 위험을 구분하며, 생성형 AI 거버넌스는 결과 위험을 우선시해야 한다고 주장한다. 정보 중심적 온톨로지(AI 생성 출력을 인식 수준 정보, 지식 수준 정보, 의사 결정/행동 계획 정보, 제어 토큰으로 분류)를 중심으로, 정보 유형에 따른 피해 식별 및 이해관계자(개발자, 배포자, 사용자, 규제 기관)에 대한 책임의 정확한 귀속을 가능하게 한다. 각 정보 유형이 고유한 결과 위험(예: 기만, 허위 정보, 안전하지 않은 권장 사항, 보안 위반)을 수반하며 맞춤형 위험 측정 및 완화 조치가 필요함을 보여준다. 정보, 인간의 행위자 및 인지의 본질에 프레임워크를 기반으로 함으로써 AI 출력이 인간의 이해와 행동에 미치는 영향에 대한 위험 평가를 정렬한다. 이는 광범위한 응용 프로그램 기반 위험 분류와 달리 명확한 책임과 표적화된 안전 장치를 지원하는 원칙적인 AI 위험 평가 접근 방식이다. 정보 유형, 위험 및 책임을 매핑하는 예시 표를 포함한다. 본 연구는 IEEE P3396 권장 관행 및 광범위한 AI 거버넌스에 생성형 AI 위험을 평가하고 책임 있는 혁신을 가능하게 하는 엄격한 원칙 기반 토대를 제공하고자 한다.