Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A First-Principles Based Risk Assessment Framework and the IEEE P3396 Standard

Created by
  • Haebom

저자

Richard J. Tong, Marina Cortes, Jeanine A. DeFalco, Mark Underwood, Janusz Zalewski

개요

본 논문은 생성형 AI의 위험을 평가하기 위한 원칙 기반의 프레임워크를 제시한다. IEEE P3396 권장 관행(AI 위험, 안전, 신뢰성 및 책임에 관한)의 기반이 되는 이 프레임워크는 AI 시스템 구축 또는 운영 방식에서 발생하는 프로세스 위험과 AI 시스템 출력 및 실제 세계 영향에 나타나는 결과 위험을 구분하며, 생성형 AI 거버넌스는 결과 위험을 우선시해야 한다고 주장한다. 정보 중심적 온톨로지(AI 생성 출력을 인식 수준 정보, 지식 수준 정보, 의사 결정/행동 계획 정보, 제어 토큰으로 분류)를 중심으로, 정보 유형에 따른 피해 식별 및 이해관계자(개발자, 배포자, 사용자, 규제 기관)에 대한 책임의 정확한 귀속을 가능하게 한다. 각 정보 유형이 고유한 결과 위험(예: 기만, 허위 정보, 안전하지 않은 권장 사항, 보안 위반)을 수반하며 맞춤형 위험 측정 및 완화 조치가 필요함을 보여준다. 정보, 인간의 행위자 및 인지의 본질에 프레임워크를 기반으로 함으로써 AI 출력이 인간의 이해와 행동에 미치는 영향에 대한 위험 평가를 정렬한다. 이는 광범위한 응용 프로그램 기반 위험 분류와 달리 명확한 책임과 표적화된 안전 장치를 지원하는 원칙적인 AI 위험 평가 접근 방식이다. 정보 유형, 위험 및 책임을 매핑하는 예시 표를 포함한다. 본 연구는 IEEE P3396 권장 관행 및 광범위한 AI 거버넌스에 생성형 AI 위험을 평가하고 책임 있는 혁신을 가능하게 하는 엄격한 원칙 기반 토대를 제공하고자 한다.

시사점, 한계점

시사점: 생성형 AI의 위험을 체계적으로 평가하고, 책임을 명확하게 할 수 있는 정보 중심적 프레임워크 제공. 결과 위험에 대한 우선순위 설정을 통해 효과적인 AI 거버넌스 방향 제시. 정보 유형에 따른 맞춤형 위험 측정 및 완화 전략 수립 가능성 제시.
한계점: 제시된 프레임워크의 실제 적용 가능성 및 효과에 대한 추가적인 실증 연구 필요. 모든 유형의 생성형 AI 위험을 포괄적으로 다루는지에 대한 검증 필요. 정보 유형 분류의 주관성 및 경계 불분명성에 대한 해결책 제시 필요. 다양한 이해관계자 간의 책임 분담 및 협력 방안에 대한 구체적인 제안 부족.
👍