Who Sees the Risk? Stakeholder Conflicts and Explanatory Policies in LLM-based Risk Assessment
Created by
Haebom
Category
Empty
저자
Srishti Yadav, Jasmina Gajcin, Erik Miehling, Elizabeth Daly
개요
LLM을 활용하여 AI 시스템 위험을 평가하는 이해관계자 중심 위험 평가 프레임워크 제시. Risk Atlas Nexus와 GloVE 설명 방법을 사용하여 이해관계자별로 해석 가능한 정책을 생성하고, 이해관계자 간의 위험에 대한 합의 및 불일치 사항을 파악. 의료 AI, 자율 주행, 사기 탐지 분야의 3가지 실제 AI 사용 사례를 통해 프레임워크를 시연하고, 이해관계자 관점 간의 갈등을 시각화하여 투명성을 향상.
시사점, 한계점
•
이해관계자 관점이 위험 인식 및 갈등 패턴에 유의미한 영향을 미침을 확인.
•
LLM 기반 평가의 투명성, 해석 가능성, 인간 중심 AI 거버넌스 목표에 부합하는 이해관계자 인식 설명의 중요성 강조.