Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Increasing AI Explainability by LLM Driven Standard Processes

Created by
  • Haebom
Category
Empty

저자

Marc Jansen, Marcel Pehlke

개요

본 논문은 대규모 언어 모델(LLM)을 표준화된 분석 프로세스에 통합하여 인공지능(AI) 시스템의 설명 가능성을 높이는 접근 방식을 제시한다. 기존의 설명 가능한 AI(XAI) 방법이 특징 귀속 또는 사후 해석에 초점을 맞추는 반면, 제안된 프레임워크는 질문-선택지-기준(QOC), 민감도 분석, 게임 이론, 위험 관리와 같은 정의된 의사 결정 모델에 LLM을 통합한다. 이러한 공식적인 구조 내에서 LLM 추론을 위치시킴으로써, 불투명한 추론을 투명하고 감사 가능한 의사 결정 추론으로 변환한다. LLM의 추론 공간과 그 위의 설명 가능한 프로세스 공간을 분리하는 계층적 아키텍처를 제시한다. 실험적 평가는 시스템이 분산 거버넌스, 시스템 분석, 전략적 추론 맥락에서 인간 수준의 의사 결정 논리를 재현할 수 있음을 보여준다. 결과는 LLM 기반 표준 프로세스가 신뢰할 수 있고 해석 가능하며 검증 가능한 AI 지원 의사 결정의 기반을 제공함을 시사한다.

시사점, 한계점

시사점:
LLM을 표준화된 분석 프로세스에 통합하여 AI 시스템의 설명 가능성을 향상시킨다.
투명하고 감사 가능한 의사 결정 추론을 생성한다.
분산 거버넌스, 시스템 분석, 전략적 추론 등 다양한 맥락에서 인간 수준의 의사 결정 논리를 재현한다.
신뢰할 수 있고 해석 가능하며 검증 가능한 AI 지원 의사 결정의 기반을 제공한다.
한계점:
논문에 구체적인 한계점에 대한 언급은 없다.
👍