Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LLM Driven Processes to Foster Explainable AI

Created by
  • Haebom
Category
Empty

저자

Marcel Pehlke, Marc Jansen

개요

본 논문은 의사 결정을 지원하기 위한 모듈형, 설명 가능한 LLM-에이전트 파이프라인을 제시합니다. 이는 추론 과정을 감사 가능한 아티팩트로 외부에 노출합니다. 이 시스템은 Vester의 민감도 모델, 정규형 게임, 순차적 게임의 세 가지 프레임워크를 구현하며, 각 단계에서 모듈 교체가 가능합니다. LLM 컴포넌트(기본: GPT-5)는 평형 및 행렬 기반 역할 분류를 위한 결정론적 분석기와 페어링되어 불투명한 출력이 아닌 추적 가능한 중간 결과를 생성합니다. 실제 물류 사례(100회 실행)에서 인간 기준선과의 평균 요인 정렬은 26개 요인에 대해 55.5%, 운송 코어 하위 집합에 대해 62.9%였으며, 역할 일치도는 57%였습니다. 8가지 기준(최대 100점)을 사용하는 LLM 심사관은 재구성된 인간 기준선과 동등한 수준의 점수를 받았습니다. 따라서 구성 가능한 LLM 파이프라인은 투명하고 검사 가능한 단계를 통해 전문가 워크플로우를 모방할 수 있습니다.

시사점, 한계점

시사점:
설명 가능하고 감사 가능한 의사 결정 지원 시스템 구축 가능.
전문가 워크플로우를 모방하는 LLM 파이프라인 개발.
다양한 게임 이론 프레임워크를 LLM 에이전트 파이프라인에 통합.
실제 물류 사례를 통한 시스템 성능 검증.
한계점:
인간 기준선과의 요인 정렬 및 역할 일치도가 100%에 미치지 못함.
특정 사례 (물류)에 대한 적용으로 일반화의 한계 존재.
GPT-5 사용에 따른 모델 의존성 및 추가적인 연구 필요.
8가지 기준의 심사관 평가의 주관성 가능성.
👍