Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Prudential Reliability of Large Language Models in Reinsurance: Governance, Assurance, and Capital Efficiency

Created by
  • Haebom
Category
Empty

저자

Stella C. Dong

개요

본 논문은 재보험 분야에서 대규모 언어 모델 (LLM)의 신뢰성을 평가하기 위한 건전성 프레임워크를 개발한다. 거버넌스, 데이터 계보, 보증, 복원력 및 규제 준수의 5가지 기둥 구조를 통해 Solvency II, SR 11-7, EIOPA (2025), NAIC (2023) 및 IAIS (2024)의 감독 기대치를 측정 가능한 수명 주기 관리로 변환한다. Reinsurance AI Reliability and Assurance Benchmark (RAIRAB)를 통해 구현되었으며, 거버넌스 내장 LLM이 근거, 투명성 및 책임에 대한 건전성 기준을 충족하는지 평가한다. 6가지 작업군에서 검색 기반 구성은 더 높은 근거 정확도(0.90)를 달성했으며, 환각 및 해석적 드리프트를 약 40% 감소시켰고, 투명성을 거의 두 배로 높였다. 이러한 메커니즘은 위험 이전 및 자본 할당에서 정보 마찰을 줄여, 거버넌스가 명확하고, 데이터 추적이 가능하며, 보증이 검증 가능한 경우 기존 건전성 원칙이 이미 신뢰할 수 있는 AI를 수용할 수 있음을 보여준다.

시사점, 한계점

시사점:
재보험 분야에서 LLM의 신뢰성을 평가하는 건전성 프레임워크 구축.
Solvency II, SR 11-7 등 규제 요구사항을 준수하는 프레임워크 제시.
RAIRAB을 통한 LLM 성능 평가 방법론 제시.
검색 기반 LLM이 높은 근거 정확도, 환각 감소, 투명성 향상에 기여.
건전한 거버넌스를 통해 기존 규제 틀 내에서 LLM 활용 가능성 제시.
한계점:
구체적인 구현 세부 사항 및 RAIRAB의 상세 내용 부족 가능성.
특정 LLM 아키텍처 및 작업군에 국한된 결과일 수 있음.
실제 재보험 환경에서의 광범위한 검증 부족.
규제 준수 외 LLM의 다른 측면 (예: 효율성, 비용)에 대한 논의 부족.
👍