Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

SAFER: Risk-Constrained Sample-then-Filter in Large Language Models

Created by
  • Haebom

저자

Qingni Wang, Yue Fan, Xin Eric Wang

SAFER: A Two-Stage Risk Control Framework for Trustworthy Open-Ended QA with LLMs

개요

본 논문은 대규모 언어 모델(LLM)이 실제 개방형 질의응답(QA)과 같은 위험 민감 응용 분야에 배포됨에 따라, 그 출력의 신뢰성을 보장하는 것이 중요해짐에 따라 제안된 연구입니다. 기존의 선택적 컨포멀 예측(SCP) 방법은 정확한 답변에 대해 제한된 오포함률을 가진 예측 집합을 구성하여 통계적 보장을 제공하지만, 모든 인스턴스에 대한 허용 가능한 답변을 유한한 샘플링을 통해 얻을 수 있다는 비현실적인 가정을 합니다. 이러한 문제를 해결하기 위해, SAFER (abstention-aware sampling and conformalized filtering)라는 두 단계의 위험 제어 프레임워크를 도입합니다. 첫째, SAFER는 사용자 정의 위험 수준(최대 허용 오포함률)에서 Clopper-Pearson exact method를 사용하여 보류된 검증 집합에 대한 최대 샘플링 캡 내에서 샘플링 예산을 조정합니다. 캡 내에서 위험 수준을 충족할 수 없는 경우, 보류합니다. 그렇지 않으면, 조정된 샘플링 예산이 테스트 시 최소 요구 사항이 됩니다. 둘째, 조정된 예산 하에서 정확한 답변을 얻을 수 있는 검증 인스턴스를 사용하여 컨포멀 위험 제어 방법을 적용하여 통계적으로 유효한 불확실성 임계값을 결정합니다. 이는 각 테스트 데이터 포인트에 대한 후보 집합에서 신뢰할 수 없는 방해 요소를 필터링합니다. 또한, SAFER는 추가 위험 수준을 도입하여 임계값 계산을 안내함으로써 정확한 답변이 제외될 위험을 제어합니다. 마지막으로, SAFER가 다양한 작업별 허용 기준 및 검증-테스트 분할 비율과 호환되어 견고성과 높은 데이터 효율성을 강조합니다.

시사점, 한계점

개방형 질의응답(QA)에서 LLM의 신뢰성을 향상시키기 위한 새로운 2단계 위험 제어 프레임워크(SAFER) 제안
유한한 샘플링 가정의 한계를 극복하고, 보류 및 컨포멀 필터링을 통해 통계적 보장을 제공
사용자 정의 위험 수준을 통한 샘플링 예산 조정 및 불확실성 임계값 결정
다양한 작업별 허용 기준 및 검증-테스트 분할 비율과의 호환성
개방형 질의응답과 같은 복잡한 문제에 대한 SAFER의 성능 평가 및 결과 제시
논문의 한계점은 구체적으로 언급되지 않음 (요약본에서 확인 불가)
👍