Sign In

Calibrating Bayesian Learning via Regularization, Confidence Minimization, and Selective Inference

Created by
  • Haebom
Category
Empty

저자

Jiayi Huang, Sangwoo Park, Osvaldo Simeone

개요

인공지능 모델의 신뢰성을 정량화하는 어려움으로 인해 엔지니어링과 같은 분야에서 AI 모델의 활용이 제한된다. 이 논문은 분포 내(ID) 입력에 대한 정확도를 정확하게 보고하고 분포 외(OOD) 입력을 감지할 수 있는 잘 보정된 AI 모델을 제안한다. 계산 제약과 모델 명세 오류를 해결하기 위해, 가변 추론(VI) 기반 베이즈 학습을 확장하여 보정 정규화, OOD 감지를 위한 신뢰도 최소화, 선택적 보정을 통합한다. 이 방식은 보정 정규화 베이즈 학습(CBNN)을 도입한 후, OOD 신뢰도 최소화(OCM)를 통합하여 CBNN-OCM을 생성하고, 마지막으로 선택적 보정을 통합하여 선택적 CBNN-OCM(SCBNN-OCM)을 생성하는 방식으로 구성된다. 선택적 보정은 보정 성능이 불충분할 것으로 예상되는 입력을 거부한다. 수치 결과는 빈도론적 및 베이즈 학습 방법의 ID 정확도, ID 보정 및 OOD 보정 간의 절충안을 보여준다. SCBNN-OCM은 충분히 많은 입력을 거부하는 대가로 기존 최첨단 접근 방식보다 최고의 ID 및 OOD 성능을 달성한다.

시사점, 한계점

시사점:
ID 정확도, ID 보정 및 OOD 보정 사이의 절충안을 제시하는 새로운 접근 방식 제안.
SCBNN-OCM은 기존 방법보다 우수한 ID 및 OOD 성능을 달성.
베이즈 학습 기반의 AI 모델 신뢰성 향상 기여.
한계점:
충분히 많은 입력을 거부하는 방식이 적용되어 일부 데이터 손실 발생 가능성.
실제 적용 시 계산 복잡성 및 모델 튜닝의 어려움.
선택적 보정으로 인해 입력 데이터의 부분적인 손실 발생 가능성.
👍