# CAMEL: Confidence-Gated Reflection for Reward Modeling

### 저자

Zirui Zhu, Hailun Xu, Yang Luo, Yong Liu, Kanchan Sarkar, Kun Xu, Yang You

### 💡 개요

본 논문은 대규모 언어 모델(LLM)을 인간 선호도에 맞추는 데 중요한 역할을 하는 보상 모델링 분야에서 CAMEL이라는 새로운 프레임워크를 제안합니다. CAMEL은 모델의 예측 정확도와 연관성이 높은 로그 확률 마진을 활용하여, 낮은 확신도를 가진 샘플에 대해서만 추가적인 추론 과정(반성)을 선택적으로 수행함으로써 효율성을 높였습니다. 이를 통해 파라미터 수를 크게 줄이면서도 기존 최신 모델 대비 뛰어난 성능을 달성했습니다.

### 🔑 시사점 및 한계

- **효율적인 보상 모델링**: CAMEL은 적은 파라미터로도 높은 정확도를 달성하여, 계산 비용에 대한 효율성을 크게 개선했습니다.

- **신뢰도 기반 추론**: 예측의 확신도를 활용하여 불필요한 연산을 줄이고, 중요한 판단에 더 집중하는 새로운 접근 방식을 제시했습니다.

- **성능 및 효율성 동시 향상**: 기존 모델 대비 우수한 성능을 보이면서도 모델 크기를 줄여, 파라미터 효율성 측면에서 새로운 Pareto 최적 전선을 구축했습니다.

---

[PDF 보기](https://arxiv.org/pdf/2602.20670)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
