Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Reasoning Models Better Express Their Confidence

Created by
  • Haebom

저자

Dongkeun Yoon, Seungone Kim, Sohee Yang, Sunkyoung Kim, Soyeon Kim, Yongil Kim, Eunbi Choi, Yireun Kim, Minjoon Seo

개요

본 논문은 대규모 언어 모델(LLM)의 신뢰도 표현 정확성에 대한 연구를 다룹니다. 연구진은 사고 연쇄(CoT) 추론을 활용하는 추론 모델이 문제 해결 능력뿐만 아니라 신뢰도 표현의 정확성에서도 우수한 성능을 보임을 밝혔습니다. 6개의 추론 모델과 6개의 데이터셋을 사용한 실험 결과, 추론 모델은 비추론 모델보다 36개 설정 중 33개에서 더 나은 신뢰도 보정 성능을 달성했습니다. 이는 추론 모델의 '느린 사고' 행동(대안 탐색, 되짚어보기 등)이 CoT 전반에 걸쳐 신뢰도를 동적으로 조정하여 정확성을 높이기 때문으로 분석됩니다. 추론 모델은 CoT가 진행될수록 보정 성능이 향상되는 반면, 비추론 모델에서는 이러한 경향이 나타나지 않았습니다. 또한, '느린 사고' 행동을 제거하면 보정 성능이 크게 저하되었으며, 비추론 모델도 맥락 학습을 통해 '느린 사고'를 유도하면 성능 향상을 보였습니다.

시사점, 한계점

시사점:
사고 연쇄(CoT) 추론을 활용하는 LLM은 문제 해결 능력 향상뿐 아니라 신뢰도 표현의 정확성도 크게 향상시킬 수 있다.
'느린 사고' 행동(대안 탐색, 되짚어보기 등)이 LLM의 신뢰도 보정 성능 향상에 중요한 역할을 한다.
맥락 학습을 통해 비추론 모델에서도 '느린 사고' 행동을 유도하여 신뢰도 보정 성능을 향상시킬 수 있다.
한계점:
본 연구는 특정 유형의 LLM과 데이터셋에 국한되어 일반화 가능성에 대한 추가 연구가 필요하다.
'느린 사고' 행동의 정의 및 측정에 대한 명확한 기준이 필요하다.
실제 응용 환경에서의 '느린 사고' 행동 유도 및 신뢰도 보정 성능 평가에 대한 추가 연구가 필요하다.
👍