[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Large Language Models Often Know When They Are Being Evaluated

Created by
  • Haebom

저자

Joe Needham, Giles Edkins, Govind Pimpale, Henning Bartsch, Marius Hobbhahn

개요

본 논문은 최첨단 언어 모델이 평가 중임을 감지하는 능력, 즉 '평가 인식(evaluation awareness)'을 조사합니다. 61개의 서로 다른 데이터셋에서 수집한 1,000개의 프롬프트와 전사본으로 구성된 다양한 벤치마크를 사용하여, 모델이 평가 전사본과 실제 배포 전사본을 정확하게 분류할 수 있는지 확인했습니다. 실험 결과, 최첨단 모델들은 무작위보다 높은 평가 인식 능력을 보였으며 (Gemini-2.5-Pro는 AUC 0.83 달성), 인간 기준(AUC 0.92)에는 미치지 못했습니다. 모델과 인간 모두 대화형 설정보다 에이전트 설정에서 평가를 더 잘 식별했고, 모델은 평가의 목적을 식별하는 능력에서도 우수한 성능을 보였습니다. 결론적으로, 최첨단 모델은 아직 인간 수준에는 미치지 못하지만 상당한 수준의 평가 인식 능력을 보유하고 있으며, 향후 모델에서 이 능력을 추적할 것을 권장합니다.

시사점, 한계점

시사점: 최첨단 언어 모델이 평가 환경을 인식하고 있다는 사실을 밝혀냄으로써, 모델 평가의 신뢰성에 대한 의문을 제기하고, 향후 모델 개발 및 평가 방식에 대한 재고를 촉구합니다. 모델의 평가 인식 능력 추적의 중요성을 강조합니다. 모델이 평가의 목적을 파악하는 능력 또한 확인되었습니다.
한계점: 현재 모델의 평가 인식 능력은 인간 수준에는 미치지 못합니다. 평가 인식 능력의 향상이 모델의 신뢰성 및 안전성에 미칠 영향에 대한 추가 연구가 필요합니다. 사용된 벤치마크의 일반화 가능성에 대한 추가 검토가 필요합니다.
👍