본 논문은 대규모 언어 모델(LLM)의 성능 평가에 사용되는 벤치마크 데이터셋 유출 문제를 해결하기 위한 새로운 방법을 제안합니다. 기존 벤치마크의 다지선다형식 질문에서 선택지 내용을 바꾸어도 질문 자체의 의미는 변하지 않는다는 점에 착안하여, 선택지 내용을 섞은 데이터셋을 생성하고, 모델의 로그 확률 분포를 비교하여 데이터 유출 여부를 판별합니다. 로그 확률 분포에 최댓값이 존재하고 다른 값들과 차이가 클 경우 데이터 유출을 의미하며, 모델의 학습 데이터나 가중치에 접근하지 않고도 데이터 유출을 효과적으로 검출할 수 있습니다. 실험을 통해 두 개의 LLM과 벤치마크 설계를 기반으로 방법의 효과를 입증하고, 35개의 오픈소스 LLM을 대상으로 네 개의 벤치마크 데이터셋에서 데이터 유출 정도를 평가하여 순위를 매겼으며, Qwen 계열 LLM의 데이터 유출 정도가 가장 높은 것으로 나타났습니다.