본 논문은 대규모 언어 모델(LLM)이 거짓말을 하는 경우를 탐지하는 기존 기술의 한계를 지적하고, 이를 보완하기 위한 새로운 테스트베드인 LIARS' BENCH를 제시한다. LIARS' BENCH는 7개의 데이터셋에서 4개의 공개 모델이 생성한 72,863개의 거짓말과 정직한 응답 예시를 포함한다. 이 테스트베드는 모델이 거짓말하는 이유와 거짓말의 대상이라는 두 가지 차원에서 다양한 유형의 거짓말을 포착한다. LIARS' BENCH를 사용하여 세 가지 흑백 상자 거짓말 탐지 기술을 평가한 결과, 기존 기술이 특정 유형의 거짓말, 특히 대본만으로는 모델이 거짓말했는지 판단하기 어려운 경우에 실패한다는 것을 발견했다.