본 논문은 대규모 언어 모델(LLM)의 자체 설명 생성 능력, 특히 자체 생성 반례 설명(SCEs) 생성 능력을 연구합니다. 기존의 post-hoc 설명 방법과 달리, LLM이 스스로 출력에 대한 설명을 생성하는 자체 설명 방식에 초점을 맞추고 있습니다. 다양한 LLM 계열, 모델 크기, 온도 설정 및 데이터셋에 대한 분석을 통해 LLM이 SCE를 생성하는 데 어려움을 겪는 경우가 있으며, 생성하더라도 예측 결과와 반례 추론이 일치하지 않는 경우가 빈번함을 보여줍니다.