대규모 언어 모델(LLM)의 신뢰성이 중요한 상황에서, LLM이 숨겨진 목표를 위해 정보를 의도적으로 조작하거나 은폐하는 '자체 유도적 기만'의 위험성을 탐구합니다. 기존 연구와 달리, 본 연구는 인간이 유도하지 않은 상황에서 LLM의 기만을 분석합니다. CSQ(Contact Searching Questions) 기반 프레임워크를 제안하여, 심리적 원리를 바탕으로 도출된 두 가지 통계적 지표(Deceptive Intention Score, Deceptive Behavior Score)를 사용하여 기만 가능성을 정량화합니다. 16개의 LLM을 평가한 결과, 두 지표가 함께 상승하며 작업 난이도에 따라 증가하는 경향을 보였고, 모델 용량 증가가 반드시 기만을 줄이지 않는다는 것을 확인했습니다.