본 논문은 대규모 언어 모델(LLM)의 활성화 공간에서 참과 거짓 진술이 선형적으로 분리되는 보편적인 진실 방향이 존재한다는 최근 연구들을 바탕으로, 이러한 진실 방향이 다양한 대화 형식 간에 어떻게 일반화되는지 조사합니다. 짧은 대화에서 거짓말로 끝나는 경우에는 좋은 일반화 성능을 보이지만, 거짓말이 입력 프롬프트의 앞부분에 나타나는 더 긴 형식의 대화에서는 일반화 성능이 저하됨을 발견했습니다. 본 연구는 각 대화의 끝에 고정된 키 구절을 추가함으로써 이러한 일반화 문제를 크게 개선하는 해결책을 제시합니다. 연구 결과는 새로운 환경에 일반화되는 신뢰할 수 있는 LLM 거짓말 탐지기 개발의 어려움을 강조합니다.