본 논문은 대규모 언어 모델(LLM)의 사고 및 의사결정 과정의 투명성을 향상시키는 새로운 방법인 TELLME를 제안합니다. 기존의 Chain-of-thoughts(CoTs) 방법이나 은닉 표현 기반 기법과 달리, LLM 자체의 모니터링 용이성을 개선하는 데 초점을 맞춥니다. TELLME는 LLM의 투명성을 높여 부적절하거나 민감한 행동을 식별하는 데 도움을 주며, 안전 위험 모니터링 및 해독과 같은 신뢰성 과제에서 성능 향상을 보입니다. 또한, 최적 수송 이론을 통해 TELLME가 LLM의 일반화 능력을 향상시키는 이유를 이론적으로 분석합니다.