본 논문은 대규모 언어 모델(LLM)의 안전성 및 정렬 문제를 해결하기 위해 개념 수준의 설명 가능성 방법인 ConceptX를 제안한다. 기존의 토큰 단위의 설명 가능성 방법들이 각 토큰의 생성 과정을 개별적으로 설명하는 한계를 극복하고, 프롬프트 내의 의미적으로 풍부한 토큰(개념)을 식별하여 출력의 의미적 유사성에 기반한 중요도를 할당한다. ConceptX는 모델 종류에 관계없이 사용 가능하며, 토큰 교체를 통한 문맥 유지 및 다양한 설명 목표(예: 성별 편향) 지원이 가능하다. 세 가지 LLM에 대한 실험 결과, ConceptX는 토큰 단위 방법인 TokenSHAP보다 신뢰성과 사람의 판단과의 일치도가 더 높았으며, 감정 변화 및 공격 성공률 감소 측면에서도 기존 방법들을 능가하는 성능을 보였다. 프롬프트 엔지니어링이나 자기 설명 방법과 달리, ConceptX는 투명하고 신뢰할 수 있는 대안으로 LLM의 안전성 및 정렬 개선에 기여한다.