본 논문은 대규모 언어 모델(LLM)의 정치적, 경제적 이데올로기 편향 문제를 해결하기 위한 새로운 방법론을 제시합니다. 기존의 출력 결과 수정을 넘어, Mistral과 DeepSeek과 같은 디코더 기반 LLM의 내부 표현 분석을 통해 편향을 탐지하고 완화하는 프레임워크를 제시합니다. 정치 콤파스 테스트(PCT)를 기반으로 대조적인 쌍을 이용하여 각 층의 활성화 값을 추출하고 비교하여, 다양한 이데올로기적 축에 따른 차이를 분석합니다. 결과적으로 디코더 LLM이 여러 층에 걸쳐 체계적으로 편향된 표현을 갖고 있음을 밝히고, 이를 활용하여 스티어링 벡터 기반의 효과적인 편향 완화 방법을 제시합니다.