본 논문은 모델의 행동을 설명하기 위해 모델을 역설계하는 기계적 해석 가능성 연구에 초점을 맞추고 있다. 기존 연구들이 특정 행동의 정적 메커니즘에 집중한 것과 달리, 본 논문은 모델 내부의 학습 역동성을 탐구한다. 이를 위해, 학습 메커니즘을 분석하는 해석 가능한 미세 조정 방법인 'circuit-tuning'을 제안한다. 노드 수준의 고유 차원 개념을 도입하여 모델의 계산 그래프에서 학습 과정을 설명하고, 두 단계 알고리즘인 circuit-tuning을 통해 특정 작업에 대한 최소 부분 그래프를 반복적으로 구축하고 주요 매개변수를 휴리스틱하게 업데이트한다. 실험 결과는 노드 수준에서 고유 차원의 존재를 확인하고, 투명하고 해석 가능한 미세 조정을 위한 본 방법의 효과를 보여준다. 미세 조정 전, 중, 후의 회로를 시각화 및 분석하여 신경망의 자기 조직화 메커니즘에 대한 새로운 통찰력을 제공한다.