본 논문은 사전 훈련된 언어 모델(PLM)의 피드포워드 뉴런 활성화와 출력 간의 전역적 선형 관계를 밝히고, 이 관계의 기울기를 뉴런 경험적 기울기(NEG)라고 명명합니다. NEG는 뉴런 활성화 변화가 예측에 미치는 영향을 포착하며, NeurGrad라는 효율적인 계산 방법을 제안하여 대규모 PLM 뉴런 분석을 가능하게 합니다. 다양한 프롬프트에 대한 언어 능력을 효과적으로 포착하며, MCEval8k 벤치마크에서 모델 지식을 나타내는 능력을 보여줍니다. NEG 기반 기술 표현의 효율성, 견고성, 유연성, 상호 의존성 등의 주요 특징을 강조하며, 코드와 데이터를 공개합니다.