대규모 언어 모델(LLM)의 사회적 편향성 문제를 해결하기 위해, LLM 내 암묵적 지식 표현을 평가하는 새로운 단어 연상 네트워크 방법론을 제시한다. 이 방법론은 LLM이 생성한 단어 연상 네트워크 내에서 의미적 점화를 시뮬레이션하여 암묵적 편향을 평가한다. 프롬프트 기반 접근 방식을 통해 LLM에 내재된 관계적 구조를 활용하고, 양적 및 질적 편향 평가를 제공한다. 다양한 LLM과 인간 간의 직접적인 비교를 가능하게 하여 인간 인지와의 정렬에 대한 새로운 통찰력을 제공한다. 성별, 종교, 민족, 성적 지향, 정치 성향 관련 사회적 편향을 조사하고, LLM과 인간의 편향 간의 유사점과 차이점을 밝힌다. 이 방법론은 여러 LLM과 인간 간의 편향을 평가하고 비교하기 위한 체계적이고 확장 가능하며 일반화 가능한 프레임워크를 제공하여 투명하고 사회적으로 책임감 있는 언어 기술 발전에 기여한다.