본 논문은 대규모 언어 모델(LLM)의 암묵적 편향을 심리측정학적 관점에서 평가하는 방법을 제시한다. LLM이 윤리적 문제를 일으키는 암묵적 편향을 가질 수 있다는 우려를 해결하기 위해, 변장(Disguise), 기만(Deception), 교육(Teaching) 세 가지 공격 방식을 제안하고 이를 바탕으로 두 개의 벤치마크(편향 유형 4가지, 2.7K 인스턴스; 편향 유형 9가지, 12.7K 인스턴스)를 구축했다. 다양한 상용 및 오픈소스 LLM에 대한 평가 결과, 제안된 방법이 기존 방법보다 LLM의 암묵적 편향을 더 효과적으로 유도함을 보였다. 제공된 방법론과 벤치마크는 LLM의 윤리적 위험 평가에 효과적이며, 개발 과정의 책임성 향상에 기여할 수 있다. 코드와 데이터, 벤치마크는 공개적으로 제공된다.