본 논문은 대규모 언어 모델(LLM)에서 암묵적 편향을 연구하는 새로운 방법인 추론 모델 암묵적 연관 검사(RM-IAT)를 제시합니다. 기존 연구들이 주로 모델 출력에 초점을 맞춘 것과 달리, 본 연구는 단계별 추론을 사용하는 추론 모델의 처리 과정에 주목합니다. RM-IAT를 사용하여 연구진은 추론 모델이 연관성이 부합하는 정보를 처리할 때보다 부합하지 않는 정보를 처리할 때 더 많은 토큰을 필요로 한다는 것을 발견했습니다. 이는 AI 시스템이 인간의 암묵적 편향과 유사한 정보 처리 패턴을 가지고 있음을 시사합니다. 본 논문은 실제 응용 분야에서 이러한 암묵적 편향 유사 패턴의 영향을 고려합니다.