본 논문은 대규모 언어 모델(LLMs)의 암묵적 편향에 대한 기존 연구를 종합적으로 검토한다. 개발자들이 설정한 안전장치에도 불구하고, LLMs는 암묵적 편향을 가질 수 있으며, 이는 인간의 암묵적 편향과 유사하다. 본 논문은 심리학적 개념, 이론 및 방법론을 LLMs에 적용하여 암묵적 편향 탐지 방법을 단어 연상, 과제 지향적 텍스트 생성, 의사결정 등 세 가지 주요 접근 방식으로 분류한다. 평가 지표는 단일 값 기반 및 비교 값 기반 지표로 나누고, 데이터셋은 마스크 토큰이 있는 문장과 완전한 문장으로 분류한다. LLMs의 암묵적 편향 완화 연구는 아직 제한적이지만, 기존 노력을 요약하고 미래 과제에 대한 통찰력을 제공한다. 연구자들을 위한 명확한 가이드 역할을 하고 이 분야의 탐구를 발전시키는 데 기여하고자 한다.