본 논문은 의료 분야에 빠르게 통합되고 있는 대규모 언어 모델(LLM)의 편향성 문제를 체계적으로 검토한 연구입니다. PubMed, OVID, EMBASE 데이터베이스를 2025년까지 검색하여 LLM의 편향성이 임상 과제에 미치는 영향을 평가한 38편의 연구를 분석했습니다. 분석 결과, 다양한 LLM과 임상 적용에서 광범위한 편향성이 존재하는 것으로 나타났습니다. 편향의 원인으로는 편향된 훈련 데이터에서 기인하는 데이터 관련 편향과 모델 훈련 과정에서 발생하는 모델 관련 편향이 모두 중요한 요인으로 지적되었습니다. 편향은 자원 배분의 차별(예: 차별적인 치료 권고), 표상적 피해(예: 고정관념적 연관성, 편향된 이미지 생성), 성능 차이(예: 가변적인 출력 품질) 등의 형태로 나타났으며, 인종/민족, 성별, 연령, 장애, 언어 등 다양한 속성에 영향을 미쳤습니다. 결론적으로, 임상 LLM의 편향성은 광범위하고 체계적인 문제이며, 특히 소외된 환자 집단에게 잘못된 진단과 부적절한 치료로 이어질 가능성이 있습니다. 따라서 모델의 엄격한 평가, 효과적인 완화 전략의 개발 및 구현, 그리고 실제 임상 환경에서의 지속적인 모니터링이 필수적입니다.