대규모 언어 모델(LLM)이 헬스케어 분야에서 개인화된 답변을 제공하며 경쟁력을 갖추고 있지만, 사회적 취약 계층에 대한 편향된 의료 정보 제공 가능성을 간과하고 있음을 지적한다. 성별, 연령대, 민족성을 달리하는 환자 프로필을 기반으로 의료 질문에 대한 LLM의 답변을 분석하여, 특정 사회 집단(특히 원주민 및 간성 환자)에게 덜 읽기 쉽고 더 복잡한 답변이 생성됨을 발견했다. 이러한 편향이 교차적인 그룹에서 더욱 심화됨을 확인하고, AI 모델의 의료 정보 제공 시 AI 리터러시의 중요성과 편향 완화를 위한 노력을 강조한다.