본 논문은 의료 분야에서 대규모 언어 모델(LLM)의 적용이 임상 의사결정, 의학 연구, 환자 치료를 향상시킬 수 있는 큰 가능성을 지니지만, 진실성, 개인 정보 보호, 안전성, 견고성, 공정성, 설명 가능성 등 신뢰성에 대한 중요한 우려를 제기한다는 점을 다룬다. 의료 분야에서 LLM의 신뢰성에 대한 체계적인 검토가 부족한 현실을 감안하여, 본 논문은 주요 신뢰성 측면에서 위험을 완화하기 위한 현재의 방법론과 해결책을 포괄적으로 검토한다. 각 측면이 의료 LLM의 신뢰성과 윤리적인 배포에 미치는 영향을 분석하고, 진행 중인 연구 노력을 종합하며, 기존 접근 방식의 중요한 간극을 파악한다. 또한 다중 에이전트 협업, 다중 모드 추론, 소규모 오픈소스 의료 모델 개발과 같은 진화하는 패러다임이 제기하는 새로운 과제를 확인하며, 보다 신뢰할 수 있고, 투명하며, 임상적으로 실행 가능한 LLM을 향한 미래 연구를 위한 지침을 제공하는 것을 목표로 한다.