본 논문은 대규모 언어 모델(LLM)을 임상 의사 결정 지원에 활용하는 과정에서, 실제 의료 환경의 복잡한 추론 과정에 모델을 맞추는 것이 어려운 과제임을 지적합니다. 8,000개 이상의 불임 치료 기록을 사용하여, Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO), Group Relative Policy Optimization (GRPO), In-Context Learning (ICL)의 4가지 정렬 전략을 자동 벤치마크와 블라인드 의사 참여 평가를 결합한 이중 계층 프레임워크를 통해 체계적으로 평가했습니다. GRPO가 여러 결정 계층에서 가장 높은 알고리즘 정확도를 달성했지만, 임상의들은 더 명확한 추론 과정과 높은 치료 가능성을 이유로 SFT 모델을 선호했습니다. 블라인드 쌍 비교에서 SFT는 가장 높은 승률을 보였으며, GRPO 및 의사들의 원래 결정보다 우수한 결과를 보였습니다. 이러한 결과는 알고리즘 개선이 반드시 높은 임상적 신뢰로 이어지지 않으며, 인간 중심적 선호와 일치하지 않을 수 있음을 보여줍니다.