본 논문은 AI 지원 의사결정에서 인간이 AI의 제안을 수동적으로 검토하고 전적으로 수용 또는 거부하는 기존 방식의 문제점을 지적한다. 이러한 방식에서는 인간의 분석적 사고가 부족하고, 의견 충돌 시 AI와의 세부적인 의견 조율이 어렵다는 점을 밝히고 있다. 이를 해결하기 위해, 인간과 AI 간의 차원별 의견 수렴, 숙의적 논의, 의사결정 업데이트를 포함하는 새로운 틀인 '인간-AI 숙의(Human-AI Deliberation)' 프레임워크를 제안한다. 숙의 능력을 갖춘 AI인 '숙의적 AI(Deliberative AI)'는 대규모 언어 모델(LLM)을 활용하여 인간과 도메인 특정 모델 간의 유연한 대화 상호작용과 정확한 정보 제공을 가능하게 한다. 대학원 입학 심사 과제에 대한 탐색적 평가 결과, 숙의적 AI는 기존 설명 가능한 AI(XAI) 보조 시스템보다 인간의 적절한 의존도와 과제 수행 능력을 향상시키는 것으로 나타났다. 참가자 행동, 인식, 사용자 경험, 개방형 피드백에 대한 혼합방법 분석을 통해 향후 AI 지원 의사결정 도구 설계에 대한 시사점을 도출한다.