본 논문은 대규모 언어 모델(LLM)이 복잡한 추론 문제에서 보여주는 성능을 향상시키기 위해, 특히 다양한 분야의 지식이 필요한 문제를 해결하기 위한 새로운 프레임워크를 제안한다. 기존의 task-level 접근 방식의 한계를 극복하고자, subject-level의 세분화된 분석과 멀티 에이전트 협업 전략을 도입한다. 입력 쿼리에 대해 Graph Neural Network를 사용하여 관련 주제를 식별하고, Subject-based Directed Acyclic Graph(S-DAG)를 생성한다. 각 LLM 모델에 주제별 전문성 점수를 할당하고, S-DAG에 따라 최고의 모델을 선택하여 협업을 수행한다. MMLU-Pro, GPQA, MedMCQA 벤치마크의 다중 주제 하위 집합을 사용하여 실험한 결과, 기존 방식보다 정확도와 효율성 측면에서 유의미한 성능 향상을 보였다.