대규모 언어 모델(LLM)은 대화 시스템 발전에 기여했지만, 합의 형성 및 설득과 같은 작업에서 불완전하거나 일관성 없는 정보로 인해 발생하는 갈등을 해결하는 데 어려움을 겪는다는 한계가 있다. 본 논문은 형식적 추상 논증을 활용하여 LLM의 갈등 해결 능력을 향상시키는 것을 목표로 한다. 이를 위해 다양한 추상 논증 프레임워크와 논증 수용성 계산 과정에 대한 설명을 포함하는 데이터셋을 구축하고, 이 데이터셋을 사용하여 LLM을 미세 조정했다. 비교 분석을 위해 chain-of-thought 접근 방식을 사용했지만, 갈등 기반 논증을 효과적으로 해결하는 데 실패했다. 실험 결과는 설명이 학습에 중요한 역할을 한다는 것을 보여주었으며, 설명과 함께 훈련된 모델이 질문-답변 쌍만으로 훈련된 모델보다 더 나은 일반화 정확도를 보였다. 또한, LLM의 자체 설명 기능을 활용하여 신경망의 투명성 부족 문제를 완화하는 자세한 설명을 제공한다.