대규모 언어 모델(LLM)은 광범위한 웹 데이터를 기반으로 훈련되어 일반적인 추론 능력은 뛰어나지만, 법률과 같은 전문 분야에서는 도메인 특정 사전 훈련 부족으로 어려움을 겪습니다. 이 논문에서는 LLM이 법률 과제를 수행할 때의 행동을 분석하기 위해 세 가지 실험을 진행했습니다: (i) 수사적 역할을 기반으로 문서를 재구성하여 구조화된 정보가 장문 처리 및 모델 결정에 미치는 영향 평가, (ii) 수사적 역할 정의를 통한 법률 용어 숙지, (iii) 수사적 역할을 기반으로 법원의 단계별 추론을 모방하여 모델 추론 능력 향상. 인도 법원 판결 예측 데이터셋 3개에서 제로샷 설정을 통해 실험한 결과, 데이터 구성 또는 주요 법률 용어 설명이 모델 성능을 크게 향상시켰으며, F1 점수에서 최소 1.5%에서 최대 4.36%의 향상을 보였습니다.