본 논문은 학술 논문의 참신성 평가를 위한 최적의 섹션 조합을 탐색합니다. 기존의 참신성 평가 방법들이 단어나 개체 조합에만 초점을 맞춰 한계를 보이는 점을 지적하며, 서론, 방법론, 결과 등 다양한 섹션에 걸쳐 분포된 참신성 관련 내용을 고려해야 함을 강조합니다. 자연어 처리 기법을 이용하여 학술 논문을 IMRaD(서론, 방법, 결과, 논의) 구조로 분류하고, 이들 섹션의 다양한 조합을 사전 훈련된 언어 모델(PLM)과 대규모 언어 모델(LLM)에 입력으로 사용하여 전문가 평가자의 참신성 점수를 기반으로 예측 성능을 평가합니다. 실험 결과, 서론, 결과, 논의 섹션을 함께 사용하는 것이 참신성 평가에 가장 적합하며, 전체 텍스트를 사용하는 것은 효과적이지 않음을 보였습니다. PLM과 LLM 결과 모두 서론과 결과 섹션이 참신성 점수 예측에 가장 중요한 부분임을 시사합니다. 관련 코드와 데이터셋은 GitHub에서 공개됩니다.