Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LCES: Zero-shot Automated Essay Scoring via Pairwise Comparisons Using Large Language Models

Created by
  • Haebom

저자

Takumi Shibata, Yuichi Miyamura

개요

본 논문은 대규모 언어 모델(LLM)을 이용한 제로샷 자동 에세이 채점(AES)의 한계점을 해결하기 위해, 에세이를 쌍으로 비교하는 LLM 기반 비교 에세이 채점(LCES) 방법을 제안한다. 기존의 제로샷 접근 방식이 LLM을 사용하여 직접 절대 점수를 생성하는 것과 달리, LCES는 두 에세이 중 어느 것이 더 나은지 LLM이 판단하게 하고, 이러한 비교 결과를 연속적인 점수로 변환한다. 비교 횟수가 에세이 수의 제곱에 비례하여 증가하는 문제를 해결하기 위해 RankNet을 사용하여 효율성을 높였다. 실험 결과, LCES는 기존 제로샷 방법보다 정확도가 높으면서도 계산 효율성을 유지하는 것으로 나타났으며, 다양한 LLM 백본에서도 견고한 성능을 보였다.

시사점, 한계점

시사점:
LLM을 이용한 제로샷 AES에서 기존의 절대 점수 생성 방식의 한계(모델 편향, 불일치)를 극복할 수 있는 새로운 방법 제시.
RankNet 활용을 통해 많은 에세이 비교에도 효율적인 점수 변환 가능.
다양한 LLM 백본에서 견고한 성능으로 실제 적용 가능성 증명.
기존 제로샷 AES 방법보다 높은 정확도 달성.
한계점:
RankNet을 사용한 점수 변환 과정에 대한 자세한 설명 부족.
다양한 LLM 백본에 대한 실험 결과의 세부 내용 부족.
실제 교육 환경에서의 적용 가능성에 대한 추가적인 검증 필요.
LLM의 편향성 문제가 완전히 해결되었는지에 대한 추가적인 분석 필요.
👍