Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Majority Rules: LLM Ensemble is a Winning Approach for Content Categorization

Created by
  • Haebom
Category
Empty

저자

Ariel Kamen, Yakov Kamen

개요

본 연구는 대규모 언어 모델(LLM)을 활용한 비정형 텍스트 분류를 위한 앙상블 프레임워크를 소개한다. 여러 모델을 통합하여 앙상블 대규모 언어 모델(eLLM) 프레임워크는 개별 시스템의 일관성 부족, 환각, 범주 인플레이션 및 오분류와 같은 일반적인 약점을 해결한다. eLLM 접근 방식은 가장 강력한 단일 모델보다 F1 점수에서 최대 65%의 상당한 성능 향상을 보인다. 집단 의사 결정에 대한 수학적 모델을 통해 앙상블 프로세스를 공식화하고 원칙적인 집계 기준을 설정한다. 대화형 광고 협회(IAB) 계층적 분류법을 사용하여, 인간 주석 처리된 8,660개의 샘플 코퍼스에 대해 동일한 제로샷 조건에서 10개의 최첨단 LLM을 평가한다. 결과는 개별 모델이 의미론적으로 풍부한 텍스트를 희소 범주 표현으로 압축하기 때문에 성능이 정체되는 반면, eLLM은 견고성과 정확도를 모두 향상시킨다는 것을 보여준다. 다양한 모델 컨소시엄을 통해 eLLM은 인간 전문가 수준에 가까운 성능을 달성하여 인간 전문가 라벨링에 대한 의존성을 크게 줄일 수 있는, 분류법 기반 분류를 위한 확장 가능하고 신뢰할 수 있는 솔루션을 제공한다.

시사점, 한계점

시사점:
개별 모델의 약점을 보완하는 앙상블 기법을 통해 텍스트 분류 성능 향상 (최대 65% F1-score 향상).
분류법 기반 분류에서 인간 전문가 수준의 성능 달성.
인간 전문가 라벨링에 대한 의존성 감소.
확장 가능하고 신뢰할 수 있는 솔루션 제공.
한계점:
개별 모델의 성능 한계 (의미론적 압축으로 인한 성능 정체).
앙상블 구축에 필요한 여러 모델의 필요성 및 계산 비용.
👍