Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Fine-tuning of lightweight large language models for sentiment classification on heterogeneous financial textual data

Created by
  • Haebom
Category
Empty

저자

Alvaro Paredes Amorin, Andre Python, Christoph Weisser

개요

본 논문은 대규모 언어 모델(LLM)이 금융 시장 분석에서 중요한 역할을 하지만, 접근성이 제한적인 문제점을 해결하고자, 가벼운 오픈소스 LLM의 성능을 평가한다. 특히, 제한된 컴퓨팅 자원으로 작동하도록 설계된 소형 모델들이 다양한 크기, 소스, 형식, 언어의 금융 데이터셋에서 감성 이해를 얼마나 잘 일반화하는지 연구했다. FinBERT와 DeepSeek-LLM 7B, Llama3 8B Instruct, Qwen3 8B를 5개의 공개 데이터셋에서 비교한 결과, Qwen3 8B와 Llama3 8B가 특히 뛰어난 성능을 보였으며, 훈련 데이터의 5%만 사용해도 경쟁력 있는 결과를 얻을 수 있음을 확인했다. 이는 오픈소스 LLM이 비용 효율적인 대안이 될 수 있음을 시사한다.

시사점, 한계점

시사점:
가벼운 오픈소스 LLM이 금융 텍스트 데이터 분석에 효과적으로 사용될 수 있음을 입증.
제한된 훈련 데이터셋으로도 경쟁력 있는 성능을 달성하여, 비용 효율성을 높임.
Qwen3 8B와 Llama3 8B가 다양한 금융 데이터셋에서 우수한 성능을 보임.
한계점:
특정 LLM과 데이터셋에 한정된 실험 결과로, 일반화에 주의 필요.
FinBERT와의 비교 외, 다른 벤치마크 모델과의 비교가 부족함.
개선된 성능을 위한 세부적인 튜닝 방법론에 대한 깊이 있는 분석 부재.
👍